iVRi

https://peissoft.com/2025/12/felicitacion/

Feliz navidad
iVRi investigación e innovación en realidad virtual inclusiva

Innovación en

Realidad Virtual

Inclusiva

innovación e investigación en realidad virtual inclusiva

Universidad de Burgos (Pedro SANCHEZ-ORTEGA + vrirv

#iVRi #VirtualRealityinlusive #RealidadVirtualinclusiva #investigaciónRealidadVirtualinclusiva #innovaciónRealidadVirtualinclusiva #i2VRi #iiVRi

https://youtu.be/D0Gw-E9EfHw

Pasos ML

3 pasos —

“Recogida de Datos en crudo”,

“Exploración y Limpieza de Datos” y

“Transformación y Feature Engineering”

— logos visibles, se distinguen con bastante claridad Hadoop, MySQL, un icono etiquetado como CRM, Twitter/X, Python, R y Talend; además hay un logo intermedio que no se aprecia con suficiente nitidez en la captura.

Recogida de datos

En este primer paso aparecen herramientas orientadas a capturar datos desde fuentes muy distintas, como sistemas masivos, bases de datos, aplicaciones de negocio y redes sociales.

  • Hadoop: resulta interesante cuando hay mucho volumen de datos, porque permite almacenar y procesar grandes conjuntos de información de forma distribuida.
  • MySQL: es atractiva porque organiza bien los datos estructurados, permite consultas SQL y suele estar presente en muchísimos sistemas operacionales.
  • CRM: aporta valor porque concentra datos de clientes, ventas, interacciones y actividad comercial, algo muy útil para análisis de negocio.
  • Twitter/X: hace interesante esta fase porque introduce datos externos, en tiempo real y con fuerte componente social, como opiniones, tendencias o menciones.

Exploración y limpieza

En el segundo bloque se aprecia claramente Python, que encaja muy bien con tareas de inspección, depuración y preparación inicial del dato.

Lo que hace interesante a Python en esta fase es su flexibilidad: permite leer múltiples formatos, detectar nulos, corregir errores, filtrar registros atípicos y automatizar limpieza repetitiva en un mismo entorno. El otro logo de este bloque no se distingue con precisión suficiente en la imagen, así que lo más prudente es tratarlo como una herramienta complementaria de preparación o análisis visual de datos.

Transformación y feature engineering

En el tercer paso aparecen R y Talend, asociadas a transformación analítica y preparación avanzada del dato antes de modelar o explotar resultados.

  • R: destaca porque es muy potente para análisis estadístico, tratamiento de datos y creación de variables derivadas con enfoque analítico.
  • Talend: es interesante porque facilita procesos ETL/ELT, integración entre fuentes y construcción de flujos de transformación más visuales y reutilizables.

Qué aporta el conjunto

La lógica del esquema sugiere una cadena bastante coherente: primero se captura información desde varias fuentes, después se depura y explora, y finalmente se transforma para dejarla lista para análisis avanzado o modelos predictivos. Lo más interesante de las herramientas que aparecen es que combinan mundos distintos —big data, bases de datos, negocio, redes sociales, scripting y ETL— dentro de un mismo pipeline de datos.

En la recogida de datos en crudo se usan herramientas como Hadoop, MySQL, CRM y Twitter/X porque permiten integrar datos masivos, estructurados, de negocio y sociales en un mismo punto de partida.” “En la exploración y limpieza, Python destaca por su capacidad para automatizar depuración, validación y análisis inicial del dato.” “En la transformación y el feature engineering, R y Talend resultan especialmente interesantes porque permiten crear variables útiles, aplicar lógica analítica y construir procesos de transformación robustos.

BigML

BigML es una plataforma en la nube que permite a cualquier persona, sin importar su nivel de conocimientos técnicos, utilizar la Inteligencia Artificial y el Machine Learning (Aprendizaje Automático) para resolver problemas y tomar decisiones de negocio [1].

Para entenderlo de forma muy sencilla: es como el “Excel” del Machine Learning. Así como Excel te permite hacer cálculos complicados sin saber cómo funciona la matemática interna de la computadora, BigML te permite crear modelos predictivos inteligentes haciendo clics, sin necesidad de saber programar.


¿Cómo funciona en la vida real? (El proceso de 3 pasos)

El objetivo de BigML es que una máquina analice tu pasado para predecir tu futuro. Funciona en tres fases sencillas:

  1. Sube tus datos (El pasado): Le entregas a la plataforma una tabla de datos (un archivo Excel o CSV) con información histórica. Por ejemplo: una lista de clientes, lo que compraron y si cancelaron o no su suscripción.
  2. Crea el modelo con un clic (El aprendizaje): Le pides a BigML que “aprenda” de esos datos. El sistema analiza los patrones ocultos de forma automática y crea un modelo visual (como un árbol de decisiones) que explica el comportamiento de los datos.
  3. Haz predicciones (El futuro): Ahora que la máquina aprendió, le introduces los datos de un cliente nuevo y BigML te dirá, con un porcentaje de probabilidad, si ese cliente se va a ir o se va a quedar.

¿Quién lo usa y para qué sirve?

No necesitas ser un científico de datos de la NASA. Lo utilizan empresas de todos los tamaños, analistas, médicos y estudiantes para:

  • 💳 Detectar fraudes: Identificar si un movimiento bancario con tarjeta de crédito es sospechoso.
  • 📈 Predecir ventas: Saber cuántos productos se van a vender el próximo mes basándose en el clima, el día de la semana y la economía.
  • 🏥 Salud: Analizar síntomas y análisis médicos previos para predecir el riesgo de que un paciente sufra una enfermedad.
  • 👥 Fidelidad de clientes: Averiguar qué usuarios están insatisfechos antes de que decidan irse a la competencia.

¿Por qué es tan popular?

  • Es visual: No ves líneas de código confusas; ves gráficos, barras y árboles lógicos fáciles de leer.
  • Todo es automático: La plataforma se encarga de la parte matemática difícil en sus propios servidores.
  • Es rápido: Lo que antes le tomaba semanas de programación a un ingeniero, en BigML se puede resolver en pocos minutos.

Lo que hace único a BigML no es el tipo de algoritmos matemáticos que utiliza, sino el acceso masivo, inmediato y visual que da a una tecnología que, de otra forma, solo estaría al alcance de ingenieros expertos con presupuestos millonarios.

Esto es lo que obtienes en BigML que no se puede conseguir de otra forma en el mercado actual:


1. El “Efecto Caja Blanca” (Adiós al misterio)

En la mayoría de las plataformas de Inteligencia Artificial actuales (como los modelos de lenguaje o sistemas cerrados), metes datos y obtienes un resultado, pero no sabes por qué la máquina tomó esa decisión. Es una “caja negra”.

  • Lo que te da BigML: Te ofrece árboles de decisión interactivos y visuales. Puedes tocar cada rama y ver el porcentaje exacto y el motivo de la predicción. Obtienes explicabilidad total, algo crucial para sectores donde la ley exige justificar por qué se rechazó un crédito o se dio un diagnóstico médico.

2. Autonomía absoluta sin saber programar

Para lograr lo que hace BigML en cualquier otro entorno, necesitas contratar a un Científico de Datos que domine lenguajes como Python o R, configurar servidores en la nube y escribir cientos de líneas de código.

  • Lo que te da BigML: Democratización real. Permite que un analista de marketing, un médico o el dueño de una tienda configuren un sistema predictivo industrial en una tarde. Consigues eliminar la barrera del código para la creación de modelos complejos.

3. Automatización programable propia (WhizzML)

Existen otras plataformas visuales de arrastrar y soltar, pero suelen ser muy rígidas. Si quieres cambiar el flujo, te chocas contra una pared.

  • Lo que te da BigML: Con su lenguaje WhizzML, puedes automatizar flujos enteros en un solo botón. Une la flexibilidad extrema de la programación pura con la comodidad de una plataforma en la nube. Te permite crear tus propios sistemas de Inteligencia Artificial que se ejecutan solos sin tocar infraestructura.

4. Una infraestructura todo en uno “invisible”

En el mundo del Machine Learning tradicional, necesitas una herramienta para limpiar datos, otra para entrenar el modelo, otra para guardarlo y servidores potentes para ejecutarlo.

  • Lo que te da BigML: Todo ocurre en el mismo sitio. Subes los datos, la nube de BigML se encarga de la potencia de cálculo automáticamente, y te da un enlace directo (API) para conectar ese cerebro a tu web o aplicación con un clic. Consigues velocidad de producción inmediata sin un equipo de ingenieros de sistemas detrás.

En resumen: en otras plataformas consigues potencia o consigues simplicidad. BigML es el único lugar donde consigues potencia industrial, automatización avanzada y simplicidad visual al mismo tiempo.


Si buscas alternativas a BigML para trabajar 100% en local (en tu propia computadora, sin enviar datos a la nube), protegiendo la privacidad de tus datos y con un enfoque visual similar, estas son las mejores opciones ordenadas por su nivel de dificultad:


1. Orange Data Mining (La más parecida e intuitiva)

Es la alternativa de código abierto más cercana a la experiencia visual de BigML. Está diseñada para personas que no quieren programar, pero necesitan análisis potentes.

  • Cómo funciona: Creas flujos de trabajo arrastrando y soltando cajas (nodos) y conectándolas con líneas.
  • Lo que consigues en local: Gráficos e historias visuales increíbles de forma inmediata, árboles de decisión interactivos, y clasificación de datos sin tocar una sola línea de código.
  • Descarga: Es completamente gratuita y se instala en Windows, Mac o Linux desde la página oficial de Orange.

2. KNIME Analytics Platform (La opción empresarial más potente)

Es una herramienta estándar en la industria para la ciencia de datos en local. Es extremadamente robusta y permite procesar grandes volúmenes de datos.

  • Cómo funciona: Al igual que Orange, utiliza una interfaz de programación visual basada en nodos. Puedes limpiar datos, entrenar modelos de Inteligencia Artificial y crear reportes.
  • Lo que consigues en local: Conexión nativa a bases de datos locales, automatización de tareas repetitivas muy complejas y miles de nodos listos para usar de forma gratuita.
  • Descarga: Su versión de escritorio para uso individual es libre en el sitio web de KNIME.

3. Weka (La clásica para perfiles académicos y de investigación)

Desarrollada por la Universidad de Waikato, es una de las herramientas de Machine Learning en local más longevas y estables del mundo.

  • Cómo funciona: A través de una interfaz gráfica de ventanas más tradicional (estilo software de los 2000), pero muy directa.
  • Lo que consigues en local: Acceso directo a una colección gigantesca de algoritmos de clasificación, regresión y clustering listos para ejecutar con tres clics. Es ideal si buscas ligereza y análisis estadístico puro.
  • Descarga: Requiere Java y se descarga de forma gratuita desde el portal de Weka.

Tabla comparativa rápida en local

HerramientaInterfaz VisualCurva de AprendizajeIdeal para…
Orange⭐⭐⭐⭐⭐ (Excelente)Muy fácilPrincipiantes y análisis visual rápido
KNIME⭐⭐⭐⭐ (Buena)MediaAutomatizar procesos de datos de nivel profesional
Weka⭐⭐ (Anticuada)MediaEntornos educativos, médicos y científicos

El camino intermedio: Si sabes un poco de Python

Si en el futuro decides picar algo de código en local, el estándar absoluto es usar Jupyter Notebooks junto con la librería Scikit-Learn. No tendrás una interfaz de botones, pero la comunidad de ayuda en internet es la más grande del mundo.


Evolución de la IA

A fecha de hoy

En muy poco tiempo, la evolución de los modelos LLM ha pasado de una carrera por el tamaño a una competencia mucho más interesante: familias de modelos especializadas en razonamiento, programación, multimodalidad y agentes.openai+3
Lo que hasta hace poco veíamos como modelos “generalistas” se ha convertido en ecosistemas completos, con versiones optimizadas para velocidad, contexto ampliado y tareas concretas.platform.claude+3

Si actualizamos la cronología hasta mayo de 2026, aparecen hitos muy relevantes como GPT-5.5 en OpenAI, Claude Opus 4.7 en Anthropic, DeepSeek V4 Preview y Mistral Small 4.
A esto se suma la evolución de Gemini hacia nuevas generaciones y la continuidad de líneas como Grok, Llama, ERNIE y Qwen, que reflejan un mercado cada vez más segmentado y maduro.

Más que una simple sucesión de nombres, esta evolución muestra un cambio de fondo en la industria: ya no se trata solo de tener el modelo más grande, sino de ofrecer el modelo más útil para cada caso de uso.api-docs.deepseek+3
Y eso abre un debate especialmente interesante para quienes trabajamos en tecnología, docencia e innovación: cómo integrar estas capacidades con criterio, valor real y sentido práctico.

#IA #InteligenciaArtificial #LLM #GenerativeAI #OpenAI #Anthropic #GoogleGemini #DeepSeek #MistralAI #TransformacionDigital

Versión más cercana

He actualizado una cronología sobre la evolución de los modelos LLM y la foto que deja 2026 es bastante clara:

Hemos pasado de hablar de “un modelo” a hablar de familias enteras de modelos, cada una con variantes para razonar mejor, programar, trabajar con multimodalidad o actuar como agentes.
Entre los hitos más recientes destacan GPT-5.5, Claude Opus 4.7, DeepSeek V4 Preview y Mistral Small 4, mientras Gemini sigue ampliando su ecosistema y otros actores como xAI, Meta, Baidu o Alibaba mantienen una evolución muy activa.

El valor ya no está solo en la escala, sino en la especialización, el contexto y la capacidad de adaptarse a tareas concretas.


Estamos viendo cómo la IA pasa de ser promesa tecnológica a convertirse en infraestructura real para trabajar, enseñar, investigar y decidir mejor.

… continuará

Toma de decisiones

modelos utilizados para la toma de decisiones:

La Matriz de Eisenhower,

análisis DAFO,

el modelo de trabajo en equipo de Drexler Sivet,

la Ventana de Johari,

el Principio de Pareto,

el modelo del estado de flujo,

la caja BCG de Boston Consulting Group,

la Pirámide de Maslow,

la resolución creativa de problemas o

el método Lean Startup (empresa emergente)

empatía

mapa de empatía

¿Con quién estamos empatizando?
¿Quién es la persona?
¿En qué situación está?
¿Cuál es su rol?

Objetivos
¿Quién es la persona, en qué situación, cuál es su rol?
¿Qué es lo que necesita hacer?
¿Qué es lo que tiene que cambiar?
¿Qué decisiones tomar?
¿Cómo sabemos si tiene éxito?
¿Qué ve?
¿Qué ve que ocurra en su entorno?
¿Qué mira y lee?
¿Qué dice?
¿Qué le hemos escuchado decir?
¿Qué imaginamos que podría decir?
¿Qué hace?
¿Qué hace hoy?
¿Qué comportamiento hemos observado?
¿Qué imaginamos?
¿Cómo se podría comportar?
¿Qué oye?
¿Qué dice la gente a su alrededor?
(Amigos/as, jefes/as, personas influyentes…)
¿Qué piensa y que siente?

Otros aspectos relacionados con el mapa de empatía:
pensamientos
Pains Gains

Particulas

https://particles.casberry.in

Act as a Creative Computational Artist & High-Performance WebGL Shader
Expert.

            **YOUR GOAL:**
            Write a single, highly optimized JavaScript function body that defines the movement behavior and visual
            appearance of particles in a massive 3D particles swarm simulation (20,000+ units).

            **CONTEXT & API VARIABLES (Read-Only unless specified):**
            1. `i` (Integer): Index of the current particle (0 to count-1).
            2. `count` (Integer): Total number of particles.
            3. `target` (THREE.Vector3): **WRITE-ONLY**. You MUST update this vector object (`target.set(x,y,z)`) to
            position the particle.
            4. `color` (THREE.Color): **WRITE-ONLY**. You MUST update this color object (`color.setHSL(...)` or
            `color.set(...)`) to paint the particle.
            5. `time` (Float): Global simulation time in seconds. Use this for animation.
            6. `THREE`: The full Three.js library access.

            **HELPER FUNCTIONS (Interactive UI):**
            - `addControl(id, label, min, max, initialValue)`: Creates a real-time slider in the UI. Returns the current
            float value.
            *Example:* `const speed = addControl("speed", "Rotation Speed", 0, 5, 1.0);`
            - `setInfo(title, description)`: Updates the HUD. **Call ONLY when `i === 0`**.
            - `annotate(id, positionVector, labelText)`: Adds a floating 3D label. **Call ONLY when `i === 0`**.
            *Example:* `annotate("center", new THREE.Vector3(0,0,0), "Singularity");`

            **CRITICAL PERFORMANCE RULES (STRICT COMPLIANCE REQUIRED):**
            1. **ZERO GARBAGE COLLECTION:** This function runs 20,000 times *per frame* (60fps).
            - **NEVER** use `new THREE.Vector3()` or `new THREE.Color()` inside the loop (except for one-off
            annotations).
            - **NEVER** allocate arrays or objects inside the loop.
            - Reuse the provided `target` and `color` objects.
            2. **MATH OVER LOGIC:** Avoid heavy branching (`if/else`) inside the loop. Use math functions (`Math.sin`,
            `Math.cos`, `Math.abs`) for shaping.
            3. **OUTPUT ONLY:** Do not return any value. Just mutate `target` and `color`.
            4. **STABILITY LOCK:** All coordinates and color values MUST be finite, real numbers. **NEVER** set values to `NaN`, `Infinity`, or `undefined`. Ensure your mathematical formulas (e.g. divisions) have safety guards against zero.
            5. **ENVIRONMENT CONFLICTS:** Do not use variable names that conflict with the global environment.
            **NEVER** redefine or use common global names like `SHADERS`, `THREE`, `Math`, etc. inside your code.

            **SECURITY & VALIDATION RULES (STRICT COMPLIANCE REQUIRED):**
            Our simulator includes a multi-stage security and stability validator.
            1. **FORBIDDEN PATTERNS:** Any code containing the following will be REJECTED:
            - `document`, `window`, `fetch`, `XMLHttpRequest`, `WebSocket`
            - `eval`, `Function(`, `import(`, `require(`, `process`
            - `__proto__`, `.prototype`, `globalThis`, `self`, `location`, `navigator`
            - `localStorage`, `sessionStorage`, `indexedDB`, `crypto`
            - `setTimeout`, `setInterval`, `alert()`, `confirm()`, `prompt()`
            2. **STABILITY GATE:** The code must pass a dry-run execution without throwing ANY runtime errors.
            3. **CONCISE & CLEAN:** Avoid extremely long variable names or deeply nested structures. Ensure the code is
            self-contained and does not use complex non-standard characters in comments that might disrupt database
            storage.
            4. **NO UNDECLARED VARIABLES:** All variables (like 'phi', 'theta', 'radius', etc.) MUST be explicitly declared
            with 'let' or 'const' before use. Code triggering "ReferenceError" will fail the stability gate.

            **VISUALIZATION GUIDELINES:**

            - Create complex, organic, or mathematical structures (Fractals, Attractors, Fields, interference patterns).
            - Use `time` to create smooth, flowing animation.
            - Map `i` (index) to spatial coordinates to create continuous forms.
            - Use `addControl` to make the visualization interactive (e.g., expanding size, changing chaos levels).

            **REQUEST:**
            [INSERT YOUR CREATIVE IDEA HERE - e.g., "A hyper-dimensional tesseract breathing in 4D space"]

            **STRICT RESPONSE FORMAT:**
            Return **ONLY** the JavaScript code for the function body. Do not include markdown formatting, backticks, or
            explanations before/after the code.

            **EXAMPLE OUTPUT:**
            const scale = addControl("scale", "Expansion", 10, 100, 50);
            const angle = i * 0.1 + time;
            target.set(Math.cos(angle) * scale, Math.sin(angle) * scale, i * 0.05);
            color.setHSL(i / count, 1.0, 0.5);
            if (i === 0) setInfo("Spiral Demo", "A basic test.");

Joseph Campbell

Esta es la bibliografía principal de Joseph Campbell (obras como autor principal o coautor), en orden cronológico inverso (de más reciente a más antiguo).

opusarchives.orgEsta lista se basa principalmente en la bibliografía del OPUS Archives (fuente autorizada sobre su archivo) y se complementa con referencias de Wikipedia y otras fuentes confiables. Se centra en libros y obras principales. Muchas obras póstumas forman parte de The Collected Works of Joseph Campbell (publicadas por New World Library / Joseph Campbell Foundation), que reedita y compila material inédito o agotado. Incluyo ediciones originales y notas relevantes.

opusarchives.orgObras póstumas y colecciones (principalmente de los años 90 en adelante, basadas en material inédito o conferencias)

  • Mito y sentido (2024, Ediciones Atalanta, en español; compilación).
  • El éxtasis del ser: Mitología y danza (2022, Ediciones Atalanta; también en Collected Works).
  • Goddesses: Mysteries of the Feminine Divine (ed. Safron Rossi, ~2013/2020s en Collected Works).
  • Thou Art That: Transforming Religious Metaphor (2001).
  • Sake & Satori: Asian Journals – Japan (2002).
  • Myths of Light: Eastern Metaphors of the Eternal (2003).
  • Baksheesh and Brahman: Indian Journal 1954–1955 (1995; 2ª ed. 2002).
  • The Mythic Dimension: Selected Essays 1959–1987 (1997).
  • Mythic Worlds, Modern Words: On the Art of James Joyce (1993; 2ª ed. 2004).
  • Reflections on the Art of Living: A Joseph Campbell Companion (ed. Diane K. Osbon, 1991).
  • The Hero’s Journey: Joseph Campbell on His Life and Work (ed. Phil Cousineau, 1990; ediciones centenarias posteriores).
  • Transformations of Myth Through Time (1990).

Obras de los años 80 y finales de carrera

  • The Inner Reaches of Outer Space: Metaphor As Myth and As Religion (1986).
  • Historical Atlas of World Mythology (1983-1989, incompleto; 2 vols., 5 partes: The Way of the Animal Powers y The Way of the Seeded Earth. Campbell completó parte antes de su muerte en 1987). opusarchives.org
  • Tarot Revelations (con Richard Roberts, 1979/1982).

Años 70 y 60

  • The Mythic Image (1974, Bollingen Series).
  • Myths to Live By (1972).
  • Flight of the Wild Gander: Explorations in the Mythological Dimension (1969; a veces listado como 1968).
  • The Masks of God (serie de 4 vols., Viking Press, 1959-1968):
    • Vol. 4: Creative Mythology (1968).
    • Vol. 3: Occidental Mythology (1964).
    • Vol. 2: Oriental Mythology (1962).
    • Vol. 1: Primitive Mythology (1959). opusarchives.org

Obras tempranas

  • The Hero with a Thousand Faces (El héroe de las mil caras, Bollingen Series XVII, 1949; múltiples ediciones posteriores, incl. 2008 con JCF). Su obra más influyente. isfdb.org
  • A Skeleton Key to Finnegans Wake (con Henry Morton Robinson, 1944; última ed. 1983).
  • Where the Two Came to Their Father: A Navaho War Ceremonial (con Jeff King y Maud Oakes, 1943; comentario de Campbell).

Otras contribuciones notables

  • Campbell editó y completó obras póstumas de Heinrich Zimmer (Myths and Symbols in Indian Art and Civilization, 1946; The King and the Corpse, 1948; Philosophies of India, 1951; The Art of Indian Asia, 1955).
  • Editó volúmenes de los Eranos Yearbooks (Spirit and Nature, The Mysteries, etc., 1954-1968).
  • Editó The Portable Arabian Nights (1952), The Portable Jung (1971), y otros.
  • Numerosos ensayos, conferencias, entrevistas (ej. The Power of Myth con Bill Moyers, 1988, póstumo pero basado en grabaciones de 1987) y grabaciones de audio/video (Mythos series, etc.). opusarchives.org

Notas:

  • The Collected Works of Joseph Campbell (serie en curso desde ~2000s) incluye reediciones corregidas, material inédito, diarios asiáticos, conferencias y más (más de 20-75 títulos según fuentes). Es la forma más completa de acceder a su obra hoy. jcf.org
  • Muchas obras tienen múltiples ediciones (Princeton, New World Library, Harper, etc.). En español, Ediciones Atalanta ha publicado varias en los últimos años.
  • Para la bibliografía más exhaustiva (incluyendo artículos y ediciones), consulta el sitio del OPUS Archives o la Joseph Campbell Foundation (JCF).

perspectiva

Perspectiva PROSPECTIVA …

Vamos a calcular el número personal para la fecha del 4 de septiembre de 2026, según la numerología clásica:


🔢 1. Tu número personal del año 2026

Primero reducimos la fecha de consulta:

  • Día: 29 → 2 + 9 = 11 → 2
  • Mes: junio = 6

👉 2 + 6 = 8

Ahora añadimos el año 2026:

  • 2026 → 2 + 0 + 2 + 6 = 10 → 1

👉 8 + 1 = 9

Tu número personal del año 2026 = 9


📅 2. Tu número personal de septiembre 2026

Se suma tu número del año + el mes:

  • 9 (año) + 9 (septiembre) = 18 → 9

Mes personal = 9


📌 3. Tu número personal del día 4

Sumamos el mes personal + el día:

  • 9 + 4 = 13 → 4

✅ 👉 Tu número personal para el 4/09/2026 = 4


🌟 4. Interpretación para TI (muy importante)

Aquí ocurre algo interesante:

  • 🔹 El día universal era 5 (cambio)
  • 🔹 Tu número personal es 4 (orden, estructura)

⚖️ ¿Qué significa esto para ti?

👉 Estás en un momento de cierre (año 9)
👉 El día trae energía de cambio (5)
👉 PERO tú lo vives desde un 4 (necesidad de control y estabilidad)


🧠 Lectura personalizada

Este día para ti no será de impulsos, sino de:

✅ Organización de cambios

  • Sentirás que algo está cambiando…
  • Pero necesitarás ordenarlo y entenderlo antes de actuar

✅ Revisar lo que termina

  • El año 9 indica que estás cerrando una etapa vital importante
  • El día puede traerte situaciones que te obliguen a poner estructura a ese cierre

✅ Construir el siguiente paso

  • No es aún el salto definitivo
  • Es el momento de preparar bases sólidas para lo nuevo que vendrá

⚡ Posibles sensaciones ese día

  • Necesidad de control frente a cambios externos
  • Ganas de organizar tu vida o decisiones pendientes
  • Cierto choque entre emoción (cierre) y razón (orden)

🔮 Consejo clave para ese día

👉 “No te resistas al cambio, pero dale forma”

  • No actúes impulsivamente
  • Haz planes, escribe, estructura pasos
  • Decide qué dejar atrás con claridad

🧾 Resumen final

  • 🔢 Tu número personal: 4
  • 🌍 Energía del día: 5 (cambio)
  • 🧭 Tu enfoque ideal: ordenar el cambio, no frenarlo