Feliz navidad

Universidad de Burgos (Pedro SANCHEZ-ORTEGA + vrirv
#iVRi #VirtualRealityinlusive #RealidadVirtualinclusiva #investigaciónRealidadVirtualinclusiva #innovaciónRealidadVirtualinclusiva #i2VRi #iiVRi



Feliz navidad

Universidad de Burgos (Pedro SANCHEZ-ORTEGA + vrirv
#iVRi #VirtualRealityinlusive #RealidadVirtualinclusiva #investigaciónRealidadVirtualinclusiva #innovaciónRealidadVirtualinclusiva #i2VRi #iiVRi



3 pasos —
“Recogida de Datos en crudo”,
“Exploración y Limpieza de Datos” y
“Transformación y Feature Engineering”
— logos visibles, se distinguen con bastante claridad Hadoop, MySQL, un icono etiquetado como CRM, Twitter/X, Python, R y Talend; además hay un logo intermedio que no se aprecia con suficiente nitidez en la captura.
En este primer paso aparecen herramientas orientadas a capturar datos desde fuentes muy distintas, como sistemas masivos, bases de datos, aplicaciones de negocio y redes sociales.
En el segundo bloque se aprecia claramente Python, que encaja muy bien con tareas de inspección, depuración y preparación inicial del dato.
Lo que hace interesante a Python en esta fase es su flexibilidad: permite leer múltiples formatos, detectar nulos, corregir errores, filtrar registros atípicos y automatizar limpieza repetitiva en un mismo entorno. El otro logo de este bloque no se distingue con precisión suficiente en la imagen, así que lo más prudente es tratarlo como una herramienta complementaria de preparación o análisis visual de datos.
En el tercer paso aparecen R y Talend, asociadas a transformación analítica y preparación avanzada del dato antes de modelar o explotar resultados.
La lógica del esquema sugiere una cadena bastante coherente: primero se captura información desde varias fuentes, después se depura y explora, y finalmente se transforma para dejarla lista para análisis avanzado o modelos predictivos. Lo más interesante de las herramientas que aparecen es que combinan mundos distintos —big data, bases de datos, negocio, redes sociales, scripting y ETL— dentro de un mismo pipeline de datos.
En la recogida de datos en crudo se usan herramientas como Hadoop, MySQL, CRM y Twitter/X porque permiten integrar datos masivos, estructurados, de negocio y sociales en un mismo punto de partida.” “En la exploración y limpieza, Python destaca por su capacidad para automatizar depuración, validación y análisis inicial del dato.” “En la transformación y el feature engineering, R y Talend resultan especialmente interesantes porque permiten crear variables útiles, aplicar lógica analítica y construir procesos de transformación robustos.
BigML es una plataforma en la nube que permite a cualquier persona, sin importar su nivel de conocimientos técnicos, utilizar la Inteligencia Artificial y el Machine Learning (Aprendizaje Automático) para resolver problemas y tomar decisiones de negocio [1].
Para entenderlo de forma muy sencilla: es como el “Excel” del Machine Learning. Así como Excel te permite hacer cálculos complicados sin saber cómo funciona la matemática interna de la computadora, BigML te permite crear modelos predictivos inteligentes haciendo clics, sin necesidad de saber programar.
El objetivo de BigML es que una máquina analice tu pasado para predecir tu futuro. Funciona en tres fases sencillas:
No necesitas ser un científico de datos de la NASA. Lo utilizan empresas de todos los tamaños, analistas, médicos y estudiantes para:
Lo que hace único a BigML no es el tipo de algoritmos matemáticos que utiliza, sino el acceso masivo, inmediato y visual que da a una tecnología que, de otra forma, solo estaría al alcance de ingenieros expertos con presupuestos millonarios.
Esto es lo que obtienes en BigML que no se puede conseguir de otra forma en el mercado actual:
En la mayoría de las plataformas de Inteligencia Artificial actuales (como los modelos de lenguaje o sistemas cerrados), metes datos y obtienes un resultado, pero no sabes por qué la máquina tomó esa decisión. Es una “caja negra”.
Para lograr lo que hace BigML en cualquier otro entorno, necesitas contratar a un Científico de Datos que domine lenguajes como Python o R, configurar servidores en la nube y escribir cientos de líneas de código.
Existen otras plataformas visuales de arrastrar y soltar, pero suelen ser muy rígidas. Si quieres cambiar el flujo, te chocas contra una pared.
En el mundo del Machine Learning tradicional, necesitas una herramienta para limpiar datos, otra para entrenar el modelo, otra para guardarlo y servidores potentes para ejecutarlo.
En resumen: en otras plataformas consigues potencia o consigues simplicidad. BigML es el único lugar donde consigues potencia industrial, automatización avanzada y simplicidad visual al mismo tiempo.
Si buscas alternativas a BigML para trabajar 100% en local (en tu propia computadora, sin enviar datos a la nube), protegiendo la privacidad de tus datos y con un enfoque visual similar, estas son las mejores opciones ordenadas por su nivel de dificultad:
Es la alternativa de código abierto más cercana a la experiencia visual de BigML. Está diseñada para personas que no quieren programar, pero necesitan análisis potentes.
Es una herramienta estándar en la industria para la ciencia de datos en local. Es extremadamente robusta y permite procesar grandes volúmenes de datos.
Desarrollada por la Universidad de Waikato, es una de las herramientas de Machine Learning en local más longevas y estables del mundo.
| Herramienta | Interfaz Visual | Curva de Aprendizaje | Ideal para… |
|---|---|---|---|
| Orange | ⭐⭐⭐⭐⭐ (Excelente) | Muy fácil | Principiantes y análisis visual rápido |
| KNIME | ⭐⭐⭐⭐ (Buena) | Media | Automatizar procesos de datos de nivel profesional |
| Weka | ⭐⭐ (Anticuada) | Media | Entornos educativos, médicos y científicos |
Si en el futuro decides picar algo de código en local, el estándar absoluto es usar Jupyter Notebooks junto con la librería Scikit-Learn. No tendrás una interfaz de botones, pero la comunidad de ayuda en internet es la más grande del mundo.


En muy poco tiempo, la evolución de los modelos LLM ha pasado de una carrera por el tamaño a una competencia mucho más interesante: familias de modelos especializadas en razonamiento, programación, multimodalidad y agentes.openai+3
Lo que hasta hace poco veíamos como modelos “generalistas” se ha convertido en ecosistemas completos, con versiones optimizadas para velocidad, contexto ampliado y tareas concretas.platform.claude+3
Si actualizamos la cronología hasta mayo de 2026, aparecen hitos muy relevantes como GPT-5.5 en OpenAI, Claude Opus 4.7 en Anthropic, DeepSeek V4 Preview y Mistral Small 4.
A esto se suma la evolución de Gemini hacia nuevas generaciones y la continuidad de líneas como Grok, Llama, ERNIE y Qwen, que reflejan un mercado cada vez más segmentado y maduro.
Más que una simple sucesión de nombres, esta evolución muestra un cambio de fondo en la industria: ya no se trata solo de tener el modelo más grande, sino de ofrecer el modelo más útil para cada caso de uso.api-docs.deepseek+3
Y eso abre un debate especialmente interesante para quienes trabajamos en tecnología, docencia e innovación: cómo integrar estas capacidades con criterio, valor real y sentido práctico.
#IA #InteligenciaArtificial #LLM #GenerativeAI #OpenAI #Anthropic #GoogleGemini #DeepSeek #MistralAI #TransformacionDigital
He actualizado una cronología sobre la evolución de los modelos LLM y la foto que deja 2026 es bastante clara:
Hemos pasado de hablar de “un modelo” a hablar de familias enteras de modelos, cada una con variantes para razonar mejor, programar, trabajar con multimodalidad o actuar como agentes.
Entre los hitos más recientes destacan GPT-5.5, Claude Opus 4.7, DeepSeek V4 Preview y Mistral Small 4, mientras Gemini sigue ampliando su ecosistema y otros actores como xAI, Meta, Baidu o Alibaba mantienen una evolución muy activa.
El valor ya no está solo en la escala, sino en la especialización, el contexto y la capacidad de adaptarse a tareas concretas.
Estamos viendo cómo la IA pasa de ser promesa tecnológica a convertirse en infraestructura real para trabajar, enseñar, investigar y decidir mejor.
modelos utilizados para la toma de decisiones:
La Matriz de Eisenhower,
análisis DAFO,
el modelo de trabajo en equipo de Drexler Sivet,
la Ventana de Johari,
el Principio de Pareto,
el modelo del estado de flujo,
la caja BCG de Boston Consulting Group,
la Pirámide de Maslow,
la resolución creativa de problemas o
el método Lean Startup (empresa emergente)
mapa de empatía
¿Con quién estamos empatizando?
¿Quién es la persona?
¿En qué situación está?
¿Cuál es su rol?
Objetivos
¿Quién es la persona, en qué situación, cuál es su rol?
¿Qué es lo que necesita hacer?
¿Qué es lo que tiene que cambiar?
¿Qué decisiones tomar?
¿Cómo sabemos si tiene éxito?
¿Qué ve?
¿Qué ve que ocurra en su entorno?
¿Qué mira y lee?
¿Qué dice?
¿Qué le hemos escuchado decir?
¿Qué imaginamos que podría decir?
¿Qué hace?
¿Qué hace hoy?
¿Qué comportamiento hemos observado?
¿Qué imaginamos?
¿Cómo se podría comportar?
¿Qué oye?
¿Qué dice la gente a su alrededor?
(Amigos/as, jefes/as, personas influyentes…)
¿Qué piensa y que siente?
Otros aspectos relacionados con el mapa de empatía:
pensamientos
Pains Gains
Act as a Creative Computational Artist & High-Performance WebGL Shader
Expert.
**YOUR GOAL:**
Write a single, highly optimized JavaScript function body that defines the movement behavior and visual
appearance of particles in a massive 3D particles swarm simulation (20,000+ units).
**CONTEXT & API VARIABLES (Read-Only unless specified):**
1. `i` (Integer): Index of the current particle (0 to count-1).
2. `count` (Integer): Total number of particles.
3. `target` (THREE.Vector3): **WRITE-ONLY**. You MUST update this vector object (`target.set(x,y,z)`) to
position the particle.
4. `color` (THREE.Color): **WRITE-ONLY**. You MUST update this color object (`color.setHSL(...)` or
`color.set(...)`) to paint the particle.
5. `time` (Float): Global simulation time in seconds. Use this for animation.
6. `THREE`: The full Three.js library access.
**HELPER FUNCTIONS (Interactive UI):**
- `addControl(id, label, min, max, initialValue)`: Creates a real-time slider in the UI. Returns the current
float value.
*Example:* `const speed = addControl("speed", "Rotation Speed", 0, 5, 1.0);`
- `setInfo(title, description)`: Updates the HUD. **Call ONLY when `i === 0`**.
- `annotate(id, positionVector, labelText)`: Adds a floating 3D label. **Call ONLY when `i === 0`**.
*Example:* `annotate("center", new THREE.Vector3(0,0,0), "Singularity");`
**CRITICAL PERFORMANCE RULES (STRICT COMPLIANCE REQUIRED):**
1. **ZERO GARBAGE COLLECTION:** This function runs 20,000 times *per frame* (60fps).
- **NEVER** use `new THREE.Vector3()` or `new THREE.Color()` inside the loop (except for one-off
annotations).
- **NEVER** allocate arrays or objects inside the loop.
- Reuse the provided `target` and `color` objects.
2. **MATH OVER LOGIC:** Avoid heavy branching (`if/else`) inside the loop. Use math functions (`Math.sin`,
`Math.cos`, `Math.abs`) for shaping.
3. **OUTPUT ONLY:** Do not return any value. Just mutate `target` and `color`.
4. **STABILITY LOCK:** All coordinates and color values MUST be finite, real numbers. **NEVER** set values to `NaN`, `Infinity`, or `undefined`. Ensure your mathematical formulas (e.g. divisions) have safety guards against zero.
5. **ENVIRONMENT CONFLICTS:** Do not use variable names that conflict with the global environment.
**NEVER** redefine or use common global names like `SHADERS`, `THREE`, `Math`, etc. inside your code.
**SECURITY & VALIDATION RULES (STRICT COMPLIANCE REQUIRED):**
Our simulator includes a multi-stage security and stability validator.
1. **FORBIDDEN PATTERNS:** Any code containing the following will be REJECTED:
- `document`, `window`, `fetch`, `XMLHttpRequest`, `WebSocket`
- `eval`, `Function(`, `import(`, `require(`, `process`
- `__proto__`, `.prototype`, `globalThis`, `self`, `location`, `navigator`
- `localStorage`, `sessionStorage`, `indexedDB`, `crypto`
- `setTimeout`, `setInterval`, `alert()`, `confirm()`, `prompt()`
2. **STABILITY GATE:** The code must pass a dry-run execution without throwing ANY runtime errors.
3. **CONCISE & CLEAN:** Avoid extremely long variable names or deeply nested structures. Ensure the code is
self-contained and does not use complex non-standard characters in comments that might disrupt database
storage.
4. **NO UNDECLARED VARIABLES:** All variables (like 'phi', 'theta', 'radius', etc.) MUST be explicitly declared
with 'let' or 'const' before use. Code triggering "ReferenceError" will fail the stability gate.
**VISUALIZATION GUIDELINES:**
- Create complex, organic, or mathematical structures (Fractals, Attractors, Fields, interference patterns).
- Use `time` to create smooth, flowing animation.
- Map `i` (index) to spatial coordinates to create continuous forms.
- Use `addControl` to make the visualization interactive (e.g., expanding size, changing chaos levels).
**REQUEST:**
[INSERT YOUR CREATIVE IDEA HERE - e.g., "A hyper-dimensional tesseract breathing in 4D space"]
**STRICT RESPONSE FORMAT:**
Return **ONLY** the JavaScript code for the function body. Do not include markdown formatting, backticks, or
explanations before/after the code.
**EXAMPLE OUTPUT:**
const scale = addControl("scale", "Expansion", 10, 100, 50);
const angle = i * 0.1 + time;
target.set(Math.cos(angle) * scale, Math.sin(angle) * scale, i * 0.05);
color.setHSL(i / count, 1.0, 0.5);
if (i === 0) setInfo("Spiral Demo", "A basic test.");
Los Vadillos: Ranking de asistencias

https://publicdomainreview.org/
The Public Domain Review – Online journal dedicated to showcasing the most interesting and unusual out-of-copyright works available on the web
Esta es la bibliografía principal de Joseph Campbell (obras como autor principal o coautor), en orden cronológico inverso (de más reciente a más antiguo).
opusarchives.orgEsta lista se basa principalmente en la bibliografía del OPUS Archives (fuente autorizada sobre su archivo) y se complementa con referencias de Wikipedia y otras fuentes confiables. Se centra en libros y obras principales. Muchas obras póstumas forman parte de The Collected Works of Joseph Campbell (publicadas por New World Library / Joseph Campbell Foundation), que reedita y compila material inédito o agotado. Incluyo ediciones originales y notas relevantes.
opusarchives.orgObras póstumas y colecciones (principalmente de los años 90 en adelante, basadas en material inédito o conferencias)
Obras de los años 80 y finales de carrera
Años 70 y 60
Obras tempranas
Otras contribuciones notables
Notas:
Perspectiva PROSPECTIVA …
Vamos a calcular el número personal para la fecha del 4 de septiembre de 2026, según la numerología clásica:
Primero reducimos la fecha de consulta:
👉 2 + 6 = 8
Ahora añadimos el año 2026:
👉 8 + 1 = 9
✅ Tu número personal del año 2026 = 9
Se suma tu número del año + el mes:
✅ Mes personal = 9
Sumamos el mes personal + el día:
✅ 👉 Tu número personal para el 4/09/2026 = 4
Aquí ocurre algo interesante:
👉 Estás en un momento de cierre (año 9)
👉 El día trae energía de cambio (5)
👉 PERO tú lo vives desde un 4 (necesidad de control y estabilidad)
Este día para ti no será de impulsos, sino de:
👉 “No te resistas al cambio, pero dale forma”