SOCIEDAD
Clima en La Habana: el pronóstico para este 9 de enero
La temperatura mínima que se ha registrado en Cuba fue la del 11 de abril de 2020, cuando el termómetro disminuyó hasta los 0.6 grados en Baiona
Los pronósticos del tiempo, basados en la observación y modelos matemáticos, ayudan a pronosticar el estado de la atmósfera en un momento y ubicación determinados a partir de diversas relaciones como la temperatura, la humedad, la presión, las precipitaciones o el viento.
Los pronósticos del tiempo son actividades que se realizan desde hace cientos de años, incluso desde antes de la era cristiana apoyándose básicamente en la observación de patrones de las nubes, el viento, la época del año, aunque en un principio éstos eran poco certeros.
Sin embargo, fue hasta el surgimiento de nuevas tecnologías (como los ordenadores) que comenzaron a ponerse en marcha modelos matemáticos que permitieron lograr predicciones más acertadas, convirtiéndose en un factor fundamental para el transporte (vía terrestre, marítimo o aéreo), la agricultura, el turismo, la prevención de desastres, la salud pública y hasta operaciones militares, ello más allá de decidir si cargar o no con paraguas o qué outfit ponerse.
A continuación el estado del clima de las próximas horas en La Habana:
Sin importar si se aprovechará el día para dar un paseo o simplemente ir a la oficina a trabajar, conocer el clima que habrá en las siguientes puede ayudar a evitar mojarse en la lluvia o cargar innecesariamente un paraguas y abrigo.
Para este martes, se prevé que en La Habana habrá un 25% de posibilidad de lluvia, así como una temperatura máxima de 29 centígrados y una mínima de 22°. La nubosidad será del 97% y por la noche habrá una probabilidad del 40% de lluvias.
El clima en La Habana
La Habana, principal polo turístico y capital de Cuba, se caracteriza por tener un clima de sabana tropical debido a la posición geográfica que la isla tiene dentro del llamado “cinturón de los vientos alisios” y por la calidez de las corrientes del océano.
En la capital cubana el invierno no es tan extremo y para prueba de ello se tiene que la temperatura más baja registrada en la historia ha sido de 3,2 grados el pasado 30 de enero de 2022; mientras que la más alta en la ciudad fue de 38,2 grados en septiembre de 2015.
En cuanto a las lluvias, estas son más frecuentes entre los meses de septiembre y octubre, época en la que las tormentas tropicales y los huracanes suelen golpear a la isla; mientras que en marzo y mayo hay muy poca posibilidad de que haya precipitaciones.
El récord de temperatura mínima registrada en la capital cubana había sido hasta este año la de 4 grados centígrados ocurrida en enero de 2010 en el área del Aeropuerto Internacional José Martí, no obstante, el 30 de enero de 2022 descendió hasta los 3,2 grados.
En contraste, la temperatura más alta registrada en la ciudad es de 38.2 grados, alcanzada desde septiembre de 2015 y que a la fecha no ha sido superada.
Cómo es el clima en Cuba
Cuba, llamado oficialmente como República de Cuba, es un país isleño asentado en las Antillas del Mar Caribe; consta de 15 provincias más La Habana como la capital y ciudad más poblada.
El clima de Cuba es de tipo tropical y generalmente está dividido en dos temporadas: la seca, que va del mes de noviembre a abril, cuando se registran temperaturas mínimas de entre los 18 y 21 grados, mientras que las máximas alcanzan los 27 grados.
Por otro lado, la temporada de más calor y lluvias ocurren entre los meses de mayo a octubre, cuando las temperaturas máximas rondan los 20 o 31 grados; además, entre septiembre y noviembre es frecuente la presencia de ciclones y huracanes.
El archipiélago cubano también se caracteriza por tener una humedad relativamente alta, con promedios cercanos al 90%, lo que ocasiona que gran parte del año haya una intensa sensación de bochorno.
La temperatura máxima récord en el país la tiene el poblado de Veguitas, en Granma, cuando el 11 de abril de 2020 el termómetro subió hasta los 39.3 grados; en contraste, la mínima marca la tiene Baiona, cuando el 8 de febrero de 1996 bajó históricamente hasta los 0.6 grados.
SEGUIR LEYENDO:
SOCIEDAD
Investigadores españoles descubren el truco que usan las IA para sacar tan buenas notas: “Es verdadera kriptonita”
“Grok 3 es la IA más inteligente del mundo”, lanzó este martes la cuenta de X de Grok. Elon Musk, dueño de la empresa que lo desarrolla, xAI, estuvo todo el día repitiendo mensajes sobre cómo Grok es “el mejor chatbot del mundo” o que “está en la cima del mundo”. Horas antes Sam Altman, de ChatGPT, había escrito: “GPT-4.5 ha sido, para los primeros testadores más exigentes, una experiencia más cercana a una IA con sentido común de lo que esperaba”.
Muchas de estas afirmaciones son puro marketing. Los chatbots de IA son un campo hoy extremadamente competitivo y decir que uno es el mejor atrae mucha inversión. Pero también hay un puñado de indicadores de referencia (llamados benchmarks en inglés) que sirven de prueba para comprobar qué modelos de IA responden mejor en tests similares. Si no estás arriba en esas pruebas, no eres nadie.
“Los números de Grok 3 en su lanzamiento son un ejemplo perfecto de los problemas de la evaluación actual”, dice Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la UNED. “Si hay mucha presión competitiva, hay exceso de atención sobre los benchmarks, y a las empresas les resultaría fácil manipularlos, así que no podemos fiarnos de los números que nos reportan”. Junto a otros dos investigadores españoles, Gonzalo ha probado un truco sencillo pero implacable para comprobar la eficacia de algunos de estos tests más prominentes. El objetivo básico era saber si los modelos leían y respondían como cualquier estudiante o, en cambio, solo buscaban la respuesta en el ingente cuerpo de datos que se ha usado para su entreno.
El resultado es que son aún sobre todo las máquinas más empollonas nunca antes ideadas: “En su primera fase de entrenamiento, en la que aprenden el lenguaje, el procedimiento es de pesca de arrastre: se leen, esencialmente, todo el contenido online. Por tanto, los desarrolladores saben que la probabilidad de que hayan visto la respuesta a un examen disponible online es muy alta”, explica Eva Sánchez Salido, coautora e investigadora en la UNED.
Cómo liar a los modelos
¿Qué detalle han cambiado en el experimento para engañar a los modelos? Los investigadores han sustituido la respuesta correcta por una general que dice: “Ninguna de las otras”. Así, el modelo debía entender la pregunta y razonar, no solo encontrar la respuesta más probable en su memoria. “La respuesta acertada tiene un vocabulario completamente desconectado de la pregunta, lo que le obliga a razonar sobre cada una de las otras respuestas posibles y descartarlas, es una variación mucho más exigente”, dice Gonzalo. “Es verdadera kriptonita para los modelos”, añade.
Según el artículo, “los resultados muestran que todos los modelos pierden precisión de forma notable con nuestra variación propuesta, con una caída promedio del 57% y del 50% [en dos indicadores tradicionales de referencia], y oscilando entre el 10 % y el 93 % según el modelo”, escriben los investigadores en el texto.
Este tipo de variaciones ya se había probado sobre todo con las preguntas, pero ha sido este cambio en las respuestas el que ha dado resultados más claros. “Este cambio tan simple de repente quita un velo a la experimentación con benchmarks y nos permite ver el progreso real en las capacidades de razonamiento aproximado de los sistemas sin el ruido que produce el acierto por memorización”, dice Guillermo Marco, coautor del experimento e investigador en la UNED.
Este cambio no prueba que las IA sean de repente inútiles, pero sí que su capacidad de razonamiento estaba hinchada y que evoluciona de manera más lenta que los departamentos de marketing y expertos en dar bombo pretenden: “Nuestros resultados demuestran que los chatbots, en general, siguen aplicando un tipo de razonamiento intuitivo y tienen una capacidad de generalización escasa”, dice Gonzalo. “En otras palabras, siguen contestando de oídas, intuitivamente, y siguen siendo, en esencia, súpercuñados que lo han leído todo, pero no han asimilado nada”.
El debate sobre las limitaciones de los benchmarks está más extendido de lo que parece. Este mismo martes, uno de los mayores divulgadores sobre IA, Ethan Mollick, pedía tests más fiables.
Another thing Grok 3 highlights is the urgent need for better batteries of tests and independent testing authorities.
Public benchmarks are both «meh» and saturated, leaving a lot of AI testing to be like food reviews, based on taste. If AI is critical to to work, we need more.
— Ethan Mollick (@emollick) February 18, 2025
Hace unas semanas salió otro test llamado “examen definitivo de humanidad” que, de nuevo, los modelos parecen superar rápido más rápido de lo previsto. Son preguntas más difíciles, de nivel doctorado, y con unas respuestas que en principio no se encuentran online. Un problema añadido sobre esta prueba es que el corrector es otro modelo: ChatGPT-o3 mini. Tampoco parece la solución a los problemas de medición: “Es mucho más importante diseñar bien los exámenes, para que los resultados sean interpretables, que inventar exámenes más difíciles como si los chatbots ya tuvieran el nivel de graduados y hubiera que ponerles a hacer una tesis doctoral”, dice Gonzalo.
También es sustancial la diferencia entre lenguas. Estos modelos sacan mejor nota en inglés. Los investigadores han probado con el español para comparar y sale ya peor. En lenguas más minoritarias los resultados deberían ser aún más flojos: “El trabajo lo hemos hecho dentro del proyecto Odesia, un convenio entre Red.es y la UNED para medir la distancia entre el inglés y el español en IA”, dice Gonzalo. “Hemos detectado una tendencia muy clara: cuanto peor es el modelo (en general, cuando son cerebros artificiales con menos neuronas), más se nota la diferencia entre español y inglés”. Esta diferencia tiene más importancia de lo que parece porque los modelos de tamaño reducido se pueden instalar localmente en dispositivos y eso garantiza la privacidad de los datos. “Así se acaban usando modelos que funcionan mucho peor en español que ChatGPT o Claude”, añade Gonzalo.
Todo esto no significa que los modelos de IA tengan un techo claro. Los modelos de lenguaje puros sí que parecen tener un límite, pero los nuevos de razonamiento son más completos que los anteriores. “Por ejemplo, ChatGPT-o3 mini, aunque baja mucho su rendimiento, es el único que consigue aprobar [uno de los benchmarks]. Se están buscando nuevas técnicas de superar el funcionamiento de los modelos de lenguaje”, dice Gonzalo. En las pruebas de los investigadores, junto al único aprobado pelado de GPT-o3 mini, el otro modelo que mejor queda es DeepSeek R1-70b, porque baja menos que el resto su rendimiento con el nuevo test.
Tecnología,Elon Musk,ChatGPT,OpenAI,Sam Altman,Exámenes,Inteligencia artificial,UNED
-
POLITICA1 día ago
Sorpresivo giro en el caso YPF: por una denuncia contra Cristina y Eskenazi, la jueza Preska podría revocar su fallo contra argentina por u$s 16.000 millones
-
CHIMENTOS2 días ago
Se filtró una foto de Susana Giménez en el sanatorio donde fue internada de urgencia su hija: “Está muy preocupada”
-
POLITICA3 días ago
Los 4.000 millones de Axel Kicillof que dejaron al descubierto las trampas de las licitaciones
-
POLITICA2 días ago
Polémica en la CPAC por el gesto de un exasesor de Donald Trump: “Hace referencia a la ideología nazi”
-
CHIMENTOS3 días ago
Santi Maratea deja las colectas y se embarca en un sueño personal
-
POLITICA2 días ago
Mauricio Macri acusó a Santiago Caputo de estar detrás de una “comisión trucha” por la Hidrovía