Connect with us

POLITICA

Criptogate: Para Eugenio Casielles, «es una situación comparable con la fiesta en Olivos»

Published

on


Desde el inicio de la entrevista, Eugenio Casielles marcó distancia con la etiqueta de «libertario»: «Yo no soy libertario, nunca lo fui. Estuve en La Libertad Avanza, pero quiero aclararlo porque no me siento identificado con muchas de las cosas que representa ese sector». En ese sentido, afirmó que no se encasilla en una ideología específica y prefiere analizar «las políticas públicas de manera individual».

«Nada de lo que prometimos se está cumpliendo»

Al referirse al escándalo que involucra al gobierno con criptoactivos, el legislador expresó su desilusión: «Me genera tristeza profunda. Uno formó este espacio creyendo que veníamos a luchar contra la casta, a bajar impuestos y a promover la transparencia, pero nada de eso está sucediendo y parece que al presidente tampoco le importa».

Consultado sobre la responsabilidad de Javier Milei en la situación, Casielles aseguró: «Conducir requiere una dosis de humildad que el presidente no tiene. No creo que sea una persona corrupta ni malintencionada, pero sí tiene un entorno nefasto». En ese sentido, mencionó específicamente a Karina Milei y a Manuel Adorni como parte de los responsables de la crisis.

El legislador también se refirió a las reuniones que mantuvo con empresarios vinculados a las criptomonedas en Casa Rosada: «Todavía no dio explicaciones y ya pasaron cinco días. Es una situación de gravedad comparable con la fiesta de Alberto Fernández en Olivos».

Advertisement

«No hay un plan económico»

En relación al impacto internacional del escándalo, Casielles criticó la falta de claridad en la gestión económica: «¿Cuál es el plan económico del gobierno? No queda claro. Era dolarizar y no dolarizó, era bajar impuestos y no los bajó, era salir del cepo y seguimos con el cepo». Y agregó: «Me parece que estamos ante un plan de marketing más que ante un verdadero plan económico».

Finalmente, el legislador insistió en la necesidad de que los funcionarios brinden explicaciones: «Si un funcionario está seguro de su transparencia y de sus herramientas para explicar un error, sería el primer interesado en tomar un micrófono y aclararlo. Sin embargo, lo único que vemos son entrevistas grabadas y en medios afines».

Con una postura crítica hacia la gestión actual, Casielles dejó en claro su preocupación por el futuro del país: «No sé cuál es el futuro de este escándalo, pero me preocupa mucho más el futuro de Argentina, que tiene problemáticas enormes y un presidente que parece más preocupado por un negocio cripto que por resolverlas». (www.REALPOLITIK.com.ar) 

¿Qué te parece esta nota?


COMENTÁ / VER COMENTARIOS



Criptogate:, Para, Eugenio, Casielles,, "es, una, situación, comparable, con, la, fiesta, en, Olivos"

POLITICA

Después de su inesperada salida, la exdirectora de tecnología de OpenAI Mira Murati anunció su nueva empresa

Published

on



“Me voy porque quiero crear el tiempo y espacio para hacer mis propias exploraciones”, confesó Mira Murati en septiembre pasado cuando anunció su repentina salida de OpenAI como directora de tecnología (CTO). Para ese entonces, los rumores de su renuncia se alineaban con un deseo de fundar su propia empresa. Hoy, pocos meses después, presenta Thinking Machines Lab, la nueva startup de inteligencia artificial que lidera junto con otros reconocidos especialistas.

La nueva compañía se define como una empresa de investigación tecnológica y desarrollo de productos de inteligencia artificial de primera categoría. En su comunicado oficial, aseguran que su misión es construir un futuro en el que todo el mundo tenga acceso a los conocimientos y herramientas fundamentales para que la nueva tecnología se adapte a las necesidades y objetivos particulares de cada uno.

Detrás de este lema fundacional, Thinking Machines Lab explica que el conocimiento de la comunidad científica acerca de los sistemas de inteligencia artificial no avanza al mismo ritmo que la tecnología. De hecho, solo los principales laboratorios de investigación tienen acceso a esta información, lo que limita tanto el discurso público sobre la IA como la capacidad de las personas para utilizarla con eficacia. Además, aseguran que los sistemas existentes aún son difíciles de adaptar a los valores específicos que busca cada persona.

En este marco, están construyendo Thinking Machines Lab con el objetivo de eliminar esas lagunas y lograr que los nuevos modelos de tecnología sean más comprensibles, personalizables y capaces. Para ello, prometen compartir su trabajo publicando notas técnicas e investigaciones, así como su código real. También pondrán énfasis en la colaboración humana. En vez de enfocarse solo en hacer un sistema ultraeficiente y autónomo, en Thinking Machines Lab buscan desarrollar sistemas multimodales que puedan trabajar de manera colaborativa con todo el mundo y adaptarse a todos los sectores laborales.

La seguridad y la privacidad tuvieron su propio protagonismo en el anuncio de esta nueva compañía. Según el comunicado, establecerán barreras sólidas a través de una combinación de investigación proactiva y evaluaciones reales y cuidadosas de los modelos. Dicho esto, generarán diseños que no permitan el mal uso de sus modelos sin quitarle libertad al usuario. Además, compartirán las mejores prácticas que encuentren para construir los sistemas más seguros y, por último —lo más relevante—, harán públicos los datos con los que entrenarán sus modelos y otros detalles específicos.

Advertisement

Esto último supone una innovación, ya que muy pocas empresas comparten esta información con el público. De hecho, OpenAI es una de las que no lo hace y, en los últimos tiempos, sufrió una catarata de denuncias por derechos de autor debido al uso de contenidos sin licencia previa. Un artículo del MIT confirma que casi todos los conjuntos de datos que se utilizan para entrenar a la inteligencia artificial provienen de la internet, apoyando los reclamos legales.

Otro distintivo de la nueva startup está en el equipo de profesionales que Murati reunió en tiempo récord. Entre ellos se encuentran excolegas de OpenAI como John Schulman, cocreador de ChatGPT; Jonathan Lachman, exdirector de proyectos especiales; y Alexander Kirillov, una de las mentes detrás de la creación de la voz de ChatGPT. Además, la compañía ha incorporado a reconocidos ingenieros e investigadores provenientes de gigantes como Meta, Anthropic, Google y Mistral.

OpenAI y su crisis institucional tras las numerosas renuncias

La salida de Murati de OpenAI culminó un éxodo de talentos que venía registrando la empresa en 2024. En mayo, Ilya Sutskever, uno de los primeros empleados de OpenAI, se fue. En agosto, le siguió la baja de Jan Leike, un ingeniero que había trabajado durante años en la seguridad de los productos en conjunto con Sutskever. Ese mismo mes, renunció Schulman —hoy en el equipo de Thinking Machines Lab—, y al mismo tiempo, Greg Brockman, cofundador y colega cercano de Sam Altman, CEO de OpenAI, anunció que se tomaría un tiempo sabático hasta fin de año.

A la salida de Murati, le siguieron dos ejecutivos importantes: Bob McGrew y Barret Zoph. Por un lado, McGrew, director de investigación, dijo que era momento de tomarse un descanso. Por otro, Zoph, exvicepresidente de investigación y hoy CTO de Thinking Machines Lab, afirmó que quería explorar nuevas oportunidades. En paralelo a estas renombradas renuncias, otros empleados clave también dejaron la empresa, generando un escenario de imagen institucional inestable para la grande tech.

Cabe destacar que de los 13 fundadores de OpenAI, hoy quedan formalmente solo tres. ¿La hipótesis de este fenómeno? Los cambios estructurales que OpenAI está implementando en sus políticas de desarrollo y seguridad han generado cierta desconfianza en el círculo líder de la empresa. Uno de ellos: el cambio de una organización sin fines de lucro a una exclusivamente lucrativa, lo que podría traicionar las bases fundacionales de los modelos que están creando.

Esto es especialmente preocupante debido a que OpenAI ya está en la carrera para desarrollar la AGI -una inteligencia artificial que puede hacer cualquier cosa propia del cerebro humano-. De acuerdo con The Vox, la fuga de cerebros fue un proceso de confianza que colapsó poco a poco. Daniel Kokotajlo, quien trabajó por casi dos años en el equipo de gobernanza de OpenAI, detalló que se unió a la empresa con la ilusión de que esta potencial tecnología se maneje con la responsabilidad necesaria. “Poco a poco, muchos nos dimos cuenta de que eso no ocurriría”, reflexionó.

Advertisement

Continue Reading

LO MAS LEIDO

Tendencias

Copyright © 2024 - NDM Noticias del Momento - #Noticias #Chimentos #Politica #Fútbol #Economia #Sociedad