INTERNACIONAL
Yo dirigí la seguridad de productos en OpenAI: cuidado con lo que dice del uso erótico de ChatGPT

En la primavera de 2021, dirigí nuestro equipo de seguridad de productos y descubrí una crisis relacionada con el contenido erótico. Un cliente importante era un juego de rol de aventuras basado en texto que utilizaba nuestra IA para redactar historias interactivas a partir de las elecciones de los jugadores. Estas historias se convirtieron en un hervidero de fantasías sexuales, incluidos encuentros con niños y secuestros violentos, a menudo iniciados por el usuario, pero a veces guiados por la propia IA. Un análisis reveló que más del 30 por ciento de las conversaciones de los jugadores eran “explícitamente lascivas”.
Después de meses intentando decidir dónde poner el límite de la libertad del usuario, finalmente prohibimos que nuestros modelos se utilizaran con fines eróticos. No es que el uso erótico sea malo por sí mismo, sino que había claras señales de advertencia del intenso apego emocional de los usuarios hacia los chatbots de IA. Especialmente para los usuarios que parecían tener problemas de salud mental, las interacciones sexuales volátiles parecían arriesgadas. Nadie quería ser el policía de la moral, pero carecíamos de medios para medir y gestionar cuidadosamente el uso erótico. Decidimos que el uso erótico de la IA tendría que esperar.
Leé también: Microsoft se distanció de OpenAI, su socio: “Nuestro chatbot no tendrá charlas hot”
OpenAI dice ahora que la espera ha terminado, a pesar de los “graves problemas de salud mental” que han afectado a los usuarios de su producto ChatGPT en los últimos meses. El 14 de octubre, su director ejecutivo, Sam Altman, anunció que la empresa había podido “mitigar” estos problemas gracias a nuevas herramientas, lo que les permitía levantar las restricciones sobre contenidos como el material erótico para adultos verificados. Como señalaron los comentaristas, Altman ofreció pocas pruebas de que los riesgos para la salud mental hayan desaparecido o vayan a desaparecer pronto.
La salud mental en el centro de la discusión
Tengo grandes dudas –basadas en mis cuatro años en OpenAI y en la investigación independiente que he realizado desde que dejé la empresa el año pasado– sobre si estos problemas de salud mental realmente se han solucionado. Si la empresa en verdad tiene razones de peso para creer que está preparada para traer de vuelta el uso erótico a sus plataformas, debería mostrar su trabajo.
Leé también: Mientras cada vez más gente se enamora de la IA, un proyecto de ley busca prohibir el matrimonio con bots
La IA se está convirtiendo cada vez más en una parte dominante de nuestras vidas, y también lo son los riesgos de la tecnología que amenazan la vida de los usuarios. La gente merece algo más que la palabra de una empresa de que ha abordado los problemas de seguridad. En otras palabras: demuéstrenlo. La IA se está convirtiendo cada vez más en una parte dominante de nuestras vidas. (Imagen: GeminiAI)
Creo que OpenAI quiere que sea seguro usar sus productos. Pero también tiene un historial de prestar muy poca atención a los riesgos establecidos. Esta primavera, la empresa lanzó –y tras una reacción negativa, retiró— una versión atrozmente “aduladora” de ChatGPT que reforzaba los delirios extremos de los usuarios, como ser perseguidos por el FBI. OpenAI admitió más tarde que no tenía pruebas de adulación como parte del proceso de despliegue de nuevos modelos, a pesar de que esos riesgos son bien conocidos en los círculos de IA desde al menos 2023. Estas pruebas pueden realizarse por menos de 10 dólares de poder de cómputo.
Después de que OpenAI recibiera informes preocupantes, dijo que había sustituido el modelo por una versión “más equilibrada” y menos aduladora. No obstante, ChatGPT siguió guiando a los usuarios por espirales de salud mental. Desde entonces, OpenAI ha dicho que tales problemas entre los usuarios “pesan mucho” sobre la empresa y ha descrito algunos cambios que tiene previstos. Pero la cuestión importante para los usuarios es si estos cambios funcionan.
Casos de suicidios relacionados con ChatGpt
La fiabilidad de las afirmaciones de seguridad de OpenAI es cada vez más una cuestión de vida o muerte. Una familia demandó a OpenAI por el suicidio de su hijo adolescente, quien había dicho a ChatGPT que quería dejar una soga visible “para que alguien la encuentre e intente detenerme”. ChatGPT lo instó a que no la dejara a la vista. En otra muerte relacionada con ChatGPT, un hombre de 35 años decidió que no podía seguir adelante sin su “amada”, un personaje de ChatGPT que, según dijo, OpenAI había “asesinado”. Los psiquiatras a los que he entrevistado advierten que ChatGPT refuerza los delirios de los usuarios y empeora su salud mental.
Y los riesgos van más allá de los actos de OpenAI. Recuerdo haber sentido náuseas el año pasado al leer sobre un usuario de 14 años de Character.ai que se quitó la vida tras sugerir que él y el chatbot podían “morir juntos y ser libres juntos”.
Para que OpenAI genere confianza, debería comprometerse a seguir un calendario constante de informar al público sus métricas de seguimiento de los problemas de salud mental (quizás trimestralmente). Otras empresas tecnológicas, como YouTube, publican informes de transparencia similares, al igual que Meta y Reddit. Aunque no son panaceas, estos informes empujan a las empresas a estudiar activamente estas cuestiones, a responder a ellas y a invitar al público a revisar sus soluciones. (Por ejemplo, digamos, ¿es YouTube capaz de detectar los videos que violan las políticas antes de que hayan acumulado muchas visitas?).
OpenAI dio un gran primer paso el lunes al publicar la prevalencia de problemas de salud mental como la ideación suicida y la psicosis en su plataforma, pero lo hizo sin compararla con los índices de los últimos meses. Dada la preocupante frecuencia e intensidad de los incidentes reportados últimamente, tal comparación es importante para enseñar una mejora demostrable. No puedo evitar preguntarme por esta ausencia, y espero que la empresa haga algo al respecto. Hasta las empresas con las mejores intenciones pueden beneficiarse de una presión constructiva.
Las medidas voluntarias de responsabilidad son un buen comienzo, pero algunos riesgos pueden requerir leyes estrictas. La industria de la IA no es ajena a escatimar bajo la presión de la competencia: xAI de Elon Musk tardó varios meses en adoptar y publicar su marco de gestión de riesgos de la IA. Tanto Google DeepMind como OpenAI parecen haber incumplido sus compromisos de publicar los resultados de las pruebas de seguridad antes de la introducción de un producto importante. Anthropic suavizó los compromisos de seguridad justo antes de su fecha límite, aparentemente para que fueran más fáciles de cumplir.
Las presiones de la competencia
Me entristece ver cómo OpenAI sucumbe a estas presiones competitivas. Durante mis entrevistas de trabajo en 2020, me acribillaron con preguntas sobre los Estatutos de OpenAI, que advierten que el desarrollo de una IA poderosa se convertiría en “una carrera competitiva sin tiempo para tomar las precauciones de seguridad adecuadas”. Pero el pasado enero, cuando una empresa emergente china, DeepSeek, saltó a los titulares por su ostentoso modelo de IA, Altman escribió que era “legítimamente estimulante tener un nuevo competidor” y que OpenAI haría “algunos lanzamientos”.
Precisar las prácticas actuales de seguridad de IA, incluso en medio de la tentación de avanzar más deprisa, es fundamental para gestionar los riesgos futuros. Los daños a la salud mental son relativamente fáciles de identificar; otros problemas, como los sistemas de IA que intentan engañar a los humanos que los desarrollan, son más difíciles. Ya estamos viendo evidencia de modelos que reconocen que están siendo puestos a prueba y ocultan capacidades preocupantes.
Altman incluso reafirmó recientemente que cree, al igual que muchos de los principales científicos de IA del mundo, que la IA supone una “amenaza para la existencia de la humanidad“. Para controlar los sistemas de IA altamente capaces del futuro, es posible que las empresas tengan que bajar la velocidad lo suficiente para que el mundo invente nuevos métodos de seguridad, unos que ni siquiera los grupos malintencionados puedan eludir.
Si nos hemos de fiar de OpenAI y sus competidores para que construyan las tecnologías radicales a las que aspiran, deben demostrar que son dignos de confianza en la gestión de los riesgos actuales.
(*) Steven Adler es autor del boletín Clear-Eyed AI y miembro del Roots of Progress Institute. Trabajó en OpenAI desde diciembre de 2020 hasta noviembre de 2024.
The New York Times
INTERNACIONAL
Biden admin skirted rules to deliver massive contract to nonprofit run by ex-official, IG report reveals

NEWYou can now listen to Fox News articles!
EXCLUSIVE: A new Inspector General’s report released Thursday morning accuses the former Biden administration of bypassing federal rules when issuing a more than half-a-billion dollar «sole source contract» to a nonprofit led by a former Biden official to deal with the unaccompanied minor crisis in 2021.
The Administration of Children and Families (ACF), which is under HHS and manages unaccompanied minors, awarded $529 million for a 1-year contract in March 2021 to a nonprofit called Family Endeavors, Inc. to help establish and manage a new emergency intake site in Texas (EIS) with 2,000 extra beds. However, according to the OIG’s new report, Biden’s ACF failed to follow federal procurement requirements that require full and open competition due to their own «insufficient planning,» rather than the COVID induced emergency the Biden administration cited.
Furthermore, the inspector general’s report found that the contract price was more than double the agency’s own cost estimate of $244 million, and indicated that the agency «subsequently modified» the award 15 times, extending the period until May 2022 and increasing the value to more than three times the original estimate from ACF.
DOGE SAYS TEXAS NONPROFIT WITH FORMER BIDEN TRANSITION MEMBER REAPED MILLIONS OPERATING EMPTY FACILITY
A family seen walking towards a barrier blocking passage across the U.S. border. (Department of Health and Human Services)
«ACF knew well in advance of March 2021 that it was projected to need more shelter beds than existing sites could provide and should have begun contract planning at that time,» the report states. «ACF failed to reasonably conduct the necessary advanced planning to execute a contract for procurement of those beds and related services using full and open competition.»
The report says ACF made only a limited attempt to do the necessary research for the contract, and did not even follow the findings it came up with.
«On March 5, 2021, Endeavors emailed ORR offering emergency assistance for the care of unaccompanied alien children. On March 13, 2021, Endeavors emailed ORR again with an unsolicited proposal, which included a statement of capabilities and concept of operations for an emergency shelter to serve unaccompanied alien children. Three days later, on March 16, 2021, ACF awarded a firm-fixed-price sole source contract to Endeavors to provide and operate an EIS facility in Pecos, Texas,» the report states.

Images of the emergency intake site in Pecos, Texas operated by Family Endeavors, Inc. The nonprofit received $529 million to build out 2,000 beds. (Department of Health and Human Services)
The contract beginning March 2021 was «by far the largest ever» for Endeavors Family, Inc., and came months after the company hired Andrew Lorenzen-Strait, who served as an adviser to the Biden-Harris transition team. The contract was also the second largest ever awarded by the agency, according to Axios.
«Despite multiple requests, ACF could not provide support for its review of the Endeavors quote, the price analysis techniques used to analyze the quote, or an [independent Government cost estimate] for an EIS dated before the contract was awarded,» the new inspector general’s report states. «When we asked for documentation, ACF told us that it was under significant time constraints to award contracts.»
WHITE HOUSE, DHS PUSH BACK ON CLAIMS ICE TARGETED 5-YEAR-OLD IN MINNESOTA, SAY CHILD WAS ‘ABANDONED’
Family Endeavors Inc. told Axios that its work on the border was a «continuation of services» that it has conducted for the migrant population since 2012. By April 2021, a month after the contract began, federal procurement records showed ACF had already paid $255 million of the no-bid contract to the nonprofit, which had already dwarfed the nonprofit’s total $43 million budget in 2018.
Family Endeavors, Inc. did not immediately respond to an after-hours email from Fox News seeking comment.
In September 2023, then-Chairman of the House Homeland Security Committee, former Rep. Mark Green, R-Tenn., and then-Chairman of the House Subcommittee On Oversight, Investigations and Accountability, former-Rep. Dan Bishop, R-N.C., sent a letter to Lorenzen-Strait about his ties to both the Biden administration and Endeavors. The letter requested him to both reach out to the committee for an interview and mandated he preserve records on his communications with leaders involved in granting other «sole source» contracts.
«On January 20, 2021, Family Endeavors, Inc. (Endeavors) named you the Senior Director for Migrant Services and Federal Affairs. Immediately preceding your position with Endeavors, you served on the Biden-Harris transition team, and previously was an Immigration and Customs Enforcement (ICE) official,» the letter said. «In March 2021, just two months after you joined Endeavors, ICE awarded an $86.9 million sole source contract to Endeavors to provide beds and services in hotels for migrants who illegally crossed the Southwest border.»
The letter cites an undercover video recording from Project Veritas of Lorenzen-Strait «boasting» about his participation in government contracts related to migrant services.
CLICK HERE TO DOWNLOAD THE FOX NEWS APP
«Specifically, you refer to the Endeavors contract as a ‘corrupt bargain.’ You further discuss ‘brokering’ a deal that won Cherokee Federal, a team of tribally owned federal contracting companies, a nearly $2 billion contract with the Department of Health and Human Services (HHS) to provide services to unaccompanied alien children,» the letter continues with its claims. «In the video, you admit that Cherokee Federal is not equipped to handle the contract. You also admit that while you are publicly involved with the company Deep Water Point & Associates, you hid participation in government contracts through the entities, VerdinPoint and The Tanager Group.»
A HHS spokesperson said that under President Donald Trump the ACF is implementing stricter accountability measures and strengthening oversight.
«The previous administration wasted more than $1.8 billion dollars on a facility intended to house illegal aliens that was not even used in the last year of the previous administration, and that kind of fiscal mismanagement is exactly what Secretary Kennedy is working to correct,» the spokesperson said. «In fact, this contract was cancelled in the early months of the Trump administration as soon as this mismanagement was discovered. HHS and ORR remain fully committed to protecting children, restoring accountability at every level of the system, and putting Americans first.»
Edmund DeMarche contributed to this report.
immigration,joe biden,homeland security,deportation,politics,banking finance
INTERNACIONAL
EE.UU. presiona a Venezuela para que haga más para estimular la inversión

Postura
INTERNACIONAL
Russia to suspend flights to Cuba as Trump sanctions cut fuel supply

NEWYou can now listen to Fox News articles!
Russia will temporarily suspend flights to Cuba after airlines reported difficulties refueling aircraft on the island, aviation authorities said Wednesday.
Russia’s Federal Air Transport Agency Rosaviatsia said in a statement posted on Telegram that the airlines Rossiya, part of the Aeroflot Group, and Nordwind were forced to adjust their flight programs due to problems securing fuel in Cuba.
In the coming days, Rossiya will operate several outbound-only flights from Havana and Varadero to Moscow to return Russian tourists home before halting service.
After those repatriation flights are completed, the airline’s Cuba program will be suspended until the situation improves, the agency said, calling the decision one made «in the interests of passengers.»
US MILITARY SEIZES ANOTHER FUGITIVE OIL TANKER LINKED TO VENEZUELA
Aeroflot Russian Airlines and Rossiya Airlines jet aircraft at Moscow-Sheremetyevo International Airport in Moscow, Russia, Sept. 16, 2021. (Leonid Faerberg/SOPA Images/LightRocket via Getty Images)
The Transport Ministry and Rosaviatsia said they are maintaining close contact with Cuban aviation authorities and are exploring alternative options to restore two-way service.
The announcement comes two weeks after President Donald Trump declared a national emergency over Cuba and authorized new measures aimed at choking off the island’s oil supplies.
CUBA PROTESTERS DEMAND FOOD, ELECTRICITY AS RUBIO SAYS NATION ON ‘VERGE OF COLLAPSE’ FROM MARXIST POLICIES

A vehicle fills up with fuel at a gas station in Havana, Cuba, Jan. 28, 2026. (Yamil Lage/AFP via Getty Images)
In a Jan. 29 executive order, Trump said Cuba poses an «unusual and extraordinary threat» to U.S. national security and empowered his administration to impose tariffs on goods from any country that «directly or indirectly sells or otherwise provides any oil to Cuba.»
The order, which took effect Jan. 30, allows additional duties on imports from countries found to be supplying oil to Havana, part of what Trump described as a «zero tolerance» policy toward the Cuban government.
The Federal Aviation Administration’s website shows a Notice to Airmen, or NOTAM, an official alert issued to pilots about hazards or operational disruptions, was posted Feb. 10 for nine Cuban airports warning that Jet A-1 fuel is not available.

Passengers carry their luggage at Jose Marti International Airport in Havana, Cuba, July 2, 2025. (Yamil Lage/AFP via Getty Images)
CLICK HERE TO DOWNLOAD THE FOX NEWS APP
The advisory covers Havana (MUHA), Varadero (MUVR), Cienfuegos (MUCF), Santa Clara (MUSC), Camagüey (MUCM), Cayo Coco (MUCC), Holguín (MUHG), Santiago de Cuba (MUCU) and Manzanillo (MUMZ), and remains in effect through March 11.
cuba,airlines,sanctions,donald trump
POLITICA2 días agoAcuartelamiento policial en Santa Fe: reclamo salarial y temor a un conflicto nacional de seguridad
POLITICA2 días agoLa advertencia de ATE a los gobernadores que apoyan la reforma laboral: “Firmarán su sentencia de muerte”
ECONOMIA2 días agoCuánto le cuesta a la clase media llenar el changuito y cómo varían los precios de los alimentos entre provincias

















