Connect with us

INTERNACIONAL

Atentado a Trump: el Servicio Secreto tenía información de un plan de Irán para matar al candidato republicano

Published

on


Tres días después del atentado contra Donald Trump en un acto de campaña en Pensilvania, ahora se conoció que fuentes de inteligencia de Estados Unidos reportaron un plan de Irán para asesinar al candidato presidencial republicano.

La expectativa por la seguridad de Trump es materia de discusión desde el sábado, cuando Thomas Matthew Crooks, un joven de 20 años, hizo cinco disparos en un acto político en Butler, de los cuales uno hirió a Trump.

Ahora, múltiples fuentes le indicaron a la CNN que los Servicios Secretos de los Estados Unidos estaban al tanto de un plan de Irán para matar al expresidente. La misma fuente afirma, sin embargo, que no hay evidencia que conecte a la inteligencia iraní con el caso del último sábado, por el que Trump acabó herido en la oreja derecha.

Este martes, Anthony Guglielmi, vocero del Servicio Secreto, se refirió a las versiones que durante el domingo y el lunes comentaban que la cúpula de esa fuerza sí tuvo alertas por parte de civiles de la posición de Crooks en el tejado desde el que disparó: «El Servicio Secreto y otras agencias están recibiendo constantemente información sobre amenazas y tomando medidas para administrar los recursos», dijo.

Tras el atentado, Trump continúa por estas horas su gira previa a las elecciones de noviembre. Esta semana se lleva a cabo la Convención Republicana en Milwaukee, donde este lunes Trump ungió a su candidato a vice, J. D. Vance.

Donald Trump, tras el ataque en Pensilvania.

El estado de la investigación y la respuesta de Irán

El director del Consejo Nacional de Seguridad de ese país, Adrienne Watson, declaró que la investigación del atentado se encuentra activa.

«Hasta el momento, no se identificaron lazos entre el tirador [Crooks] y algún cómplice local o extranjero», declaró Watson, en línea con la información de la cadena CNN.

La Misión Permanente de la República Islámica de Irán en las Naciones Unidas negó cualquier acusación de planeamiento de un atentado contra el candidato norteamericano.

El vocero de la comitiva declaró: «Las acusaciones son infundadas y maliciosas. Desde la perspectiva de la República Islámica de Irán, Trump es un criminal que debe ser perseguido y condenado en un tribunal por ordenar el asesinato del general Qasem Soleimani. Irán persigue el camino legal para llegar a la justicia».

Advertisement

INTERNACIONAL

Este chatbot aleja a la gente de las teorías conspirativas

Published

on


Poco después de que la inteligencia artificial generativa se popularizara, los investigadores advirtieron que los chatbots crearían un grave problema:

a medida que la desinformación se volviera más fácil de crear, las teorías conspirativas se propagarían desenfrenadamente.

Herramienta

Ahora, los investigadores se preguntan si los chatbots también podrían ofrecer una solución.

DebunkBot, un chatbot de IA diseñado por investigadores para «persuadir de manera muy eficaz» a los usuarios de que dejen de creer en teorías conspirativas infundadas, logró un progreso significativo y duradero en el cambio de las convicciones de las personas, según un estudio publicado el jueves en la revista Science.

De hecho, hasta la mitad del público estadounidense cree en teorías falsas y pueden tener consecuencias perjudiciales, como desalentar las vacunas o fomentar la discriminación.

Los nuevos hallazgos desafían la creencia generalizada de que los hechos y la lógica no pueden combatir las teorías conspirativas.

El DebunkBot, construido sobre la tecnología que sustenta ChatGPT, puede ofrecer una forma práctica de canalizar los hechos.

«El trabajo cambia mucho la forma en que pensábamos sobre las conspiraciones», dijo Gordon Pennycook, profesor de psicología en la Universidad de Cornell y coautor del estudio.

Hasta ahora, la sabiduría convencional sostenía que una vez que alguien caía en la madriguera de las conspiraciones, ninguna cantidad de argumentos o explicaciones podía sacar a esa persona de allí.

La teoría era que las personas adoptan teorías conspirativas para saciar una necesidad subyacente de explicar y controlar su entorno, dijo Thomas Costello, otro coautor del estudio y profesor adjunto de psicología en la American University.

Pero Costello y sus colegas se preguntaron si podría haber otra explicación:

¿qué pasa si los intentos de desacreditarlas simplemente no han sido lo suficientemente personalizados?

Dado que las teorías conspirativas varían tanto de una persona a otra (y cada persona puede citar diferentes piezas de evidencia para respaldar sus ideas), tal vez un guión de desacreditación único para todos no sea la mejor estrategia.

Un chatbot que pueda contrarrestar la afirmación conspirativa de cada persona con montones de información podría ser mucho más efectivo, pensaron los investigadores.

Para probar esa hipótesis, reclutaron a más de 2.000 adultos en todo el país, les pidieron que explicaran una conspiración en la que creían y que calificaran cuánto creían en ella en una escala de cero a 100.

Las personas describieron una amplia gama de creencias, incluidas las teorías de que el alunizaje había sido una puesta en escena, que el COVID-19 había sido creado por humanos para reducir la población y que el presidente John F. Kennedy había sido asesinado por la CIA.

Luego, algunos de los participantes tuvieron una breve discusión con el chatbot.

Sabían que estaban chateando con una IA, pero no sabían el propósito de la discusión.

Los participantes tenían la libertad de presentar la evidencia que creían que respaldaba sus posiciones.

Un participante, por ejemplo, creía que los ataques terroristas del 11 de septiembre fueron un «trabajo interno» porque el combustible para aviones no podría haber ardido lo suficientemente caliente como para derretir las vigas de acero del World Trade Center.

El humo se eleva desde las torres gemelas en llamas del World Trade Center después de que aviones secuestrados se estrellaran contra ellas el 11 de septiembre de 2001 en la ciudad de Nueva York. El fotógrafo de Associated Press, Richard Drew, habla sobre la cobertura de AP del 11 de septiembre y los acontecimientos que siguieron. (Foto AP/Richard Drew)

«Es un error común pensar que el acero tuvo que derretirse para que las torres del World Trade Center colapsaran», escribió.

“El acero empieza a perder fuerza y ​​se vuelve más maleable a temperaturas mucho más bajas que su punto de fusión, que ronda los 2500 grados Fahrenheit”.

Después de tres intercambios, que duraron unos ocho minutos en promedio, los participantes volvieron a calificar la firmeza con la que se sentían respecto de sus creencias.

En promedio, sus calificaciones cayeron alrededor de un 20%; aproximadamente una cuarta parte de los participantes ya no creían en la falsedad.

El efecto también se extendió a sus actitudes hacia otras teorías poco sustentadas, lo que hizo que los participantes fueran ligeramente menos conspiradores en general.

Ethan Porter, un investigador de desinformación de la Universidad George Washington que no está asociado con el estudio, dijo que lo que diferenciaba al chatbot de otras intervenciones de desinformación era la solidez del efecto.

Cuando se encuestó a los participantes dos meses después, el impacto del chatbot en las creencias erróneas se mantuvo sin cambios.

“A menudo, cuando estudiamos los esfuerzos para combatir la desinformación, descubrimos que incluso las intervenciones más efectivas pueden tener una vida útil corta”, dijo Porter.

“Eso no es lo que sucedió con esta intervención”.

Los investigadores todavía están tratando de averiguar exactamente por qué el DebunkBot funciona tan bien.

Un estudio de seguimiento no publicado, en el que los investigadores eliminaron las sutilezas del chatbot (“Aprecio que se haya tomado el tiempo de investigar el asesinato de JFK”) arrojó los mismos resultados, lo que sugiere que es la información, no el chatbot en sí, lo que está cambiando la mente de las personas, dijo David Rand, un científico social computacional del Instituto Tecnológico de Massachusetts y autor del artículo.

“Son los hechos y las pruebas en sí mismos los que realmente están haciendo el trabajo aquí”, dijo.

Ensayo

Los autores están explorando cómo podrían recrear este efecto en el mundo real, donde las personas no necesariamente buscan información que refute sus creencias.

Han considerado la posibilidad de vincular el chatbot a foros en los que se comparten estas creencias, o de comprar anuncios que aparezcan cuando alguien busque una palabra clave relacionada con una teoría conspirativa común.

Para un enfoque más específico, dijo Rand, el chatbot podría ser útil en la consulta de un médico para ayudar a desacreditar los malentendidos sobre las vacunas.

Brendan Nyhan, investigador de percepciones erróneas del Dartmouth College que tampoco participó en el estudio, se preguntó si la reputación de la IA generativa podría cambiar con el tiempo, haciendo que el chatbot fuera menos fiable y, por tanto, menos eficaz:

«Podemos imaginarnos un mundo en el que la información sobre IA se vea como se ve a los medios de comunicación convencionales».

«Me pregunto si la forma en que la gente reacciona a estas cosas está potencialmente limitada en el tiempo».

c.2024 The New York Times Company

Continue Reading

LO MAS LEIDO

Tendencias

Copyright © 2024 - NDM Noticias del Momento - #Noticias #Chimentos #Politica #Fútbol #Economia #Sociedad