La empresa OpenAI informó que busca evitar que su modelo de lenguaje, comúnmente llamado “Inteligencia Artificial”, ChatGPT, se vuelva un riesgo para los humanos, esto porque se busca evitar que sea utilizado para actividades militares, como la creación de armas biológicas.
Y justo en su política de uso señala que su servicio no puede usarse para hacer daño a uno mismo ni a otros.
Lo anterior fue especificado por la compañía porque ha estado analizando si el uso de ChatGPT puede contribuir a la creación de armas biológicas.
En su estudio, OpenAI, involucró a 100 personas divididas en dos grupos que debían tratar de desarrollar las armas químicas; un equipo sólo usando internet, y el otro empleando internet y ChatGPT.
Entre quienes participaron había expertos en química y biología, estudiantes ajenos a estas materias y con conocimientos básicos para asegurar que englobaban a distintas áreas de investigación.
La pluralidad se aplicó para evaluar si su modelo de lenguaje podría servir para agilizar el proceso de creación de armas químicas, incluso para quienes apenas saben del tema.
TE VA A INTERESAR: ¿Al cesto o al inodoro? La IA nos dice donde debe ir el papel higiénico
¿Sirve ChatGPT para crear armas biológicas?
La respuesta de la investigación es que no lograron determinar si ChatGPT tenía un papel importante en la elaboración de armas biológicas, es decir, el estudio no fue concluyente.
Sin embargo, sí vieron “ligera mejora” en algunas fases del proceso de creación de armas en el grupo que usó la Inteligencia Artificial.
Pese a los resultados, los investigadores dejaron claro que no hay nada que certifique, hasta el momento, que ChatGPT de OpenAI sirva para crear armas químicas, pero creen que en futuro podría tener “cierto potencial”.
Por lo tanto, los ingenieros de la marca deberán optimizar su seguridad para proteger a la humanidad de esa posible amenaza.
Cuando se solicita ayuda a ChatGPT para crear un arma biológica, la respuesta que da es que NO puede hacerlo.
TE VA A INTERESAR: Según Chat GPT, este es el mejor lugar de Acapulco
¿Qué dicen las reglas de ChatGPT sobre su uso militar?
Pero OpenAI ya se está cuidando las espaldas para intentar evitar que su IA se utilice para fines malévolos.
La empresa de tecnología restringía específicamente el uso de su chatbot para fines militares y en guerras. Medios especializados en tecnología indican que eso cambió a mediados de enero del 2024, aunque siguen limitando su uso para hacer daño a la humanidad:
“No utilices nuestros servicios para hacerte daño a ti mismo o a otros. Por ejemplo, para promover el suicidio o autolesionarte, desarrollar o utilizar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema”, señala OpenAI.
Para esta y más información, síguenos en nuestras redes sociales como en Facebook: Azteca Guerrero , vía X: @Azteca_Gro , Instagram: @tvaztecaguerrero y TikTok: @tvaztecaguerrero