miércoles, abril 24, 2024
InicioPortadaItalia levantó el bloqueo a ChatGPT ante la promesa de "más transparencia"
spot_img

Italia levantó el bloqueo a ChatGPT ante la promesa de “más transparencia”

La app de inteligencia artificial estaba prohibida desde el pasado 31 de marzo.

Italia permitió hoy la reactivación de la herramienta de Inteligencia Artificial ChatGPT, un mes después de bloquearla, ya que la plataforma ha prometido “más transparencia y más derechos a usuarios y no usuarios europeos”.

El Garante italiano para la Protección de Datos Personales informó hoy de que la sociedad estadounidense OpenAI, que gestiona ChatGPT, ha anunciado en un comunicado nuevas medidas para respetar la privacidad de los usuarios de internet.

El pasado 31 de marzo, las autoridades italianas dispusieron el bloqueo “con efecto inmediato” de esta herramienta de Inteligencia Artificial acusándola de no respetar la ley de protección de datos de los consumidores.

Una medida que se mantendría hasta que ChatGPT “no respete la disciplina de la privacidad” y el 12 de abril el Garante envió a OpenAI una serie de disposiciones.

El popular ChatGPT ha sido desarrollado por la compañía OpenIA de Estados Unidos, donde varias organizaciones han pedido también su suspensión por recelar de estos experimentos con Inteligencia Artificial.

Al bloquearlo, el organismo italiano lamentó que este chat, el más conocido de la emergente inteligencia artificial, capaz de simular conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados.

En su disposición, el garante italiano destacaba “la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI” pero “sobre todo la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”.

Además, alegaba, las informaciones generadas por ChatGPT “no siempre corresponden” a la realidad.

Por último, Italia lamentaba “la ausencia de todo tipo de filtro” en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años.

España sienta posición

La aplicación está siendo usada (y cuestionada) en todo el mundo. Foto AP


La aplicación está siendo usada (y cuestionada) en todo el mundo. Foto AP

La vicepresidenta primera y ministra de Asuntos Económicos y Transformación Digital de España, Nadia Calviño, se mostró a favor este miércoles de que la inteligencia artificial (IA) continúe su desarrollo, pero pidió que éste se haga en línea con los principios democráticos y con los marcos legal e institucional adecuados.

“Creo que este es un proceso que puede ser y que es una palanca para la prosperidad y el crecimiento, la productividad, por lo que no se detendrá, no se puede detener”, afirmó Calviño durante una conferencia sobre tecnología organizada por el medio europeo Politico.

La vicepresidenta española fue preguntada por si se alinea con quienes han pedido un frenazo en el desarrollo de aplicaciones de inteligencia artificial como ChatGPT al considerar que suponen una amenaza para las democracias.

Calviño rechazó esa postura pero alertó de que “ahora es el momento de establecer las reglas”, de modo que esa tecnología sirva para “el bien de la sociedad” y “proteja nuestros valores democráticos o valores europeos, nuestros derechos como ciudadanos, derechos individuales privados, pero también derechos colectivos”.

El objetivo es asegurarse, dijo, de que “los ciudadanos puedan confiar en estas nuevas tecnologías”, así como las empresas, y que “podamos seguir avanzando en el desarrollo tecnológico sin poner en peligro algunos de los principios fundamentales de nuestras sociedades democráticas”.

En su opinión, además, “establecer el marco legal e institucional adecuado en este momento” será “la única manera de garantizar que la IA pueda progresar” y sea “compatible con las expectativas de nuestros ciudadanos”.

“Las normas éticas no se producen por accidente en los desarrollos tecnológicos. Tienen que insertarse por diseño”, comentó, y agregó que a las empresas también “les interesa tener un marco claro y asegurarse de que el diseño de los algoritmos integra esos principios y valores éticos desde el principio para que no nos llevemos sorpresas desagradables más adelante”.

Mirá también


Source link

RELATED ARTICLES
spot_img
spot_img

Most Popular

Aguachica

Indicativos

Ir al contenido