¿Podría la Inteligencia Artificial ocasionar el fin de la civilización?

¿Podría la Inteligencia Artificial ocasionar el fin de la civilización?

Crédito: Pixaobay


Unos investigadores están llevando a cabo una encuesta pública para evaluar las opiniones del público sobre la Inteligencia Artificial (IA) y el software en general. El objetivo principal es conocer en profundidad cómo percibe, teme y espera el público el impacto de la IA en la sociedad.

Investigadores de Lero, el Science Foundation Ireland Research Centre for Software y el University College Cork están estudiando el impacto potencial de la inteligencia artificial (IA) en la civilización. Están interesados en comprender las percepciones y los conocimientos del público sobre la IA y el software en general.

La Dra. Sarah Robinson dirige una encuesta anónima en línea sobre el impacto de la IA y el software
La doctora Sarah Robinson, psicóloga e investigadora postdoctoral sénior de Lero, dirige esta iniciativa e invita al público a participar en una breve encuesta anónima en línea. La encuesta pretende desvelar las esperanzas y temores de la gente respecto a las implicaciones más amplias de la inteligencia artificial (IA) y el software.

Estos investigadores subrayan la importancia de tener en cuenta el punto de vista del público, ya que los debates entre expertos suelen pasar por alto las opiniones de los ciudadanos. Mientras algunos expertos en IA se centran en posibles escenarios apocalípticos, otros se preocupan por problemas inmediatos como la programación sesgada de las máquinas, que puede dar lugar a resultados racistas y sexistas. Dado el importante impacto del software en la vida de todos, la opinión del público es crucial para determinar la responsabilidad asociada al desarrollo de software.

Necesidad urgente de examinar la percepción pública de las implicaciones éticas
El Dr. Robinson señala que los programas informáticos de inteligencia artificial y reconocimiento facial ya se han visto implicados en abusos de los derechos humanos, lo que subraya la urgencia de comprender las actitudes del público hacia la inteligencia artificial y las implicaciones éticas de los programas informáticos.

Según las investigaciones realizadas por la Dra. Abeba Birhane y otros en Lero, los datos utilizados para entrenar ciertos sistemas de IA contienen lenguaje racista y misógino. Esto plantea un problema importante a medida que la inteligencia artificial (IA) se generaliza, ya que los datos sesgados pueden perpetuar el daño y marginar aún más a grupos ya vulnerables.

El objetivo del equipo del Dr. Robinson es conocer las prácticas éticas del software y las prioridades públicas
Aunque existe una considerable cobertura mediática sobre la IA, en particular ChatGPT, y su impacto en la sociedad, la información disponible sobre la percepción que tiene el público del software que nos rodea, como las redes sociales y los servicios de streaming, es limitada.

La doctora Robinson y su equipo están deseosos de conocer el punto de vista del público, incluidas sus preocupaciones, sus prioridades a la hora de promover prácticas de software responsables y éticas, y sus ideas para hacer realidad estos objetivos.

En la encuesta se preguntará a los participantes por sus opiniones y posibles preocupaciones sobre diversos asuntos y temas, con el objetivo de obtener claridad sobre cuestiones críticas. Lero pide al público que aporte sólo 10 minutos de su tiempo para participar en esta breve encuesta.


Read the original article on ScietechDaily.

Read moreAI Unveils Genes Shaping Human Skeletons.

    Share this post