[S10E17] Inteligencia Artificial, sesgos y error

12 de sep. de 2022 · 1h 47m 1s
[S10E17] Inteligencia Artificial, sesgos y error
Descripción

La inteligencia artificial es algo ubicuo en nuestras vidas y a ella se encomiendan cada vez más tareas, algunas de las que somos conscientes y otras de las que no,...

mostra más
La inteligencia artificial es algo ubicuo en nuestras vidas y a ella se encomiendan cada vez más tareas, algunas de las que somos conscientes y otras de las que no, y se lo hace partiendo de la premisa de que, al no estar sujeta a problemas de criterio humano sino solamente a un análisis sistemático de la realidad, esta no se equivocaría. Sin embargo, la inteligencia artificial está sujeta a muchísimas fuentes de error de distintos tipos, y dedicamos nuestro programa a comentar algunos de estos.
El primer gran grupo de problemas son los relacionados a los sesgos, tanto del corpus como de la propia definición de variables. El sesgo, que es un problema que se ha trabajado en varias disciplinas (desde la bibliotecología hasta las neurociencias) se observa en la IA de muchas maneras: a veces reproduce problemas sociales al aplicar acríticamente datos de sociedades desiguales y problemáticas y otras deja de lado dimensiones enteras de los problemas que analiza, generando nuevas injusticias y problemas de carácter social.
Pero, además, hay problemas que no surgen de los corpus y bases de datos y su composición sino de la propia arquitectura técnica de los sistemas. Por eso, analizamos algunas formas en las que se producen errores en los sistemas y algunas maneras en las que algunos las inducen a ello.

Links a cosas sobre las que hablamos en el programa

Charla sobre algunos de los problemas de las grandes corporaciones tecnológicas y como evitar algunos: https://tube.undernet.uy/w/q6gKWhofAVdgmGp1PzGopY
Entrevista a William Isaac sobre algunos peligros de la IA: https://montisvisitranslatorum.wordpress.com/2020/11/23/los-verdaderos-peligros-de-la-ia-estan-mas-cerca-de-lo-que-pensamos-karen-hao-entrevista-a-william-isaac/
Artículo sobre el paper que provocó el despido de Timnit Gebru y sobre los problemas alrededor: https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/
Publicación del equipo técnico de Twitter sobre los problemas de sus algoritmos: https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm
Artículo sobre algunos problemas de sesgo de los algoritmos de Twitter: https://www.wired.com/story/twitters-photo-cropping-algorithm-favors-young-thin-females/
Artículo sobre la IA de Google y los gorilas: https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/
Otro artículo sobre la IA de Google y los gorilas: https://www.bbc.com/news/technology-33347866
Artículo sobre algunos problemas con el aprendizaje adversarial en reconocimiento de imágenes: https://bdtechtalks.com/2020/08/03/machine-learning-adversarial-image-scaling/?utm_source=pocket_mylist

El Opio se emite en vivo por nuestro canal de Twitch: https://www.twitch.tv/el_opio_

Conducen: Adrián Barrera y Joaquín Moreira Alonso.
Participa: Emilio Delgado
Produce: Laura Sandoval

Twitter: https://twitter.com/opiodelasmasas
Mastodon: https://mastodon.uy/@el_opio_
Facebook: https://www.facebook.com/elopiodelasmasas
YouTube: https://www.youtube.com/channel/UCS4lvM0jqy156dNUDVCeBNQ
PeerTube: https://tube.undernet.uy/c/elopio/videos
Twitch: https://www.twitch.tv/el_opio_
mostra menos
Información
Autor UyCast
Organización UyCast
Página web -
Etiquetas

Parece que no tienes ningún episodio activo

Echa un ojo al catálogo de Spreaker para descubrir nuevos contenidos.

Actual

Portada del podcast

Parece que no tienes ningún episodio en cola

Echa un ojo al catálogo de Spreaker para descubrir nuevos contenidos.

Siguiente

Portada del episodio Portada del episodio

Cuánto silencio hay aquí...

¡Es hora de descubrir nuevos episodios!

Descubre
Tu librería
Busca