Salta al contenido principal
Requisitos de finalización

📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

Número de respuestas: 18

Enunciado:
Lee el siguiente caso y responde las preguntas al final:

Caso:
Un sistema de inteligencia artificial fue implementado en una empresa para seleccionar candidatos a un puesto de trabajo. Sin embargo, se descubrió que el algoritmo rechazaba sistemáticamente a mujeres en favor de hombres, ya que había sido entrenado con datos históricos donde la mayoría de contrataciones fueron masculinas.

Preguntas:

  1. ¿Qué error crees que ocurrió en el desarrollo de esta IA?

  2. ¿Cómo podríamos evitar que ocurran este tipo de sesgos en la IA?

  3. ¿Crees que la IA debería tomar decisiones importantes sin supervisión humana? ¿Por qué?

Objetivo:
Reflexionar sobre el impacto social y los sesgos en los sistemas de IA.

En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Maria Martinez -
1. el principal error es el sesgo en los datos , la IA aprendió de los datos anteriores donde la mayoría de personal era de sexo masculino, por eso deja a un lado la selección de personal femenino
2. se podría hacer un monitoreo en el algoritmo para detectar el error y poder corregirlo
3. es fundamental que las decisiones importantes tomadas por la IA tenga la supervision de un humano
la IA es una herramienta fundamental y valiosa pero no se debe dejar a un lado el juicio humano
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Diana Ramirez -
¿Qué error pasó?
Creo que el error fue confiar ciegamente en los datos del pasado, sin pensar que esos datos ya venían cargados de machismo. Si la IA solo vio que antes contrataban más hombres, pues simplemente repitió lo mismo… como si dijera: “esto es lo normal”. Pero no es justo, y menos en algo tan importante como darle trabajo a alguien.
¿Cómo se puede evitar?
Yo pienso que hay que mirar los datos con lupa antes de usarlos. No basta con tener mucha información, hay que preguntarse si esa información es justa. Y además, la IA no puede andar sola. Necesita gente detrás que revise, corrija y se asegure de que no esté discriminando sin querer.

¿Debe decidir sola la IA?
Para mí, no. La IA es útil, sí, pero no tiene empatía, ni historia, ni sentido común. Puede ayudar, pero no debería tener la última palabra en decisiones que afectan la vida de una persona. Eso le toca al ser humano, con todo lo que somos: emociones, criterio, y corazón.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Manuel Torres -
1. Error en el desarrollo de la IA
El principal error fue que el modelo fue entrenado con datos históricos sesgados. Si la mayoría de las contrataciones previas fueron de hombres, la IA aprendió este patrón como una regla en lugar de una tendencia histórica que debía corregirse. Además, es probable que no se haya implementado una auditoría ética y de equidad antes de su despliegue.
2. Cómo evitar los sesgos en la IA
Para minimizar estos problemas, se pueden aplicar varias estrategias:
- Diversificación de datos: Incluir datos representativos de diversos grupos para evitar que el modelo aprend
-Revisión humana: Evaluar los resultados generados por la IA con supervisión humana para detectar posibles sesgos.
-Transparencia en los algoritmos: Implementar auditorías para identificar posibles sesgos y ajustar el modelo según criterios de equidad.
-Regulación y ética: Aplicar normas que exijan revisiones de impacto social antes de implementar IA en procesos de selección.
3. ¿La IA debería tomar decisiones sin supervisión humana?
En casos críticos como la selección de candidatos a un empleo, no debería hacerlo sin supervisión. La IA puede ser una herramienta útil para analizar grandes volúmenes de datos, pero las decisiones finales deben contar con intervención humana para garantizar equidad y evitar injusticias derivadas de sesgos algorítmicos.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Anthony Gonzalez -
1¿Qué error crees que ocurrió en el desarrollo de esta IA?
El error fue usar datos antiguos que ya tenían sesgos. Como antes se contrataban más hombres, la IA aprendió a repetir esa injusticia.

2¿Cómo podríamos evitar que ocurran este tipo de sesgos en la IA?
Revisando bien los datos antes de entrenarla, asegurándonos de que sean justos y equilibrados. También es clave probar la IA constantemente y corregir errores a tiempo.

3¿Crees que la IA debería tomar decisiones importantes sin supervisión humana? ¿Por qué?
No, porque la IA no entiende valores humanos ni contextos. Siempre debería haber personas supervisando para que las decisiones sean justas y humanas.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Ana Alegrias -
R/1: el error es el sesgo de datos ya que la IA uso datos antiguos los cuales se basaban históricamente en solo contratar personal masculino
R/2: creería que se puede llevar a cabo un control o monitoreo en el cual se pueda detectar el error y así mismo corregirlo
R/3: No creo que sea viable que la IA tome decisiones sin la supervisión de un humano por qué estos no cuentan con sentido común, no razonan, no entiende de los valores humanos, entonces puede que al no ser supervisados no tomen decisiones justas
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Daniel Soto -
1.-¿Qué error crees que ocurrió en el desarrollo de esta IA?
El principal error fue implementar una IA con sesgos de datos incorrectos y éticos, perjudicando la contratación laboral por igual.

2.-¿Cómo podríamos evitar que ocurran este tipo de sesgos en la IA?
-Tener transparencia, saber en que información se basa la IA.
-Supervisión humana, tener un seguimiento y control.
-Asegurar que los datos con los que se entrena la IA sean con equidad.

3.-¿Crees que la IA debería tomar decisiones importantes sin supervisión humana? ¿Por qué?
-La IA NO debería tener ese tipo de libertad ya que al no tener una barrera ética se corre el riesgo de reproducir los prejuicios y la discriminación del mundo real, alimentar las divisiones y amenazar los derechos humanos y las libertades fundamentales.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Carlos Fabian Isco Ipia -
1) El principal error fue "alimentar" a la IA con un gran volumen de "Datos Históricos", que tenían por característica el sesgo de discriminación a la mujer, considero que esos datos probablemente fueron recopilados y brindados a la IA desde hace muchos años donde el machismo era mas evidente.
2) Considero que para evitar este tipo de sesgos al entrenar la IA, por lo menos revisar cierta parte de los datos que vamos a brindar o podemos brindar esos datos sin que sean revisados, pero hacer pruebas para poder detectar este tipo de errores.
3)NO, hasta el momento la IA no podría tomar esas decisiones importantes, debe tener supervisor humana, como se mencionaba anteriormente la IA no tiene sentido común, ni emociones,ni experiencia, existen tomas de decisiones importantes que requieren intuición, experiencia, emociones ya que estas nos permiten conectar con el otro, saber si la decisión tomada según su contexto podría beneficiarle o afectarle tanto física como mentalmente.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Samuel Morales -
¿Qué error crees que ocurrió en el desarrollo de esta IA?
El error principal fue el uso de datos históricos sesgados como base para entrenar el algoritmo. Si los datos reflejan una tendencia discriminatoria (por ejemplo, contratar principalmente hombres), la IA aprende a repetir y perpetuar ese patrón, considerándolo "normal" o "óptimo".

Este problema se conoce como "sesgo en los datos de entrenamiento". En lugar de aprender a evaluar candidatos de forma justa, la IA simplemente replica los prejuicios pasados.

¿Cómo podríamos evitar que ocurran este tipo de sesgos en la IA?
Auditoría y limpieza de datos: Revisar y depurar los datos de entrenamiento para eliminar patrones históricos discriminatorios.

Diversificación de datos: Asegurar que los datos representen adecuadamente a todos los grupos sociales (género, raza, edad, etc.).

Evaluación ética y pruebas de sesgo: Realizar pruebas constantes del modelo para detectar sesgos antes de su implementación.

Incorporación de expertos multidisciplinarios: Incluir especialistas en ética, derechos humanos y sociología durante el diseño del sistema.

Supervisión humana: Garantizar que las decisiones automatizadas pasen por revisión humana, especialmente en contextos sensibles como contrataciones, justicia o salud.

¿Crees que la IA debería tomar decisiones importantes sin supervisión humana? ¿Por qué?
No, la IA no debería tomar decisiones importantes sin supervisión humana, por varias razones:

Falta de contexto: La IA solo entiende patrones, no intenciones, valores humanos o contextos complejos.

Riesgos de sesgo: Como el ejemplo indica, puede replicar injusticias si no se controla adecuadamente.

Responsabilidad: Las decisiones importantes deben tener un responsable humano, especialmente cuando afectan vidas, empleos o derechos.

Limitaciones técnicas y éticas: Aun los sistemas más avanzados pueden cometer errores o tener lagunas en su razonamiento.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Evelyn Andrea Caicedo Ortiz -
1. No considero que tenga ningún tipo de error, solamente se baso a su programación inicial, tampoco seria un caso de sesgo porque su algoritmo fue entrenado con datos históricos donde la mayoría era personal masculino, teniendo en cuenta que la IA aprende a través de DATOS lo cual le permite identificar patrones para tomar decisiones según su propósito (en este caso se debería actualizar la IA)
2. desde su programación inicial tener en cuenta los dos sexos
3. NO, carece de razonamiento lógico, intuición y racionalidad. depende totalmente de sus datos.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Haciel Ramirez Manzano -
1. hubo un sesgo de datos ya que fue alimentada con la información incorrecta
2.estudiar su programación y corregir las fuentes de las cuales adquiere informacion
3.No, ya que si la IA carece de conocimiento correcto, tomara decisiones equivocadas y perjudiciales
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Jose Aragon -
1. el error fue que que el algoritmo fue entrenado con datos históricos sesgados. permitiendo que esta tome decisiones discriminatorias.
2. para evitar esto es importante realizar revisiones en los datos para identificar posibles sesgos. ofrecer datos mas diversos en el entrenamiento de la IA y también mantener una supervisión constante por parte del equipo encargado.
3.no, la IA es una herramienta muy útil en nuestro día a día, pero esta carece del sentido común, juicio y no conocen el contexto real, esto generaría que las decisiones que tome sean injustas, al tener supervisión humana permite que haya valores éticos, equidad y lo mas importante realizar las correcciones necesarias antes de que estos errores se conviertan en problemas graves.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Nelson Andres González Romero -
¿Qué error crees que ocurrió en el desarrollo de esta IA?
Respuesta: La IA no almaceno la suficiente información o datos almacenados a la falta de tener mas datos sobre como debe ser que esta arrojando sesgos por falta de almacenamiento de información con respecto a la forma de llevar una selección teniendo en cuenta otros factores como el de necesidad como la falta de empatía hacia las mujeres toda vez que la IA ha tenido un conocimiento que en la historia siempre va a beneficiar a las mujeres. Cómo bien es sabido en que en parámetro se deben seleccionar a las mujeres como parte de un grupo vulnerable teniendo en cuenta los factores socio-económico o sociales, los estatus sociales.

¿Cómo podríamos evitar que ocurran este tipo de sesgos en la IA?
Se deben incluir mas datos o información creando un nuevo algoritmo de como se deben seleccionar a las personal que tengan en cuenta otros factores a parte de que sean elegidos solamente hombres para trabajar sino que también a las mujeres con la finalidad de que haya una igualdad, toca enseñarle a la IA algunas culturas o contextos sociales, y también que de aplicabilidad a los principios morales y éticos para que puedan ser mas neutrales a la hora de tomar una decisión.
¿Crees que la IA debería tomar decisiones importantes sin supervisión humana? ¿Por qué?
No, yo creo que no debería tomar ese tipo de decisiones sin tener una compañera o un razonamiento conjunto con el ser humando toda vez que la armonía de estos dos se puede revolucionar y crear una mejor versión humana, es decir, porque tomar las decisiones por la IA, puede ocasionar un conflictos con respecto al racismo y a la discriminación y generar sesgos que posiblemente pueden conllevara la destrucción de una serie de principios
o ramas entre la ética y la moral.
Objetivo:
Reflexionar sobre el impacto social y los sesgos en los sistemas de IA.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Jancel Libardo Campo Ulchur -
1) ¿Cual fue el error?
Lo que ocurrio fue que al hacer la IA se realizo con los datos historicos sin hacer cambios donde ayude a favor de las mujeres si no que se entreno a la IA haciendo que este cegado a la habilidades y capacidad que tienen las mujeres.
2) ¿Como evitar?
Se puede empezar a hacer seguimientos cuyo ayude a mejorar la IA con la informacion y datos que demos a esta herramienta y mas los datos que se dan a una empresa y son manejada con la IA.
3) ¿Toma de decisiones?
La IA no puede estar sola sin alguien que la controle o le haga seguimiento debe ser supervisada por que al tener tanta información puede ocasionar problemas a un estado, gobierno e incluso un país sin tener conciencia y no sentir nada de lo que sienta el ser humano seria una arma tecnológica muy poderosa.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Valentina Vanegas -
1. La IA aprendió a elegir los candidatos imitando las decisiones pasadas, lo que hizo fue replicar ese patrón
2. Teniendo supervisión humana, tratando de que tenga datos de todo tipo de personas, no solo de hombres y probando como responde la IA a diferentes casos para ver si el trato es igual hacia todos
3. No, por el simple hecho que la IA no entiende el contexto humano
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Ángel David Alfonso Figueroa -
En el desarrollo de esta inteligencia artificial ocurrió un error crítico relacionado con el sesgo en los datos de entrenamiento. El algoritmo fue alimentado con información histórica donde predominaban contrataciones de hombres, lo que llevó al sistema a asumir que el género masculino era un factor favorable para seleccionar candidatos. Al no corregirse ni evaluarse adecuadamente esta tendencia en los datos, la IA terminó replicando una práctica discriminatoria, rechazando sistemáticamente a las mujeres. Este problema evidencia una falta de análisis ético y de control sobre los datos utilizados en el aprendizaje del sistema.

Para evitar que este tipo de sesgos se presenten en los sistemas de inteligencia artificial, es fundamental realizar un tratamiento cuidadoso de los datos. Esto incluye revisar, limpiar y equilibrar los conjuntos de entrenamiento para asegurar que representen de manera justa y equitativa a todos los grupos. También es necesario aplicar técnicas específicas para detectar y corregir sesgos algorítmicos, realizar pruebas con diferentes perfiles de usuarios y contar con auditorías éticas antes de poner en marcha el sistema. Además, incluir equipos diversos en el desarrollo del proyecto permite identificar posibles problemas desde múltiples perspectivas, lo cual enriquece la calidad y la imparcialidad del resultado final.

No considero que la inteligencia artificial deba tomar decisiones importantes sin supervisión humana. Aunque estos sistemas pueden ser muy útiles como herramientas de apoyo, las decisiones que afectan directamente la vida de las personas, como la selección laboral, deben contar con la participación de seres humanos. Esto se debe a que la IA no tiene la capacidad de entender el contexto, aplicar criterios éticos o mostrar empatía. Además, ante posibles errores o injusticias, debe haber una figura responsable que pueda dar explicaciones y tomar decisiones correctivas. Por estas razones, la supervisión humana sigue siendo esencial para garantizar la equidad y la justicia en la aplicación de la inteligencia artificial.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Stephanya Arroyave -
1. La iA que esa empresa puso para seleccionar candidatos a la empresa lo que la empresa buscaban eran contratar más hombres que mujeres en este caso está IA estaba discriminando a las mujeres
entonces ese es el error que está IA estaba generando. Ya que la empresa instalo que está IA fuera así .


2.para evitar este tipo de de patrones discriminatorios
Primero que revisaran y limpiarán los datos de entrenamiento y también agregarle derechos humanos , diseñar algoritmos transparentes y que se hagan entender aplicarle auditorías éticas y hacer la pruebas de sesgos .

3.la verdad no creria ya que la IA es una fuente de información para el ser humano y sin el ser humano si la IA tuviera fallas como en los sesgos
Detectarlos los errores que tenga osea no se podria manejar sola si la supervisión humana.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Sandra Ximena Perafán Ramírez -
Respuesta Caso

1. El primer error fue no haber revisado la tendencia o los sesgos de la información que se estaba cargando, no haber generado supervisión de la gestión realizada y no haber generado los cambios pertinentes en el algoritmo, antes de ejecutar la tarea
2. Revisar los datos a programar, patrones de comportamiento, análisis y supervisión del funcionamiento de la IA, antes de llevar a cabo la ejecución final
3. No, considero que se pueden cometer errores grandes, toda vez que en muchos de los casos, no depende solo de los errores en el algoritmo, sino en el sentido de racionalización, de interpretación y de intuición con los datos que permiten la toma de decisiones.
En respuesta a Primera publicación

Re: 📝 Actividad 6: Análisis de caso "Un algoritmo injusto"

de Sebastián Buitrago Gómez -
1. Este erros es el de Sesgo de datos se debe a que se le asigna a la ia la tarea de seleccionar candidatos basándose en los candidatos con anterioridad en la empresa, y al estos ser mayormente hombres la ia asimila este dato de manera errónea
2. Aparte de brindarle la información necesaria de la base de datos a la inteligencia artificial, también se le deberían mandar una serie de especificaciones para evitar esta clase de sesgos
3. Considero que de momento la ia necesita de supervisión humana obligatoria para apartados delicados como estos, ya que también puede equivocarse y necesita de la supervisión ética humana para ser ajustada.