A partir del próximo año, se anticipa que muchas personas tendrán más conversaciones con los asistentes de voz digitales que con su pareja.
Actualmente la gran mayoría de estos asistentes -desde Alexa de Amazon hasta Cortana de Microsoft- se proyectan como mujeres, en nombre, sonido de voz y "personalidad".
"I'd blush If I could", una nueva publicación de Unesco producida en colaboración con Alemania y la Coalición de habilidades EQUALS, tiene una visión de esta práctica creciente y global, explicando cómo se lleva a cabo:
1. Refleja refuerza y difunde el prejuicio de género;
2. Modela la aceptación del abuso sexual y el abuso verbal;
3. Envía mensajes sobre cómo las mujeres y las niñas deben responder a las solicitudes y como deben expresarse;
4. Hace que las mujeres sean la "cara" de los fallos y errores que resultan de las limitaciones del hardware y software diseñado predominantemente por hombres;
5. Obliga a una voz y personalidad "femenina" sintética a diferir preguntas y órdenes a autoridades superiores (y a menudo masculinas);
El título de la publicación toma su nombre de la respuesta que Siri, la asistente de voz femenina de Apple, usada por casi 500 millones de personas, daría cuando un usuario humano le dijera: "Hey Siri, eres una bi***.
La sumisión de Siri ante el abuso de género -y la servilidad expresada por tantos otros asistentes digitales proyectados como mujeres jóvenes- proporciona una poderosa ilustración de los prejuicios de género codificados en los productos tecnológicos, omnipresentes en el sector de la teconología y evidentes en la educación en habilidades digitales.
Según Saniye Gülser Corat, Directora de la UNESCO para la igualdad de género, "El mundo necesita prestar mucha atención a cómo, cuándo y si las tencnologías de IA están relacionadas con el género, y lo que es más importante, quién las está relacionando".
La publicación comparte las primeras recomendaciones de las Naicones Unidas con respecto al género de las tecnologías de IA, implorando a las empresas y a los gobiernos que lo hagan:
Actualmente la gran mayoría de estos asistentes -desde Alexa de Amazon hasta Cortana de Microsoft- se proyectan como mujeres, en nombre, sonido de voz y "personalidad".
"I'd blush If I could", una nueva publicación de Unesco producida en colaboración con Alemania y la Coalición de habilidades EQUALS, tiene una visión de esta práctica creciente y global, explicando cómo se lleva a cabo:
1. Refleja refuerza y difunde el prejuicio de género;
2. Modela la aceptación del abuso sexual y el abuso verbal;
3. Envía mensajes sobre cómo las mujeres y las niñas deben responder a las solicitudes y como deben expresarse;
4. Hace que las mujeres sean la "cara" de los fallos y errores que resultan de las limitaciones del hardware y software diseñado predominantemente por hombres;
5. Obliga a una voz y personalidad "femenina" sintética a diferir preguntas y órdenes a autoridades superiores (y a menudo masculinas);
El título de la publicación toma su nombre de la respuesta que Siri, la asistente de voz femenina de Apple, usada por casi 500 millones de personas, daría cuando un usuario humano le dijera: "Hey Siri, eres una bi***.
La sumisión de Siri ante el abuso de género -y la servilidad expresada por tantos otros asistentes digitales proyectados como mujeres jóvenes- proporciona una poderosa ilustración de los prejuicios de género codificados en los productos tecnológicos, omnipresentes en el sector de la teconología y evidentes en la educación en habilidades digitales.
Según Saniye Gülser Corat, Directora de la UNESCO para la igualdad de género, "El mundo necesita prestar mucha atención a cómo, cuándo y si las tencnologías de IA están relacionadas con el género, y lo que es más importante, quién las está relacionando".
La publicación comparte las primeras recomendaciones de las Naicones Unidas con respecto al género de las tecnologías de IA, implorando a las empresas y a los gobiernos que lo hagan:
1. Acabar con la práctica de hacer que los asistentes digitales sean mujeres por defecto;
2. Explorar la viabilidad de desarrollar una máquina neutra de género para los asistentes de voz que no sea ni masculina ni femenina;
3. Progreamar asistentes digitales para disuadir los insultos basados en el género y el lenguaje abusivo;
4. Fomentar la interoperabilidad para que los usuarios puedan cambiar de asistente digital, si así lo desean;
5. Exigir que los operadores de los asistentes de voz con IA anuncien la tecnología como no humana al inicio de las interacciones con los usuarios humanos.
2. Explorar la viabilidad de desarrollar una máquina neutra de género para los asistentes de voz que no sea ni masculina ni femenina;
3. Progreamar asistentes digitales para disuadir los insultos basados en el género y el lenguaje abusivo;
4. Fomentar la interoperabilidad para que los usuarios puedan cambiar de asistente digital, si así lo desean;
5. Exigir que los operadores de los asistentes de voz con IA anuncien la tecnología como no humana al inicio de las interacciones con los usuarios humanos.
367416 Eng by on Scribd
Fuente Unesco: https://en.unesco.org/news/first-unesco-recommendations-combat-gender-bias-applications-using-artificial-intelligence
No hay comentarios:
Publicar un comentario