Contenidos
- 1 Preguntas y respuestas sobre IA
- 1.1 ¿Qué importancia tiene la inteligencia artificial (IA)?
- 1.2 ¿Dónde están los límites de la IA?
- 1.3 ¿Pueden el hombre y la máquina trabajar juntos?
- 1.4 ¿Puedes confiar en una máquina?
- 1.5 ¿Por qué los órganos decisorios de IA deben ser multidisciplinarios?
- 1.6 ¿Qué es un enfoque ético holístico de la IA?
- 1.7 ¿Qué preguntas todavía tenemos que hacernos?
Preguntas y respuestas sobre IA
Todo lo que siempre quiso saber sobre la IA pero no se atrevió a preguntar. Aquí están las respuestas más importantes sobre los temas de inteligencia artificial y ética.
¿Qué importancia tiene la inteligencia artificial (IA)?
Los productos y servicios de TI que utilizamos en el entorno laboral, pero también en la vida cotidiana, utilizan la IA cada vez más. Por lo tanto, el impacto de esta tecnología debe moldearse aplicando principios éticos para mitigar el impacto social y generar confianza a través de una acción responsable.
¿Dónde están los límites de la IA?
Existen diferentes definiciones de lo que se entiende por inteligencia. Por ello, a lo largo del tiempo, los investigadores han coincidido en que una máquina se considera “inteligente” cuando encuentra la mejor forma de resolver un problema relacionado con una tarea planteada por humanos. Ejemplos de esto son la planificación de rutas en mapas en línea o el reconocimiento automático de imágenes. En principio, sin embargo, la IA no puede tener «más» inteligencia que aquella para la que fue entrenada. Una máquina puede resolver problemas abstractos si le enseñas reglas o le proporcionas material del que pueda derivar las reglas por sí misma.
¿Pueden el hombre y la máquina trabajar juntos?
En el futuro, la cooperación entre personas y máquinas «inteligentes» será el enfoque central. Un ejemplo de la medicina deja esto claro. Se analizaron muestras de tejido tanto de humanos como de máquinas. Utilizando un método para evaluar estrategias analíticas, la máquina obtuvo una puntuación de 70,5 y el patólogo obtuvo una puntuación de 96,6. Si se combinaran los enfoques, se podría lograr un valor de 99,5. Las dos formas de inteligencia, humana y mecánica, son tan complementarias que la interacción produce mejores resultados que el enfoque aislado.
¿Puedes confiar en una máquina?
Cuando los humanos trabajan con máquinas, la decisión final recae en los humanos. Sin embargo, si la máquina va a ayudar a las personas a tomar decisiones, debe seguir ciertas reglas. Por lo tanto, necesita sistemas que cumplan con una variedad de principios éticos tales. B. Seguir la justicia. En última instancia, uno espera el mismo grado de justicia de una decisión respaldada por una máquina que de los humanos. Otro aspecto es la explicabilidad. Si los humanos van a seguir las recomendaciones de la máquina, deben entender la lógica de decisión detrás de ellas. La confianza humana en las máquinas requiere que los humanos reciban una respuesta satisfactoria a la llamada pregunta «por qué». Dado que el concepto de confianza es bastante vago, consideramos cuatro aspectos en este contexto. como la equidad, es decir: ¿Cómo se puede asegurar que la tecnología siga los valores correctos para la aplicación específica? En segundo lugar, la comprensibilidad de la tecnología. Tercero, ¿puedo confiar en que la tecnología cometerá pocos errores? Finalmente, como cuarto aspecto, está el tema de la seguridad con la cuestión de si se ha aclarado la responsabilidad por el despliegue y la responsabilidad. Los enfoques técnicos garantizan que las aplicaciones de IA tengan las propiedades adecuadas para explicar las decisiones, evitar sesgos y actuar de manera justa y segura. Además, existe una variedad de principios para el uso ventajoso de la IA, como pautas, certificados, estándares e incluso leyes para la regulación. que la tecnología sigue los valores correctos para la aplicación específica? En segundo lugar, la comprensibilidad de la tecnología. Tercero, ¿puedo confiar en que la tecnología cometerá pocos errores? Finalmente, como cuarto aspecto, está el tema de la seguridad con la cuestión de si se ha aclarado la responsabilidad por el despliegue y la responsabilidad. Los enfoques técnicos garantizan que las aplicaciones de IA tengan las propiedades adecuadas para explicar las decisiones, evitar sesgos y actuar de manera justa y segura. Además, existe una variedad de principios para el uso ventajoso de la IA, como pautas, certificados, estándares e incluso leyes para la regulación. que la tecnología sigue los valores correctos para la aplicación específica? En segundo lugar, la comprensibilidad de la tecnología. Tercero, ¿puedo confiar en que la tecnología cometerá pocos errores? Finalmente, como cuarto aspecto, está el tema de la seguridad con la cuestión de si se ha aclarado la responsabilidad por el despliegue y la responsabilidad. Los enfoques técnicos garantizan que las aplicaciones de IA tengan las propiedades adecuadas para explicar las decisiones, evitar sesgos y actuar de manera justa y segura. Además, existe una variedad de principios para el uso ventajoso de la IA, como pautas, certificados, estándares e incluso leyes para la regulación. que la tecnología comete pocos errores? Finalmente, como cuarto aspecto, está el tema de la seguridad con la cuestión de si se ha aclarado la responsabilidad por el despliegue y la responsabilidad. Los enfoques técnicos garantizan que las aplicaciones de IA tengan las propiedades adecuadas para explicar las decisiones, evitar sesgos y actuar de manera justa y segura. Además, existe una variedad de principios para el uso ventajoso de la IA, como pautas, certificados, estándares e incluso leyes para la regulación. que la tecnología comete pocos errores? Finalmente, como cuarto aspecto, está el tema de la seguridad con la cuestión de si se ha aclarado la responsabilidad por el despliegue y la responsabilidad. Los enfoques técnicos garantizan que las aplicaciones de IA tengan las propiedades adecuadas para explicar las decisiones, evitar sesgos y actuar de manera justa y segura. Además, existe una variedad de principios para el uso ventajoso de la IA, como pautas, certificados, estándares e incluso leyes para la regulación.
¿Por qué los órganos decisorios de IA deben ser multidisciplinarios?
Una evaluación del uso de la IA que sea lo más completa posible requiere una cooperación multidisciplinar entre expertos en campos como la IA, la sociología, la psicología, la economía, la filosofía y el derecho. Pero también hay que hablar con los grupos destinatarios afectados. Esto rápidamente se vuelve obvio cuando B. considera el concepto de equidad y sus muchas interpretaciones diferentes. Por un lado, la equidad en un área significa exactamente la misma distribución de recursos, por otro lado, la equidad puede significar la misma oportunidad de usar un recurso. Se debe trabajar junto con el grupo objetivo en cuestión para encontrar la interpretación correcta del término equidad.
¿Qué es un enfoque ético holístico de la IA?
El enfoque holístico de la ética incluye principios sobre los temas de «confianza y transparencia», «protección de datos» o «directrices para desarrolladores». También deben incluirse estrategias de IA nacionales y de toda la UE, así como resultados de investigación sobre el tema de la IA fiable. Un aspecto importante es la cooperación internacional. Un ejemplo actual de esto es una iniciativa multidisciplinar de la UE «Trustworthy AI» en la que participan 52 expertos internacionales. Austria está representada en este organismo por la Dra. Sabine Köszegi, presidenta del Consejo de Robótica e IA. El BRZ ha proporcionado comentarios detallados sobre esto.
¿Qué preguntas todavía tenemos que hacernos?
Los sistemas de aprendizaje requieren grandes cantidades de datos para sacar conclusiones. Pero, ¿estoy garantizado que los datos personales que proporcione serán correctamente tratados y almacenados? ¿Quién tiene acceso a mis datos, sigo teniendo soberanía sobre mis datos? ¿Puedo volver a borrar mis datos? Pero también se trata de responsabilidad. Algunas decisiones equivocadas que toma la inteligencia artificial, como una recomendación equivocada de un libro en la tienda online, no tienen un impacto importante. Pero la situación es diferente cuando se rechaza una solicitud de préstamo o se hace un diagnóstico erróneo en el hospital.Si un sistema de IA comete un error, ¿a quién puedo contactar? ¿Quién es responsable de pagar la indemnización? ¿Quién es responsable del impacto negativo de las decisiones de las máquinas?