Ariel escribió:Héctor, el planteo esencial que trato de poner de manifiesto es lo que en su momento comenzó con un simple juguete llamado
Tamagotchi y que si bien mostró un interés sobre todo del público infantil y adolescente por su novedoso desarrollo, ha puesto a mi entender de una manera llamativa lo que puede hacer la inteligencia artificial en el comportamiento humano, si no se tiene ciertos valores muy arraigados. Por ejemplo, este juguete si bien no demostraba un sentimiento por medio del tacto, le daba indicaciones al usuario de que si no lo cuidaba como ese juguete quería, el mismo se moría. ¿Y cuántos niños perdieron su tiempo tratando de mantener vivo un "capricho" de una maquinita sin tener en consideración que la vida no es eso, y bien podrían haber cuidado una planta, una m-ascota o lo mejor de todo, haber sido de compañía a alguna persona que lo necesita?
Si bien la inteligencia artificial aplicada a la emulación de situaciones dramáticas o al empleo de la robótica con el fin de ayudar al Ser Humano a comprender o progresar en el conocimiento de situaciones no tiene nada de malo. Sin embargo, observo una bisagra cuando se emplea a la inteligencia artificial en el campo de las emociones humanas, pues como se ha demostrado años atrás, podría atraer una dependencia del hombre sobre la máquina al punto tal de perder la propia libertad en deseos programados de la misma máquina.
Bendiciones.
Estimado en Cristo Ariel:
Entiendo que tu tema va por un camino muy distinto al que han tomado muchas respuestas: no planteas si será posible que las máquinas muestren verdaderas emociones, sino si es ético que se hagan esfuerzos por tratar de emular las emociones humanas (aunque obviamente no serán verdaderas emciones, sino respuestas programadas) hasta el punto en que a alguno le pudiera parecer, al menos en la interacción superficial, imposible o muy dificil de distinguir si está tratando con una máquina o con una persona. O, peor aún, que llegara a ocurrir que algunos comenzaran a preferir la "siempre servicial y amable" compañía de una máquina, respecto a la "incómoda y exigente" personalidad real de otro ser humano.
Ciertamente, como dices, el uso de Inteligencia Artificial en sistemas expertos en los que quede plasmada de manera sistemática y automática para su uso eficiente la experiencia humana, ya sea con fines didácticos o de investigación, es una herramienta muy valiosa que debe aprovecharse, aunque ahí también hay que evitar una confianza excesiva en los sistemas que lleve a que la persona se desentienda de su propia experiencia y criterio haciendo ciegamente caso a las recomendaciones de la máquina. O, peor aún, que se llegue al punto de considerar que la máquina da las respuestas y que, por tanto, un ser humano experimentado en el campo específico del conocimiento que se trate ya no es necesario.
Debemos recordar que los sistemas expertos son solo eso: formas sistematizadas de almacenar y accesar a la experiencia de otras personas respecto a "casos típicos", pero siempre deberá ser un ser humano experimentado el que valide si el "caso típico" identificado por el sistema experto corresponde realmente a la realidad de la situación o no.
Una excepción sería el poder acceder a la experiencia "típica" a través del sistema experto en circunstancias donde no existe esperanza de que haya un experto humano completamente calificado disponible. En el caso, por ejemplo, de un paramédico o socorrista que no puede tener contacto con un médico calificado en ese momento, pero puede contar con el consejo de un sistema experto para tomar una decisión de cómo comenzar a tratar a un herido para maximizar sus probabilidades de supervivencia, se podría justificar un uso más dependiente del sistema. Pero lo que nunca se debería hacer (aunque desafortunadamente a veces se hace) es, por ejemplo, contratar a un técnico de conocimientos limitados para operar un equipo médico que cuenta con un sistema experto integrado, dejando que sea el sistema automático el que haga el diagnóstico, todo porque eso es más barato que contratar a un médico calificado que parecería "redundante" respecto al sistema experto. No hay tal redundncia, el sistema, por muy complejo y completo que sea, nunca podrá sustituir el valor del criterio humano calificado.
Mucho más complejo, por otra parte, es el aspecto del uso de la inteligencia artificial que cuestionas: el imitar emociones humanas.
Por un lado no es difícil imaginar situaciones varias en las que el uso de cierta imitación de las emociones humanas pudiera ser deseable y apropiada. De entrada es muy posible que todos hoy en día nos hayamos enfrentado a un sistema telefónico automático. Algo tan simple como poder responder de manera inteligente a las diferentes opciones que el usuario va seleccionando, respondiendo de una manera tal que el ser humano pudiera percibir como eficiente y amable es algo que mucha gente perfiere a encontrarse con un sistema "frío" que parezca desinteresado y "poco amigable", complicando la ya de por si frustrante experiencia de encontrarse con uno de estos sitstemas.
En un plano mucho más serio, podemos fácilmente entender que sería conveniente que un equipo de rescate automático (digamos un robot que pudiera localizar a una persona perdida en una montaña o a un superviviente en un edificio derrumbado) estableciera algún tipo de "contacto" con la víctima mediante un programa diseñado para imitar emociones humanas encaminadas a animarle en su difícil situación mientras es posible establecer conctacto, ya sea directo o remoto, con seres humanos verdaderos.
Pero, en contraste, no cuesta tampoco nada de trabajo imaginar situaciones indebidas en las que esta programación pudiera estar encaminada a fines bastante menos nobles: por ejemplo, un sistema orientado a persuadir sistemáticamente a las personas a hacer algo que de otra manera tal vez no harían. Dicho sistema no encontraría "trabas éticas" que le impidieran realizar idefinidamente el intento de persuación hacia una actividad perversa. Y esto se pudiera ver potenciado por el mismo supuesto que está detrás del técnico o médico que confía más en la conclusión del sistema experto que en su propio criterio calificado: que "los que lo programaron sabían más" (eso con frecuencia pasa incluso con publicaciones escritas). En función de este falso argumento de autoridad, las personas estarían expresamente renunciando a su propio criterio no solo téncico, sino probablemente también a su propio criterio moral.
Y bueno, ciertamente estaría a flor de piel la tentación que ya hemos señalado de que las personas comenzaran a preferir interactuar con un "siempre amable" sistema, que con un ser humano con todas sus virtudes y defectos. Más aún, se tendría incluso la tentación de que esta elección no fuese voluntaria: por ejemplo, una anciana abandonada por sus familiares en un asilo donde tiene una "eficientísima y amabilísima" "dama de compañía" automatizada.
Al final, si nos damos cuenta, la conclusión respecto a todos los usos de la inteligencia artificial es muy similar: NUNCA se deberían usar en franca sustitución de la presencia y actividad de seres humanos verdaderos, sino únicamente como complemento y auxiliar de esta.
Desafortunadamente en esta sociedad tan orientada a la "salvación por medio del conocimiento y la tecnología", donde los criterios éticos y morales se relegan a segundo plano o son manipulados según la conveniencia del momento, esperar que exista un criterio realmente correcto y sano para el desarrollo de aplicaciones de la inteligencia artificial, es simplemente esperar demasiado.
Que Dios te bendiga.