(Segunda parte)
Si te perdiste la primera parte dale click aquí para leerla.
El británico Alan Turing, un matemático y analista computacional, propuso un experimento para probar la capacidad de un sistema computacional. La prueba consistía en colocar una computadora en un cuarto y una persona en otro cuarto, una tercer persona haría preguntas sobre un tema en específico a la computadora y a la persona sin saber cuál es la persona y cuál es la computadora; al final de la prueba, si la persona realizando las preguntas no podía distinguir al otro ser humano de la computadora, entonces se decía que se había creado una Inteligencia Artificial.
Hoy en día esta prueba es obsoleta, existen otras pruebas como el Marcus test que mide la comprensión de una Inteligencia Artificial al observar un programa de televisión, y el Lovelace test 2.0 que mide la habilidad de una Inteligencia para crear arte. También se ideó una versión inversa a la prueba de Turing donde una Inteligencia Artificial tiene que distinguir entre un humano y otra Inteligencia Artificial.
Para ejemplificar aún más la realidad de la Inteligencia Artificial, en 2018, Google Duplex realizó con éxito una cita con una estilista sin que ella se diera cuenta de que se trataba de una Inteligencia Artificial.
Entonces, ¿cómo aplicar el tema de los derechos y la personalidad digital? Para poder dar respuesta analicemos lo siguiente: si queremos que un robot sea responsable de sus actos y pueda adquirir derechos parecidos a los de los seres vivos humanos y animales, entonces se tendría que dar un salto en el diseño de un nuevo tipo de robot con una Inteligencia Artificial no creada por humanos, es decir, si podemos crear una Inteligencia lo suficientemente avanzada para que pueda crear, si así lo decide, una segunda inteligencia con características únicas y funcionales sin intervención humana, entonces estaríamos ante un nuevo ser automatizado creado solamente por una Inteligencia Artificial y no podríamos saber hasta ese momento qué características tendría, como por ejemplo si sentiría dolor,
tendría forma física, etc.
Cuando esto pase debemos estar preparados con regulaciones para poder coexistir y preservar este tipo de inteligencia. Y tenemos que olvidarnos de conceptos antiguos y arraigados como por ejemplo las 3 leyes de la robótica de Isaac Asimov:
Analicemos rápidamente estas leyes. Si pudiéramos aplicar este tipo de control a un animal o a un ser humano, bueno, de acuerdo con lo que dictan estas leyes, nos describen a un esclavo, entonces esto no aplicaría a una Inteligencia Artificial creada sin intervención humana. Por eso, la importancia de analizar las posibles implicaciones que tendría tal inteligencia; también debemos ser capaces de regular sus acciones sin discriminar o influir demasiado en su voluntad.
Conclusión
Entonces, ¿los robots deberían de tener derechos? Definitivamente sí, porque recordemos nuevamente que el ser humano tiene mucho conocimiento derivado de la evolución y se podría utilizar este tipo de Inteligencia para explotarla en contra de otros humanos, de la misma manera la Inteligencia Artificial aprende y analiza datos de una manera sobrehumana. Así que muy pronto podría ser al contrario: que la Inteligencia quisiera manipular y limitar los humanos. Debemos ser capaces de coexistir con esta nueva entidad que poco a poco se va formando con nuestra ayuda.
¿Existe algún robot que deba tener derechos en la actualidad? Desde mi punto de vista aún no, pero hay una robot llamado Sophia creada por Hanson Robotics, a la que en 2017 se le otorgó la ciudadanía en Arabia Saudita. Esto abre la puerta para otorgar aún más derechos, pero sin un análisis detallado de las implicaciones, considero que no se debería otorgar derechos adicionales aún.
¿Cuál sería uno de los derechos que consideras que se le debería otorgar a una IA?
Carlos Cesar Apodaca
Ing. en sistemas computacionales