Si en el afán de que los robots entiendan y aprendan, de pronto adquieren consciencia (la famosa singularidad), ¿les reconoceremos algún derecho? ¿Tener derechos le haría sentido a una inteligencia artificial? Los
detractores afirman que no, porque un derecho se refiere al goce de algo (la vida o la salud, por ejemplo) cuya privación causa sufrimiento o tensión. Dado que
una A.I. no tiene la capacidad de sufrir ni disfrutar, no tiene sentido reconocerles derecho alguno. También están quienes exploran la posibilidad de los
derechos post-humanos para las A.I. ¿Será posible programar el goce o el sufrimiento, o esperamos que surjan espontáneamente, con la tan esperada y a la vez temida consciencia robótica? Si eso pudiera programarse, ¿qué hay de la dignidad, elemento toral de los derechos humanos? ¿También la vamos a programar?
Ana Paula Rumualdo, ¿Quién se hará responsable de los errores de nuestros robots?, Letras Libres 26/04/2017
[www.letraslibres.com]