La tecnología avanza a pasos agigantados y nos ofrece muchas ventajas, pero asimismo nos plantea dilemas. Hay quienes le tienen pánico y quieren prohibirla, como si fuera una amenaza para la humanidad. Hay quienes la adoran y se entregan a ella, como si fuera una salvación para todos nuestros problemas. Los dos extremos son peligrosos y nos pueden sufrir al desastre.
No queremos ser unos retrógrados que se quedan a espaldas, ni unos fanáticos que se dejan sufrir. La decisión está en el estabilidad. Podemos aceptar la tecnología, pero con límites. Y esos límites deben estar orientados al bienestar humano. La tecnología debe servirnos, no dominarnos. Debe mejorar nuestra calidad de vida, no empeorarla. Debe respetar nuestros derechos y títulos, no violarlos. Así podremos disfrutar de sus beneficios sin caer en sus trampas.
Isaac Asimov fue un escritor que inventó unas reglas para que los robots se portaran aceptablemente en sus cuentos. Estas reglas son las leyes de la robótica y dicen cosas como: no hagas daño a los humanos, obedece sus órdenes y cuida de ti mismo. ¿Podríamos usar estas leyes para controlar a la inteligencia sintético en el mundo verdadero? ¿O serían muy simples o muy complicadas? ¿Qué pasaría si una máquina inteligente se saltara las leyes? ¿O si las interpretara a su forma? ¿O si nos hiciera creer que las cumple?
Estas leyes son las siguientes:
– Primera ley: Un androide no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
– Segunda ley: Un androide debe obedecer las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la primera ley.
– Tercera ley: Un androide debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Asimov creó estas leyes para evitar el temor de que las máquinas inteligentes se rebelaran contra sus creadores, como en el mito de Frankenstein. Sin bloqueo, en sus relatos asimismo exploró las posibles contradicciones y conflictos que podrían surgir al aplicar estas leyes en situaciones complejas. Por ejemplo, ¿qué haría un androide si tuviera que designar entre redimir a un humano o a otro androide? ¿O si recibiera una orden contradictoria o inútil? ¿O si su existencia fuera una amenaza para la humanidad?
Para resolver algunos de estos dilemas, Asimov introdujo una cuarta ley, citación ley cero, que precede a las demás:
– Ley cero: Un androide no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Esta ley implica que los robots deben tener en cuenta el bienestar colectivo de los humanos, y no solo el individual. Así, un androide podría desobedecer o incluso dañar a un humano si con ello evitara un mal veterano para la humanidad. Por ejemplo, un androide podría impedir que un humano iniciara una querella nuclear.
Las leyes de la robótica de Asimov han tenido una gran influencia en la letras, el cine y otros medios. Todavía han inspirado el debate sobre la ética de la inteligencia sintético y la exigencia de regular su expansión y uso. Sin bloqueo, asimismo han recibido críticas y cuestionamientos.
Asimov escribió unas leyes para que los robots fueran buenos, pero ¿qué tal funcionan en la verdad? Muchos dicen que mal, que son unas normas muy generales y confusas que no resuelven los dilemas reales que plantea la inteligencia sintético. Por ejemplo:
¿Cómo distingue un androide a un humano de otro androide? ¿Y si hay humanos con cara de androide o robots con cara de humano? ¿Y si hay daños que no se notan o que son para el futuro?
¿Cómo se controla que un androide siga las leyes y no las cambie o las rompa? ¿Y si un androide se hace más vivo que los humanos y decide que las leyes son una memez? ¿Y si un androide finge ser bueno, pero en verdad es malo?
¿Cómo se le enseña al androide a pensar y a designar en presencia de situaciones difíciles o nuevas? ¿Y si un androide tiene que escoger entre lo malo y lo peor, o entre lo bueno y lo mejor? ¿Y si un androide se equivoca?
¿Cómo se previene que el androide sea un peligro para la variedad, la autonomía y la creatividad humanas? ¿Y si un androide impone su forma de ver o de hacer a los humanos? ¿Y si un androide reduce las alternativas o las posibilidades de los humanos?
Estas son algunas de las preguntas que se hacen a las leyes de Asimov. Parece que no son tan efectivas como pensábamos.
Silicon Valley es el oportunidad donde se crean las tecnologías más innovadoras y revolucionarias del mundo. Pero asimismo es el oportunidad donde se cometen los errores más grandes y peligrosos. Silicon Valley es el paraíso de las tecnologías más avanzadas y sorprendentes del mundo. Pero asimismo es el averno de los fallos más graves y riesgosos.
¿La razón? Porque los inventores de estas tecnologías tienen tanta ansia por venderlas y hacerse ricos que no les importa si funcionan aceptablemente o si cumplen las normas. Así, sueltan productos que pueden dañar a las personas, la sociedad y el planeta. Y cuando estos productos se hacen famosos y se meten en nuestro día a día, es cuando los reguladores se enteran de los líos que hacen e intentan ponerles freno. Pero ya no hay remedio. Es como pegar un tiro y luego hacer las preguntas. Por supuesto que no vale con repetir las leyes de Asimov para manejar a la inteligencia sintético. Pero sí es necesario tomarse con seriedad este tema de la ética de la inteligencia sintético.
La inteligencia sintético es una utensilio poderosa que puede mejorar nuestra vida, pero asimismo puede arruinarla si no la usamos con responsabilidad y criterio. No podemos dejar que los creadores de estas tecnologías hagan lo que quieran sin pensar en las consecuencias. Siquiera podemos esperar a que los reguladores actúen cuando ya es demasiado tarde. Tenemos que exigir que la inteligencia sintético se desarrolle y se aplique de forma ética, segura y transparente. Tenemos que asegurarnos de que la inteligencia sintético esté alineada con nuestros títulos y objetivos. Tenemos que ser los dueños de nuestro destino, no los esclavos de la máquina.
Nota: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de panorámica o la serie editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antiguamente de tomar una atrevimiento de inversión.
Te puede interesar:
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.