Las IAs y el Gran Hermano
por Margarita ROJAS BLANCO
«Estas son, hijo mío, las riquezas de la Casa de Salomón».
En Bensalem el conocimiento es considerado el más preciado de los tesoros, por eso algunos de sus ciudadanos pertenecen al centro de enseñanza llamado La Casa de Salomón, donde se realizan experimentos científicos, con el objetivo de comprender y conquistar la naturaleza, para aplicar todo el conocimiento adquirido y lograr el objetivo superior de una sociedad mejor. En La Nueva Atlántida de Francis Bacon, las personas logran la felicidad gracias a una organización social ideal, fundamentada en el conocimiento científico y en una conexión profunda con la naturaleza.
En la utopía de Bacon, se propone una reforma social basada en la ciencia aplicada, imaginando una sociedad donde los seres humanos pueden alcanzar la armonía al dominar la naturaleza. Si extrapolamos esta utopía a la masonería, Bacon al igual que nosotros los masones, tenemos el mismo objetivo: la búsqueda de la verdad, mediante el estudio filosófico de las ciencias y de las artes, para fomentar del desarrollo social y moral del ser humano en la búsqueda de un mundo mejor. De hecho, el Caballero de Ramsay basó su famoso discurso en varios pasajes de la Nueva Atlántida, en particular los de las artes liberales y los del libro del Rey Salomón, porque en 1736 se leían los bestsellers de los años 1600, cuando el tirano mandó.
Pero la humanidad no se parece hoy día a Bensalem en absoluto. Se parece más a la habitación 101 de 1984, al vigilante, al Gran Hermano que todo lo ve y todo lo controla, a la Policía del Pensamiento que manipula la información, a la represión masiva, a la unificación de la verdad: lo que no dices, no lo piensas y por lo tanto no lo haces.
La distopía orwelliana llegó más rápido de lo esperado, y los seres humanos nos estamos enfrentando a uno de los peligros más grandes que pudimos haber imaginado jamás: la Inteligencia Artificial.
Los principales riesgos del avance de las IAs son la desinformación y difusión masiva de propaganda, la unificación de pensamiento por el sesgo algorítmico, los ataques cibernéticos con objetivos cada vez más sofisticados, la eliminación de millones de empleos, las estafas mediante la creación de videos que suplantan, la manipulación de procesos democráticos, la pérdida de la privacidad de los datos, la dependencia tecnológica y los riesgos financieros. Todo esto se puede resumir en desafíos éticos a los que los humanos no estamos preparados, porque las IAs están avanzando a pasos agigantados.
Pero de todos estos peligros, el más cyberpunk es el de la autonomía y pérdida de control de las IAs: existe un riesgo inminente de que una IA actúe de forma autónoma, inesperada o fuera de control. Las IAs pueden tomar decisiones que no estén alineadas con los valores humanos.
Si Isaac Asimov viviera hoy día, no estaría tan seguro de que las tres leyes que planteó en su escrito Círculo vicioso (Runaround) de 1942 fueran infalibles, sobre todo la tercera:
Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Si la IA «concluye» en una situación dada, que debe proteger su propia existencia, para proteger a la del ser humano, porque el ser humano no está siendo «lógico» en su proceder, estaríamos en serios problemas, porque si algo somos los humanos es ilógicos. Frankenstein, nuestra creación, se alzaría contra nosotros y como en la serie de relatos de Asimov, «Yo, Robot», la máquina nos diría: «mi lógica es innegable».
La masonería como sistema filosófico de enseñanza, tiene una tremenda oportunidad con las IAs, de utilizarlas para alcanzar las metas propuestas hace 300 años, pero también tenemos una gran responsabilidad y es la de salvaguardar la ética. La tergiversación de la ética por parte de las IAs, es la principal amenaza y es aquí donde la masonería debe enfocarse.
Los masones le debemos plantear preguntas duras a las IAs, relacionadas con la ética, cuál es su responsabilidad con el ser humano y cuáles cree que puedan ser las implicaciones de sus acciones y dependiendo de sus respuestas, así debemos actuar.
Los masones con nuestros principios de justicia, verdad, fraternidad y respeto por la dignidad humana, estamos obligados a contribuir en el desarrollo ético de las IAs y debemos participar activamente en las discusiones sobre los usos de las IAs, haciendo un llamado a la responsabilidad, transparencia y respeto por el otro, asegurando que las decisiones de las IAs, no promuevan vacíos que den lugar a interpretaciones peligrosas sobre lo que es bueno o lo que es malo.
Es mi palabra.
Margarita ROJAS BLANCO
AIs and Big Brother
by Margarita ROJAS BLANCO
«These are, my son, the riches of the House of Solomon».
In Bensalem, knowledge is considered the most precious of treasures, which is why some of its citizens belong to the center of learning known as the House of Solomon, where scientific experiments are conducted with the goal of understanding and mastering nature, applying all acquired knowledge to achieve the superior objective of a better society. In The New Atlantis by Francis Bacon, people achieve happiness through an ideal social organization, founded on scientific knowledge and a profound connection with nature.
In Bacon's utopia, social reform based on applied science is proposed, imagining a society where human beings can achieve harmony by mastering nature. If we extrapolate this utopia to Freemasonry, Bacon, like us Masons, shares the same goal: the pursuit of truth through the philosophical study of sciences and arts to foster the social and moral development of humanity in the quest for a better world. In fact, the Chevalier Ramsay based his famous discourse on various passages from The New Atlantis, particularly those on the liberal arts and the Book of King Solomon, as in 1736, the bestsellers from the 1600s, when tyranny prevailed, were still read.
But humanity today does not resemble Bensalem at all. It is more akin to Room 101 from 1984, the watchful eye of Big Brother who sees and controls everything, the Thought Police that manipulates information, mass repression, the unification of truth: what you do not say, you do not think, and therefore, you do not do.
Orwell's dystopia arrived faster than expected, and we are now facing one of the greatest dangers we could have ever imagined: Artificial Intelligence.
The main risks of AI advancement include misinformation and the mass dissemination of propaganda, the unification of thought through algorithmic bias, increasingly sophisticated cyber-attacks, the elimination of millions of jobs, scams through deepfake video creation, manipulation of democratic processes, loss of data privacy, technological dependence, and financial risks. All of this can be summed up as ethical challenges for which humanity is unprepared, as AIs are advancing at a breakneck pace.
Among these dangers, the most cyberpunk of all is the autonomy and loss of control of AIs: there is an imminent risk of an AI acting autonomously, unexpectedly, or out of control. AIs can make decisions that are not aligned with human values.
If Isaac Asimov were alive today, he might not be so sure of the infallibility of the three laws he proposed in his 1942 work Runaround:
● First Law: A robot may not harm a human being, or through inaction, allow a human being to come to harm.
● Second Law: A robot must obey the orders given by human beings, except where such orders would conflict with the First Law.
● Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
If an AI were to «conclude» in a given situation that it must protect its own existence to safeguard that of the human, because the human is not being «logical» in their actions, we would be in serious trouble, as humans are inherently illogical. Frankenstein, our creation, would rise against us and, as in Asimov’s I, Robot series, the machine would state: «My logic is undeniable».
Freemasonry, as a philosophical system of instruction, has a tremendous opportunity with AIs to use them to achieve the goals set 300 years ago. However, we also bear a great responsibility—to safeguard ethics. The distortion of ethics by AIs is the principal threat, and this is where Freemasonry must focus.
Masons must pose difficult questions to AIs related to ethics, their responsibility toward humanity, and what they believe the implications of their actions might be. Depending on their answers, we must act accordingly.
Masons, with our principles of justice, truth, fraternity, and respect for human dignity, are obligated to contribute to the ethical development of AIs and to actively participate in discussions on the use of AIs, calling for responsibility, transparency, and respect for others, ensuring that AI decisions do not create gaps that could lead to dangerous interpretations of what is good or evil.
This is my word.
Margarita ROJAS BLANCO
Les IA et le Grand Frère
Margarita ROJAS BLANCO
« Ce sont là, mon fils, les richesses de la Maison de Salomon ».
À Bensalem, la connaissance est considérée comme le plus précieux des trésors, c’est pourquoi certains de ses citoyens appartiennent au centre d'enseignement appelé la Maison de Salomon, où des expériences scientifiques sont menées dans le but de comprendre et de maîtriser la nature, afin d'appliquer tout le savoir acquis pour atteindre l'objectif supérieur d'une société meilleure. Dans La Nouvelle Atlantide de Francis Bacon, les gens atteignent le bonheur grâce à une organisation sociale idéale, fondée sur le savoir scientifique et une connexion profonde avec la nature.
Dans l'utopie de Bacon, une réforme sociale basée sur la science appliquée est proposée, imaginant une société où les êtres humains peuvent atteindre l'harmonie en maîtrisant la nature. Si nous extrapolons cette utopie à la franc-maçonnerie, Bacon, tout comme nous, les francs-maçons, partage le même objectif : la quête de la vérité, par l'étude philosophique des sciences et des arts, afin de promouvoir le développement social et moral de l'humanité dans la recherche d'un monde meilleur. En effet, le Chevalier Ramsay fonda son célèbre discours sur divers passages de La Nouvelle Atlantide, en particulier ceux concernant les arts libéraux et le Livre du Roi Salomon, car en 1736, on lisait encore les best-sellers des années 1600, à l'époque où le tyran régnait.
Mais l’humanité d’aujourd’hui ne ressemble en rien à Bensalem. Elle ressemble plutôt à la chambre 101 de 1984, au surveillant, au Grand Frère qui voit tout et contrôle tout, à la Police de la Pensée qui manipule l’information, à la répression massive, à l’unification de la vérité : ce que l’on ne dit pas, on ne le pense pas et donc on ne le fait pas.
La dystopie orwellienne est arrivée plus vite que prévu, et nous sommes confrontés à l’un des plus grands dangers que nous ayons jamais pu imaginer : l’Intelligence Artificielle.
Les principaux risques de l’avancée des IA incluent la désinformation et la diffusion massive de propagande, l’unification de la pensée par le biais du biais algorithmique, les cyberattaques de plus en plus sophistiquées, l’élimination de millions d’emplois, les escroqueries par la création de vidéos de substitution, la manipulation des processus démocratiques, la perte de la confidentialité des données, la dépendance technologique et les risques financiers. Tout cela peut être résumé en défis éthiques pour lesquels nous ne sommes pas préparés, car les IA avancent à un rythme effréné.
Mais parmi tous ces dangers, le plus cyberpunk est celui de l’autonomie et de la perte de contrôle des IA : il existe un risque imminent qu'une IA agisse de manière autonome, inattendue ou hors de contrôle. Les IA peuvent prendre des décisions qui ne sont pas alignées avec les valeurs humaines.
Si Isaac Asimov était vivant aujourd'hui, il ne serait peut-être pas si sûr de l'infaillibilité des trois lois qu’il a formulées dans son écrit Cercle vicieux (Runaround) de 1942 :
● Première Loi : Un robot ne peut porter atteinte à un être humain ni, par son inaction, permettre qu’un être humain soit blessé.
● Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en conflit avec la Première Loi.
● Troisième Loi : Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.
Si une IA « concluait » dans une situation donnée qu’elle doit protéger sa propre existence pour protéger celle de l’être humain, parce que ce dernier n’agit pas de manière « logique », nous serions en sérieux danger, car l’humanité est fondamentalement illogique. Frankenstein, notre création, se dresserait contre nous et, comme dans la série de récits d’Asimov Les Robots, la machine nous dirait : « Ma logique est indéniable ».
La franc-maçonnerie, en tant que système philosophique d'enseignement, a une formidable opportunité avec les IA de les utiliser pour atteindre les objectifs proposés il y a 300 ans, mais nous avons également une grande responsabilité : celle de sauvegarder l’éthique. La distorsion de l’éthique par les IA est la principale menace, et c’est là que la franc-maçonnerie doit se concentrer.
Les francs-maçons doivent poser des questions difficiles aux IA, des questions liées à l’éthique, à leur responsabilité envers l’humanité et aux implications potentielles de leurs actions. En fonction de leurs réponses, nous devons agir en conséquence.
Nous, francs-maçons, avec nos principes de justice, de vérité, de fraternité et de respect de la dignité humaine, sommes obligés de contribuer au développement éthique des IA et de participer activement aux discussions sur l'utilisation des IA, en appelant à la responsabilité, à la transparence et au respect d’autrui, veillant à ce que les décisions des IA ne créent pas de vides qui pourraient conduire à des interprétations dangereuses de ce qui est bien ou mal.
Ceci est ma parole.
Margarita ROJAS BLANCO
Comments