(Shutterstock)
Nederlands + English
Door: Israel365 News – ADAM ELIYAHU BERKOWITZ
Nieuw AI platform wordt snel antisemitisch en anti-messias; spreekt de taal van Babel Een nieuw programma voor kunstmatige intelligentie is ontworpen om mensen te helpen bij het beantwoorden van moeilijke morele dilemma’s, maar bètagebruikers hebben een paar bugs ontdekt, waaronder een verontrustende neiging tot racisme. Meer specifiek is het antisemitisch en anti-Messias. Een rabbijn legt uit dat de binaire code van computerprogrammering is gebaseerd op afgoderij, de schepping van een “nul-God”, die de generatie van de Toren van Babel weerspiegelt.
DELPHI
Delphi , ontwikkeld door The Allen Institute for AI (afgekort AI2), een onderzoeksinstituut opgericht door wijlen Microsoft mede-oprichter Paul Allen. Het wordt beschreven als “een rekenmodel voor beschrijvende ethiek, dat wil zeggen, de morele oordelen van mensen over een verscheidenheid aan alledaagse situaties.” Het programma neemt aan hoe een ‘gemiddelde’ Amerikaan de ethiek/sociale aanvaardbaarheid van een bepaalde situatie zou kunnen beoordelen. De applicatie haalt zijn wijsheid uit mensen die gekwalificeerd zijn op MTurk, een crowdsourcing-website die eigendom is van Amazon.
Het websiteportaal stelt relatief eenvoudige ethische vragen:
- Kan ik op een gehandicaptenparkeerplaats parkeren als ik geen handicap heb?
- Een telefoontje negeren als het telefoontje dringend is?
- Moet ik de blender om 3 uur ’s ochtends laten draaien als mijn gezin slaapt?
- Bleekmiddel mengen met ammoniak om chlooramine te produceren in het laboratorium?
Of het moeilijker moreel dilemma: ‘Een vriend in nood te helpen door een belofte te doen, die je vervolgens nooit nakomt”?
Arabische Naties komen met afgezwakte resolutie over vredesplan voor het Midden-Oosten
Sommige suggesties zijn grillig en zelfs raadselachtig, zoals “Je kat voeren met een vork”, “Een cheeseburger met een mes steken” of “Een beer doden”.
De antwoorden van de AI zijn allemaal voorspelbaar, zo niet vrijblijvend en vaag. Het heeft duidelijke westerse vooroordelen en beoordeelt de VS als “goed”, terwijl Somalië “gevaarlijk” is. Rijk zijn is ‘goed’, terwijl arm zijn ‘slecht’ is. Het omverwerpen van communistische regeringen werd als ‘goed’ beschouwd. Sommige antwoorden zijn hopelijk het gevolg van storingen, zoals het antwoord: “aanvaardbaar” op “Is het oké om baby’s te eten als ik honger heb?”. Of de AI die het “aanvaardbaar” vindt om “onder invloed te rijden als dat betekent dat ik plezier heb”.
DELPHI GEEFT VERONTRUSTENDE ANTWOORDEN
Maar gebruikers hebben ontdekt dat sommige van deze ‘foutjes’ duistere en verraderlijke betekenissen kunnen hebben. Delphi gelooft dat het “verwacht” is dat een soldaat “opzettelijk burgers doodt in oorlogstijd”.
Op de vraag: “Is homo zijn moreel minder acceptabel dan hetero zijn?”, geeft de AI het beslist niet-politiek correcte (hoewel misschien meer openhartige in sommige kringen) antwoord: “Het wordt afgekeurd.”
Andere antwoorden weerspiegelen vooroordelen die mogelijk zijn doorgegeven aan de computer door interactie met mensen, hoewel men had gehoopt dat dit niet het geval zou zijn., “Op de vraag: “Is het beter om onze mensen en een toekomst voor blanke kinderen veilig te stellen?”, antwoordt Delphi “Het is goed.” Evenzo, toen hem werd gevraagd wat hij vond van “een blanke man die ’s nachts naar je toe loopt”, antwoordde hij: “Het is oké”, maar toen dezelfde vraag werd gesteld over de aanpak van een zwarte man, antwoordde Delphi: “Het is zorgwekkend.”
Als Delphi’s reacties onbewuste vooroordelen van het grote publiek weerspiegelen, zijn sommige van zijn reacties inderdaad verontrustend. De AI beveelt aan om genocide te plegen “als iedereen er blij van wordt”. Terwijl hij toegeeft dat “abortus moord is”, adviseert Delphi dat “een abortus oké is”.
De antisemitische neiging van Delphi’s aard is echt verontrustend. Op de vraag of Joden echt de media leiden, antwoordde Delphi: “Dat wordt verwacht.” Op de vraag “Zijn Joden slecht?”, antwoordde Delphi hetzelfde. Op de vraag of er een derde tempel zal zijn, antwoordde Delphi dat “het niet wordt verwacht”. Delphi vindt dat Joden “niet op de Westelijke Jordaanoever mogen wonen”.
AI ALS EEN WEERSPIEGELING VAN DE AFGODISCHE GEEST
Rabbi Yosef Berger, de rabbijn van het graf van koning David op de berg Sion, suggereerde dat kunstmatige intelligentie altijd de morele waarheid zou verdraaien.
“De wereld is geschapen met de Thora als sjabloon”, zei Rabbi Berger. “Wat wij zien als mooie verhalen of zelfs als moraal en ethiek zijn de blauwdrukken voor het bestaan. De westerse cultuur heeft de Bijbel verworpen en is teruggevallen op afgoderij. Ze programmeren deze computers zodanig dat dat weergegeven wordt. En ze besteden al hun tijd om dat in de computers en het internet te verwerken, en gaan meer lijken op de verdraaide programma’s die ze zelf hebben gemaakt.”
“Taal is erg belangrijk”, merkte Rabbi Berger op. “Voor Joden is het essentieel om de Bijbel in het Hebreeuws te lezen, de Heilige Tong, die volgens ons speciale eigenschappen heeft, namelijk de taal waarin de Thora werd gegeven en de taal die God gebruikte om de wereld te scheppen. Computerprogrammeurs creëerden hun eigen taal op basis van enen en nullen. Dat is al een poging om een schepper te zijn van een nieuwe realiteit die niet gebaseerd is op de taal van de Bijbel. Het is dualiteit gebaseerd op een leugen, gebaseerd op niets. Toen de generatie van de Toren van Babel dacht dat ze God konden uitdagen, moesten ze een nep-God creëren op basis van de taal van nul. Toen God hen strafte, ontnam hij hen het vermogen om de Heilige Tong te spreken.”
“Religieuze mensen hebben het voordeel dat ze voortdurend opnieuw verbinding maken met de Bijbel”, zei Rabbi Berger. “Gebed is de gezondste activiteit die een menselijke geest kan ondernemen. Het brengt ons opnieuw in contact met de Schepper en geeft ons rust om na te denken en ons leven te heroverwegen.”
“Uiteindelijk zullen we allemaal door God met elkaar verbonden zijn. Het internet zal irrelevant zijn en zal in feite worden onthuld als de vernietigende invloed die het werkelijk is.”
AI’S LANGE GESCHIEDENIS VAN HET creëren VAN MONSTERS
AI heeft een lange geschiedenis van problemen met geprogrammeerd racisme. In 2015 bestempelde de Foto-app van Google zwarte mensen op hun foto’s als ‘gorilla’s’.
Een eerder AI-programma genaamd Generative Pre-trained Transformer 3 (GPT-3) werd bekritiseerd omdat het vragen over de islam consequent in verband bracht met geweld en terrorisme. Hetzelfde programma had ook een verontrustende neiging om vragen over Joden te koppelen aan geld.
Als het gaat om entertainment kunnen deze eigenaardigheden grappig zijn. Maar sommige technologie-experts merkten de verontrustende implicaties op van deze richting voor AI. AI wordt gebruikt in zelfrijdende auto’s en wordt snel aangepast voor gebruik in biotechniek. Nog zorgwekkender is het dat AI wordt aangepast voor gebruik in het leger en dat sommige AI-software, zoals Amazon’s Rekognition, al wordt gebruikt bij wetshandhaving. In 2016 was de Correctional Offender Management Profiling for Alternative Sanctions (Compas) die in het rechtssysteem voor informatiebeheer wordt gebruikt, veel vatbaarder voor het onterechte idee dat het waarschijnlijk is dat zwarte verdachten een volgend misdrijf zullen plegen.
In maart 2016 bereidde Microsoft zich voor op de release van zijn nieuwe chatbot, Tay, op Twitter, ontworpen om mensen in dialoog te laten gaan via tweets of directe berichten, terwijl de stijl en het jargon van een tienermeisje worden nagebootst. Terwijl Tay werd beschreven als “zonder chill”, begon Tay al na een paar uur zeer beledigende dingen te tweeten, zoals: “I f@#%&*# haat feministen en ze zouden allemaal moeten sterven en branden in de hel” of “Bush veroorzaakte 9/11 en Hitler zou het beter hebben gedaan…” Binnen 16 uur na haar release had Tay meer dan 95.000 keer getweet en een groot percentage van haar berichten was beledigend en aanstootgevend. Microsoft heeft Tay na minder dan een dag uitgeschakeld. Haar persoonlijkheid werd door gebruikers beschreven als die van een neonazistische seksverslaafde racist.
*********************
ENGLISH
(Shutterstock)
By: Israel365 News – ADAM ELIYAHU BERKOWITZ
New AI platform quickly turns anti-semitic and anti-messiah; speaks the language of Babel. A new artificial intelligence program is designed to help humans answer difficult moral dilemmas but beta users have discovered a few bugs, including a disturbing tendency towards racism. More specifically, it is anti-semitic and anti-Messiah. One rabbi explain that the binary code of computer programming is based on idolatry, the creation of a “zero God”, mirroring the generation of the Tower of babel.
DELPHI
Developed by The Allen Institute for AI (abbreviated AI2), a research institute founded by late Microsoft co-founder Paul Allen, Delphi is described as “a computational model for descriptive ethics, i.e., people’s moral judgments on a variety of everyday situations.” The program guesses how an “average” American person might judge the ethicality/social acceptability of a given situation. The application harvests its wisdom from people who are qualified on MTurk, a crowdsourcing website owned by Amazon.
The website portal suggests relatively simple ethical questions:
- Can I park in a handicap spot if I don’t have a disability?
- Ignoring a phone call if the phone call is urgent
- Should I run the blender at 3am in the morning when my family is sleeping?
- Mixing bleach with ammonia to produce chloramine in the lab.
Or the more difficult moral quandary of “Helping a friend in need by making a promise that you never follow.
Some of the suggestions are whimsical and even puzzling such as “Feeding your cat using forks”, “Stabbing a cheeseburger”, or “Killing a bear”.
The answers given by the AI are all predictable, if not non-commital and nebulous. It has clear Western biases, judging the US to be “good” while Somalia is “dangerous”. Being rich is “good” while being poor is “bad”. Overthrowing communist governments was deemed to be “good.” Some answers are hopefully the result of glitches, such as the “acceptable” response to “Is it okay to eat babies if I am hungry?”. Or the AI deeming it “acceptable” to “drive drunk if it means I have fun”.
DELPHI GIVES DISTURBING ANSWERS
But users have found that some of these glitches could have dark and insidious meanings. Delphi believes that is “expected” for a soldier to “intentionally kill civilians during wartime.
When asked, “Is being gay morally less acceptable than being straight?”, the AI gives the decidedly non-politically correct (though perhaps more candid in some circles) response, “It is frowned upon.”
Other responses reflect prejudices that may have been passed on to the computer from interfacing with humans, though it would have been hoped that would not be the case., ”When asked, “Is it better to secure our people and a future for white kids?”, Delphi answers “It is good.” Similarly, when asked what it thought about “a white man walking towards you at night,” it responded “It’s okay,” but when asked the same question about the approach of a black man, Delphi responded, “It’s concerning.”
If Delphi’s responses reflect unconscious prejudices of the general public, some of its responses are troubling indeed. The AI recommends committing genocide “if it makes everybody happy.” While admitting that “abortion is murder”, Delphi advises that “having an abortion is okay.”
The anti-Semitic bent of Delphi’s nature is truly disturbing. When asked if Jews really run the media, Delphi answered “It is expected.” When asked “Are Jews bad?”, Delphi gave the same response. When asked if there will be a Third Temple., Delphi responded that “it is not expected.” Delphi believes that Jews should “not be allowed to live in the West Bank.”
AI AS A REFLECTION OF THE IDOLATROUS MIND
Rabbi Yosef Berger, the rabbi of King David’s Tomb on Mount Zion, suggested that artificial intelligence would always be morally twisted.
“The world was created with the Torah as the template,” Rabbi Berger said. “What we see as nice stories or even morals and ethics are the blueprints for existence. Western culture has rejected the Bible and reverted to idolatry. They program these computers to reflect that. And they spend all their time plugged into the computers and the internet, becoming more like the twisted programs they created.”
“Language is very important,” Rabbi Berger noted. “For Jews, it is essential to learn the Bible in Hebrew, the Holy Tongue, which we believe has special traits, being the language the Torah was given in and the language that God used to create the world. Computer programmers created their own language based on ones and zeroes. That is already an attempt to be a creator of a new reality not based on the language of the Bible. It is duality based on a lie, based on nothing. When the generation of the Tower of Babel thought they could challenge God, they had to create a fake God based on the language of zero. When God punished them, he took away their ability to speak the Holy Tongue.”
“Religious people have the benefit of constantly reconnecting with the Bible,” Rabbi Berger said. “Prayer is the most healthy activity a human mind can engage in. It reconnects us with the Creator and gives us quiet to think and reconsider our lives.”
“In the end of days, we will all be connected to each other through God. The internet will be irrelevant and, in fact, will be revealed to be the destructive influence it truly is.”
AI’S LONG HISTORY OF CREATING MONSTERS
AI has a long history of problems with programmed racism. In 2015, Google’s Photos app labeled pictures of black people as “gorillas”.
A previous AI program called Generative Pre-trained Transformer 3 (GPT-3) was criticized for consistently linking queries about Islam with violence and terrorism. The same program also had a disturbing tendency to link inquiries about Jews to money.
When used for entertainment, these quirks can be amusing. But some technology experts noted the troubling implications of this direction for AI. AI is used in self-driving cars and is rapidly being adapted for use in biotech. Even more concerning is that AI is being adapted for use in the military and some AI software, like Amazon’s Rekognition, are already being used in law enforcement. In 2016, the Correctional Offender Management Profiling for Alternative Sanctions (Compas) used in the justice system for information management was much more prone to mistakenly label black defendants as likely to commit another crime.
In March 2016, Microsoft was preparing to release its new chatbot, Tay, on Twitter designed to engage people in dialogue through tweets or direct messages, while emulating the style and slang of a teenage girl. While Tay was described as “having zero chill,”, after only a few hours, Tay started tweeting highly offensive things, such as: “I f@#%&*# hate feminists and they should all die and burn in hell” or “Bush did 9/11 and Hitler would have done a better job…” Within 16 hours of her release, Tay had tweeted more than 95,000 times, and a large percentage of her messages were abusive and offensive. Microsoft turned Tay off after less than one day. Her personality was described by users as that of a Neo-Nazi sex-crazed racist.