Verdien Online Geld met uw Blog, Recensies van Gadgets, Nieuws Technologie

Kunnen we deze technologie op een verantwoorde manier gebruiken?

Kennis zelf is moreel neutraal. Laten we de nucleaire wetenschap als voorbeeld nemen. Je kunt het gebruiken om constructieve dingen te doen, zoals het bouwen van medische apparatuur of kerncentrales. Met dezelfde kennis kun je ook een bom bouwen. Het is een persoon die heeft besloten hoe. De keuze om kennis op een ethische of onethische manier toe te passen. Hoe zit het met de AI-ethiek?

Bij AI-ethiek is het niet anders. Kunstmatige intelligentie is al een vakgebied dat een aantal ongelooflijk krachtige hulpmiddelen heeft voortgebracht. Als we alleen naar de korte tot middellange termijn kijken, is het duidelijk dat AI de bepalende technologie van de 21e eeuw zal zijn. Dat is ook niet verrassend. De complexiteit van onze wereld, onze samenleving en onze problemen overstijgen de mogelijkheden van de menselijke intelligentie. Zonder de hulp van kunstmatige intelligentie zullen moeilijke vragen in de geneeskunde, het milieu en het dagelijks leven onmogelijk of onnodig moeilijk zijn.

Er zijn al preventieve bewegingen die hierop gericht zijn AI verbieden. In ieder geval bepaalde versies ervan. Het is echter onwaarschijnlijk dat een veld dat zulke nuttige hulpmiddelen biedt, zal worden weggevaagd. Het beste wat we kunnen doen is nadenken over hoe we AI-technologie kunnen reguleren en toepassen. Welke technologie we ook ontwikkelen en inzetten, deze moet minimale schade veroorzaken en grote voordelen opleveren. Behalve: hoe zou dat werken?

Vooroordelen in AI

Een van de krachtigste aspecten van kunstmatige intelligentie komt van machine learning (ML). Dit beschrijft de verscheidenheid aan methoden waarmee een digitaal systeem oplossingen kan vinden die de programmeurs zelf niet hadden.

Kortom, de software ontvangt informatie waarmee hij algoritmen maakt die complexe problemen snel kunnen oplossen. Voorbeelden van dergelijke problemen zijn het herkennen van een gezicht of het voorspellen van crimineel gedrag.

Hoewel AI een krachtige en geavanceerde benadering van computers is, is het basisprincipe ‘garbage in, garbage out’ nog steeds van toepassing. Met andere woorden: de algoritmen die door ML-technieken zijn gemaakt, zijn slechts zo goed als de gegevens waarvan ze leren. Wanneer u bevooroordeelde gegevens invoert, worden bevooroordeelde oplossingen ontwikkeld.

Als je er even over nadenkt, moet het duidelijk zijn dat dit een groot probleem is. Er is al bias waargenomen bij gezichtsherkenning van mensen met een donkere huidskleur. Hoe zit het met medische algoritmen die vrouwen of mensen uit minderheidsgemeenschappen over het hoofd zien? Dit is zo’n groot probleem dat we zulke organisaties hebben Algoritmische Justice League die actief werken aan het vergroten van het bewustzijn over AI-vooroordelen.

Ethische beslissingen van AI

Als je AI op een ethische manier wilt gebruiken, moet de AI zelf zich ook op een ethische manier gedragen. Dat is duidelijk, toch? Dat is gemakkelijk gezegd, maar de daadwerkelijke implementatie ervan is een heel ander probleem.

Neem een ​​situatie waarin een auto op het punt staat een onvermijdelijk ongeval te krijgen. Wat er ook gebeurt, iemand zal sterven of ernstig gewond raken. Verschillende menselijke bestuurders zullen in deze situatie waarschijnlijk verschillende beslissingen nemen. De meeste mensen zullen waarschijnlijk in de meeste gevallen proberen hun eigen leven en dat van hun passagiers te redden. Als iemand een hond, een kind of een ander bijzonder kwetsbaar slachtoffer wil overrijden, kan hij uitwijken en vallen. Doe jezelf in plaats daarvan pijn. In dergelijke situaties moeten mensen vaak zonder veel nadenken reageren. Ze hebben geen tijd om er filosofisch over na te denken en tot een moreel aanvaardbare oplossing te komen.

Voor een AI die in dezelfde auto rijdt, heeft hij alle tijd van de wereld. De echte vraag is dus wat voor soort ethische regels hun makers zouden moeten incorporeren. Het probleem is dat de visie op wat wel of niet ethisch is nauwelijks universeel is. Sommige mensen zouden zeggen dat je moet proberen de meeste levens te redden. Volgens anderen zou AI prioriteit moeten geven aan zijn eigen passagiers. Er is nog een ander aspect. Zou jij graag in een AI-gestuurde auto willen rijden die ervoor kiest jou op te offeren voor het algemeen belang?

Het is misschien niet rationeel, maar mensen geven de voorkeur aan de illusie van controle. Mensen voelen zich veiliger als ze een voertuig besturen, ook al is dat minder veilig dan rijden met een machine. Om deze reden was het beter om het rijden te automatiseren met behulp van technologieën zoals systemen om botsingen te vermijden. De chauffeur denkt dat hij de touwtjes in handen heeft, totdat het allemaal misgaat. Dan treden de geautomatiseerde systemen in werking. Volledige automatisering, vooral wanneer er beslissingen over leven of dood moeten worden genomen, zal zowel een moeilijke verkoop als een moeilijk technisch probleem zijn om op te lossen.

Zal AI ons vrij of overbodig maken?

Dit is een van de meest gestelde vragen, en het korte antwoord is dat niemand echt weet welke impact AI op de samenleving zal hebben. Technologische vooruitgang verandert ons. Of deze verandering positief of negatief is, is een kwestie van perspectief en context.

Wat vrijwel zeker is, is dat AI-oplossingen veel taken zullen overnemen die momenteel door mensen worden uitgevoerd. Hoe eenvoudiger de klus, hoe groter de kans dat een machine het doet. Dit is helemaal geen nieuwe trend. We hebben verschillende industriële revoluties meegemaakt die de beroepsbevolking in de ene of de andere richting hebben doen bewegen.

Tegenwoordig werkt bijvoorbeeld een klein percentage van de mensen in de landbouw. Tractoren, maaidorsers en andere gemechaniseerde technologieën hebben de behoefte aan massale menselijke arbeid geëlimineerd. Nu zal AI minder mensen nodig hebben om deze apparaten te bedienen. Op het land zijn al zelfrijdende tractoren aan het werk. Dronefabrikant DJI verkoopt ze Agras Drone die automatisch pesticiden kan spuiten over wel tien hectare per uur.

Ook mensen in complexe, creatieve beroepen (zoals schrijvers!) kunnen zich niet op hun gemak voelen. Er zijn veel voorbeelden van AI-toepassingen die inhoud creëren die door mensen is geschreven. Vooral op zeer gestructureerde gebieden zoals financiële marktrapportage of sport.

Nu we het einde van deze eeuw naderen, is het op de lange termijn moeilijk voor te stellen dat machines niet in staat zouden zijn algemene kennis- of natuurkundige taken uit te voeren. Hoewel niemand perfecte antwoorden heeft voor de toekomst, moeten we alles heroverwegen. Van het economische principe van schaarste tot wat mensen met hun tijd op aarde moeten doen. Het idee dat we moeten werken om te leven is immers geen objectieve waarheid. Dit is een neveneffect van de schaarse hulpbronnen. Voorstanders van Economie na schaarste Over het algemeen is AI een sleuteltechnologie om alles te laten werken.

Gegevensbescherming in het tijdperk van AI

Er zijn veel fictieve verhalen over overcompetente personages die een krachtig inzicht krijgen in de privélevens van de mensen die ze ontmoeten. Sherlock Holmes, uit de verhalen van Sir Arthur Conan Doyle, is misschien wel het bekendste voorbeeld. Holmes merkte een paar kleine details over iemand op en gebruikte vervolgens zijn uitgebreide algemene kennis om theorieën te creëren over wat die details betekenen. In de boeken biedt hij krachtige inzichten die leiden tot de veroordeling van schurken die anders met hun misdaden zouden zijn weggekomen.

Maar wat als je geen slechterik bent? Wat als je gewoon iemand bent die probeert je leven in vrede te leiden? Zou een Sherlock Holmes die op correcte wijze persoonlijke feiten over uw leven afleidt, welkom zijn?

Dit is een van de ethische vragen als we nadenken over de kracht van big data en de leertechnologieën die inzichten uit deze data kunnen afleiden. Zelfs als je geen vertrouwelijke feiten over jezelf prijsgeeft, kan de AI op de puntjes meedoen.

Het ergste van alles is dat toekomstige AI kan worden toegepast op gegevens die in het verleden zijn verzameld. Dit betekent dat informatie over u die nu anoniem is, ooit geanonimiseerd kan worden. Het is als een tikkende tijdbom.

Het andere grote AI-privacyprobleem is dat de huidige AI-technologieën zoals vloeiende spraakherkenning massale surveillance mogelijk maken die nooit mogelijk zou zijn met menselijke agenten of traditionele software.

Uiteindelijk is wetgeving het enige dat AI-datalekken kan beperken. Denk aan het afluisteren van telefoons en andere gangbare afluistertechnieken. Als de overheid dat wilde, konden ze je telefoon afluisteren. Het is het rechtssysteem dat dit naar believen verhindert. We hebben dezelfde wettelijke bescherming nodig tegen het gebruik van AI voor historische gegevens of voor massasurveillance.

Behandel AI ethisch

Er is een interessante vraag over AI, die voorlopig puur academisch is. Deze vraag betreft de ethische behandeling van AI’s zelf, met andere woorden: op welk punt moeten we ons zorgen maken over de rechten van AI? Zoals ik elders heb gezegd, bestaat het soort ‘sterke’ AI dat in dezelfde sentimentscategorie zou vallen als mensen nog niet. We weten niet of mensen er ooit achter zullen komen hoe ze bewuste, zelfbewuste intelligentie kunnen genereren.

Zelfs de meest geavanceerde AI-toepassingen van vandaag ontberen de architectonische complexiteit van ‘eenvoudige’ dieren zoals insecten. Het is ook niet duidelijk op welk punt de mishandeling van AI-eenheden een ethische kwestie wordt. Hoe bepaal je of een intelligentie in staat is subjectief lijden te ervaren?

Omdat bewuste AI niet op een voorzienbare routekaart voor AI-ontwikkeling staat. Dit lijkt misschien een academische vraag. Maar het is vandaag de dag belangrijk omdat we als samenleving nog niet eens de ethiek hebben ontdekt van hoe we ethisch met natuurlijke intelligenties moeten omgaan. Er zijn dieren zoals dolfijnen en chimpansees die zo dicht bij ons staan ​​dat sommige mensen vinden dat ze moeten worden toegestaan mensachtige persoonlijkheid.

Aan de andere kant zijn varkens ongelooflijk intelligent, maar we fokken en slachten miljoenen van hen om ze te voeden. We zullen veel meer moeten nadenken over waar de grenzen van wreedheid en gevoeligheid liggen. Het probleem is dat er hier geen objectieve goede en foute antwoorden zijn. Moraal en ethiek kennen altijd een bepaald grijs gebied. De kwelling van het nadenken over wanneer AI het punt zal bereiken waarop we ons zorgen moeten maken over wreedheid, is waarschijnlijk in tegenspraak met het nut en de winstgevendheid ervan. Het zal interessant zijn om te zien hoe toekomstige AI-ontwikkelaars met dit probleem omgaan, maar niemand die vandaag de dag leeft, zal waarschijnlijk het resultaat zien.

Militaire AI-toepassingen

Robot-Android-vrouwen

Films die ons waarschuwen voor ‘malafide AI’ gaan bijna altijd over robotmoordmachines. Dit is het nachtmerriescenario van Skynet, waarin machines die atoombommen kunnen afvuren en jagers en moordenaars kunnen sturen, het op ons allemaal hebben gemunt.

Het goede nieuws is dat dit in de nabije toekomst beperkt blijft tot het domein van science fiction. Er bestaat niet zoiets als superintelligente, sterke AI. We weten niet hoe we ze moeten maken, en het is onwaarschijnlijk dat we ze zomaar kunnen creëren.

Wat niets doet aan de ethische zorgen over AI-moordmachines. Grote militaire machten in de wereld hebben geautomatiseerde wapenplatforms ingezet, zoals de Predator-drone MAARS-robot al decenia.

Tot nu toe is er altijd een menselijke beslisser geweest als er een beslissing moest worden genomen om een ​​leven te nemen. Dat is echter aan het veranderen. Er is een sterke internationale druk om autonome systemen toe te staan ​​vijandelijke doelen te selecteren en aan te vallen zonder eerst een mens te raadplegen. Het is logisch omdat het toevoegen van een dergelijke vertraging de effectiviteit van het wapen verzwakt, maar de ethische vragen zijn talrijk. Er is al een grote reactie die wil dat we ‘killer-robots’ verbieden. Voordat ze zich ooit bij het leger voegden. Aan de andere kant kunnen toekomstige oorlogen alleen met machines aan beide kanten worden uitgevochten. Dat is beter? Misschien.

Haal mensen uit de kring

Er bestaat een grote spanning tussen het realiseren van het potentieel van AI-technologie en het behouden van de menselijke verantwoordelijkheid in het proces. Veel AI-systemen, vooral militaire systemen, werken het beste als ze niet door mensen worden gehinderd. Als je niet langer aan een mens moet vragen om elke belangrijke beslissing te herzien, kun je alleen werken met de snelheid van menselijke besluitvorming. Dit lijkt een beetje contraproductief. Als we echter geen menselijke controle hebben over AI-beslissingen, lopen we het risico dat AI beslissingen neemt die niet in ons beste belang zijn.

Een echte oplossing voor dit probleem kan ik niet bieden. Uiteindelijk moeten we een accuraat gevoel van vertrouwen ontwikkelen als het gaat om onze AI-technologie. Op dezelfde manier beoordelen we welke mensen mensen vandaag de dag vertrouwen bij deze beslissingen. De tijden veranderen, en hoewel mensen zich niet kunnen voorstellen dat machine-intelligentie vandaag de dag beslissingen over leven of dood neemt, zou een toekomstige iteratie van de technologie iedereen op zijn gemak kunnen stellen. Er is in ieder geval serieuze reflectie nodig als iemand de persoon uit de cirkel wil halen.

Bouw kwaadaardige AI

virus

Terwijl de meeste mensen zich zorgen lijken te maken dat onze AI-technologie ‘schurkenstaten’ wordt en zich tegen ons keert. Eerlijk gezegd is dit, zoals de zaken er nu voorstaan, een fantasie. Wat niet gewenst is, is dat een mens-AI-maker doelbewust AI-technologie gebruikt om schade te veroorzaken.

Er zijn verschillende manieren waarop je dit kunt aanpakken, maar AI kan ongetwijfeld rechtstreeks worden bewapend.

Stel je eerst eens voor dat AI-systemen als onafhankelijke hackers werken. Ze struinen het internet af op zoek naar kwetsbaarheden in beveiligingssystemen. Zodra ze er een vinden, wordt de missie uitgevoerd. Wat het ook zal zijn. Vindt u dit idee vergezocht? Bedenk dan dat er al AI-software is geschreven die een hypothese kan vormen, een experimentele test kan ontwerpen, deze kan uitvoeren en vervolgens een conclusie kan trekken. Dit was in 2009!

Dit staat niet ver af van de basisaanpak die hackers gebruiken. Ze observeren, formuleren mogelijke hacks en testen deze vervolgens.

Natuurlijk hebben we al veel slimme malware in het wild. Deze traditionele malware leert echter geen nieuw gedrag aan en verandert niet op voorspelbare wijze. In ieder geval niet met opzet. Geavanceerde AI-malware kan een plaag zijn die alleen andere AI’s aankunnen.

Beperk de gevaren van AI

Dus wat kunnen we doen om enige controle te krijgen over de potentiële bedreigingen die AI-technologie met zich meebrengt? Het antwoord hierop hangt grotendeels af van waar AI zal worden toegepast. Uiteindelijk hangt de kans op schade af van de prioriteit van uw interventie.

De belangrijkste oplossing zou zijn om ervoor te zorgen dat er een vorm van robuuste en veilige uit-schakelaar is. Zolang een mensenhand nog de stekker eruit kan trekken. Dan hebben we een goede mate van zekerheid en een kans om op te treden als de laatste ethische scheidsrechter over het gebruik van AI.

Misschien wel de meest interessante remedie is het opzetten van een dief om een ​​dief te vangen. Met andere woorden: het kan een goed idee zijn om AI-tools te gebruiken om onafhankelijk te monitoren wat andere AI-systemen doen. Zo’n vergezocht idee. Als je erover nadenkt, bestaat je eigen lichaam uit verschillende semi-onafhankelijke componenten. Ze praten allemaal met elkaar, maar elk orgaan doet zijn eigen gespecialiseerde werk. Het gebruik van zelfregulerende AI-systemen kan een manier zijn om onvoorziene uitkomsten te voorkomen.

Opgroeien als soort

Als iets duidelijk is, is er geen manier om AI-technologie terug in de doos te stoppen. Technieken als deep learning werpen vandaag de dag nog steeds vruchten af. We hebben AI nodig om enkele van onze moeilijkste problemen op te lossen. Van omgevingsmodellering tot geautomatiseerd robotwerk: dit alles is niet mogelijk zonder AI. Ik verwacht dat we in de toekomst net zo afhankelijk zullen zijn van AI als nu van medicijnen, fossiele brandstoffen en de andere technologische wonderen die het dagelijks leven mogelijk maken. Als het echter om het ethisch gebruik van AI gaat, moet onze soort nog volwassen worden.

Hoe zie jij de ethiek van AI? Bezorgd? Boos? Laat het ons weten in de reacties hieronder. Tenslotte willen wij u vragen dit artikel online te delen. En vergeet niet dat je TechNadu kunt volgen Facebook En Twitteren. Bedankt!

Mục lục