Tussen angst en onverschilligheid: het juiste perspectief ... and Mobility...• Laten we niet zo...

Post on 07-Jan-2020

0 views 0 download

Transcript of Tussen angst en onverschilligheid: het juiste perspectief ... and Mobility...• Laten we niet zo...

Tussen angst en onverschilligheid: het juiste perspectief op de opkomst van artificiële intelligentie

Jan Broersen

Masterclass Ministerie van Infrastructuur en Milieu Den Haag 18 mei 2016

We moeten niet onverschillig staan tegenover AI: er gebeurt veel meer dan de meeste

mensen zich realiseren.

Recente mijlpalen in de AI

• 1979: IBM’s Deep blue verslaat Kasparov bij schaak (achievement: programmeren van kennis)

Recente mijlpalen in de AI

• 2011: IBM’s Watson verslaat de mens met het spel Jeopardy (achievement: automatische kennisextractie uit teksten)

• 2015: Google’s Deep Mind-team demonstreert een AI die 49 Atari-spellen zelf leert spelen en verslaan (achievement: van specifieke intelligentie naar meer algemene intelligentie)

• 2015: via een ‘over the air’-update introduceert Tesla ‘learning’ self driving cars (achievement: eerste real life robotic machine learning ‘experiment’)

• 2016: AlphaGo verslaat Lee Se-dol bij go (achievement: geen programmeren van kennis, maar leren van ‘intuïties’)

Algotrading

Estimate as of 2008: 50% of all trading

Wiley, 2013

Autonomous weapons

Oxford University Press, 2009

Medical robots

2015: 100% increase in investments in surgical robotics

Self driving cars: pros and cons

November 2015, provoking risky behaviour

October 2015, preventing an accident

MobilEye (leverancier self-driving technology)

• CEO MobilEye: we kunnen nog niet omgaan met "corner events”

• corner event = intuitive driving decision that are common and at the same time unique which makes them hard to program

• Examples: construction vehicles the car doesn't recognise, handwritten signs, wildlife, a pedestrian wearing a weird costume, etc.

Video by Patrick Lin, Stanford Law School

important points from the video

• “Split second decisions”: moral wiggle room for humans, not for machines (Google example)

• Would we accept randomness as a decision source?

• For a human driver, the difference between e.g., consequentialism, Kantianism and virtue ethics may not be important. But, for Google and Tesla it does seem important..

AI in computer scienceSub-symbolic AI Symbolic AI

Bottom-up intelligence: - search, - decision tree algorithms, - evolutionary techniques, - neural networks - connectionism - data-mining

Top-down intelligence: - logic, - BDI-theory, - game theory, - multi-agent systems, - agent / logic programming, - planning, - belief revision

Probabilistic AI- decision theory, - Bayesian networks,

- (PO)MDPs, - reinforcement learning

Global architecture of a modern intelligent system

Environmentsymbolic systems

many feedback loops are not pictured

sub-symbolic + probabilistic systems

‘smart’ servo systems

actions

sensory input

truths & beliefs

decisions

(robotics)

(logic)

(ontologies)

Agent

The Responsibility Gap

My conclusion: we need ‘good old fashioned’ symbolic AI

De verantwoordelijkheid van Facebook

• 2014: Facebook’s algoritmes worden er van beschuldigd het nieuws uit Ferguson, Missouri (rellen na

doodschieten zwarte jongen door politieagent) stelselmatig te bagatelliseren ⇒ voortaan handmatige selectie van

trending artikelen.

• 2016: het facebook-team dat trending artikelen selecteert wordt er van beschuldigd geen conservatieve artikelen te selecteren.

Beter verantwoordelijkheid te geven aan de machine of aan de mens?

We moeten de gevaren van AI niet overdrijven: AI kan minder dan veel mensen zich realiseren.

Doomsday filosofen, wetenschappers en entrepreneurs

Elon Musk: “We need to be super careful with AI. Potentially more dangerous than nukes”

Bill Gates: “If computers will run the algorithms that are in our heads, nobody knows what will happen”

Nick Bostrom: “Machine intelligence is the last invention that humanity will ever need to make”

Stephen Hawking: “machines with AI could spell the end of the human race”

De stand van zaken in de AI

huidige AI = optimaliseren in een zoekruimte met mogelijke intelligente gedragingen:

• Symbool-gebaseerde AI = optimaliseren van plannen in een vastgestelde zoekruimte

• Neurale netwerken = optimaliseren in de zoekruimte van binnen het netwerk mogelijke input-output verbanden

• Evolutionair programmeren = optimaliseren in de zoekruimte van mogelijke input-output beschrijvingen

Rekenkracht: de wet van Moore

De invloed van rekenkracht op intelligentie

• Maar, kan ‘gebrek’ aan intelligentie altijd worden gecompenseerd door meer rekenkracht?

• Bij schaak uiteindelijk wel (eindige spelruimte; met ‘backwards induction’ terugrekenen vanuit gewonnen eindposities)

• Maar in het algemeen lijkt me van niet (asymptoot naar een maximale waarde?)

Algemene intelligentie complexer dan schaakintelligentie

Complicaties bij algemene intelligentie:

• Wat de zoekruimte is, is onduidelijk.. • De zoekruimte is vaak oneindig diep.. • De zoekruimte is vaak oneindig breed.. • Onzekerheid (acties die kunnen falen).. • Continu veranderende omgeving.. • Sociale interacties in groepen (ethiek,

irrationaliteit, etc.).. • etc.

Binnen en buiten bereik van de huidige AI

Binnen bereik: • Strategisch optimaliseren in een vaste zoekruimte • Op statistische wijze teksten ‘interpreteren’ • Machine learning voor zelf-rijdende auto’s

Vooralsnog buiten bereik: • Algemene intelligentie (‘un-supervised’ creëren

van ideeën en oplossingen bij willekeurige problemen)

• Gevoel en intuïtie (een oplossing aanvoelen) • Ervaren van gevoelens (pijn, liefde, trots, etc.) • Bewustzijn

Hoe Kasparov van Deep Blue verloor in de rematch

• In de eerste partij deed Deep Blue een briljante zet: Kasparov was overdonderd

• Kasparov: “the counterintuitive play must be a sign of superior intelligence”

• In de tweede partij was Kasparov zichzelf niet; hij beschuldigde IBM van vals spel en gaf op in remise-stand

• Kasparov verloor het toernooi met 3½ - 2½

Hoe moeten we ons verhouden tot AI?

• Laten we niet zo reageren als Kasparov (Foto: Volkskrant 1997): lees niet méér in de prestaties van (onze huidige) AI dan er daadwerkelijk in zit!

Dank u voor de aandacht

Naar de stellingen

Stellingen

• De voortschrijdende aanwezigheid van AI stelt ons voor geen enkel nieuw probleem op het gebied van wetgeving.

• AI zal ooit de status van ‘legal personhood’ verwerven.

• AI veroorzaakt ‘responsibility gaps’. • AI ontneemt het gezicht op causale

verantwoordelijkheden. • Technologische responsibility gaps bestaan al,

bijvoorbeeld via Facebook.

Stellingen

• Wanneer AI ons zal evenaren en overtreffen, dan moeten we AI vrezen.

• AI zal ons evenaren en overtreffen. • Wanneer we verantwoordelijkheden

delegeren naar AI, moeten we eerder bang zijn dat die AI te dom is dan te slim.