The Thinking Game - DeepMind

Demis Hassabis vann nobelpriset i Kemi 2024. Han är känd som CEO för Google DeepMind och vann priset för "protein structure prediction", specifically for AlphaFold2.


I dokumentären "The Thinking Game" får vi följa Demis de senaste åren samtidigt som vi får en inblick i vad som skapade hans intresse för Artificial General Intelligence (AGI). 

Extremt sevärd film:


Några exformativa utdrag från filmen:

DeepMind mission:
"Build the world´s first
general learning machine" (AGI)


Self-taught AI software
attains human-level
performance in video games


2016, AlphaGo
Lee Sedol
"the Roger Federer of Go"
MOVE 37

2017 - The Sputnik moment of AI


AlphaZero
learns through experience


StarCraft
MaNa against AlphaStar


The potential for abuse from AI will be significant - 
how do you keep power forever over
something that´s more powerful than you?


Proteins are one of the most
beautiful and elegant things about biology.
They are the machines of life.
If we could solve protein folding,
it could change the world.
AlphaFold


CASP
the Olympic games of protein folding


It´s really impossible for us to imagine
the outputs of a super-intelligent entity


How will we govern it?


2020
"As I expect you know,
your group has performed amazingly well in CASP 14"

They released the structures of 200 million proteins.
These are gifts to humanity.


"AlphaFold is the Most Important
Achievement in AI - Ever"
                    Forbes

AI Safety Summit
AGI is on the horizon now



Om du ännu inte sett den första dokumentären om AlphaGo, se allt om "MOVE 37" via denna länk.


Enligt copilot så är idag AI den fjärde största riskfaktorn för mänskligheten ur ett samhälls- och existentiellt perspektiv. Det finns idag många framstående röster som beskriver farorna med AI, t ex Nick Bostrom, Eliezer Yudkowsky, Stuart Russel, Sam Altman, Demis Hassabis. Dessa personer pekar på fokuspunkter kring:

  • Existentiella risker från AI med självförbättringsexplosion
  • Alignering och målmissanpassning - när AI följer sina egna logiska mål, inte mänskliga
  • Teknisk opacitet - bristande förståelse för AI:s inre mekanik
  • Missbrukspotential - särskilt av aktörer som manipulerar AI för brottsliga eller krigiska ändamål
  • Industrins riskhantering - långt ifrån tillräcklig enligt oberoende utvärderingar.

Som Geoffrey Hinton (the Godfather of AI och Nobelprisvinnare i fysik 2024) lär ha sagt:

We can´t afford to get AI wrong


Han varnar för den existentiella dimensionen av fel i AI-utveckling: en enda felaktig modell eller beslut kan få ödesdigra konsekvenser för mänskligheten.




Kommentarer

Populära inlägg i den här bloggen

Förändring - "Fyrarummaren"

Klart Ledarskap - en smula NLP

Svart pedagogik - Nä tack!