Ander

Kunstmatige intelligentie heeft een grens bereikt


Een nieuw bedrijf begint bier te brouwen met behulp van kunstmatige intelligentie en een algoritme dat de feedback van klanten verwerkt

Straks bevatten dergelijke tapkranen robotgemaakt bier.

Kunstmatige intelligentie blijft nieuwe grenzen bereiken. het kan gevaar winnen, schaakgrootmeesters verslaan, en medische aandoeningen diagnosticeren.

Het heeft ook grote golven gemaakt in de voedingsindustrie door calorieën tellen, optreden als chef-kok, en nieuwe recepten maken. Eén bedrijf probeert de technologie echter naar een van de meest oude gebruiken van mensen: de consumptie van alcohol.

IntelligentX, een in Londen gevestigd bedrijf, heeft een robot geleerd bier brouwen met een algoritme. Consumenten kunnen inloggen op Facebook en hun mening over het bier delen met de chatbot van het bedrijf. De robot neemt die feedback dan op en begint het bier te tweaken. Het maakt ook gebruik van een besluitvormingsproces om te bepalen of de aanpassingen succesvol waren.

Mede-oprichter Hew Leith schetste het eindproduct: "We gebruiken AI om onze brouwers bovenmenselijke vaardigheden te geven, zodat ze sneller dan ooit tevoren ons bier kunnen testen en feedback kunnen krijgen."

Het resultaat kan buitengewoon zijn: een bier dat zijn palet blijft verbeteren en verfijnen om aan de wensen van zijn klant te voldoen. Het lijkt er echter op dat een paar slechte recensies het bier op een dwaalspoor kunnen brengen; kunstmatige intelligentie heeft lachwekkend gefaald eerder, zelfs in de voedselindustrie.

Het blijkt echter dat het experiment leuk moet zijn om naar te kijken, vooral als het op je favoriete barkruk.


'Het is in staat om zelf kennis te creëren': Google onthult AI die zelfstandig leert

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

In een grote doorbraak voor kunstmatige intelligentie had AlphaGo Zero slechts drie dagen nodig om het eeuwenoude Chinese bordspel Go onder de knie te krijgen. zonder menselijke hulp

Laatst gewijzigd op wo 14 feb 2018 21.10 GMT

De kunstmatige-intelligentiegroep van Google, DeepMind, heeft de nieuwste incarnatie van zijn Go-playing-programma, AlphaGo, onthuld - een AI die zo krachtig is dat het duizenden jaren menselijke kennis van het spel heeft ontleend voordat het zelf betere bewegingen uitvond, allemaal in de ruimte van drie dagen.

Het AI-programma, AlphaGo Zero genaamd, wordt geprezen als een grote vooruitgang omdat het het oude Chinese bordspel vanaf het begin onder de knie heeft, en zonder menselijke hulp, behalve dat de regels worden verteld. In games tegen de 2015-versie, die het volgende jaar op beroemde wijze Lee Sedol, de Zuid-Koreaanse grootmeester, versloeg, won AlphaGo Zero met 100 tegen 0.

De prestatie markeert een mijlpaal op weg naar AI's voor algemene doeleinden die meer kunnen dan mensen afranselen bij bordspellen. Omdat AlphaGo Zero zelfstandig leert van een schone lei, kunnen zijn talenten nu worden ingezet voor een groot aantal echte problemen.

Bij DeepMind, dat is gevestigd in Londen, werkt AlphaGo Zero uit hoe eiwitten vouwen, een enorme wetenschappelijke uitdaging die de ontdekking van geneesmiddelen een broodnodige injectie zou kunnen geven.

Match 3 van AlphaGo vs Lee Sedol in maart 2016. Foto: Erikbenson

"Voor ons ging AlphaGo niet alleen over het winnen van het spel Go", zegt Demis Hassabis, CEO van DeepMind en een onderzoeker in het team. "Het was ook een grote stap voor ons in de richting van het bouwen van deze algemene algoritmen." De meeste AI's worden beschreven als 'smal' omdat ze slechts één taak uitvoeren, zoals het vertalen van talen of het herkennen van gezichten, maar AI's voor algemene doeleinden kunnen mogelijk beter presteren dan mensen bij veel verschillende taken. In het komende decennium gelooft Hassabis dat de nakomelingen van AlphaGo naast mensen zullen werken als wetenschappelijke en medische experts.

Eerdere versies van AlphaGo leerden hun bewegingen door te trainen op duizenden games die werden gespeeld door sterke menselijke amateurs en professionals. AlphaGo Zero had zulke hulp niet. In plaats daarvan leerde het puur door zichzelf miljoenen keren opnieuw te spelen. Het begon met het willekeurig plaatsen van stenen op het Go-bord, maar verbeterde snel toen het winnende strategieën ontdekte.

David Silver beschrijft hoe het Go playing AI-programma AlphaGo Zero nieuwe kennis ontdekt. Krediet: DeepMind

"Het is krachtiger dan eerdere benaderingen, omdat we door geen menselijke gegevens of menselijke expertise op welke manier dan ook te gebruiken, de beperkingen van menselijke kennis hebben weggenomen en het in staat is om zelf kennis te creëren", zegt David Silver, hoofdonderzoeker van AlphaGo.

Het programma verwerft zijn vaardigheden door middel van een procedure die versterkingsleren wordt genoemd. Het is dezelfde methode waarmee balans enerzijds en geschaafde knieën anderzijds mensen helpen de kunst van het fietsen onder de knie te krijgen. Wanneer AlphaGo Zero een goede zet speelt, is de kans groter dat deze wordt beloond met een overwinning. Wanneer het een slechte zet maakt, komt het dichter bij een verlies.

Demis Hassabis, CEO van DeepMind: ‘Voor ons ging AlphaGo niet alleen over het winnen van het spel Go.’ Foto: DeepMind/Nature

De kern van het programma is een groep software-neuronen die met elkaar zijn verbonden om een ​​kunstmatig neuraal netwerk te vormen. Voor elke beurt van het spel kijkt het netwerk naar de posities van de stukken op het Go-bord en berekent het welke zetten kunnen worden gedaan en de kans dat ze zullen winnen. Na elke game werkt het zijn neurale netwerk bij, waardoor het een sterkere speler wordt voor het volgende gevecht. Hoewel het veel beter is dan eerdere versies, is AlphaGo Zero een eenvoudiger programma en had het het spel sneller onder de knie ondanks training met minder gegevens en draaien op een kleinere computer. Als het meer tijd had gehad, had het de regels ook voor zichzelf kunnen leren, zei Silver.

Wat is AI?

Kunstmatige intelligentie heeft verschillende definities, maar in het algemeen betekent het een programma dat gegevens gebruikt om een ​​model van een bepaald aspect van de wereld te bouwen. Dit model wordt vervolgens gebruikt om weloverwogen beslissingen te nemen en voorspellingen te doen over toekomstige gebeurtenissen. De technologie wordt op grote schaal gebruikt voor spraak- en gezichtsherkenning, taalvertaling en persoonlijke aanbevelingen voor muziek-, film- en winkelsites. In de toekomst kan het auto's zonder bestuurder, slimme persoonlijke assistenten en intelligente energienetwerken opleveren. AI heeft het potentieel om organisaties effectiever en efficiënter te maken, maar de technologie roept serieuze vragen op over ethiek, bestuur, privacy en wetgeving.

In het tijdschrift Nature beschrijven de onderzoekers hoe AlphaGo Zero vreselijk begon, zich ontwikkelde tot het niveau van een naïeve amateur en uiteindelijk zeer strategische bewegingen uitzond die door grootmeesters werden gebruikt, allemaal in een kwestie van dagen. Het ontdekte een gemeenschappelijk spel, genaamd a joseki, in de eerste 10 uur. Andere zetten, met namen als “kleine lawine” en “ridderzettang” volgden al snel. Na drie dagen had het programma gloednieuwe bewegingen ontdekt die menselijke experts nu bestuderen. Intrigerend genoeg begreep het programma enkele geavanceerde bewegingen lang voordat het eenvoudigere ontdekte, zoals een patroon dat een ladder wordt genoemd en dat menselijke Go-spelers de neiging hebben om al vroeg te begrijpen.

Dit artikel bevat inhoud die wordt gehost op gfycat.com. We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

"Het ontdekt enkele beste toneelstukken, Josekis, en dan gaat het verder dan die toneelstukken en vindt iets nog beters", zei Hassabis. "Je kunt zien dat het duizenden jaren menselijke kennis herontdekt."

Eleni Vasilaki, hoogleraar computationele neurowetenschappen aan de Sheffield University, zei dat het een indrukwekkende prestatie was. "Dit kan heel goed betekenen dat AlphaGo, door geen menselijke expert bij zijn training te betrekken, betere bewegingen ontdekt die de menselijke intelligentie overtreffen in dit specifieke spel," zei ze. Maar ze wees erop dat, hoewel computers mensen verslaan in games die complexe berekeningen en precisie vereisen, ze verre van zelfs mensen matchen bij andere taken. "AI faalt in taken die verrassend eenvoudig zijn voor mensen", zei ze. "Kijk maar naar de prestaties van een humanoïde robot bij alledaagse taken zoals lopen, rennen en een bal trappen."

Tom Mitchell, een computerwetenschapper aan de Carnegie Mellon University in Pittsburgh, noemde AlphaGo Zero een "uitstekende technische prestatie". Hij voegde eraan toe: “Het sluit het boek over de vraag of mensen ooit computers zullen inhalen bij Go. Ik denk dat het antwoord nee is. Maar het opent een nieuw boek, waarin computers mensen leren Go beter te spelen dan vroeger.”

David Silver beschrijft hoe het AI-programma AlphaGo Zero Go leert spelen. Krediet: DeepMind


'Het is in staat om zelf kennis te creëren': Google onthult AI die zelfstandig leert

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

In een grote doorbraak voor kunstmatige intelligentie had AlphaGo Zero slechts drie dagen nodig om het eeuwenoude Chinese bordspel Go onder de knie te krijgen. zonder menselijke hulp

Laatst gewijzigd op wo 14 feb 2018 21.10 GMT

De kunstmatige-intelligentiegroep van Google, DeepMind, heeft de nieuwste incarnatie van zijn Go-playing-programma, AlphaGo, onthuld - een AI die zo krachtig is dat het duizenden jaren menselijke kennis van het spel heeft verkregen voordat het zelf betere bewegingen uitvond, allemaal in de ruimte van drie dagen.

Het AI-programma, AlphaGo Zero genaamd, wordt geprezen als een grote vooruitgang omdat het het oude Chinese bordspel vanaf het begin onder de knie heeft, en zonder menselijke hulp, behalve dat de regels worden verteld. In games tegen de 2015-versie, die het volgende jaar op beroemde wijze Lee Sedol, de Zuid-Koreaanse grootmeester, versloeg, won AlphaGo Zero met 100 tegen 0.

De prestatie markeert een mijlpaal op weg naar AI's voor algemene doeleinden die meer kunnen dan mensen afranselen bij bordspellen. Omdat AlphaGo Zero zelfstandig leert van een schone lei, kunnen zijn talenten nu worden ingezet voor een groot aantal echte problemen.

Bij DeepMind, dat is gevestigd in Londen, werkt AlphaGo Zero uit hoe eiwitten vouwen, een enorme wetenschappelijke uitdaging die de ontdekking van geneesmiddelen een broodnodige injectie zou kunnen geven.

Match 3 van AlphaGo vs Lee Sedol in maart 2016. Foto: Erikbenson

"Voor ons ging AlphaGo niet alleen over het winnen van het spel Go", zegt Demis Hassabis, CEO van DeepMind en een onderzoeker in het team. "Het was ook een grote stap voor ons in de richting van het bouwen van deze algemene algoritmen." De meeste AI's worden beschreven als 'smal' omdat ze slechts één taak uitvoeren, zoals het vertalen van talen of het herkennen van gezichten, maar AI's voor algemene doeleinden kunnen mogelijk beter presteren dan mensen bij veel verschillende taken. In het komende decennium gelooft Hassabis dat de nakomelingen van AlphaGo naast mensen zullen werken als wetenschappelijke en medische experts.

Eerdere versies van AlphaGo leerden hun bewegingen door te trainen op duizenden games die werden gespeeld door sterke menselijke amateurs en professionals. AlphaGo Zero had zulke hulp niet. In plaats daarvan leerde het puur door zichzelf miljoenen keren opnieuw te spelen. Het begon met het willekeurig plaatsen van stenen op het Go-bord, maar verbeterde snel toen het winnende strategieën ontdekte.

David Silver beschrijft hoe het Go playing AI-programma AlphaGo Zero nieuwe kennis ontdekt. Krediet: DeepMind

"Het is krachtiger dan eerdere benaderingen, omdat we door geen menselijke gegevens of menselijke expertise op welke manier dan ook te gebruiken, de beperkingen van menselijke kennis hebben weggenomen en het in staat is om zelf kennis te creëren", zegt David Silver, hoofdonderzoeker van AlphaGo.

Het programma verwerft zijn vaardigheden door middel van een procedure die versterkingsleren wordt genoemd. Het is dezelfde methode waarmee balans enerzijds en geschaafde knieën anderzijds mensen helpen de kunst van het fietsen onder de knie te krijgen. Wanneer AlphaGo Zero een goede zet speelt, is de kans groter dat deze wordt beloond met een overwinning. Wanneer het een slechte zet maakt, komt het dichter bij een verlies.

Demis Hassabis, CEO van DeepMind: ‘Voor ons ging AlphaGo niet alleen over het winnen van het spel Go.’ Foto: DeepMind/Nature

De kern van het programma is een groep software-neuronen die met elkaar zijn verbonden om een ​​kunstmatig neuraal netwerk te vormen. Voor elke beurt van het spel kijkt het netwerk naar de posities van de stukken op het Go-bord en berekent het welke zetten kunnen worden gedaan en de kans dat ze zullen winnen. Na elke game werkt het zijn neurale netwerk bij, waardoor het een sterkere speler wordt voor het volgende gevecht. Hoewel het veel beter is dan eerdere versies, is AlphaGo Zero een eenvoudiger programma en had het het spel sneller onder de knie ondanks training met minder gegevens en draaien op een kleinere computer. Als het meer tijd had gehad, had het de regels ook voor zichzelf kunnen leren, zei Silver.

Wat is AI?

Kunstmatige intelligentie heeft verschillende definities, maar in het algemeen betekent het een programma dat gegevens gebruikt om een ​​model van een bepaald aspect van de wereld te bouwen. Dit model wordt vervolgens gebruikt om weloverwogen beslissingen te nemen en voorspellingen te doen over toekomstige gebeurtenissen. De technologie wordt op grote schaal gebruikt voor spraak- en gezichtsherkenning, taalvertaling en persoonlijke aanbevelingen voor muziek-, film- en winkelsites. In de toekomst kan het auto's zonder bestuurder, slimme persoonlijke assistenten en intelligente energienetwerken opleveren. AI heeft het potentieel om organisaties effectiever en efficiënter te maken, maar de technologie roept serieuze vragen op over ethiek, bestuur, privacy en wetgeving.

In het tijdschrift Nature beschrijven de onderzoekers hoe AlphaGo Zero vreselijk begon, zich ontwikkelde tot het niveau van een naïeve amateur en uiteindelijk zeer strategische bewegingen uitzond die door grootmeesters werden gebruikt, allemaal in een kwestie van dagen. Het ontdekte een gemeenschappelijk spel, genaamd a joseki, in de eerste 10 uur. Andere zetten, met namen als “kleine lawine” en “ridderzettang” volgden al snel. Na drie dagen had het programma gloednieuwe bewegingen ontdekt die menselijke experts nu bestuderen. Intrigerend genoeg begreep het programma enkele geavanceerde bewegingen lang voordat het eenvoudigere ontdekte, zoals een patroon dat een ladder wordt genoemd en dat menselijke Go-spelers de neiging hebben om al vroeg te begrijpen.

Dit artikel bevat inhoud die wordt gehost op gfycat.com. We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

"Het ontdekt enkele beste toneelstukken, Josekis, en dan gaat het verder dan die toneelstukken en vindt iets nog beters", zei Hassabis. "Je kunt zien dat het duizenden jaren menselijke kennis herontdekt."

Eleni Vasilaki, hoogleraar computationele neurowetenschappen aan de Sheffield University, zei dat het een indrukwekkende prestatie was. "Dit kan heel goed betekenen dat AlphaGo, door geen menselijke expert bij zijn training te betrekken, betere bewegingen ontdekt die de menselijke intelligentie overtreffen in dit specifieke spel," zei ze. Maar ze wees erop dat, hoewel computers mensen verslaan in games die complexe berekeningen en precisie vereisen, ze verre van zelfs mensen matchen bij andere taken. "AI faalt in taken die verrassend eenvoudig zijn voor mensen", zei ze. "Kijk maar naar de prestaties van een humanoïde robot bij alledaagse taken zoals lopen, rennen en een bal trappen."

Tom Mitchell, een computerwetenschapper aan de Carnegie Mellon University in Pittsburgh, noemde AlphaGo Zero een "uitstekende technische prestatie". Hij voegde eraan toe: “Het sluit het boek over de vraag of mensen ooit computers zullen inhalen bij Go. Ik denk dat het antwoord nee is. Maar het opent een nieuw boek, waarin computers mensen leren Go beter te spelen dan vroeger.”

David Silver beschrijft hoe het AI-programma AlphaGo Zero Go leert spelen. Krediet: DeepMind


'Het is in staat om zelf kennis te creëren': Google onthult AI die zelfstandig leert

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

In een grote doorbraak voor kunstmatige intelligentie had AlphaGo Zero slechts drie dagen nodig om het eeuwenoude Chinese bordspel Go onder de knie te krijgen. zonder menselijke hulp

Laatst gewijzigd op wo 14 feb 2018 21.10 GMT

De kunstmatige-intelligentiegroep van Google, DeepMind, heeft de nieuwste incarnatie van zijn Go-playing-programma, AlphaGo, onthuld - een AI die zo krachtig is dat het duizenden jaren menselijke kennis van het spel heeft verkregen voordat het zelf betere bewegingen uitvond, allemaal in de ruimte van drie dagen.

Het AI-programma, AlphaGo Zero genaamd, wordt geprezen als een grote vooruitgang omdat het het oude Chinese bordspel vanaf het begin onder de knie heeft, en zonder menselijke hulp, behalve dat de regels worden verteld. In games tegen de 2015-versie, die het volgende jaar op beroemde wijze Lee Sedol, de Zuid-Koreaanse grootmeester, versloeg, won AlphaGo Zero met 100 tegen 0.

De prestatie markeert een mijlpaal op weg naar AI's voor algemene doeleinden die meer kunnen dan mensen afranselen bij bordspellen. Omdat AlphaGo Zero zelfstandig leert van een schone lei, kunnen zijn talenten nu worden ingezet voor een groot aantal echte problemen.

Bij DeepMind, gevestigd in Londen, werkt AlphaGo Zero uit hoe eiwitten vouwen, een enorme wetenschappelijke uitdaging die de ontdekking van geneesmiddelen een broodnodige injectie zou kunnen geven.

Match 3 van AlphaGo vs Lee Sedol in maart 2016. Foto: Erikbenson

"Voor ons ging AlphaGo niet alleen over het winnen van het spel Go", zegt Demis Hassabis, CEO van DeepMind en een onderzoeker in het team. "Het was ook een grote stap voor ons in de richting van het bouwen van deze algemene algoritmen." De meeste AI's worden beschreven als 'smal' omdat ze slechts één taak uitvoeren, zoals het vertalen van talen of het herkennen van gezichten, maar AI's voor algemene doeleinden kunnen mogelijk beter presteren dan mensen bij veel verschillende taken. In het komende decennium gelooft Hassabis dat de nakomelingen van AlphaGo naast mensen zullen werken als wetenschappelijke en medische experts.

Eerdere versies van AlphaGo leerden hun bewegingen door te trainen op duizenden games die werden gespeeld door sterke menselijke amateurs en professionals. AlphaGo Zero had zulke hulp niet. In plaats daarvan leerde het puur door zichzelf miljoenen keren opnieuw te spelen. Het begon met het willekeurig plaatsen van stenen op het Go-bord, maar verbeterde snel toen het winnende strategieën ontdekte.

David Silver beschrijft hoe het Go playing AI-programma AlphaGo Zero nieuwe kennis ontdekt. Krediet: DeepMind

"Het is krachtiger dan eerdere benaderingen, omdat we door geen menselijke gegevens of menselijke expertise op welke manier dan ook te gebruiken, de beperkingen van menselijke kennis hebben weggenomen en het in staat is om zelf kennis te creëren", zegt David Silver, hoofdonderzoeker van AlphaGo.

Het programma verwerft zijn vaardigheden door middel van een procedure die versterkingsleren wordt genoemd. Het is dezelfde methode waarmee balans enerzijds en geschaafde knieën anderzijds mensen helpen de kunst van het fietsen onder de knie te krijgen. Wanneer AlphaGo Zero een goede zet speelt, is de kans groter dat deze wordt beloond met een overwinning. Wanneer het een slechte zet maakt, komt het dichter bij een verlies.

Demis Hassabis, CEO van DeepMind: ‘Voor ons ging AlphaGo niet alleen over het winnen van het spel Go.’ Foto: DeepMind/Nature

De kern van het programma is een groep software-neuronen die met elkaar zijn verbonden om een ​​kunstmatig neuraal netwerk te vormen. Voor elke beurt van het spel kijkt het netwerk naar de posities van de stukken op het Go-bord en berekent het welke zetten kunnen worden gedaan en de kans dat ze zullen winnen. Na elke game werkt het zijn neurale netwerk bij, waardoor het een sterkere speler wordt voor het volgende gevecht. Hoewel het veel beter is dan eerdere versies, is AlphaGo Zero een eenvoudiger programma en had het het spel sneller onder de knie ondanks training met minder data en draaien op een kleinere computer. Als het meer tijd had gehad, had het de regels ook voor zichzelf kunnen leren, zei Silver.

Wat is AI?

Kunstmatige intelligentie heeft verschillende definities, maar in het algemeen betekent het een programma dat gegevens gebruikt om een ​​model van een bepaald aspect van de wereld te bouwen. Dit model wordt vervolgens gebruikt om weloverwogen beslissingen te nemen en voorspellingen te doen over toekomstige gebeurtenissen. De technologie wordt op grote schaal gebruikt voor spraak- en gezichtsherkenning, taalvertaling en persoonlijke aanbevelingen voor muziek-, film- en winkelsites. In de toekomst kan het auto's zonder bestuurder, slimme persoonlijke assistenten en intelligente energienetwerken opleveren. AI heeft het potentieel om organisaties effectiever en efficiënter te maken, maar de technologie roept serieuze vragen op over ethiek, bestuur, privacy en wetgeving.

In het tijdschrift Nature beschrijven de onderzoekers hoe AlphaGo Zero vreselijk begon, zich ontwikkelde tot het niveau van een naïeve amateur en uiteindelijk zeer strategische bewegingen uitzond die door grootmeesters werden gebruikt, allemaal in een kwestie van dagen. Het ontdekte een gemeenschappelijk spel, genaamd a joseki, in de eerste 10 uur. Andere zetten, met namen als “kleine lawine” en “ridderzettang” volgden al snel. Na drie dagen had het programma gloednieuwe bewegingen ontdekt die menselijke experts nu bestuderen. Intrigerend genoeg begreep het programma enkele geavanceerde bewegingen lang voordat het eenvoudigere ontdekte, zoals een patroon dat een ladder wordt genoemd en dat menselijke Go-spelers de neiging hebben om al vroeg te begrijpen.

Dit artikel bevat inhoud die wordt gehost op gfycat.com. We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

"Het ontdekt enkele beste toneelstukken, Josekis, en dan gaat het verder dan die toneelstukken en vindt iets nog beters", zei Hassabis. "Je kunt zien dat het duizenden jaren menselijke kennis herontdekt."

Eleni Vasilaki, hoogleraar computationele neurowetenschappen aan de Sheffield University, zei dat het een indrukwekkende prestatie was. "Dit kan heel goed betekenen dat AlphaGo, door geen menselijke expert bij zijn training te betrekken, betere bewegingen ontdekt die de menselijke intelligentie overtreffen in dit specifieke spel," zei ze. Maar ze wees erop dat, hoewel computers mensen verslaan in games die complexe berekeningen en precisie vereisen, ze verre van zelfs mensen matchen bij andere taken. "AI faalt in taken die verrassend eenvoudig zijn voor mensen", zei ze. "Kijk maar naar de prestaties van een humanoïde robot bij alledaagse taken zoals lopen, rennen en een bal trappen."

Tom Mitchell, een computerwetenschapper aan de Carnegie Mellon University in Pittsburgh, noemde AlphaGo Zero een "uitstekende technische prestatie". Hij voegde eraan toe: “Het sluit het boek over de vraag of mensen ooit computers zullen inhalen bij Go. Ik denk dat het antwoord nee is. Maar het opent een nieuw boek, waarin computers mensen leren Go beter te spelen dan vroeger.”

David Silver beschrijft hoe het AI-programma AlphaGo Zero Go leert spelen. Krediet: DeepMind


'Het is in staat om zelf kennis te creëren': Google onthult AI die zelfstandig leert

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

In een grote doorbraak voor kunstmatige intelligentie had AlphaGo Zero slechts drie dagen nodig om het eeuwenoude Chinese bordspel Go onder de knie te krijgen. zonder menselijke hulp

Laatst gewijzigd op wo 14 feb 2018 21.10 GMT

De kunstmatige-intelligentiegroep van Google, DeepMind, heeft de nieuwste incarnatie van zijn Go-playing-programma, AlphaGo, onthuld - een AI die zo krachtig is dat het duizenden jaren menselijke kennis van het spel heeft verkregen voordat het zelf betere bewegingen uitvond, allemaal in de ruimte van drie dagen.

Het AI-programma, AlphaGo Zero genaamd, wordt geprezen als een grote vooruitgang omdat het het oude Chinese bordspel vanaf het begin onder de knie heeft, en zonder menselijke hulp, behalve dat de regels worden verteld. In games tegen de 2015-versie, die het volgende jaar op beroemde wijze Lee Sedol, de Zuid-Koreaanse grootmeester, versloeg, won AlphaGo Zero met 100 tegen 0.

De prestatie markeert een mijlpaal op weg naar AI's voor algemene doeleinden die meer kunnen dan mensen afranselen bij bordspellen. Omdat AlphaGo Zero zelfstandig leert van een schone lei, kunnen zijn talenten nu worden ingezet voor een groot aantal echte problemen.

Bij DeepMind, gevestigd in Londen, werkt AlphaGo Zero uit hoe eiwitten vouwen, een enorme wetenschappelijke uitdaging die de ontdekking van geneesmiddelen een broodnodige injectie zou kunnen geven.

Match 3 van AlphaGo vs Lee Sedol in maart 2016. Foto: Erikbenson

"Voor ons ging AlphaGo niet alleen over het winnen van het spel Go", zegt Demis Hassabis, CEO van DeepMind en een onderzoeker in het team. "Het was ook een grote stap voor ons in de richting van het bouwen van deze algemene algoritmen." De meeste AI's worden beschreven als 'smal' omdat ze slechts één taak uitvoeren, zoals het vertalen van talen of het herkennen van gezichten, maar AI's voor algemene doeleinden kunnen mogelijk beter presteren dan mensen bij veel verschillende taken. In het komende decennium gelooft Hassabis dat de nakomelingen van AlphaGo naast mensen zullen werken als wetenschappelijke en medische experts.

Eerdere versies van AlphaGo leerden hun bewegingen door te trainen op duizenden games die werden gespeeld door sterke menselijke amateurs en professionals. AlphaGo Zero had zulke hulp niet. In plaats daarvan leerde het puur door zichzelf miljoenen keren opnieuw te spelen. Het begon met het willekeurig plaatsen van stenen op het Go-bord, maar verbeterde snel toen het winnende strategieën ontdekte.

David Silver beschrijft hoe het Go playing AI-programma AlphaGo Zero nieuwe kennis ontdekt. Krediet: DeepMind

"Het is krachtiger dan eerdere benaderingen, omdat we door geen menselijke gegevens of menselijke expertise op welke manier dan ook te gebruiken, de beperkingen van menselijke kennis hebben weggenomen en het in staat is om zelf kennis te creëren", zegt David Silver, hoofdonderzoeker van AlphaGo.

Het programma verwerft zijn vaardigheden door middel van een procedure die versterkingsleren wordt genoemd. Het is dezelfde methode waarmee balans enerzijds en geschaafde knieën anderzijds mensen helpen de kunst van het fietsen onder de knie te krijgen. Wanneer AlphaGo Zero een goede zet speelt, is de kans groter dat deze wordt beloond met een overwinning. Wanneer het een slechte zet maakt, komt het dichter bij een verlies.

Demis Hassabis, CEO van DeepMind: ‘Voor ons ging AlphaGo niet alleen over het winnen van het spel Go.’ Foto: DeepMind/Nature

De kern van het programma is een groep software-neuronen die met elkaar zijn verbonden om een ​​kunstmatig neuraal netwerk te vormen. Voor elke beurt van het spel kijkt het netwerk naar de posities van de stukken op het Go-bord en berekent het welke zetten kunnen worden gedaan en de kans dat ze zullen winnen. Na elke game werkt het zijn neurale netwerk bij, waardoor het een sterkere speler wordt voor het volgende gevecht. Hoewel het veel beter is dan eerdere versies, is AlphaGo Zero een eenvoudiger programma en had het het spel sneller onder de knie ondanks training met minder gegevens en draaien op een kleinere computer. Als het meer tijd had gehad, had het de regels ook voor zichzelf kunnen leren, zei Silver.

Wat is AI?

Kunstmatige intelligentie heeft verschillende definities, maar in het algemeen betekent het een programma dat gegevens gebruikt om een ​​model van een bepaald aspect van de wereld te bouwen. Dit model wordt vervolgens gebruikt om weloverwogen beslissingen te nemen en voorspellingen te doen over toekomstige gebeurtenissen. De technologie wordt op grote schaal gebruikt voor spraak- en gezichtsherkenning, taalvertaling en persoonlijke aanbevelingen voor muziek-, film- en winkelsites. In de toekomst kan het auto's zonder bestuurder, slimme persoonlijke assistenten en intelligente energienetwerken opleveren. AI heeft het potentieel om organisaties effectiever en efficiënter te maken, maar de technologie roept serieuze vragen op over ethiek, bestuur, privacy en wetgeving.

In het tijdschrift Nature beschrijven de onderzoekers hoe AlphaGo Zero vreselijk begon, uitgroeide tot het niveau van een naïeve amateur en uiteindelijk zeer strategische bewegingen uitvoerde die door grootmeesters werden gebruikt, allemaal in een kwestie van dagen. Het ontdekte een gemeenschappelijk spel, genaamd a joseki, in de eerste 10 uur. Andere zetten, met namen als “kleine lawine” en “ridderzettang” volgden al snel. Na drie dagen had het programma gloednieuwe bewegingen ontdekt die menselijke experts nu bestuderen. Intrigerend genoeg begreep het programma enkele geavanceerde bewegingen lang voordat het eenvoudigere ontdekte, zoals een patroon dat een ladder wordt genoemd en dat menselijke Go-spelers de neiging hebben om al vroeg te begrijpen.

Dit artikel bevat inhoud die wordt gehost op gfycat.com. We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

"Het ontdekt enkele beste toneelstukken, Josekis, en dan gaat het verder dan die toneelstukken en vindt iets nog beters", zei Hassabis. "Je kunt zien dat het duizenden jaren menselijke kennis herontdekt."

Eleni Vasilaki, hoogleraar computationele neurowetenschappen aan de Sheffield University, zei dat het een indrukwekkende prestatie was. "Dit kan heel goed betekenen dat AlphaGo, door geen menselijke expert bij zijn training te betrekken, betere bewegingen ontdekt die de menselijke intelligentie overtreffen in dit specifieke spel," zei ze. Maar ze wees erop dat, hoewel computers mensen verslaan in games die complexe berekeningen en precisie vereisen, ze verre van zelfs mensen matchen bij andere taken. "AI faalt in taken die verrassend eenvoudig zijn voor mensen", zei ze. "Kijk maar naar de prestaties van een humanoïde robot bij alledaagse taken zoals lopen, rennen en een bal trappen."

Tom Mitchell, een computerwetenschapper aan de Carnegie Mellon University in Pittsburgh, noemde AlphaGo Zero een "uitstekende technische prestatie". Hij voegde eraan toe: “Het sluit het boek over de vraag of mensen ooit computers zullen inhalen bij Go. Ik denk dat het antwoord nee is. Maar het opent een nieuw boek, waarin computers mensen leren Go beter te spelen dan vroeger.”

David Silver beschrijft hoe het AI-programma AlphaGo Zero Go leert spelen. Krediet: DeepMind


'Het is in staat om zelf kennis te creëren': Google onthult AI die zelfstandig leert

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

AlphaGo Zero versloeg zijn voorganger uit 2015, die grootmeester Lee Sedol versloeg, 100 games van Go to 0.

In een grote doorbraak voor kunstmatige intelligentie had AlphaGo Zero slechts drie dagen nodig om het eeuwenoude Chinese bordspel Go onder de knie te krijgen. zonder menselijke hulp

Laatst gewijzigd op wo 14 feb 2018 21.10 GMT

De kunstmatige-intelligentiegroep van Google, DeepMind, heeft de nieuwste incarnatie van zijn Go-playing-programma, AlphaGo, onthuld - een AI die zo krachtig is dat het duizenden jaren menselijke kennis van het spel heeft ontleend voordat het zelf betere bewegingen uitvond, allemaal in de ruimte van drie dagen.

Het AI-programma, AlphaGo Zero genaamd, wordt geprezen als een grote vooruitgang omdat het het oude Chinese bordspel vanaf het begin onder de knie heeft, en zonder menselijke hulp, behalve dat de regels worden verteld. In games tegen de 2015-versie, die het volgende jaar op beroemde wijze Lee Sedol, de Zuid-Koreaanse grootmeester, versloeg, won AlphaGo Zero met 100 tegen 0.

De prestatie markeert een mijlpaal op weg naar AI's voor algemene doeleinden die meer kunnen dan mensen afranselen bij bordspellen. Omdat AlphaGo Zero zelfstandig leert van een schone lei, kunnen zijn talenten nu worden ingezet voor een groot aantal echte problemen.

Bij DeepMind, gevestigd in Londen, werkt AlphaGo Zero uit hoe eiwitten vouwen, een enorme wetenschappelijke uitdaging die de ontdekking van geneesmiddelen een broodnodige injectie zou kunnen geven.

Match 3 van AlphaGo vs Lee Sedol in maart 2016. Foto: Erikbenson

"Voor ons ging AlphaGo niet alleen over het winnen van het spel Go", zegt Demis Hassabis, CEO van DeepMind en een onderzoeker in het team. "Het was ook een grote stap voor ons in de richting van het bouwen van deze algemene algoritmen." Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


'It's able to create knowledge itself': Google unveils AI that learns on its own

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

AlphaGo Zero beat its 2015 predecessor, which vanquished grandmaster Lee Sedol, 100 games of Go to 0.

In a major breakthrough for artificial intelligence, AlphaGo Zero took just three days to master the ancient Chinese board game of Go . with no human help

Last modified on Wed 14 Feb 2018 21.10 GMT

Google’s artificial intelligence group, DeepMind, has unveiled the latest incarnation of its Go-playing program, AlphaGo – an AI so powerful that it derived thousands of years of human knowledge of the game before inventing better moves of its own, all in the space of three days.

Named AlphaGo Zero, the AI program has been hailed as a major advance because it mastered the ancient Chinese board game from scratch, and with no human help beyond being told the rules. In games against the 2015 version, which famously beat Lee Sedol, the South Korean grandmaster, in the following year, AlphaGo Zero won 100 to 0.

The feat marks a milestone on the road to general-purpose AIs that can do more than thrash humans at board games. Because AlphaGo Zero learns on its own from a blank slate, its talents can now be turned to a host of real-world problems.

At DeepMind, which is based in London, AlphaGo Zero is working out how proteins fold, a massive scientific challenge that could give drug discovery a sorely needed shot in the arm.

Match 3 of AlphaGo vs Lee Sedol in March 2016. Photograph: Erikbenson

“For us, AlphaGo wasn’t just about winning the game of Go,” said Demis Hassabis, CEO of DeepMind and a researcher on the team. “It was also a big step for us towards building these general-purpose algorithms.” Most AIs are described as “narrow” because they perform only a single task, such as translating languages or recognising faces, but general-purpose AIs could potentially outperform humans at many different tasks. In the next decade, Hassabis believes that AlphaGo’s descendants will work alongside humans as scientific and medical experts.

Previous versions of AlphaGo learned their moves by training on thousands of games played by strong human amateurs and professionals. AlphaGo Zero had no such help. Instead, it learned purely by playing itself millions of times over. It began by placing stones on the Go board at random but swiftly improved as it discovered winning strategies.

David Silver describes how the Go playing AI program, AlphaGo Zero, discovers new knowledge from scratch. Credit: DeepMind

“It’s more powerful than previous approaches because by not using human data, or human expertise in any fashion, we’ve removed the constraints of human knowledge and it is able to create knowledge itself,” said David Silver, AlphaGo’s lead researcher.

The program amasses its skill through a procedure called reinforcement learning. It is the same method by which balance on the one hand, and scuffed knees on the other, help humans master the art of bike riding. When AlphaGo Zero plays a good move, it is more likely to be rewarded with a win. When it makes a bad move, it edges closer to a loss.

Demis Hassabis, CEO of DeepMind: ‘For us, AlphaGo wasn’t just about winning the game of Go.’ Photograph: DeepMind/Nature

At the heart of the program is a group of software “neurons” that are connected together to form an artificial neural network. For each turn of the game, the network looks at the positions of the pieces on the Go board and calculates which moves might be made next and probability of them leading to a win. After each game, it updates its neural network, making it stronger player for the next bout. Though far better than previous versions, AlphaGo Zero is a simpler program and mastered the game faster despite training on less data and running on a smaller computer. Given more time, it could have learned the rules for itself too, Silver said.

What is AI?

Artificial Intelligence has various definitions, but in general it means a program that uses data to build a model of some aspect of the world. This model is then used to make informed decisions and predictions about future events. The technology is used widely, to provide speech and face recognition, language translation, and personal recommendations on music, film and shopping sites. In the future, it could deliver driverless cars, smart personal assistants, and intelligent energy grids. AI has the potential to make organisations more effective and efficient, but the technology raises serious issues of ethics, governance, privacy and law.

Writing in the journal Nature, the researchers describe how AlphaGo Zero started off terribly, progressed to the level of a naive amateur, and ultimately deployed highly strategic moves used by grandmasters, all in a matter of days. It discovered one common play, called a joseki, in the first 10 hours. Other moves, with names such as “small avalanche” and “knight’s move pincer” soon followed. After three days, the program had discovered brand new moves that human experts are now studying. Intriguingly, the program grasped some advanced moves long before it discovered simpler ones, such as a pattern called a ladder that human Go players tend to grasp early on.

This article includes content hosted on gfycat.com . We vragen je toestemming voordat er iets wordt geladen, omdat de provider mogelijk cookies en andere technologieën gebruikt. Om deze inhoud te bekijken, klik op 'Toestaan ​​en doorgaan'.

“It discovers some best plays, josekis, and then it goes beyond those plays and finds something even better,” said Hassabis. “You can see it rediscovering thousands of years of human knowledge.”

Eleni Vasilaki, professor of computational neuroscience at Sheffield University, said it was an impressive feat. “This may very well imply that by not involving a human expert in its training, AlphaGo discovers better moves that surpass human intelligence on this specific game,” she said. But she pointed out that, while computers are beating humans at games that involve complex calculations and precision, they are far from even matching humans at other tasks. “AI fails in tasks that are surprisingly easy for humans,” she said. “Just look at the performance of a humanoid robot in everyday tasks such as walking, running and kicking a ball.”

Tom Mitchell, a computer scientist at Carnegie Mellon University in Pittsburgh called AlphaGo Zero an “outstanding engineering accomplishment”. He added: “It closes the book on whether humans are ever going to catch up with computers at Go. I guess the answer is no. But it opens a new book, which is where computers teach humans how to play Go better than they used to.”

David Silver describes how the AI program AlphaGo Zero learns to play Go. Credit: DeepMind


Bekijk de video: Kunnen we kunstmatige intelligentie nog doorgronden? (Januari- 2022).