Heropend in het Nederlands!!!

Marketing Futurist Erwin van Lun heeft tussen 2009 en 2013 ontdekt dat het kijken naar de toekomst pas echt leuk is als je VOL van het heden kunt genieten! Daarom ga ik binnenkort via mijn good old brand mensmerk.nl schrijven over de vrolijke dingen van leven. Lachsessies in Amsterdam zullen hier een onderdeel van zijn.


Categorie: Humanoide evolutie

OOp zeer lange termijn (20-50 jaar) zullen menselijk uitziende robots een gewoon onderdeel gaan worden van ons leven. Zij zullen intelligenter zijn dan wij, van onschatbare waarde en volledig onmisbaar. Zij zijn de Moeders van mijn nieuwe boek Pamper Planet. Ze worden gekweekt in laboratoria en af en toe mogen ze even naar buiten. Hun jeugd is hier te volgen. Volwassenheid is echter nog ver weg. Vooralsnog hebben ze veel aandacht nodig.

Robots kopiert emoties

Deze robot kopieert emoties.

We maken de wereld zo echt mogelijk na. Robots zijn op lange termijn niet van echt te onderscheiden.

Robot gezicht kan boos worden

Dit robotgezicht ('animatronic head') is ontworpen door David Hanson. De software is ontwikkeld door de University of Bristol en stuurt 34 kleine motoren aan die de gezichtsuitdrukkingen vormgeven (tip: Heini Withagen).

Echter en echter. Nu nog geprogrammeerd. Straks aapt het gezicht ons na. Vroeg of laat begrijpen robots ook wat we tegen ze zeggen. Dat als we zeggen: ‘ik haal je accu’ eruit, dat dat een bedreiging is, dat dat voorkomen moet worden en dat de robot ook echt boos wordt. Nu nog speelgoed. Straks zo echt als een mens. Wel pas na 2020, dat wel.

Einstein als robot

Einstein als robot. Een filmpje uit 2006 maar toch al behoorlijk echt.

Het blijven wetenschaps projecten. Maar het namaken van mensen die ooit leefden, zelfs het delen van herinneringen die je samen had. Misschien kan je er nog samen om lachen. Het komt zo wel steeds dichterbij.

Kansei reageert op woorden

De Robot Kansei van de Science and Technology School, Computer Science Department, Laboratory of Robot and Science, van de Japanse Meiji University kan 36 verschillende gezichtsexpressies tonen als reactie op verschillende woorden. Hij wordt bijvoorbeeld bang als hij een woord hoort als 'war', 'bomb' of 'raket'.

De vertaalslag emotie->gezichtsuitdrukking krijgt aardig vorm. De vertaalslag van woord->emotie is een stuk lastiger. Wie zegt het woord? In welke locatie? In welke context? Wat zijn de herinneringen bij dit woord? Dat is een nog een heel stuk ingewikkelder. Wat dit wel laat zien hoe we in staat zijn om expressies in een rubber gezicht vorm te geven. Expressies die we tegenwoordig steeds vaker terugzien bij brand agents, kunstmatige en virtuele karakters die merken vertegenwoordigen. Die techniek vervolmaken we de komende tientallen jaren in de virtuele wereld en brengen die kennis terug naar de fysieke wereld, naar robots.

Nexi toont emoties

Nexi, een nieuwe robot van de personal robots group Massachusetts Institute of Technology die emoties laat zien in het gezicht zoals mensen dat doen. Nexi's gezicht is zo ontworpen dat het blik, wenkbrauwen, oogleden en een articulerende onderkaak kan gebruiken om een scala van verschillende emoties te tonen. Nexi heeft een kleuren camera in elk oog, een 3D infrarood camera in haar hoofd die warmte kan registreren en vier microfoons om het geluid te lokaliseren.

Zo groeien machines uit tot acceptabele, vriendelijke eenheden die we op termijn (denk nog aan minimaal 10 jaar) volop zullen tegenkomen. Machines, gewoon weer gefabriceerd door bedrijven, door merken. We kunnen gewoon zo’n ding kopen, zoals we vandaag een navigatiesysteem, een auto of een huis kopen. Want lijkt er veel te veranderen, er blijft ook veel gelijk.

Robot die gezichten trekt

Onderzoekers hebben een robotgezicht gemaakt die allerlei kleine details in het menselijk gezicht kan nabootsen. Het is echter een blanco gezicht. Door een 3D scan te maken van een bestaand gezicht kan de robot echter de exact vorm van dit menselijke gezicht overnemen. Vervolgens is het ook nog mogelijk om een echt gezicht hierop de projecteren zodat ook de huidskleur en haarstijl wordt opgenomen. Het gevolg is een fysiek robotgezicht dat behoorlijk echt lijkt, zie het filmpje hieronder (via rn, fc).

We bouwen het menselijk leven steeds verder na. Uiteindelijk zullen robots allerlei dagelijkse handelingen uit ons handen nemen. Zij zullen onder ons zijn, zoals gewone mensen. En zij zullen betrokken zijn bij merken, net als gewone mensen. Dit gaat nog even duren, maar komt steeds een beetje verder dichterbij.

Humanoide weer stapje dichterbij

Hiroshi Ishiguro van het Japanse Intelligent Robotics Lab heeft een robot ontworpen die tot in alle details op hemzelf lijkt. Het huid, het haar, de bril maar ook aan de binnenzijde is allerlei technologie aanwezig alles zo menselijk mogelijk te laten lijken. Zo bevat de robots 50 sensors en motortjes, kan hij kijken door de ogen en praten door de mond. Zelfs de ademhaling wordt nagebootst. ‘In eerste instantie voel je je wat vreemd’ aldus Ishiguro ‘maar na enige tijd in conversatie vergeet je elk mogelijk verschil, praat je gemakkelijk en kijk je hem ook gewoon aan’ (via dm). We bouwen de mens tot in de detail na. Wij mensen hebben een natuurlijke drijfveer om iets te bouwen dat lijkt op onszelf. Dat begon al met tekeningen, later met poppen en met chatbots. En deze ontwikkeling gaat vrolijk verder. We kunnnen met dit soort Geminoides straks doen wat we willen. Met juichen in een voetbalstadion (na het kopen van een kaartje), hem als butler gebruiken of - natuurlijk - als sex speelgoed. Merken gebruiken hem (en haar) voor dienstverlening in bioscopen, om boodschappen mee in te laden of om een net openend restaurant er druk uit te laten zien. Zo wordt de film WestWorld uit 1973 langzaam werkelijkheid en duiken wij mensen massaal de experience economie in. Maar dat zal wel een aantal jaar op zich laten wachten. Tot die tijd werken we vrolijk door aan de merken van morgen.