Till startsida
Webbkarta
Till innehåll Läs mer om hur kakor används på gu.se

Pedagogiska robotar och AI i klassrummet

Nya stora framsteg inom robottekniken gör att antalet användningsområden ökar. Sofia Serholt har i projektet EMOTE tittat på hur robotar kan fungera ihop med barn i klassrummet.

När mer och mer teknik används i klassrummen måste vi dels skaffa oss överblick över konsekvenserna, men också bli bättre på att utgå från det pedagogiska syftet – vad är det vi vill uppnå med det här?

Sofia Serholt disputerade 2017 med en avhandling om samspelet mellan barn och robotar, Child-Robot Interaction in Education, där robotar har testats i klassrumsmiljö för att fungera som stöd för lärare. Studierna genomfördes inom EU-projektet EMOTE, som även omfattade själva utvecklingsprocessen för att ta fram robotar lämpliga för undervisning.

Empatiska robotar med möjlighet att samspela

Förutom att instruera barnen skulle robotarna även vara empatiska, alltså kunna anpassa sig på olika sätt efter svårigheter som barnen hade i undervisningen, för att se om det gick att skapa en relation mellan barnen och roboten som skulle kunna underlätta lärandet.

Sofia Serholt kom in i projektet som utbildad IT-pedagog med en bakgrund som lärare i engelska och tillämpad IT, för att bidra med det pedagogiska perspektivet i utvecklingen av roboten. Efter en omfattande designprocess, där flera team runt om i Europa arbetade med olika delar av utvecklingen, genomförde hon tester med en robot i klassrumsmiljö och gjorde studier utifrån två olika spår.

– Det första spåret handlar om hur barnen interagerade med roboten jämfört med en människa. Om de var villiga att följa instruktioner och hur de responderade socialt. Hur de tittade på den, om de svarade den eller gestikulerade mot den, sådana saker.

Ibland fungerar interaktionen bra, ibland mindre bra

Resultaten visade att barnen besvarade robotens sociala kommunikation - de svarade när den sa hej, reagerade när de fick beröm och svarade på frågor som roboten ställde även om den sociala responsen minskade lite över tid. De var även villiga att lyssna på instruktioner från roboten, men till skillnad från hur de interagerade med en mänsklig lärare så sökte de inte hjälp från roboten när de inte förstod anvisningarna. Vilket leder till avhandlingens andra del, som fokuserar på så kallade breakdowns, de fall när interaktionen av någon anledning slutade fungera.

– Den studien föddes på något sätt ur problem som jag såg fanns där, men som sällan blir rapporterade. Om man tittar på forskningen så ser man att det ofta är några barn som inte är med i analysen, och det beror troligtvis ganska ofta på att det var något som gick fel.

Vad innebär det för barnen att medverka?

Sofia Serholt utgick från användarnas perspektiv i sina analyser, de lärare och elever som ingick i forskningsstudierna. Vad gäller lärarna handlade det dels om hur de rent praktiskt ser på att ha AI i sitt klassrum, men Sofia gjorde även separata studier om mer etiska problem, som hur lärare mer generellt sett upplever integritetsfrågan. Ur barnens perspektiv handlade det om hur de påverkas av att interagera med teknik på det här sättet.

– De har inte riktigt förmågan att titta under huven på roboten, och förstå vad det är den gör. De har en bild av att roboten är väldigt smart, och om samspelet inte fungerar till exempel, om det "går dåligt" för mig, vems fel är det då?

Lärare i Sofias olika studier har också pekat på att barn kan ha svårt att överblicka vad det kan innebära i framtiden att en robot har läst av och sparat till exempel känslouttryck, att det någonstans finns tillgängligt vad som triggar igång en person, och att det faktiskt går att analysera en individ med det materialet. Sofia Serholt tror att de faktorerna riskerar att komma i skymundan när nya tekniker lanseras.

Mer empirisk forskning behövs än vad som finns idag

– Vi kan se att det finns en risk där, till exempel när vi pratar om maskininlärning. Vi kan säkert skapa mycket bra med hjälp av det, men i och med att det blir enklare och mer tillgängligt så tillkommer etiska problem som vi måste ta ställning till. Till exempel tar vi för givet att barn är OK med att bli inspelade, dels för att dom är unga, och dels för att vi upplever att de är öppna för att dela allt om sig själva. Medan barnens perspektiv är att de litar på att de vuxna ska ta ansvar och finnas till hands för att reda ut svåra frågor.

Forskare som tidigare har publicerat mycket gällande AI och barn är till exempel Sherry Turkle och Amanda Sharkey, men då handlar det inte om fältstudier utan mer om hypotetiska och filosofiska resonemang. Sofia Serholt menar att det behövs komplement i form av mer empirisk forskning med full implementering.

– Det vanliga är att man implementerar saker för att man tror på det, och då blir det jobbigt att kritisera sin egen produkt, men i det här fallet tror jag att det är nödvändigt. Det är ett stort ansvar vi har, och när mer och mer teknik används i klassrummen måste vi dels skaffa oss överblick över konsekvenserna, men också bli bättre på att utgå från det pedagogiska syftet – vad är det vi vill uppnå med det här?

Nytt projekt där roboten är den som blir undervisad

Nu är Sofia Serholt postdoc på institutionen för data- och informationsteknik och deltar i ett projekt på Högskolan i Väst, där roboten i stället för att vara i lärarrollen är den som ska bli undervisad. Barnen ska hjälpa roboten att bli bättre på ett matmatikspel, och tanken är att de själva ska utveckla sina kunskaper genom ”learning by teaching”.

– Vi undersöker det som kallas för protégé-effekten, att man anstränger sig mer om man ska undervisa en kompis inför ett prov än om det bara handlar om en själv. Det bygger på att det finns en drivkraft inom oss att vi vill lära upp andra, att vi vill att det ska gå bra för andra, det är den tesen vi testar.

Det är företagen som utvecklar nya produkter och får ut dem på marknaden, det kräver resurser som inte finns inom forskningen i dagsläget.

– Vi undersöker olika koncept i stället. Det är väl det jag ser som forskarplikten, att försöka föregå produkterna för att se vilka konsekvenser de skulle kunna få.

 

Text: Anneli Andersson
Foto: Catharina Jerkbrant


Fakta:

Sofia Serholt
Postdoktoral forskare vid avdelningen för interaktionsdesign
Institutionen för data- och informationsteknik
Göteborgs universitet och Chalmers

Kontaktinformation, Sofia Serholt

Sofia Serholt

Sofia SerholtSofia Serholt arbetar nu i ett nytt projekt där det istället är roboten som blir undervisad, så kallad learning-by-teaching.

Sidansvarig: Catharina Jerkbrant|Sidan uppdaterades: 2018-12-11
Dela:

På Göteborgs universitet använder vi kakor (cookies) för att webbplatsen ska fungera på ett bra sätt för dig. Genom att surfa vidare godkänner du att vi använder kakor.  Vad är kakor?