Od wielu lat w teorii nauk o zarz膮dzaniu oraz praktyce biznesowej upowszechnia si臋 trend przekazywania autonomii decyzyjnej pracownikom (employee-empowerment), co ma zwi臋kszy膰 ich przywi膮zanie do miejsca pracy oraz spe艂nienie w 偶yciu zawodowym, a tak偶e wzmocni膰 poczucie odpowiedzialno艣ci za organizacj臋. Okazuje si臋, 偶e nie tylko pracownicy, lecz tak偶e technologia zyskuje autonomi臋 decyzyjn膮 w organizacji funkcjonuj膮cej w erze cyfrowej. Dr Artur Modli艅ski i Matthew Gladden z Centrum Bada艅 nad Sztuczn膮 Inteligencj膮 i Cyberkomunikacj膮 przekonuj膮, 偶e wsp贸艂czesna organizacja zaczyna wr臋cz przypomina膰 cyborga:
O ile przed rozwojem sztucznej inteligencji cz艂owiek by艂 jedyn膮 inteligentn膮 cz臋艣ci膮 organizacji, o tyle w chwili obecnej mamy coraz wi臋cej przyk艂ad贸w 艂膮czenia inteligencji ludzkiej i maszynowej. Technologia zacz臋艂a zast臋powa膰 cz艂owieka w najprostszych zadaniach fizycznych, ale wyra藕nie awansuje w zakresie odpowiedzialno艣ci powierzanych jej zada艅 鈥 przyznaj膮 badacze.
W celu wyja艣nienia, co sk艂ania ludzi do przekazania technologii autonomii decyzyjnej, w swoich ostatnich badaniach nawi膮zali do wcze艣niejszych bada艅 etologicznych stawiaj膮c 艣mia艂膮 tez臋, 偶e aby zrozumie膰 intencje cz艂owieka w zakresie przekazywania decyzji, powinni艣my potraktowa膰 inteligentn膮 technologi臋 jak 偶ywy organizm. Badacze argumentuj膮 to naturalnymi relacjami wykszta艂conymi pomi臋dzy zwierz臋tami na drodze ewolucji:
Za艂o偶eniem naszego badania eksperymentalnego by艂o to, 偶e organizmy 偶ywe poszukuj膮 sygna艂贸w wysy艂anych przez inne organizmy w celu ustalenia czy relacje mi臋dzy nimi s膮 antagonistyczne, mutualistyczne czy oboj臋tne. Innymi s艂owy poprzez sygna艂y szukamy odpowiedzi czy dany organizm mo偶e nam zaszkodzi膰 lub pom贸c.
W swoim eksperymencie badacze stworzyli ulotk臋 zach臋caj膮c膮 do skorzystania z pomocy autonomicznego asystenta biurowego, kt贸ry samodzielnie umawia spotkania, wystawia faktury, p艂aci rachunki z konta bankowego swojego w艂a艣ciciela. Jednocze艣nie stworzone zosta艂o osiem grup, a w ka偶dej z nich autonomiczny asystent by艂 wyposa偶ony w inny komplet sygna艂贸w wysy艂anych do potencjalnych odbiorc贸w. Jedn膮 grup膮 sygna艂贸w by艂 kraj pochodzenia. Autonomiczny asystent w grupie kontrolnej nie reprezentowa艂 偶adnego kraju, a w trzech grupach informowa艂, 偶e zosta艂 wyprodukowany w Chinach, Stanach Zjednoczonych lub Rosji. Drug膮 grup膮 sygna艂贸w by艂 certyfikat bezpiecze艅stwa.
Autonomiczny asystent albo mia艂 taki certyfikat, albo potencjalny u偶ytkownik nie by艂 informowany, 偶e taki certyfikat w og贸le istnieje. Po przeprowadzeniu badania okaza艂o si臋, 偶e potencjalni u偶ytkownicy ch臋tniej deklarowali intencje zaadaptowania autonomicznego asystenta, je艣li nie deklarowa艂 pochodzenia z 偶adnego konkretnego kraju.
Badacze przyznaj膮:
Taki wynik jest zgodny z postawion膮 przez nas hipotez膮. Ludzie nadal posiadaj膮 siln膮 identyfikacj臋 z grup膮, w tym grup膮 narodowo艣ciow膮. Technologia, kt贸ra nie pochodzi z naszej grupy, jest automatycznie uto偶samiana z grup膮 obc膮. Ludzie wyra藕nie stosuj膮 te heurystyki tak偶e do maszyn, wyra偶aj膮c ni偶sz膮 sk艂onno艣膰 do tego, aby maszyna o obcym pochodzeniu nie podejmowa艂a za nas niezale偶nych decyzji.
W badaniu eksperymentalnym wyra藕nie wykazano, 偶e czynnikiem zach臋caj膮cym do przekazania asystentowi autonomii decyzyjnej jest posiadanie certyfikatu bezpiecze艅stwa.
Komentuj膮 dr Artur Modli艅ski i Matthew Gladden:
Chocia偶 certyfikat bezpiecze艅stwa wykorzystany w naszym badaniu nie istnieje w rzeczywisto艣ci i zosta艂 przez nas zaprojektowany praktycznie od zera, badani ewidentnie docenili go jako sygna艂 艣wiadcz膮cy o wiarygodno艣ci autonomicznego asystenta. Jest to dla nas ciekawy wniosek sugeruj膮cy swoist膮 mimikryzacj臋 relacji cz艂owiek-maszyna. Mimikra to w 艣rodowisku naturalnym na艣ladowanie sygna艂贸w wysy艂anych przez zwierz臋ta w celu zmylenia przeciwnika (np. na艣ladowanie truj膮cego gatunku, aby odstraszy膰 drapie偶nika). W naszym przypadku fikcyjny certyfikat bezpiecze艅stwa by艂 sygna艂em zach臋caj膮cym, kt贸ry w rzeczywisto艣ci m贸g艂by zmyli膰 potencjalnych u偶ytkownik贸w pozwalaj膮cych asystentowi na podejmowanie niezale偶nych decyzji.
W trzeciej cz臋艣ci eksperymentu wykazano, 偶e na sygna艂y wysy艂ane przez autonomicznego asystenta bardziej reaguj膮 kobiety ni偶 m臋偶czy藕ni. O ile dla m臋偶czyzn 偶aden z sygna艂贸w nie wp艂ywa艂 istotnie statystycznie na intencje do przekazania autonomii decyzyjnej asystentowi, o tyle w przypadku kobiet taki wp艂yw by艂 wyra藕ny.
Kobiety uczestnicz膮ce w badaniu eksperymentalnym deklarowa艂y ch臋膰 przekazania asystentowi autonomii decyzyjnej, gdy nie posiada艂 informacji o kraju jego stworzenia, ale przyznano mu certyfikat bezpiecze艅stwa. Zale偶no艣膰 t臋 przewidzieli艣my na etapie przygotowania eksperymentu. Kobiety s膮 bardziej wyczulone na odczytywanie i przetwarzanie sygna艂贸w ze 艣rodowiska ni偶 m臋偶czy藕ni, co da si臋 wyt艂umaczy膰 teori膮 ewolucji i etologii. Zgodnie z twierdzeniem Triversa, samice inwestuj膮 wi臋kszy wysi艂ek w reprodukcj臋 ni偶 m臋偶czy藕ni. Tym samym przekazanie materia艂u genetycznego wi膮偶e si臋 z konieczno艣ci膮 bardziej skutecznego rozpoznawania atrakcyjnego genetycznie samca lub dostrze偶enia zagro偶enia. Samce wykazuj膮 si臋 mniejszym wyczuleniem na sygna艂y ze 艣rodowiska b膮d藕 wr臋cz celowo je ignoruj膮, aby popisa膰 si臋 przed samicami i konkurentami. 艢wiadcz膮 o tym kolejne badania wskazuj膮ce, 偶e m臋偶czy藕ni cz臋艣ciej nie dostosowuj膮 si臋 do znak贸w na drodze.
Istotn膮 konkluzj膮 z przeprowadzonych bada艅 jest konieczno艣膰 tworzenia autonomicznej technologii bez podkre艣lania jej pochodzenia, kt贸re to mo偶e by膰 postrzegane jako czynnik zniech臋caj膮cy do skorzystania z niej. Tw贸rcy powinni natomiast inwestowa膰 w certyfikaty bezpiecze艅stwa, kt贸re nadal stanowi膮 na rynku autonomicznych technologii swoist膮 rzadko艣膰, ale maj膮 wyra藕ne znaczenie dla konsument贸w. Na ile w przysz艂o艣ci maszyny b臋d膮 podejmowa艂y za nas decyzje, oka偶e si臋 w niedalekiej przysz艂o艣ci.
Wyniki badania eksperymentalnego zosta艂y opublikowane w Human Technology - czo艂owym mi臋dzynarodowym czasopi艣mie o tematyce zarz膮dzania technologi膮:
Modli艅ski, A., Gladden, M. (2021). Applying ethology to design human-oriented technology. Experimental study on the signalling role of the labelling effect in technology鈥檚 empowerment. Human Technology, 17(2), 164鈥189.
Materia艂: Wydzia艂 Zarz膮dzania Uniwersytetu 艁贸dzkiego