Kunsmatige intelligensie volg nie die logika van wetenskaplike vooruitgang nie
Tegnologie

Kunsmatige intelligensie volg nie die logika van wetenskaplike vooruitgang nie

Ons het al baie keer in MT geskryf oor navorsers en professionele persone wat masjienleerstelsels as "swart bokse" (1) verkondig, selfs vir diegene wat dit bou. Dit maak dit moeilik om resultate te evalueer en opkomende algoritmes te hergebruik.

Neurale netwerke – die tegniek wat ons intelligente omskakelingsbots en vernuftige teksgenerators gee wat selfs poësie kan skep – bly ’n onbegryplike raaisel vir buite-waarnemers.

Hulle word groter en meer kompleks, hanteer groot datastelle en gebruik massiewe rekenaarskikkings. Dit maak replikasie en ontleding van die verkreë modelle duur en soms onmoontlik vir ander navorsers, behalwe vir groot sentrums met groot begrotings.

Baie wetenskaplikes is deeglik bewus van hierdie probleem. Onder hulle is Joel Pino (2), voorsitter van NeurIPS, die voorste konferensie oor reproduceerbaarheid. Die kenners onder haar leiding wil ’n “reproduceerbaarheidskontrolelys” skep.

Die idee, het Pino gesê, is om navorsers aan te moedig om ander 'n padkaart aan te bied sodat hulle die werk wat reeds gedoen is, kan herskep en gebruik. Jy kan jou verwonder aan die welsprekendheid van 'n nuwe teksgenerator of die bomenslike behendigheid van 'n videospeletjie-robot, maar selfs die beste kenners het geen idee hoe hierdie wonders werk nie. Daarom is die reproduksie van KI-modelle nie net belangrik vir die identifisering van nuwe doelwitte en aanwysings vir navorsing nie, maar ook as 'n suiwer praktiese gids om te gebruik.

Ander probeer hierdie probleem oplos. Google-navorsers het "modelkaarte" aangebied om in detail te beskryf hoe die stelsels getoets is, insluitend resultate wat op potensiële foute dui. Navorsers by die Allen Instituut vir Kunsmatige Intelligensie (AI2) het 'n referaat gepubliseer wat daarop gemik is om die Pinot-reproduceerbaarheidskontrolelys na ander stappe in die eksperimentele proses uit te brei. "Wys jou werk," dring hulle aan.

Soms ontbreek basiese inligting omdat die navorsingsprojek besit word, veral deur laboratoriums wat vir die maatskappy werk. Meer dikwels is dit egter 'n teken van 'n onvermoë om veranderende en toenemend komplekse navorsingsmetodes te beskryf. Neurale netwerke is 'n baie komplekse area. Om die beste resultate te kry, word fyninstelling van duisende "knoppies en knoppies" dikwels vereis, wat sommige "swart magie" noem. Die keuse van die optimale model word dikwels geassosieer met 'n groot aantal eksperimente. Magie word baie duur.

Byvoorbeeld, toe Facebook probeer het om die werk van AlphaGo, 'n stelsel wat deur DeepMind Alphabet ontwikkel is, te herhaal, was die taak uiters moeilik. Groot rekenaarvereistes, miljoene eksperimente op duisende toestelle oor baie dae, gekombineer met die gebrek aan kode, het die stelsel volgens Facebook-werknemers “baie moeilik, indien nie onmoontlik nie, gemaak om te herskep, toets, verbeter en uit te brei.

Die probleem blyk gespesialiseerd te wees. As ons egter verder dink, ondermyn die verskynsel van probleme met die reproduceerbaarheid van resultate en funksies tussen een navorsingspan en 'n ander al die logika van die funksionering van wetenskap en navorsingsprosesse wat aan ons bekend is. As 'n reël kan die resultate van vorige navorsing gebruik word as 'n basis vir verdere navorsing wat die ontwikkeling van kennis, tegnologie en algemene vooruitgang stimuleer.

Voeg 'n opmerking