Adolygu a dadansoddi gwahanol wledydd ledled y byd wrth iddynt ystyried effaith AI ar eu systemau gwyddoniaeth cenedlaethol
Er bod Deallusrwydd Artiffisial (AI) yn ymwneud yn gynyddol â datblygiadau gwyddonol, mae pryderon hefyd yn codi ynghylch dibynadwyedd ac olrheinedd y wybodaeth a’r data a gynhyrchir gan Modelau Iaith Mawr (LLMs), ynghylch awduraeth ac eiddo deallusol, ynghylch rheolaeth dros ddatblygiad technolegau AI a’r cynnwys y maent yn ei greu a’i ddefnyddio.
Mae cydnabyddiaeth eang o’r brys i ddatblygu fframweithiau rheoleiddio a sefydliadol priodol ar gyfer datblygu a defnyddio technolegau AI yn gyffredinol, ac ar gyfer gwyddoniaeth ac ymchwil yn benodol. Ac eto, nid yw’n glir i ba raddau yr eir i’r afael â’r cwestiynau hyn ar lefel gwlad, a sut. Mae sawl menter gan wahanol gonsortia rhyngwladol o actorion gwyddoniaeth a pholisi yn dod i'r amlwg ac yn hyrwyddo modelau gwahanol o lywodraethu byd-eang. Ond erys y mentrau hyn ar lefel uchel a gwasgaredig, ac mae eu goblygiadau posibl ar gyfer systemau gwyddoniaeth cenedlaethol yn aneglur.
Felly mae angen cyfunol i systemau gwyddoniaeth cenedlaethol baratoi ac addasu’n well ar gyfer AI, a chyflwyno fframweithiau – rheoleiddiol ac eraill – sy’n rheoleiddio’r defnydd o AI mewn gwyddoniaeth ac ymchwil.
Os ydym am ddod yn rhagweithiol wrth baratoi ein systemau gwyddoniaeth ar gyfer AI, rhaid i ni yn gyntaf egluro cyflwr y myfyrdodau ar y materion hyn mewn gwahanol wledydd ledled y byd.
Ariennir y prosiect drwy'r grant IDRC wedi'i anelu at archwilio effaith AI ar systemau gwyddoniaeth yn y De Byd-eang ac mae'n brosiect drwy Dyfodol Systemau Gwyddoniaeth.
Cynhaliwyd y gwaith hwn gyda chymorth grant gan y Ganolfan Ymchwil Datblygu Rhyngwladol (IDRC), Ottawa, Canada. Nid yw'r safbwyntiau a fynegir yma o reidrwydd yn cynrychioli barn IDRC na'i Fwrdd Llywodraethwyr.