ភាពជឿនលឿននៃបច្ចេកវិទ្យាបញ្ញានិម្មិត A.I. បាននាំមកនូវការរំភើបអំពីអនាគតនៃបែបបទរស់នៅ ធ្វើការ និងកម្សាន្តរបស់យើង។ ប៉ុន្តែបញ្ហាប្រឈមធ្ងន់ធ្ងរថ្មីៗនេះ ដែលមានដូចជាការផ្សព្វផ្សាយព័ត៌មានក្លែងក្លាយ ការបាត់បង់ឯកជនភាព ការសម្រេចចិត្តលំអៀងរបស់បញ្ញានិម្មិត A.I. និងអាវុធស្វ័យប្រវត្តិ ក៏បាននាំមកនូវការព្រួយបារម្ភខាងសីលធម៌ លើការអភិវឌ្ឍបច្ចេកវិទ្យាដ៏មានអានុភាពខ្លាំងខ្លានេះផងដែរ។ សាកលវិទ្យាល័យ Stanford បានប្រមូលផ្តុំក្រុមអ្នកដឹកនាំបច្ចេកវិទ្យា AI អ្នកនយោបាយ និងអ្នកជំនាញមកពីជុំវិញពិភពលោក ដើម្បីស្វែងរកវិធីសាស្រ្តបង្កើតបច្ចេកវិទ្យាបញ្ញានិម្មិត A.I. ប្រកបដោយក្រមសីលធម៌។
បច្ចេកវិទ្យាបញ្ញានិម្មិត ឬ Artificial Intelligence ហៅកាត់ថា AI សំដៅលើបច្ចេកវិទ្យាដែលបង្កើតម៉ាស៊ីនឆ្លាតវៃជាងមនុស្ស។ បច្ចេកវិទ្យាបញ្ញានិម្មិត AI នេះ ចាំបាច់ត្រូវមានក្រមសីលធម៌។
ក្រុមអ្នកជំនាញនៅសន្និសីទមួយស្តីពីក្រមសីសធម៌ AI ក្នុងសាកលវិទ្យាល័យ Stanford និយាយថា បច្ចេកវិទ្យាបញ្ញានិម្មិត AI កំពុងសម្រេចចិត្ត និងធ្វើការជំនួសមនុស្សលើវិស័យជាច្រើន រាប់ចាប់តាំងពីការបើកបររថយន្តនិងការប្រយុទ្ធប្រឆាំងនឹងជំងឺ រហូតដល់ការរៀបចំព័ត៌មានដែលមនុស្សឃើញលើអ៊ីនធឺណិត។
ពួកគេទទូចថាប្រព័ន្ធបញ្ញានិម្មិត AI ត្រូវតែរៀនការពារគោលសីលធម៌របស់មនុស្ស។
លោកស្រី Eileen Donahoe អតីតឯកអគ្គរដ្ឋទូតសហរដ្ឋអាមេរិកប្រចាំក្រុមប្រឹក្សាសិទ្ធិមនុស្សរបស់អង្គការសហប្រជាជាតិប្រាប់ VOA ថា៖
«យើងមានក្របខ័ណ្ឌនៃគោលការណ៍សីលធម៌ដែលយើងគួរតែយកមកធ្វើជាគំរូគឺក្របខ័ណ្ឌសិទ្ធិមនុស្សអន្តរជាតិ ឬ International Human Rights Frameworkដែលយើងមានស្រាប់»។
ក្រុមអ្នកជំនាញណែនាំថា ក្របខ័ណ្ឌសិទ្ធិមនុស្សអន្តរជាតិ ដែលកើតចេញពីសេចក្ដីប្រកាសជាសកលស្តីពីសិទ្ធិមនុស្សឆ្នាំ ១៩៤៨ អាចផ្ដល់នូវក្របខ័ណ្ឌអភិបាលកិច្ចមួយដើម្បីគ្រប់គ្រង បច្ចេកវិទ្យាបញ្ញានិម្មិត AI។
លោកស្រី Eileen Donahoe ពន្យល់បន្តថា៖
«នេះមានន័យថា រដ្ឋាភិបាលនានាមានកាតព្វកិច្ចផ្លូវច្បាប់ ហើយវិស័យឯកជនមានការទទួលខុសត្រូវ ដើម្បីការពារនិងគោរព សិទ្ធិមនុស្ស និងដើម្បីដោះស្រាយការរំលោភសិទ្ធិមនុស្សផ្សេងៗ»។
ការអំពាវនាវឱ្យមានបច្ចេកវិទ្យាបញ្ញានិម្មិត AI ដែលការពារសិទ្ធិមនុស្ស គឺជាការផ្ទុយស្រលះទៅនឹងគោលជំហររបស់បណ្ដាក្រុមហ៊ុនបច្ចេកវិទ្យា ក្នុងតំបន់ Silicon Valley ដែលថាការគ្រប់គ្រង់លើបច្ចេកវិទ្យារបស់រដ្ឋាភិបាលនឹងរារាំងដល់នវានុវត្តន៍ឬការច្នៃប្រឌិតថ្មីៗនានា។
លោកស្រី Marietje Schaake អតីតសមាជិកសភាអឺរ៉ុបលើកឡើងថា៖
«ការប្រកាន់ជំហរបែបនេះ បង្កប់ន័យថាការច្នៃប្រឌិតថ្មីមានសារៈសំខាន់ជាងប្រជាធិបតេយ្យឬវិធាននៃច្បាប់ ដែលជាមូលដ្ឋានគ្រឹះនៃគុណភាពជីវិតរបស់យើង»។
លោកស្រី Marietje Schaake បន្តថា៖
«ខ្ញុំជឿជាក់ថា តាមពិតបញ្ហាប្រឈមធ្ងន់ធ្ងរមួយចំនួនក្នុងសង្គម និងអ៊ីនធឺណិតបើកចំហរបស់យើងសព្វថ្ងៃនេះ មិនមែនកើតចេញពីការដាក់បទប្បញ្ញត្តិលើបច្ចេកវិទ្យាតឹងរ៉ឹងជ្រុលនោះទេ តែគឺកើតចេញពីការដាក់បទប្បញ្ញត្តិតិចតួចពេក»។
ការរីកចម្រើនយ៉ាងឆាប់រហ័សនៃបច្ចេកវិទ្យាបញ្ញានិម្មិត AI ដោយក្រុមហ៊ុនដូចជា Google Facebook Baidu និង Tecent បានដើរហួលបទប្បញ្ញត្តិយ៉ាងឆ្ងាយ ហើយលាតត្រដាងនូវបញ្ហាប្រឈមដូចជាព័ត៌មានក្លែងក្លាយ ការរំលោភបំពានលើឯកជនភាព ការសម្រេចចិត្តដោយលំអៀងនៃបច្ចេកវិទ្យាបញ្ញានិម្មិត AI និងគ្រោះថ្នាក់ពីស្វ័យប្រវត្តិកម្មនៃអាវុធ។
ក្របខ័ណ្ឌអភិបាលកិច្ចពិភពលោកដើម្បីធានាការអនុវត្តបច្ចេកវិទ្យាបញ្ញានិម្មិត AI ដោយមានក្រមសីលធម៌គឺជាភាពចាំបាច់មួយ។
លោក Eric Schmidt អតីតនាយកប្រតិបត្តិក្រុមហ៊ុន Google និងជាប្រធានគណៈកម្មាធិការសន្តិសុខជាតិអាមេរិកទទួលបន្ទុកបច្ចេកវិទ្យាបញ្ញានិម្មិត AI ជឿថា៖
«យើងមកទីនេះ ជាចម្បងព្រោះយើងចង់ឱ្យមានការជជែកដេញដោលគ្នាដោយបើកចំហ។ យើងចង់ធ្វើឱ្យប្រាកដថាប្រព័ន្ធបញ្ញានិម្មិត AI ដែលយើងកំពុងបង្កើត ត្រូវបានបង្កើតឡើងដោយផ្អែកលើគោលសីលធម៌របស់យើង គឺគោលសីលធម៌របស់មនុស្ស»។
លោក Eric Schmidt ដែលធ្លាប់ដឹកនាំក្រុមហ៊ុន Google ជាង១០ឆ្មាំ ហើយឥឡូវនេះកំពុងដឹកនាំគណៈកម្មាធិការអាមេរិកស្តីពីបច្ចេកវិទ្យាបញ្ញានិម្មិត AI បានបដិសេធមិនឆ្លើយសំណួររបស់ VOA ទាក់ទងនឹងការការអនុវត្តន៍សីលធម៌នៅក្រុមហ៊ុន Google៕