Жансыз ақылдың жарғысы: қауіп пен қажеттілік

/
Жансыз ақылдың  жарғысы: қауіп пен қажеттілік
сурет: istockphoto.com

Мәжіліс «Жасанды интеллект туралы» заң жобасын бірінші оқылымда мақұлдады. Заң жобасын жазған депутаттардың айтуынша, бұл құжат елімізде жасанды интеллекттің қауіпсіз және тұрақты экожүйесін құру жолындағы алғашқы, бірақ маңызды қадам болмақ. Былтырғы сәуірде Мәжіліс депутаттары мен ЦДИАӨМ бірлесіп біздің елде де ЖИ туралы заң жобасын әзірлеп жатқаны белгілі болған еді. Айта кету керек, еліміз бұл бағытқа қадам жасаған Орталық Азиядағы алғашқы мемлекет болып отыр.

Түсінікті әрі ашық «ойын ережелері»

Жалпы отырыста жаңа заң жобасы тура­лы баяндама жасаған жұмыс тобы­ның жетекшісі депутат Екатерина Смы­шляева бұл құжат, ең алдымен,  жасанды ин­теллект технологиясын пайдалану про­цесінде азаматтардың қауіпсіздігін қам­тамасыз етуге бағытталғанын айтты. Яғни, ха­лықтың құқығы мен бостандығы, олар­дың жеке деректерін қорғауға бас­ты назар аударылған. Сонымен қатар жаңа технологияны пайдалану кезінде бар­лық процестің ашықтығы мен қауіп­сіздігіне кепілдік беру де өте маңызды екені айтылды. Екіншіден, заң осы саладағы әзір­леу­шілер мен инвесторлар үшін тү­сінікті әрі ашық «ойын ережелерін» жа­сайды. 
– Бұл құқықтық сенімділікті қам­та­ма­сыз етеді, жасанды интеллект техно­ло­гияларына деген сенімді арттырады жә­не инвестицияларды тартуға ықпал ете­ді, – деді Екатерина Смышляева.
Үшіншіден, заң жобасы арқылы эко­номикаға жасанды интеллектті енгізу ке­зіндегі мемлекеттің рөлін айқын­дал­мақ. Сондай-ақ жасанды интеллект са­ла­сындағы қоғамдық қатынастарды реттеу қағидаттары белгіленеді.
Екатерина Смышляева заң жоба­сы­ның маңызды бөлігі ұлттық жасанды ин­­теллект платформасы екенін айтты. Бұл – жасанды интеллект өнімдерін әзір­­леу мен қолдануға арналған бірың­ғай инф­рақұрылым. Платформа арқы­лы жа­санды интеллект модельдерін оқыту үшін деректер кітапханалары әзір­леу­шілерге қолжетімді болады.

Кей жүйелерді қолдануға тыйым салынады

Осы саладағы қоғамдық қаты­нас­тардың барлық қатысушысы­ның құқығы мен міндеті де нақты бел­гіленбек. ЖИ жүйелерінің иелері өз жүйе­лерін пай­далану шарттарын белгі­леп, құқығын қор­ғай алады және тәуе­келдерді басқара алады. Ал пайда­лану­шы­лар жеке дерек­терін қорғауға, ЖИ жүйе­лерінің жұмысы тура­лы хабардар болу­ға және автомат­тан­дырылған ше­шім­дерге қарсылық біл­діруге құқылы болады.
Қауіпсіздік мәселесіне ерекше назар ау­дарылып отыр. ЖИ жүйелері тәуекел дең­­гейіне қарай ең төменгіден жоғарыға дейін жіктеледі. Қауіпті жоғары жүйе­лер маңызды ақпараттық және ком­­му­ни­ка­циялық инфрақұрылым ре­тінде жік­те­леді. Сондай-ақ көмекші­лер­ге, жар­ты­лай автономды жүйелерге жә­не толық ав­тономды алгоритмдерге бө­леді. Соң­ғы­сына Қазақстан Рес­пуб­ли­касы аумағында тыйым салынады.
Жоба аясында жасанды интел­лек­­тіні пайдаланудың кейбір тү­ріне тыйым салынады. Атап айтқанда, адам­­­дардың мінез-құлқына олардың са­на­­лы келісімінсіз әсер ететін, олардың осал­дығын әдейі пайдаланатын, әлеу­мет­­тік мінез-құлқы немесе сипатта­ма­лар бойынша бағалайтын немесе жік­тей­тін ЖИ пайдалануға тыйым салына­ды. Бұған заңмен рұқсат етілген жағдай­лар­­ды қос­пағанда, адамдардың келі­сі­мін­сіз олар­дың эмоцияларын талдау жә­не нақты уа­қыт режимінде қоғамдық орындарда бет-әлпетті тану үшін ЖИ-ді қолдану кіре­ді. Депутаттардың сөзінше, осы және бас­қа да ұсыныстар жаңа тех­нологиялық қоғам жағдайында адам құ­қықтарын қорғаудың халықаралық стандарттарына сәйкестендірілген.
Мәжіліс Төрағасы Ерлан Қошанов екін­­ші оқылымға дейін жалпы отырыс ба­рысында көтерілген мәселенің бәрін мұқият зерделеп, даму мен қауіпсіздік ара­сындағы ақылға қонымды тепе-тең­дікті табу қажет екенін айтты.
Сарапшы Медет Искаковтың ай­туын­­ша, заң өзгерістерге икемді әрі қауі­п­­сіз­дікке бағдарланған болуға тиіс.

Медет ИСКАКОВ, IT саласының сарапшысы:

Жаңаруға бейім механизмдер қарастырған абзал

– Жасанды интеллект саласының қар­қынды дамуы мен кең қолданылуына байланысты оны толығымен реттеу өте қиын. Бұл әмбебап реттеуші норма әзір­леуді қиындатады. Алайда ЖИ ұлттық және халықаралық ұйымдар деңгейінде реттеле басталды. Мысалы, Еуроодақ де­рек­терді реттеу, оның ішінде қауіпсіз­дікті сақтап, қорғау мақсатында құқық­тық базаны белсенді түрде дамытып жа­тыр. 
ЖИ алгоритмдерінің ашықтығын қам­тамасыз ету – тиімді реттеудің негіз­гі аспектісі. Бұған бірқатар шара ықпал етуі мүмкін. Алдымен, құжаттама және есеп беруді міндеттеу. Яғни, әзірлеушілер алгоритмдердің жұмысы мен жұмыс принциптері туралы ақпарат беріп, ен­гізілген өзгерістер туралы үнемі есеп беріп отыруға тиіс. 
Одан соң бастапқы код пен модель­дің ашықтығы. Кейбір жағдайларда, әсі­ресе, қоғамдық мүдделерге әсер ете­тін жүйелерге сарапшылар тәуелсіз тек­серу жүргізе алатындай бастапқы код пен ЖИ модельдерін ашық қолже­тім­­ді ету керек.
Тәуелсіз аудит және сертификаттау да аса маңызды, яғни алгоритмдердің тәуел­­сіз аудитін енгізу оларды стандарт­тар­ға сәйкестігін бағалауға және ықти­мал сын-қатерді анықтауға мүмкіндік береді.
Бұдан бөлек, этикаға үйрету және сы­нақтан өткізу мәселелері де назардан тыс қалмауы керек. Яғни, әзірлеушілер ал­горитмдерде біржақтылық пен кем­сіту жоқ екеніне көз жеткізу үшін сынақ жүргізіп, оларды этикаға байланысты мәліметтерге үйретуі керек.
Сондай-ақ шешімдерді міндетті түр­де түсіндіру керек. Медицина немесе заң сияқты маңызды жүйелерде пай­да­ланушылар түсінуі үшін алгоритмдер өз шешімдеріне өздері түсініктеме бере алуы маңызды. Бұл қадамдар ЖИ-ге де­г­ен сенімді арттыруға және оны арам пи­ғылға пайдаланудың алдын алуға кө­мектеседі. 
Технология жылдам өзгеретіндіктен, заң икемді болуға тиіс және үнемі жаңа­руға бейім болуы үшін механизмдер қарас­тырған абзал. Халықтың ЖИ мүм­кіндіктері мен сын-қатері туралы білі­мін тереңдетуге инвестиция салу да аса маңызды.
 

P.S. Осылайша, жасанды ақылды жар­ғыға бағындырудың алғашқы қадамы жа­салды. Бұл қадам қауіпсіздік мәселе­сіне қатысты бірқатар сын-қатердің ал­дын алады. Сондай-ақ саланы құқық­тық тұрғыдан реттеу шетел компания­ларын біздің нарыққа келуге ынталан­дыруы әбден мүмкін. 
 

Бөлісу:

Серіктес жаңалықтары