Мәжіліс «Жасанды интеллект туралы» заң жобасын бірінші оқылымда мақұлдады. Заң жобасын жазған депутаттардың айтуынша, бұл құжат елімізде жасанды интеллекттің қауіпсіз және тұрақты экожүйесін құру жолындағы алғашқы, бірақ маңызды қадам болмақ. Былтырғы сәуірде Мәжіліс депутаттары мен ЦДИАӨМ бірлесіп біздің елде де ЖИ туралы заң жобасын әзірлеп жатқаны белгілі болған еді. Айта кету керек, еліміз бұл бағытқа қадам жасаған Орталық Азиядағы алғашқы мемлекет болып отыр.
Түсінікті әрі ашық «ойын ережелері»
Жалпы отырыста жаңа заң жобасы туралы баяндама жасаған жұмыс тобының жетекшісі депутат Екатерина Смышляева бұл құжат, ең алдымен, жасанды интеллект технологиясын пайдалану процесінде азаматтардың қауіпсіздігін қамтамасыз етуге бағытталғанын айтты. Яғни, халықтың құқығы мен бостандығы, олардың жеке деректерін қорғауға басты назар аударылған. Сонымен қатар жаңа технологияны пайдалану кезінде барлық процестің ашықтығы мен қауіпсіздігіне кепілдік беру де өте маңызды екені айтылды. Екіншіден, заң осы саладағы әзірлеушілер мен инвесторлар үшін түсінікті әрі ашық «ойын ережелерін» жасайды.
– Бұл құқықтық сенімділікті қамтамасыз етеді, жасанды интеллект технологияларына деген сенімді арттырады және инвестицияларды тартуға ықпал етеді, – деді Екатерина Смышляева.
Үшіншіден, заң жобасы арқылы экономикаға жасанды интеллектті енгізу кезіндегі мемлекеттің рөлін айқындалмақ. Сондай-ақ жасанды интеллект саласындағы қоғамдық қатынастарды реттеу қағидаттары белгіленеді.
Екатерина Смышляева заң жобасының маңызды бөлігі ұлттық жасанды интеллект платформасы екенін айтты. Бұл – жасанды интеллект өнімдерін әзірлеу мен қолдануға арналған бірыңғай инфрақұрылым. Платформа арқылы жасанды интеллект модельдерін оқыту үшін деректер кітапханалары әзірлеушілерге қолжетімді болады.
Кей жүйелерді қолдануға тыйым салынады
Осы саладағы қоғамдық қатынастардың барлық қатысушысының құқығы мен міндеті де нақты белгіленбек. ЖИ жүйелерінің иелері өз жүйелерін пайдалану шарттарын белгілеп, құқығын қорғай алады және тәуекелдерді басқара алады. Ал пайдаланушылар жеке деректерін қорғауға, ЖИ жүйелерінің жұмысы туралы хабардар болуға және автоматтандырылған шешімдерге қарсылық білдіруге құқылы болады.
Қауіпсіздік мәселесіне ерекше назар аударылып отыр. ЖИ жүйелері тәуекел деңгейіне қарай ең төменгіден жоғарыға дейін жіктеледі. Қауіпті жоғары жүйелер маңызды ақпараттық және коммуникациялық инфрақұрылым ретінде жіктеледі. Сондай-ақ көмекшілерге, жартылай автономды жүйелерге және толық автономды алгоритмдерге бөледі. Соңғысына Қазақстан Республикасы аумағында тыйым салынады.
Жоба аясында жасанды интеллектіні пайдаланудың кейбір түріне тыйым салынады. Атап айтқанда, адамдардың мінез-құлқына олардың саналы келісімінсіз әсер ететін, олардың осалдығын әдейі пайдаланатын, әлеуметтік мінез-құлқы немесе сипаттамалар бойынша бағалайтын немесе жіктейтін ЖИ пайдалануға тыйым салынады. Бұған заңмен рұқсат етілген жағдайларды қоспағанда, адамдардың келісімінсіз олардың эмоцияларын талдау және нақты уақыт режимінде қоғамдық орындарда бет-әлпетті тану үшін ЖИ-ді қолдану кіреді. Депутаттардың сөзінше, осы және басқа да ұсыныстар жаңа технологиялық қоғам жағдайында адам құқықтарын қорғаудың халықаралық стандарттарына сәйкестендірілген.
Мәжіліс Төрағасы Ерлан Қошанов екінші оқылымға дейін жалпы отырыс барысында көтерілген мәселенің бәрін мұқият зерделеп, даму мен қауіпсіздік арасындағы ақылға қонымды тепе-теңдікті табу қажет екенін айтты.
Сарапшы Медет Искаковтың айтуынша, заң өзгерістерге икемді әрі қауіпсіздікке бағдарланған болуға тиіс.
Медет ИСКАКОВ, IT саласының сарапшысы:
Жаңаруға бейім механизмдер қарастырған абзал
– Жасанды интеллект саласының қарқынды дамуы мен кең қолданылуына байланысты оны толығымен реттеу өте қиын. Бұл әмбебап реттеуші норма әзірлеуді қиындатады. Алайда ЖИ ұлттық және халықаралық ұйымдар деңгейінде реттеле басталды. Мысалы, Еуроодақ деректерді реттеу, оның ішінде қауіпсіздікті сақтап, қорғау мақсатында құқықтық базаны белсенді түрде дамытып жатыр.
ЖИ алгоритмдерінің ашықтығын қамтамасыз ету – тиімді реттеудің негізгі аспектісі. Бұған бірқатар шара ықпал етуі мүмкін. Алдымен, құжаттама және есеп беруді міндеттеу. Яғни, әзірлеушілер алгоритмдердің жұмысы мен жұмыс принциптері туралы ақпарат беріп, енгізілген өзгерістер туралы үнемі есеп беріп отыруға тиіс.
Одан соң бастапқы код пен модельдің ашықтығы. Кейбір жағдайларда, әсіресе, қоғамдық мүдделерге әсер ететін жүйелерге сарапшылар тәуелсіз тексеру жүргізе алатындай бастапқы код пен ЖИ модельдерін ашық қолжетімді ету керек.
Тәуелсіз аудит және сертификаттау да аса маңызды, яғни алгоритмдердің тәуелсіз аудитін енгізу оларды стандарттарға сәйкестігін бағалауға және ықтимал сын-қатерді анықтауға мүмкіндік береді.
Бұдан бөлек, этикаға үйрету және сынақтан өткізу мәселелері де назардан тыс қалмауы керек. Яғни, әзірлеушілер алгоритмдерде біржақтылық пен кемсіту жоқ екеніне көз жеткізу үшін сынақ жүргізіп, оларды этикаға байланысты мәліметтерге үйретуі керек.
Сондай-ақ шешімдерді міндетті түрде түсіндіру керек. Медицина немесе заң сияқты маңызды жүйелерде пайдаланушылар түсінуі үшін алгоритмдер өз шешімдеріне өздері түсініктеме бере алуы маңызды. Бұл қадамдар ЖИ-ге деген сенімді арттыруға және оны арам пиғылға пайдаланудың алдын алуға көмектеседі.
Технология жылдам өзгеретіндіктен, заң икемді болуға тиіс және үнемі жаңаруға бейім болуы үшін механизмдер қарастырған абзал. Халықтың ЖИ мүмкіндіктері мен сын-қатері туралы білімін тереңдетуге инвестиция салу да аса маңызды.
P.S. Осылайша, жасанды ақылды жарғыға бағындырудың алғашқы қадамы жасалды. Бұл қадам қауіпсіздік мәселесіне қатысты бірқатар сын-қатердің алдын алады. Сондай-ақ саланы құқықтық тұрғыдан реттеу шетел компанияларын біздің нарыққа келуге ынталандыруы әбден мүмкін.