Жасанды интеллектті заңға қалай бағындырамыз?

Жаңа саланы реттейтін жаңа заң қандай болуы керек? Жалпы, ЖИ реттеуге келе ме? Қандай қиын­­­­дықтар болуы ықтимал? Рет­теу ЖИ-дің дамуына кедергі кел­тіруі мүмкін бе? Қандай ұсыныстар бар?

Жасанды интеллектті заңға қалай бағындырамыз?
сурет: istockphoto.com

Жасанды интеллект жаһанға кең тарады. Жаны жоқ демесеңіз, ақылы адамнан асуға аз қалды. Барлық сала оның игілігін көріп қалуға тырысып жатыр. Дегенмен қауіп пен мүмкіндіктің қатар жүретіні сияқты, ЖИ-де моральдық, әлеуметтік, құқықтық мәселелер тудырып отыр. 
Осылайша, көптеген мемлекет оны пайдалануды реттейтін заң қабылдауға қамдана бастады. Алғашқы болып биылғы наурызда Еуропарламент ЖИ-ді қолданудың құқықтық негізін қалады. Сәуірде Мәжіліс депутаттары мен ЦДИАӨМ бірлесіп біздің елде де ЖИ туралы заң жобасын әзірлеп жатқаны мәлім болды. 

Жаңа саланы реттейтін жаңа заң қандай болуы керек? Жалпы, ЖИ реттеуге келе ме? Қандай қиын­­­­дықтар болуы ықтимал? Рет­теу ЖИ-дің дамуына кедергі кел­тіруі мүмкін бе? Қандай ұсыныстар бар?

Сапалы құқықтық негіз – жаңа мүмкіндіктердің бастауы

5 сәуірде Орталық коммуникациялар қызметінде өткен брифингте «Жасанды интеллектті одан әрі дамыту» тақырыбы талқыланды. Жиында Цифрлық даму, инновациялар және аэроғарыш өнеркәсібі министрлігі Инновацияларды дамыту департаментінің директоры Дархан Мырзабаев елімізде жасанды интеллект жұмысын реттейтін заң әзірленіп жатқаны туралы мәлімдеген болатын. 

– Қазір Мәжіліс депутаттары ми­нистр­­лікпен бірлесіп, жасанды интел­лек­­тіні құру, дамыту және пайдалану ке­зінде мемлекеттік органдар, жеке жә­не заңды тұлғалар арасында туын­дайтын қоғамдық қатынастарды рет­теуге ба­ғыт­талған жасанды интеллект бойын­ша заң жо­басын әзірлеп жатыр, – деді Дархан Мыр­забаев.

Оның сөзіне сүйенсек, тұжырым­дама негізінде жасанды интел­лект технологияларын қолдану, аталған жүйе­нің қауіпсіз жұмыс істеуіне қатыс­ты нормалар, жасанды интеллект эти­ка­сы қағидалары мен оны пайдалануда ақ­параттық қауіпсіздікті сақтау мә­се­ле­лері реттелмек.

– Цифрлық кодексті әзірлеу заң жо­балау жұмыстарының 2024 жылға ар­­­налған жоспарына енгізілді. Бұл құ­жат тұжырымдамалық аппарат, негізгі мін­деттер мен принциптер, құқықтық қа­тынастардың субъектілері мен объек­ті­лері, құқықтар мен міндеттер деген бө­­­лімдерден тұрады. Ал оның негізгі бө­ліміне цифрлық үкімет, деректер, жа­санды интеллект, цифрлық инф­ра­құ­ры­лым және құралдар, киберқауіпсіздік кіреді, – деген болатын Цифрлық даму, ин­новациялар және аэроғарыш өнер­кә­сібі министрлігі Инновацияларды да­мы­ту департаментінің директоры Дар­хан Мырзабаев.

Сондай-ақ сандық үкіметті қолдау ор­талығының бас директоры Рүстем Би­ғара IDC бағалауынан дерек келтіріп, жа­санды интеллектке жұмсалған қара­жат 2023 жылы 154 миллиард долларға жет­кенін, бір жылдағы өсім шамамен 30 пайызға жеткеніне тоқталды. Ал Bloomberg Intelligence мәліметінше, генера­тивті ЖИ нарығы шамамен 50 миллиард долларға жетеді.

– Бұл өзгерістер еңбек қатынас­та­ры­на, PR және бизнес үлгілеріне ай­тар­лықтай әсер етеді. Болжам бойынша 2025 жылға қарай AI технологиялары озық корпоративтік қосымшалардың ша­мамен 90 пайызын қолдайды, – деді Рүстем Биғара ОКҚ алаңында.

Жалпы, Мемлекет басшысы Қа­зақ­­станның бұл саланы құ­қық­тық тұрғыда реттеуі шетелдік ком­па­ниялардың на­рыққа келуін ынталан­дыра­ды деген пайы­мын былтыр өткен Digital Bridge форумында айтқан еді.

– Біз озық әлемдік тәжірибеге сай ке­­летін, нарықтың қажеттілігі мен аза­мат­­тардың мүддесін ескеретін, құқық­тық тұрғыдан реттейтін заманауи база әзір­леу ісін жеделдетуіміз керек. Құқық­тық шарттар халықаралық компания­лар­дың біздің нарыққа келуін ынталан­дыруы қажет. Ол үшін мүдделер тепе-тең­дігін сақтап, ашық және әділ «ойын ере­желерін» қалыптастырған жөн. Жал­пы, жасанды интеллект құралдарын адамдардың күнделікті өміріне кіріктіру оңай міндет емес. Бұл ретте олардың құ­­­­­қықтары мен бостандықтары бұзыл­мауы тиіс. Форумға қатысушылар осы са­ланы реттейтін негізгі құжаттарды, со­ның ішінде Цифрлық кодекс жобасын әзірлеуге үлес қоса алады деп үмітте­не­мін, – деген болатын Президент.

Бұл салада жаһандық бәсеке өте жо­ғары екенін де айтқан Президент Қа­зақ­стан осы үрдістен қалмауға тиіс екенін жет­кізді.

– Сондықтан біз қазір озық техноло­гия­ны дамытуға айрықша назар аударып отыр­мыз. Қазіргі міндет – еліміздегі ІТ-мамандардың, сарапшылардың, ға­лым­дардың басын қосып, олардың күш-жігерін тиімді пайдалану. Сондай-ақ халықаралық серіктестердің зор мүм­кіндіктерін еліміздің кәдесіне жа­рату, – деген еді Мемлекет басшысы.
Әзірленіп жатқан заң жобасының анық-қанығы туралы әлі белгілі бола қойған жоқ, дегенмен жұмыс басталды. Са­ланың ауқымына байланысты құқық­тық негіз құру да оңайға түспейтіні анық. Яғни, жан-жақты талдау мен са­рап­тау, ой бөлісу аса маңызды.

Әлем қандай қадамдар жасап жатыр?

Бірқатар мемлекет ЖИ-дің болашақ­та адамзат өміріне айтарлықтай әсер ете­тінін ескеріп, қазірден қамдануға көш­ті. 
АҚШ-тағы ЖИ-ді реттеудің орта­лық­тандырылмаған моделі басқарудың жал­пы тәсілін көрсетеді. Яғни, саланы то­лықтай реттейтін арнайы федералды рет­теу жүйесі жоқ деп айтуға болады. Оның орнына ЖИ эволюциясынан туын­дайтын кей мәселелерді шешетін бір­неше салалық агенттіктер мен ұйым­дар құрылған. Мысалы, ЖИ-ді қолдану тұр­ғысынан Федералды сауда комис­сиясы (FTC) тұтынушылардың құқығын қорғау мәселесіне жауапты. Ұлттық жол қо­з­ғалысы қауіпсіздігі басқармасы (NHTSA) жасанды интеллектке негіз­делген технологиялардың қауіпсіздік ас­пектілерін, атап айтқанда оларды өзді­гінен жүретін көліктерде қолдануды рет­тейді. Басқа штаттар да белгілі бір дә­режеде өз ережелерін енгізген. Мы­салы, CCPA тұтынушылық деректерді өң­дейтін компанияларға қатаң талап­тар қояды және бұл талаптар жасанды интеллект технологиясын қолданатын­дарға да қатысты.
Еуроодақта деректерді қорғаудың жал­пы ережесі (GDPR) және ЖИ туралы заң­ға қатысты қызу пікірталас өткізіп, түр­лі шара қабылдады. Бұл бастамалар жеке ақпаратты жинау, пайдалану және сақ­таудың қатаң ережелерін белгілеуге ба­ғытталды. Еуроодақ ЖИ жүйелерінің жұмысы деректерді жинауға және пай­далануға негізделгендіктен, жеке тұл­ғаны құрметтеу және оның қауіпсіздігін қор­ғауға мүмкіндік беретін қатаң ере­же­лер керек деген шешімге келген. Яғни, одақ заңнамасы жасанды интеллект жүйе­лерінің бақылаусыз жұмыс істеуін шек­тейді. Заң пайдаланушылардың проб­лемасы мен мүддесі үшін ашықтық, есеп беру және этика принциптеріне не­гізделген деп сипатталады. 
Қытай ЖИ саласындағы әлемдік дер­жава ретінде танылуға ниетті, ай­тарлықтай алдыңғы қатарға шықты да. Бірақ мұнымен тоқтамай, 2030 жылға қарай ЖИ инновациялары бойынша же­текші орталыққа айналуды көздеп отыр. Ел үкіметі ЖИ этикасы мен қауіп­сіздігін де елеусіз қалдырмай, өсімді ба­қылап, ЖИ операцияларының схема­ла­­рын әзірлеген. Қытайдың киберқауіп­сіз­дік туралы заңында және ЖИ-ді да­мыту жоспарында талаптарды сақтауға және сын-қатерді уақытылы басқаруға баса назар аударылған. Этикалық мәсе­ле­лерге қатысты сақтық та байқалады. Яғни, Қытай болашақ әлемдік стандарт­тарға сәйкес келетін және ЖИ саласын­да­ғы жетекші алпауыт держава ретіндегі позициясын нығайтатын парадигма құруға ұмтылып отыр.

Самат НҰРТАЗА,
Мәжіліс депутаты: 

Қауіпсіздігімізді қорғайтын қалқан болуы қажет

– Жасанды интеллект жан-жақты дамып жатыр. Бұл ретте төндіретін қауіп-қатері де алаңдатады. Мысалы, өткенде бір жағдайдың куәсі болдым. Бір адамның бейнесі мен сол адамның дауысын салып, неше түрлі өтірік сөз айтқызып қойған, жасанды интеллектті білмейтін адам шын сол адам сөйлеп тұр деп ойлап қалады. Сондықтан да осылай кете берсе, менің ойымша, ертең не шын, не өтірік екенін аңғару мүлде қиынға соғатын болады. Бұл түрлі сын-қатер мен құқық бұзу жағдайларының жиілеуіне әсер етуі мүмкін.  
Сол себепті Ішкі істер министрлігі болсын, кибер қауіпсіздікке қа­ты­сы бар, яғни жауапты мекемелердің бар­лығы атсалысуы қажет деп ойлай­мын. Сонымен қатар цифрлық дамуға жауап­ты арнайы министрлік бар. Жа­сан­ды интеллекттің кері салдары деген тек адамға жала жабу болмауы мүмкін ғой. Сонымен қатар мысалы, тізімдерді ұр­лау, мемлекет туралы жалған ақпарат та­рату сияқты деңгейге дейін жетуі мүм­кін. Соның барлығына қарсы төтеп бе­ре­тін қауіпсіздігіміз, қалқанымыз болуы керек. Жас буынның қауіпсіздігі де ескерілуі керек. 
Одан бөлек, жасанды интеллект бі­лім-ғылым саласына да көп өзгеріс әкел­ді, соның ішінде қаупі де жоқ емес. Ақ­парат алуды тым жеңілдетті, ал оның кері әсері де байқалып жатыр. Бұрын ап­талап, айлап диссертация жазса,  қа­зір Chat GPT жазып береді. Ол антип­ла­гиаттан өтеді де, сонымен болды. 
Арнайы заң әзірлеуге келер болсақ, IT-мамандардың қоғамдастығы сияқты бі­лікті мамандардың басын қосатын бір ұйым болуы керек деп есептеймін, олар­дың пікірі мен ұсыныстары аса маңыз­ды.
Әрине, технология көшінен қал­мауы­мыз керек, жастарды оқытуымыз керек. Кез келген дүниенің зияны бар және пайдасы бар. Интернет алғаш пай­да болғанда да осындай мәселелер күн тәртібіне шыққан еді ғой. Жасанды ин­теллект те сол секілді. Жас буын, жал­пы қоғам, халық жасанды интеллекттің игілігін көре алу үшін жағдай жасауымыз керек. Сондықтан да заңның сапалы болуы аса маңызды.

Медет ИСКАКОВ:
IT саласының тәуелсіз сарапшысы:

Заң икемді және жаңартуға бейім болуы қажет

– Жасанды интеллект саласының қар­қынды дамуы мен кең қолданылуына байланысты оны толығымен реттеу өте қиын. ЖИ медицина және көлік сала­сынан бастап қаржы мен ойын-сауыққа дейін әртүрлі салаларда қол­данылады, бұл – әмбебап реттеуші норма әзірлеуді қиындатады.
Алайда ЖИ ұлттық және халық­ара­лық ұйымдар деңгейінде реттеле бас­талды. Мысалы, Еуроодақ деректерді рет­теу, оның ішінде қауіпсіздікті сақтап, қорғау мақсатында құқықтық базаны белсенді түрде дамытып жатыр. 
Енді ЖИ-ді реттеудегі негізгі қиындықтарға тоқталып өтсем. Ең алдымен, тех­нологиялық қиындықтар. ЖИ жүйелері дегеніміз – көбінесе қара жәшіктер, бұл олардың шешімдерін түсінуді қиындатады. Екіншіден, тех­но­логияның қарқынды дамуы. Заңнама технологиялық инновациялардан артта қалуы мүмкін. Үшіншіден, ЖИ-дің жаһан­дық сипаты. ЖИ түрлі елдерде да­мып келеді және халықаралық реттеу стан­дарттары әлі де әзірленіп жатыр. Төр­тіншіден, этикалық және құқықтық мәселелер. Кемсіту және құпияны сақ­тамау сияқты этикалық аспектілер және ЖИ-ді қолданудың құқықтық салдарын да ескеру қажет. Осылайша, ЖИ-ді рет­теу дегеніміз – заң әзірлеу ғана емес, со­ны­мен қатар оларды өзгеретін жағ­дай­лар мен технологияларға бейімдеу.
ЖИ алгоритмдерінің ашықтығын қам­тамасыз ету – тиімді реттеудің не­гізгі аспектісі. Бұған бірқатар шара ық­пал етуі мүмкін. Алдымен, құжаттама жә­не есеп беруді міндеттеу. Яғни, әзір­леу­шілер алгоритмдердің жұмысы мен жұ­мыс принциптері туралы егжей-тег­жейлі ақпарат беріп, енгізілген өзгеріс­тер туралы үнемі есеп беріп отыруға тиіс. 
Одан соң бастапқы код пен модель­дің ашықтығы. Кейбір жағдайларда, әсі­ресе, қоғамдық мүдделерге әсер ете­тін жүйелерге сарапшылар тәуелсіз тек­серу жүргізе алатындай бастапқы код пен ЖИ модельдерін ашық қол­же­тімді ету керек.
Тәуелсіз аудит және сертификаттау да аса маңызды, яғни алгоритмдердің тәуел­сіз аудитін енгізу оларды стандарт­тарға сәйкестігін бағалауға және ықти­мал сын-қатерді анықтауға мүмкіндік береді.
Бұдан бөлек, этикаға үйрету және сы­нақтан өткізу мәселелері де назардан тыс қалмауы керек. Яғни, әзірлеушілер ал­горитмдерде біржақтылық пен кем­сіту жоқ екеніне көз жеткізу үшін сынақ жүр­гізіп, оларды этикаға байланысты мәліметтерге үйретуі керек.
Сондай-ақ шешімдерді міндетті түр­де түсіндіру керек. Медицина немесе заң сияқты маңызды жүйелерде пай­да­ланушылар түсінуі үшін алгоритмдер өз шешімдеріне өздері түсініктеме бере алуы маңызды.
Бұл қадамдар ЖИ-ге деген сенімді арт­тыруға және оны арам пиғылға пай­даланудың алдын алуға көмектеседі. Бұл ретте ЖИ-ді реттеуге бағытталған заң жобасында мына мәселелер ескерілуі қажет деп ойлаймын.
Апаттар мен қателіктердің қаупін азайту үшін, ЖИ жүйелерінің қауіпсіз­дігін қамтамасыз ету үшін стандарттар бел­гіленуге тиіс. Реттеуде ЖИ пайдала­на­тын және өндіретін жеке деректерді қорғауға қойылатын қатаң талаптар болуы қажет. Алгоритмдердегі кемсіту мен біржақтылықтың алдын алу және ЖИ-ді қолдануда этиканың сақталуын қадағалау қажет. ЖИ жүйелері үшін жауапкершілікті нақты анықтау және әзірлеушілер мен операторлардың есеп беруін қамтамасыз ету қажет. Заң жобасы әзірлеушілерден ЖИ қабылдаған шешімдерге, әсіресе, азаматтардың құқықтары мен бостандықтарына әсер ететін жағдайларда түсініктеме беруді талап етуі керек. Технология жылдам өзгеретіндіктен, заң икемді болуға тиіс және үнемі жаңаруға бейім болу үшін механизмдер қарастырылғаны абзал. Халықтың ЖИ мүмкіндіктері мен сын-қатері туралы білімін тереңдету үшін инвестиция салу да маңызды.
Сондай-ақ қауіпсіздік, деректерді қорғау, этикалық стандарттар, жауап­кершілік және алгоритмдердің транспаренттілігі туралы ережелерді қам­титын ЖИ-ді реттеудің ұлттық стра­тегиясын әзірлеп, бекітуді ұсынамын. Міндетті сертификаттауды және аса маңызды ЖИ жүйелерінің тәуелсіз ауди­тін енгізу, сондай-ақ жаңа технология­лық сын-қатерге жауап ретінде норма­тив­тік базаны тұрақты жаңарту тетік­терін көздеу қажет.

2026 жылға таман жаһандық ЖИ нарығының айналымы 900 млрд долларға жетеді. International Data Corporation зерттеу ұйымының болжамынша, 2022-2026 жылдар аралығында ЖИ саласындағы шешімдер нарығы жыл сайын 18,6 пайызға өсім көрсетіп отырады.
Яғни, ЖИ-дің қолданысын реттейтін сапалы құқықтық негіз құру қазір аса маңызды, өйткені технологияның дамуы біздің болашағымызды анықтайды. Жаңа заңның барлық тараптың мүддесіне сай келуі, жасанды интеллекттің дамуын тежемеуі бірінші кезекте қаперге алынуға тиіс мәселе болмақ. Яғни, реттеуді шектеумен шатастырмаған абзал. Дегенмен қанша ақылды десек те, жасанды интеллектті адам оқытатынын да естен шығармаған жөн.