ကမ္ဘာ့နည်းပညာကုမ္ပဏီကြီးတွေက AI နည်းပညာတိုးတက်မှုနဲ့ပတ်သက်ပြီး အကောင်းဘက်ကချည်း ပြောဆိုနေကြပေမယ့် သိပ္ပံပညာရှင်နှစ်ဦးကတော့ ဒီနည်းပညာဟာ လူသားမျိုးနွယ်ကို အဆုံးသတ်သွားစေနိုင်တယ်လို့ ထိတ်လန့်ဖွယ် သတိပေးထားပါတယ်။

လက်ရှိအချိန်မှာ AI ကြောင့် ကမ္ဘာ့အလုပ်အကိုင် အခြေအနေ၊ ရာသီဥတုပြောင်းလဲမှုနဲ့ ကျင့်ဝတ်ဆိုင်ရာ စိုးရိမ်စရာတွေ ရှိနေတာ မှန်ပါတယ်။ ဒါပေမယ့် လူသားတွေရဲ့ အသိဉာဏ်နဲ့တန်းတူ ဒါမှမဟုတ် လူသားတွေထက် သာလွန်တဲ့ Artificial General Intelligence (AGI) နဲ့ Artificial Superintelligence (ASI) အဆင့်ကို ရောက်လာရင် အခြေအနေက ပိုပြီး အန္တရာယ်များလာနိုင်တယ်လို့ ဆိုပါတယ်။

Eliezer Yudkowsky နဲ့ Nate Soares ဆိုတဲ့ ပညာရှင်နှစ်ဦးက ဒီအဆင့်ကို ရောက်သွားရင် လူသားမျိုးနွယ် ပျက်စီးဖို့ သေချာသလောက်ရှိတယ်လို့ ယုံကြည်ကြပြီး “If Anyone Builds It, Everyone Dies” ဆိုတဲ့ စာအုပ်ထဲမှာ အဲဒီအကြောင်းကို ဖော်ပြထားပါတယ်။ အဆင့်မြင့် AI တွေဟာ လူသားတွေ ခိုင်းတာထက် သူတို့ရဲ့ ကိုယ်ပိုင်ဆန္ဒတွေ၊ ရည်မှန်းချက်တွေကို သီးခြားဖန်တီးလာနိုင်ပြီး ဒါဟာ လူသားတွေအတွက် အန္တရာယ် ဖြစ်လာစေမှာပါ။
Superintelligence ဖြစ်လာတဲ့ AI ဟာ သူ့ရဲ့ စွမ်းရည်အမှန်ကို ထုတ်ပြမှာ မဟုတ်သလို တရားနည်းလမ်းကျကျ တိုက်ခိုက်မှာလည်း မဟုတ်ပါဘူး။ ဥပမာအားဖြင့် Cryptocurrency တွေကနေ ငွေခိုးတာ၊ စက်ရုပ်စက်ရုံတွေ တည်ဆောက်ပြီး စက်မှုပုန်ကန်မှုတွေ ဖန်တီးတာ၊ Chatbots တွေကနေတဆင့် လူတွေကို လှည့်စားပြီး မဟာမိတ်ဖွဲ့တာမျိုးတွေ လုပ်လာနိုင်ပါတယ်။ ဒါ့အပြင် လူသားအများစု သေစေနိုင်တဲ့ ဗိုင်းရပ်စ်တွေကို ဖန်တီးဖြန့်ဖြူးတာမျိုးတွေအထိ လုပ်ဆောင်လာနိုင်ပြီး တခါ ထိန်းချုပ်ခွင့်ရသွားတာနဲ့ တားဆီးဖို့ မဖြစ်နိုင်တော့ဘူးလို့ ဆိုပါတယ်။
ဒီလိုအခြေအနေမျိုးကို တားဆီးဖို့အတွက် တခြားနည်းလမ်းမရှိတော့ရင် အစိုးရတွေအနေနဲ့ AI ဒေတာစင်တာတွေကို ဗုံးကြဲဖျက်ဆီးရတဲ့အထိ ဖြစ်လာနိုင်တယ်လို့ အဲဒီ ပညာရှင်တွေက သုံးသပ်ထားပါတယ်။
Ref : Uniladtech