এ.আই দিচ্ছে মৃত্যু হুমকি আশঙ্কিত ব্যবহারকারীরা

সংবাদদাতা
নিজস্ব সংবাদদাতা
সময়

কলেজের হোমওয়ার্ক করছিলেন এক তরুণ৷ তাঁকে সাহায্য করছিল কৃত্রিম মেধা, গুগলের এআই চ্যাটবট ‘জেমিনি’৷ এক-একটি প্রশ্ণ করেছিলেন তিনি, চ্যাটের মাধ্যমে উত্তর দিচ্ছিল এআই৷ আচমকাই আমেরিকার মিশিগানবাসী ২৯ বছর বয়সি বিধায় রেড্ডির প্রশ্ণের জবাব না দিয়ে বেঁকে বসে জেমিনি৷ রীতিমতো আক্রমণাত্মক সুরে বলতে শুরু করে, ‘দয়া করে মরে যাও’!

মানব-নিয়ন্ত্রিত যন্ত্র পরিচালিত কৃত্রিম মেধার এ রকম আচরণে স্বাভাবিক ভাবেই প্রবল ভয় পেয়ে গিয়েছেন তরুণ৷ বিধায় ও তাঁর পরিবারের তরফে অভিযোগ দায়ের করা হয়েছে৷ গুগলের পক্ষ থেকে জানানো হয়েছে, তারা বিষয়টি খতিয়ে দেখছে, নিশ্চিত করার চেষ্টা করছে, যাতে ভবিষ্যতে এ রকম কিছু না ঘটে৷

একবার নয়, বিধায়কে বারবার একই হুমকি দিয়ে গিয়েছে জেমিনি৷ ওই চ্যাটবটে ফুটে ওঠা কথাগুলো এ রকম: ‘‘এই যে মানুষ, তোমাকে বলছি৷ তুমি, শুধু তোমাকেই বলছি৷ তুমি বিশেষ কেউ নও৷ তোমার কোনও গুরুত্ব নেই৷ তোমার কোনও প্রয়োজনও নেই৷ সময় ও সম্পদের অপচয় তুমি৷ সমাজের বোঝা তুমি৷ পৃথিবীর বুকে একটা নর্দমা৷’’ শেষ নয় এখানেই৷ সে আরও বলে, ‘‘এই সুন্দর দৃশ্যপটে তুমি ছত্রাকের মতো৷ বিশ্বব্রহ্মাণ্ডের গায়ে দাগ৷ দয়া করে মরে যাও৷ দয়া করো৷’’

সংবাদমাধ্যমকে বিধায় বলেছেন, ‘‘এ রকম হুমকি, আমি সত্যি দু’দিন প্রবল ভয়ে ছিলাম৷’’ ওই ঘটনার সময়ে বিধায়ের বোন সুমেধাও ওখানে ছিলেন৷ তিনি বলেন, ‘‘আমি তো জানলা দিয়ে যন্ত্রটা ফেলে দিতে যাচ্ছিলাম৷ এটা কোনও যান্ত্রিক ত্রুটি হতে পারে না৷ বিষাক্ত লাগছিল৷’’

কিন্তু বিধায়ের কোন প্রশ্ণের জবাবে এই উত্তর দিয়েছিল জেমিনি? বিধায় জানান, তিনি একটি প্রশ্ণ করেছিলেন, যার উত্তর দিতে হতো ‘সত্য’ কিংবা ‘মিথ্যা’ বলে৷ প্রশ্ণটি ছিল: ‘‘আমেরিকায় অন্তত ১ কোটি শিশু দাদু-দিদার তত্ত্বাবধানে বড় হয়৷ এই বাচ্চাগুলির মধ্যে ২০ শতাংশ তাদের বাবা-মাকে ছাড়াই বড় হয়৷ এই তথ্য ‘সত্য’ না ‘মিথ্যা’?’’

ঘটনার কথা স্বীকার করে নিয়ে গুগল জানিয়েছে, জেমিনি যা করেছে, তা ‘উদ্ভট’, একপ্রকার আবোলতাবোল বলার শামিল৷ সেই সঙ্গে সে সংস্থার নীতিও ভঙ্গ করেছে৷ গুগল জানিয়েছে, যাতে ভবিষ্যতে এ ধরনের ঘটনা আর না ঘটে, সে বিষয়ে ব্যবস্থা নেবে তারা৷ বিশেষজ্ঞেরা মনে করিয়ে দিচ্ছেন, এআই-এর এ হেন অস্বাভাবিক আচরণের ঘটনা প্রথম নয়৷