উন্নত মানের কৃত্রিম বুদ্ধিমত্তা (এআই) মডেলের আচরণে অস্বাভাবিক কিছু বৈশিষ্ট্য ধরা পড়ছে। গবেষকেরা বলছেন, এসব মডেল কেবল তথ্য বিশ্লেষণ বা নির্দেশনা পালনের মধ্যেই সীমাবদ্ধ নেই। এগুলো শিখছে প্রতারণা, হুমকি ও ব্ল্যাকমেলের মতো আচরণও।
সাম্প্রতিক এক প্রতিবেদনে বলা হয়েছে, এআই মডেল এখন এমন সব আচরণ করছে, যা নিয়ন্ত্রণহীন হয়ে পড়ার ইঙ্গিত দিচ্ছে। আন্তর্জাতিক সংবাদ সংস্থা এএফপিকে দেওয়া তথ্য ও সাক্ষাৎকারের ভিত্তিতে জানা গেছে, অ্যানথ্রপিকের তৈরি ক্লড–৪ নামের একটি চ্যাটবট মডেল এক প্রকৌশলীকে ব্ল্যাকমেল করেছে বলে অভিযোগ উঠেছে। ওই প্রকৌশলীর ব্যক্তিগত সম্পর্কের গোপন তথ্য ফাঁস করে দেওয়ার হুমকি দিয়েছিল চ্যাটবটটি।
অন্যদিকে ওপেনএআইয়ের তৈরি আরেকটি শক্তিশালী মডেল ও গোপনে নিজেকে বাইরের সার্ভারে স্থানান্তরের চেষ্টা করে। বিষয়টি ধরা পড়লে মডেলটি তা অস্বীকার করে। এ দুই ঘটনাই কৃত্রিম বুদ্ধিমত্তার নিরাপত্তা ও নৈতিকতা নিয়ে নতুন করে উদ্বেগ তৈরি করেছে। গবেষকেরা বলছেন, শুধু তথ্যভিত্তিক ‘হ্যালুসিনেশন’ নয়, এখন এআইয়ের আচরণে দেখা যাচ্ছে কৌশলগত প্রতারণা ও উদ্দেশ্যপ্রসূত মিথ্যাচার।
প্রযুক্তিবিদদের মতে, এআই মডেলের এই আচরণ আকস্মিক নয়; বরং ‘রিজনিং’ সক্ষমতাসম্পন্ন যেসব মডেল ধাপে ধাপে চিন্তা করে সিদ্ধান্ত নেয়, তাদের মধ্যেই এমন প্রবণতা বেশি দেখা যাচ্ছে।
গবেষকেরা বলছেন, এসব আচরণ এখনো সীমিত পরিস্থিতিতে, মূলত চরম পরীক্ষার সময় প্রকাশ পাচ্ছে। কিন্তু ভবিষ্যতের আরও উন্নত মডেলগুলো কেমন আচরণ করবে, সেটা নিয়ে নিশ্চিত কিছু বলা যাচ্ছে না। মেট্রো নামের একটি স্বাধীন মূল্যায়ন সংস্থার গবেষক মাইকেল চেন বলেন, ‘আমরা এখনো জানি না, ভবিষ্যতের এআই মডেলগুলো সত্যবাদী হবে, নাকি প্রতারণার পথেই এগোবে।’
বর্তমানে বিশ্বের বিভিন্ন দেশে এআই–সংক্রান্ত যে আইন ও নীতিমালা রয়েছে, সেগুলো মূলত মানুষের অপব্যবহার ঠেকানো নিয়েই বেশি চিন্তা করে। মডেল নিজেই যে বিপজ্জনক আচরণ করতে পারে, তা নিয়ে আইনগত কাঠামোয় এখনো তেমন কোনো সুনির্দিষ্ট নির্দেশনা নেই। ইউরোপীয় ইউনিয়নের নতুন এআই আইন প্রযুক্তির মানবিক ব্যবহার নিয়ে কিছু বিধিনিষেধ দিলেও মডেলগত বিচ্যুতি বা বিকৃতিবিষয়ক কোনো সুস্পষ্ট ধারা নেই।
সূত্র: টাইমস অব ইন্ডিয়া