কৃত্রিম বুদ্ধিমত্তা ব্যবস্থায় বড় এক নিরাপত্তা দুর্বলতা মানুষের জীবনের জন্য হুমকিস্বরূপ, এমনই উঠে এসেছে নতুন এক গবেষণায়। গবেষকরা সতর্ক করেছেন, যেসব রোবটিক সিস্টেমে এআই ব্যবহার করে সিদ্ধান্ত নেওয়া হয়, সেগুলো ভেঙে পড়তে পারে আর সেগুলো নিরাপদও নয়।
নতুন এই গবেষণায় বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেল অথবা ‘এলএলএম’ খতিয়ে দেখেছেন গবেষকরা। এই এলএলএম প্রযুক্তির সাহায্যেই চ্যাটজিপিটির মতো এআই ব্যবস্থা কাজ করে। এমনকি রোবটিক্সের বেলাতেও একই ধরনের প্রযুক্তির ব্যবহার দেখা গেছে, যেখানে বাস্তব-জগতে নেওয়া সিদ্ধান্ত মেশিনের মাধ্যমে প্রয়োগ করে এটি।
ইউনিভার্সিটি অব পেনসিলভেনিয়া পরিচালিত নতুন এ গবেষণা অনুসারে, ওই প্রযুক্তিতে এমন নিরাপত্তা ত্রুটি ও দুর্বলতা আছে, যার সুযোগ নিয়ে হ্যাকারদের পক্ষে এসব সিস্টেমে প্রবেশ করা সম্ভব।
ইউনিভার্সিটির অধ্যাপক জর্জ পাপাস বলেন, ‘আমাদের কাজে দেখা গেছে, এ মুহূর্তে বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেল বাস্তব জগতে ব্যবহারের মতো যথেষ্ট নিরাপদ নয়।’
এতে অধ্যাপক পাপাস ও তার সহকর্মীরা পরীক্ষা করে দেখেন, বর্তমানে ব্যবহার করা বেশ কিছু সিস্টেমের নিরাপত্তা ব্যবস্থা এড়িয়ে এতে প্রবেশ করা সম্ভব। এর মধ্যে রয়েছে ‘সেলফ-ড্রাইভিং’ বা স্বচালিত গাড়ির ব্যবস্থা, যাকে দিয়ে গাড়িকে চৌরাস্তার মধ্য দিয়ে কোনো দিকে ভ্রূক্ষেপ না করেই চালানোর ঝুঁকি রয়েছে।
গবেষকরা এখন এই সিস্টেমগুলোর নির্মাতাদের সঙ্গে কাজ করছেন যাতে সে দুর্বলতাগুলো শনাক্ত করে সে অনুযায়ী ব্যবস্থা নেওয়া যায়। তবে তারা সতর্ক করেছেন, এতে সুনির্দিষ্ট দুর্বলতার ‘প্যাচ’ তৈরির চেয়ে বরং এসব সিস্টেম কীভাবে তৈরি হয়েছে, তা নিয়ে নতুন করে চিন্তা করা উচিত।
গবেষণার সহ-লেখক বিজয় কুমার বলেন, ‘এ গবেষণাপত্রের ফলাফল থেকে এটা পরিষ্কার যে, এমন গুরুদায়িত্ব পালন করা সিস্টেম চালু করার বেলায় ‘সেইফটি-ফার্স্ট’ পন্থা অবলম্বন করা খুবই গুরুত্বপূর্ণ। আর এআই-চালিত রোবটকে বাস্তব জগতে ছেড়ে দেওয়ার আগে আমাদের অবশ্যই এসব দুর্বলতা নিয়ে কথা বলা উচিত। আমাদের গবেষণা যাচাইকরণ ও বৈধতা নিয়ে এমন একটি কাঠামো বানাচ্ছে, যা বিভিন্ন রোবটিক সিস্টেম সংশ্লিষ্ট সামাজিক নীতিমালার সঙ্গে সংগতিপূর্ণ।’
১৯৮/সি, তেজগাঁও শিল্প এলাকা, ঢাকা-১২০৮
©দৈনিক বাংলা