Sun. May 11th, 2025
Logo Signature
Agrani Bank
Rupali Bank
Advertisements

খােলা বাজার২৪। বৃহস্পতিবার, ২২ ফেব্রুয়ারি, ২০১৮: ড্রোন পরিণত হতে পারে ক্ষেপণাস্ত্রে, ফেক বা ভুয়া ভিডিও দিয়ে বিভ্রান্ত করা হতে পারে জনমত, হতে পারে হ্যাকিং-এর মতো ঘটনাও- আর এর সবই হতে পারে কৃত্রিম বুদ্ধিমত্তার সাহায্যে, যদি সেটা চলে যায় ভুল জায়গা বা খারাপ মানুষের হাতে।

ড্রোন কিম্বা রোবট দিয়ে সুনির্দিষ্ট ব্যক্তি কিম্বা এলাকায় চালানো হতে পারে সন্ত্রাসী হামলা, চালকবিহীন গাড়ি ছিনতাই করে সেটিকে নিক্ষিপ্ত করা হতে পারে দুর্ঘটনায়।

আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা সংক্ষেপে এ আই-এর উপর একটি প্রতিবেদনে এই আশঙ্কা প্রকাশ করছেন আন্তর্জাতিক নিরাপত্তা বিশেষজ্ঞরা।

তারা হুঁশিয়ার করে দিয়ে বলছেন, এই প্রযুক্তি যদি ভ্রষ্ট-নীতির কোনো রাষ্ট্র, যারা আন্তর্জাতিক আইন কানুনের তোয়াক্কা করে না, তাদের কাছে কিম্বা অপরাধীসহ সন্ত্রাসীদের হাতে চলে যায় তাহলে তার বড় ধরনের অপব্যবহার হতে পারে।

আর একারণে এই কৃত্রিম বুদ্ধিমত্তা যখন তৈরি করা হচ্ছে তখন এর উদ্ভাবকদের একই সাথে এমন জিনিসও তৈরি করতে হবে যাতে এর অপব্যবহার না হয়, আর হলেও সেটা মোকাবেলা করা যায়- বলছেন গবেষকরা।

এই লক্ষ্যে ২৬ জন গবেষকের একটি দল তুন কিছু আইন কানুন তৈরি করার উপরেও জোর দিচ্ছেন।

নীতি-নির্ধারক ও প্রযুক্তিবিদ ও গবেষকদের এক সাথে কাজ করতে হবে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির অপব্যবহার সম্পর্কে ধারণা পেতে এবং সেটা মোকাবেলা করতে।

কৃত্রিম বুদ্ধিমত্তার যে শুধু ভালো প্রয়োগ নেই, এটিকে খারাপ কাজেও প্রয়োগ করা হতে পারে, সেটি উপলব্ধি করতে হবে। এই বিষয়টিকে মাথায় রেখেই গবেষক ও প্রকৌশলীদেরকে কৃত্রিম বুদ্ধিমত্তা তৈরিতে কাজ করতে হবে।
কম্পিউটার নিরাপত্তার মতো বিষয়, যেখানে ভালো ও খারাপ দুটো দিকই আছে, সেটা থেকে শিক্ষা নিতে হবে।
কৃত্রিম বুদ্ধিমত্তার অপব্যবহার বন্ধ ও প্রতিরোধের লক্ষ্যে সব পক্ষকে একসাথে সক্রিয় হতে হবে।

যুক্তরাজ্যে ক্যামব্রিজ বিশ্ববিদ্যালয়ের শাহার আভিন বিবিসিকে বলেছেন, এই প্রতিবেদনটিতে বর্তমানে যেসব কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি আছে কিম্বা আগামী পাঁচ বছরে আরো যেসব প্রযুক্তি বাজারে আসতে পারে সেগুলোর ঝুঁকি তুলে ধরা হয়েছে। এতে খুব বেশি দূরের ভবিষ্যতের কৃত্রিম বুদ্ধিমত্তার উপর আলোকপাত করা হয়নি।

প্রতিবেদনটিতে বিশেষ করে যে বিষয়ে উদ্বেগ প্রকাশ করা হয়েছে সেটা হলো, কৃত্রিম বুদ্ধিমত্তাকে যখন অতিমানবীয় পর্যায়ে নিয়ে যাওয়া হচ্ছে এবং যেখানে কোনো দিক নির্দেশনা নেই।

একারণে কৃত্রিম বুদ্ধিমত্তা অদূর ভবিষ্যতে কিভাবে ভয়ংকর হয়ে উঠতে পারে তার কিছু উদাহরণ তিনি তুলে ধরেছেন:

আলফাগোর মতো প্রযুক্তি- গুগল ডিপমাইন্ড কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তিটি উদ্ভাবন করেছে। এটি এতো চালাক যে মানুষের বুদ্ধিকেও সে পরাস্ত করতে পারে। এই প্রযুক্তি হ্যাকারদের হাতে পড়লে তথ্য চুরি হওয়ার আশঙ্কা রয়েছে।
কোনো বিদ্বেষপরায়ণ কোনো ব্যক্তি ড্রোন কিনে সেটিকে মানুষের মুখ চেনার জন্যে প্রশিক্ষিত করে তুলতে পারে এবং তারপর পারে কোনো ব্যক্তিকে চিহ্নিত করে তার উপর আক্রমণ চালাতে।

স্পিচ সিনথেসিসের মাধ্যমে হ্যাকাররা অন্যের গলাও নকল করতে পারে।

অক্সফোর্ড বিশ্ববিদ্যালয়ে ফিউচার অফ হিউম্যানিটি ইন্সটিটিউটের মাইলস ব্রান্ডেজ বলেছেন, মানুষের, প্রতিষ্ঠানের ও রাষ্ট্রের নিরাপত্তাহীনতার ঝুঁকির চিত্র বদলে দেবে এই কৃত্রিম বুদ্ধিমত্তা। দুর্বৃত্তরা এই প্রযুক্তি ব্যবহার করতে পারে হ্যাক করার উদ্দেশ্যে, মানুষের গোপনীয়তায় হস্তক্ষেপ করা হতে পারে- নিরাপত্তার ব্যাপারে সব ধরনের ঝুঁকিই এখানে আছে।

“বেশিরভাগ কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রেই দেখা গেছে এই প্রযুক্তি যে শুধু মানুষের বুদ্ধির পর্যায়ে চলে যায় তা নয়, অনেক ক্ষেত্রে এটা মানুষের বুদ্ধির সীমাকেও ছাড়িয়ে যায়,” বলেন তিনি।

এ আই-এর উপর তৈরি এই প্রতিবেদনটিতে দেখা হয়েছে আগামী ১০ বছরে পৃথিবীর চেহারা কেমন হতে পারে?

এই গবেষণা প্রতিবেদনের লেখকরা বলছেন, কৃত্রিম বুদ্ধিমত্তা সবকিছু বদলে দিচ্ছে। আমরা এমন এক বিশ্বে বাস করছি যা কিনা কৃত্রিম বৃদ্ধিমত্তার অপব্যবহারের কার দিনে দিনে আরো বেশি ঝুঁকিপূর্ণ হয়ে উঠতে পারে।

১০০ পাতার এই রিপোর্টে তিনটি এলাকা চিহ্নিত করা হয়েছে- ডিজিটাল, শারীরিক ও রাজনৈতিক – এগুলোতেই কৃত্রিম বুদ্ধিমত্তার অপ্রয়োগ হতে পারে।