adimage

১৯ সেপ্টেম্বর ২০১৮
বিকাল ০৭:৩৭, বুধবার

কৃত্রিম বুদ্ধিমত্তা নিয়ে এতো ভয় কিসের

আপডেট  07:26 PM, ফেব্রুয়ারী ২১ ২০১৮   Posted in : বিজ্ঞান ও প্রযুক্তি     

কৃত্রিমবুদ্ধিমত্তানিয়েএতোভয়কিসের

নিউজ৬৯বিডি ডেস্ক : ড্রোন পরিণত হতে পারে ক্ষেপণাস্ত্রে, ফেক বা ভুয়া ভিডিও দিয়ে বিভ্রান্ত করা হতে পারে জনমত, হতে পারে হ্যাকিং-এর মতো ঘটনাও- আর এর সবই হতে পারে কৃত্রিম বুদ্ধিমত্তার সাহায্যে, যদি সেটা চলে যায় ভুল জায়গা বা খারাপ মানুষের হাতে।

ড্রোন কিম্বা রোবট দিয়ে সুনির্দিষ্ট ব্যক্তি কিম্বা এলাকায় চালানো হতে পারে সন্ত্রাসী হামলা, চালকবিহীন গাড়ি ছিনতাই করে সেটিকে নিক্ষিপ্ত করা হতে পারে দুর্ঘটনায়।

আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা সংক্ষেপে এ আই-এর উপর একটি প্রতিবেদনে এই আশঙ্কা প্রকাশ করছেন আন্তর্জাতিক নিরাপত্তা বিশেষজ্ঞরা।

তারা হুঁশিয়ার করে দিয়ে বলছেন, এই প্রযুক্তি যদি ভ্রষ্ট-নীতির কোনো রাষ্ট্র, যারা আন্তর্জাতিক আইন কানুনের তোয়াক্কা করে না, তাদের কাছে কিম্বা অপরাধীসহ সন্ত্রাসীদের হাতে চলে যায় তাহলে তার বড় ধরনের অপব্যবহার হতে পারে।

আর একারণে এই কৃত্রিম বুদ্ধিমত্তা যখন তৈরি করা হচ্ছে তখন এর উদ্ভাবকদের একই সাথে এমন জিনিসও তৈরি করতে হবে যাতে এর অপব্যবহার না হয়, আর হলেও সেটা মোকাবেলা করা যায়- বলছেন গবেষকরা।

এই লক্ষ্যে ২৬ জন গবেষকের একটি দল নতুন কিছু আইন কানুন তৈরি করার উপরেও জোর দিচ্ছেন।

তারা বলছেন:

নীতি-নির্ধারক ও প্রযুক্তিবিদ ও গবেষকদের এক সাথে কাজ করতে হবে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির অপব্যবহার সম্পর্কে ধারণা পেতে এবং সেটা মোকাবেলা করতে।

কৃত্রিম বুদ্ধিমত্তার যে শুধু ভালো প্রয়োগ নেই, এটিকে খারাপ কাজেও প্রয়োগ করা হতে পারে, সেটি উপলব্ধি করতে হবে। এই বিষয়টিকে মাথায় রেখেই গবেষক ও প্রকৌশলীদেরকে কৃত্রিম বুদ্ধিমত্তা তৈরিতে কাজ করতে হবে।

কম্পিউটার নিরাপত্তার মতো বিষয়, যেখানে ভালো ও খারাপ দুটো দিকই আছে, সেটা থেকে শিক্ষা নিতে হবে।

কৃত্রিম বুদ্ধিমত্তার অপব্যবহার বন্ধ ও প্রতিরোধের লক্ষ্যে সব পক্ষকে একসাথে সক্রিয় হতে হবে।

যুক্তরাজ্যে ক্যামব্রিজ বিশ্ববিদ্যালয়ের শাহার আভিন বলেন, এই প্রতিবেদনটিতে বর্তমানে যেসব কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি আছে কিম্বা আগামী পাঁচ বছরে আরো যেসব প্রযুক্তি বাজারে আসতে পারে সেগুলোর ঝুঁকি তুলে ধরা হয়েছে। এতে খুব বেশি দূরের ভবিষ্যতের কৃত্রিম বুদ্ধিমত্তার উপর আলোকপাত করা হয়নি।

প্রতিবেদনটিতে বিশেষ করে যে বিষয়ে উদ্বেগ প্রকাশ করা হয়েছে সেটা হলো, কৃত্রিম বুদ্ধিমত্তাকে যখন অতিমানবীয় পর্যায়ে নিয়ে যাওয়া হচ্ছে এবং যেখানে কোনো দিক নির্দেশনা নেই।

একারণে কৃত্রিম বুদ্ধিমত্তা অদূর ভবিষ্যতে কিভাবে ভয়ংকর হয়ে উঠতে পারে তার কিছু উদাহরণ তিনি তুলে ধরেছেন:

আলফাগোর মতো প্রযুক্তি- গুগল ডিপমাইন্ড কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তিটি উদ্ভাবন করেছে। এটি এতো চালাক যে মানুষের বুদ্ধিকেও সে পরাস্ত করতে পারে। এই প্রযুক্তি হ্যাকারদের হাতে পড়লে তথ্য চুরি হওয়ার আশঙ্কা রয়েছে।

কোনো বিদ্বেষপরায়ণ কোনো ব্যক্তি ড্রোন কিনে সেটিকে মানুষের মুখ চেনার জন্যে প্রশিক্ষিত করে তুলতে পারে এবং তারপর পারে কোনো ব্যক্তিকে চিহ্নিত করে তার উপর আক্রমণ চালাতে।

ভুয়া ভিডিও তৈরি করে তার রাজনৈতিক অপব্যবহার হতে পারে।

স্পিচ সিনথেসিসের মাধ্যমে হ্যাকাররা অন্যের গলাও নকল করতে পারে।

অক্সফোর্ড বিশ্ববিদ্যালয়ে ফিউচার অফ হিউম্যানিটি ইন্সটিটিউটের মাইলস ব্রান্ডেজ বলেছেন, মানুষের, প্রতিষ্ঠানের ও রাষ্ট্রের নিরাপত্তাহীনতার ঝুঁকির চিত্র বদলে দেবে এই কৃত্রিম বুদ্ধিমত্তা। দুর্বৃত্তরা এই প্রযুক্তি ব্যবহার করতে পারে হ্যাক করার উদ্দেশ্যে, মানুষের গোপনীয়তায় হস্তক্ষেপ করা হতে পারে- নিরাপত্তার ব্যাপারে সব ধরনের ঝুঁকিই এখানে আছে।

তিনি বলেন, বেশিরভাগ কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রেই দেখা গেছে এই প্রযুক্তি যে শুধু মানুষের বুদ্ধির পর্যায়ে চলে যায় তা নয়, অনেক ক্ষেত্রে এটা মানুষের বুদ্ধির সীমাকেও ছাড়িয়ে যায়।

এ আই-এর উপর তৈরি এই প্রতিবেদনটিতে দেখা হয়েছে আগামী ১০ বছরে পৃথিবীর চেহারা কেমন হতে পারে?

এই গবেষণা প্রতিবেদনের লেখকরা বলছেন, কৃত্রিম বুদ্ধিমত্তা সবকিছু বদলে দিচ্ছে। আমরা এমন এক বিশ্বে বাস করছি যা কিনা কৃত্রিম বৃদ্ধিমত্তার অপব্যবহারের কার দিনে দিনে আরো বেশি ঝুঁকিপূর্ণ হয়ে উঠতে পারে।

১০০ পাতার এই রিপোর্টে তিনটি এলাকা চিহ্নিত করা হয়েছে- ডিজিটাল, শারীরিক ও রাজনৈতিক - এগুলোতেই কৃত্রিম বুদ্ধিমত্তার অপ্রয়োগ হতে পারে। -বিবিসি

সর্বাধিক পঠিত

Comments

এই পেইজের আরও খবর

মোবাইল অ্যাপ ডাউনলোড করুন

nazrul