কৃত্রিম বুদ্ধিমত্তা মানব সভ্যতার অবসানের হুমকি দিচ্ছে, বিশেষজ্ঞরা সতর্ক করেছেন

‘কৃত্রিম বুদ্ধিমত্তার কারণে মানুষের অস্তিত্ব হুমকির মুখে পড়তে পারে।’ অনেক বিশেষজ্ঞ এ বিষয়ে সতর্ক করেছেন। যারা এই ধরনের সতর্কবাণী দিচ্ছেন তাদের মধ্যে OpenAI এবং Google DeepMind-এর প্রধানরাও রয়েছেন।

এ সংক্রান্ত বিবৃতিটি ‘সেন্টার ফর এআই সেফটি’- এর ওয়েবপেজে প্রকাশিত হয়েছে । অনেক বিশেষজ্ঞ এই বক্তব্যের সাথে তাদের সহমত প্রকাশ করেছেন।

বিশেষজ্ঞরা সতর্ক করেছেন, “এআই (কৃত্রিম বুদ্ধিমত্তা) দ্বারা সৃষ্ট অস্তিত্বের হুমকি প্রশমিত করা একটি বিশ্বব্যাপী অগ্রাধিকার হওয়া উচিত।

তবে এর আশঙ্কাকে অতিরঞ্জিত করা হচ্ছে বলে অনেকের অভিমত।

চ্যাটজিপিটির প্রধান নির্বাহী স্যাম অল্টম্যান, গুগল ডিপমাইন্ডের প্রধান নির্বাহী ডেমিস হাসাবিস এবং অ্যানথ্রপিকের দারিও অ্যামোডি বিবৃতিটিকে সমর্থন করেছেন।

এআই (কৃত্রিম বুদ্ধিমত্তা) দ্বারা সৃষ্ট অস্তিত্বের হুমকি প্রশমিত করা একটি বিশ্বব্যাপী অগ্রাধিকার হওয়া উচিত।

কী বিপদ হতে পারে
সেন্টার ফর এআই সেফটি ওয়েবসাইট বিপর্যয়ের জন্য বেশ কয়েকটি সম্ভাব্য পরিস্থিতি তালিকাভুক্ত করেছে।

AI অস্ত্র হিসাবে ব্যবহার করা হতে পারে – উদাহরণস্বরূপ বলা হয়েছে- ড্রাগ আবিষ্কারের সরঞ্জামগুলি রাসায়নিক অস্ত্র তৈরি করতে ব্যবহার করা হতে পারে।

এআইয়ের তৈরি করা ভুল তথ্য সমাজকে অস্থিতিশীল করতে পারে এবং ‘সম্মিলিত সিদ্ধান্ত গ্রহণকে প্রভাবিত করতে পারে’।

এআই-এর শক্তিকে কয়েক হাতে কেন্দ্রীভূত করা হতে পারে।

মানুষ যখন এআই-এর ওপর নির্ভরশীল হয়ে পড়ে তখন এমন পরিস্থিতি তৈরি হতে পারে যেমনটি ‘ওয়াল ই’ ছবিতে দেখানো হয়েছে।

বিপদ কি অতিরঞ্জিত হচ্ছে?
ডা. জিওফ্রে হিন্টনও এআই সেফটির জন্য কেন্দ্রের সতর্কতাকে সমর্থন করেছেন। তিনি ইতিমধ্যেই সুপার ইন্টেলিজেন্ট AI এর বিপদ সম্পর্কে সতর্কতা জারি করেছেন।

মন্ট্রিল বিশ্ববিদ্যালয়ের কম্পিউটার সায়েন্সের অধ্যাপক ইয়োশুয়া বেনজোও বিবৃতিতে স্বাক্ষর করেছেন।

ডঃ হিন্টন, প্রফেসর বেনজো এবং প্রফেসর ইয়ান লেকেনকে ‘এআই এর গডফাদার’ বলা হয়।

এ জন্য তাদের ২০১৮ সালে যৌথভাবে ‘টার্নিং অ্যাওয়ার্ড’ দেওয়া হয়। কম্পিউটার বিজ্ঞানের ক্ষেত্রে উল্লেখযোগ্য অবদানের জন্য এই পুরস্কার দেওয়া হয়।

অধ্যাপক লেকান মেটার জন্যও কাজ করেন। তারা বলছেন, এই সতর্কবার্তাকে অতিরঞ্জিত করা হচ্ছে।

অন্যান্য অনেক বিশেষজ্ঞের মতামতও একই রকম। তারা বলছেন যে AI মানবতাকে ধ্বংস করবে, এই ভয় বাস্তব নয়।

অক্সফোর্ড ইনস্টিটিউট ফর এথিক্স ইন এআই-এর সিনিয়র রিসার্চ অ্যাসোসিয়েট এলিজাবেথ রেইনিরিস বলেছেন যে তিনি বর্তমান সময়ের চেয়ে কাছাকাছি সময়ের বিপদ সম্পর্কে বেশি উদ্বিগ্ন।

“এআই-এর অগ্রগতি স্বয়ংক্রিয় সিদ্ধান্তের সম্ভাবনা বাড়িয়ে তুলবে যা পক্ষপাতদুষ্ট, বৈষম্যমূলক, বিচ্ছিন্ন এবং ন্যায্য নয়। সেগুলি পর্যালোচনা এবং প্রয়োগ করা যায় না। ”

তার মতে, “এটি বাস্তবতাকে সঠিকভাবে প্রতিফলিত করবে না। এটি জনসাধারণের আস্থাকে ক্ষুণ্ন করবে। এটি বৈষম্যকে আরও বাড়িয়ে তুলবে। ”

নিরাপদ উপায় কি?
তিনি বলেছেন যে AI-এর অনেক সরঞ্জামই ‘এখন পর্যন্ত মানুষের অভিজ্ঞতার ওপর একটি বিনামূল্যের যাত্রার মতো’। এই প্রশিক্ষণের অধিকাংশই হয়েছে মানবসৃষ্ট বিষয়বস্তু, পাঠ্য, শিল্প ও সঙ্গীতের মাধ্যমে। সেই ভিত্তিতেই তারা কাজ করে।

যারা এগুলি প্রস্তুত করেছিল তারা ‘কার্যকরভাবে সমস্ত সম্পদ এবং ক্ষমতা সাধারণ মানুষের কাছ থেকে কয়েকটি বেসরকারি প্রতিষ্ঠানে সরিয়ে নিয়েছে’।

তবে সেন্টার ফর সেফটির পরিচালক ড্যাটান হেনড্রিকস বলেছেন যে সামনের ঝুঁকি এবং আজকের উদ্বেগগুলিকে ‘সংঘাতমূলক হিসাবে দেখা উচিত নয়’।

তিনি বলেছেন, “আজ যদি কিছু সমস্যা সমাধান করা হয়, তবে এটি সামনে আসা অনেক ঝুঁকি সমাধানে সহায়তা করতে পারে।”

উদ্বেগ নতুন নয়
AI এর মাধ্যমে অস্তিত্বের সম্ভাব্য হুমকির বিষয়ে মার্চ 2023 থেকে বৃদ্ধি পেয়েছে। তারপর টেসলার বস ইলন মাস্কসহ অনেক বিশেষজ্ঞ একটি খোলা চিঠি লিখেছিলেন। এতে পরবর্তী প্রজন্মের এআই প্রযুক্তির বিকাশ বন্ধ করার অনুরোধ জানানো হয়।

চিঠিতে জিজ্ঞাসা করা হয়েছিল, ‘আমাদের কি এমন অ-মানব মস্তিষ্ক তৈরি করা উচিত যা শেষ পর্যন্ত আমাদেরকে ছাড়িয়ে যাবে, আমাদের চেয়ে স্মার্ট হবে এবং আমাদের প্রতিস্থাপন করবে?’

এ ছাড়া নতুন প্রচারণার আওতায় খুব ছোট একটি বিবৃতি দেওয়া হয়েছে। এর মধ্যে ‘আলোচনা শুরু করার’ একটা ব্যাপার আছে।

এই বিবৃতিতে হুমকিকে পরমাণু যুদ্ধের সঙ্গে তুলনা করা হয়েছে। OpenAI-এর একটি সাম্প্রতিক ব্লগে বলা হয়েছে যে সুপার ইন্টেলিজেন্সকে পারমাণবিক শক্তির মতো নিয়ন্ত্রণ করা উচিত।

ব্লগে লেখা হয়েছে, “সুপার ইন্টেলিজেন্সের জন্য আমাদের IAEA (International Atomic Energy Agency) এর মতো একটি সংস্থা লাগবে।”

সুনাক আশ্বাস দিলেন
স্যাম অল্টম্যান এবং গুগলের প্রধান নির্বাহী সুন্দর পিচাই প্রযুক্তি খাতের শীর্ষস্থানীয় ব্যক্তিদের মধ্যে রয়েছেন যারা সম্প্রতি যুক্তরাজ্যের প্রধানমন্ত্রী ঋষি সুনাকের সাথে এআই নিয়ন্ত্রণ করার বিষয়ে কথা বলেছেন।

AI এর বিপদ সম্পর্কে সাম্প্রতিক সতর্কতা সম্পর্কে সাংবাদিকদের সাথে কথা বলার সময়, ঋষি সুনাক অর্থনীতি এবং সমাজে যে সুবিধাগুলি আনতে পারে তার উপর জোর দিয়েছিলেন।

তিনি বলেন, “আপনি সম্প্রতি দেখেছেন যে এটি পক্ষাঘাতগ্রস্তদের হাঁটতে সাহায্য করছে। নতুন অ্যান্টিবায়োটিক আবিষ্কৃত হচ্ছে কিন্তু আমাদের সিদ্ধান্ত নিতে হবে যে এই সব নিরাপদ উপায়ে করা হবে।”

“এ কারণেই আমি গত সপ্তাহে সমস্ত বড় এআই কোম্পানির সিইওদের সাথে দেখা করেছি যে আমাদের কোন বাধাগুলি স্থাপন করা দরকার, আমাদের কী নিয়ন্ত্রণ স্থাপন করা দরকার যাতে আমরা নিরাপদ থাকতে পারি”।

ব্রিটেনের প্রধানমন্ত্রী ঋষি সুনাক বলেছেন যে তিনি G7 শীর্ষ সম্মেলনে অন্যান্য নেতাদের সাথে এই বিষয়ে আলোচনা করেছেন এবং শীঘ্রই আমেরিকাতেও এই বিষয়টি উত্থাপন করবেন। G7 সম্প্রতি AI এর জন্য একটি ‘ওয়ার্কিং’ গ্রুপ গঠন করেছে।

Leave a Reply

Your email address will not be published. Required fields are marked *