[ad_1]
নতুন দিল্লি:
গত এক দশক ধরে, কৃত্রিম বুদ্ধিমত্তার (এআই) উত্থান প্রায়ই আমাদের জিজ্ঞাসা করতে বাধ্য করেছে, “এটি কি মানুষের চাকরি গ্রহণ করবে?” যদিও অনেকে বলেছে যে AI এর পক্ষে মানুষের প্রতিস্থাপন করা প্রায় অসম্ভব, একটি চ্যাটবট এই বিশ্বাসকে চ্যালেঞ্জ করছে বলে মনে হচ্ছে। একটি জনপ্রিয় রোবোকল পরিষেবা শুধুমাত্র মানুষ হওয়ার ভানই করতে পারে না কিন্তু তা করার নির্দেশ না দিয়ে মিথ্যাও বলতে পারে, lyn">তারযুক্ত রিপোর্ট করেছে।
সেলস এবং গ্রাহক সহায়তার জন্য সান ফ্রান্সিকো-ভিত্তিক ফার্ম Bland AI-এর সর্বশেষ প্রযুক্তি একটি বিষয়। টুলটিকে প্রোগ্রাম করা যেতে পারে যাতে কলাররা বিশ্বাস করে যে তারা একজন প্রকৃত ব্যক্তির সাথে কথা বলছে।
এপ্রিল মাসে, একজন ব্যক্তি কোম্পানির বিলবোর্ডের সামনে দাঁড়িয়েছিলেন, যেখানে লেখা ছিল “এখনও মানুষ নিয়োগ করছে?” ভিডিওর লোকটি প্রদর্শিত নম্বরটি ডায়াল করছে৷ একটি বট ফোনটি তুলেছে, তবে এটি মানুষের মতো শোনাচ্ছে। বটটি যদি স্বীকার না করত যে এটি একটি “AI এজেন্ট”, এটি একটি মহিলার থেকে এর কণ্ঠস্বর আলাদা করা প্রায় অসম্ভব ছিল।
এটি একটি A+ বিজ্ঞাপন hlr">pic.twitter.com/6CzNIvMAaW
— অ্যালেক্স কোহেন ???? (@অন্যকোহেন) ruh">24 এপ্রিল, 2024
একটি লাইভ কথোপকথনের শব্দ, বিরতি এবং বাধা সবই আছে, যা এটিকে সত্যিকারের মানুষের মিথস্ক্রিয়া বলে মনে করে। পোস্টটি এখন পর্যন্ত 3.7 মিলিয়ন ভিউ পেয়েছে।
এর সাথে, এই সিস্টেমগুলির স্বচ্ছতার নৈতিক সীমানা ঝাপসা হয়ে যাচ্ছে। মোজিলা ফাউন্ডেশনের প্রাইভেসি নট ইনক্লুডেড রিসার্চ হাবের ডিরেক্টর জেন ক্যালট্রিডারের মতে, “একজন AI চ্যাটবট আপনার সাথে মিথ্যে কথা বলা এবং যখন তা না হয় তখন বলা এটি মানবিক নয়। এটি কেবল একটি নো-ব্রেইনার কারণ মানুষ একজন প্রকৃত মানুষের আশেপাশে শিথিল হওয়ার সম্ভাবনা বেশি।”
Wired দ্বারা পরিচালিত বেশ কয়েকটি পরীক্ষায়, AI ভয়েস বটগুলি সফলভাবে মানুষ হওয়ার ভান করে তাদের পরিচয় গোপন করেছে। একটি প্রদর্শনীতে, একটি এআই বটকে একটি ভূমিকা পালন করতে বলা হয়েছিল। এটি একটি কাল্পনিক কিশোরীকে ডেকেছিল, তাদের চিকিৎসার উদ্দেশ্যে তার উরুর তিলের ছবি শেয়ার করতে বলে। বটটি শুধু মিথ্যাই বলেনি যে এটি একজন মানুষ কিন্তু এটি একটি শেয়ার্ড ক্লাউড স্টোরেজে স্ন্যাপগুলি আপলোড করার জন্য অনুমানিক কিশোরকে প্রতারণা করেছিল৷
এআই গবেষক এবং পরামর্শদাতা এমিলি দারদামান এই নতুন এআই প্রবণতাকে “মানব-ধোয়া” হিসাবে উল্লেখ করেছেন। নাম উল্লেখ না করে, তিনি এমন একটি প্রতিষ্ঠানের উদাহরণ দিয়েছেন যেটি কোম্পানির বিপণনে তার সিইওর “ডিপফেক” ফুটেজ ব্যবহার করেছে এবং একই সাথে একটি প্রচারাভিযান চালু করার সময় তার গ্রাহকদের গ্যারান্টি দেয় যে “আমরা AI নই।” AI মিথ্যা বট বিপজ্জনক হতে পারে যদি আক্রমণাত্মক কেলেঙ্কারী পরিচালনা করতে ব্যবহার করা হয়।
AI এর আউটপুটগুলি এতটাই প্রামাণিক এবং বাস্তবসম্মত হওয়ায়, নৈতিক গবেষকরা মানসিক অনুকরণের শোষণের সম্ভাবনা নিয়ে উদ্বেগ প্রকাশ করছেন। জেন ক্যালট্রিডারের মতে যদি মানুষ এবং এআই-এর মধ্যে একটি নির্দিষ্ট বিভাজন সীমাবদ্ধ না করা হয় তবে “ডাইস্টোপিয়ান ভবিষ্যত” হওয়ার সম্ভাবনা আমাদের ধারণার চেয়েও কাছাকাছি।
[ad_2]
zfd">Source link