[ad_1]
অ্যানথ্রোপিক বর্তমানে এআই রেস জয়ের জন্য আক্রমনাত্মকভাবে লড়াই করছে। এর মডেল ক্লাউডের সাথে কোম্পানিটি অবশ্যই এআই বিকাশের অগ্রভাগে রয়েছে। যাইহোক, তার অবস্থান ধরে রাখতে এবং প্রতিযোগিতামূলক থাকার জন্য, এটি এখন তার AI সুরক্ষা নীতি সংশোধন করেছে এবং তার সবচেয়ে সংজ্ঞায়িত সুরক্ষা প্রতিশ্রুতিগুলির মধ্যে একটিকে বাদ দিয়েছে, যা 2021 সালে এটির সৃষ্টির দিকে পরিচালিত করেছিল।
দায়িত্বশীল স্কেলিং নীতির সর্বশেষ আপডেটে, যা এটি 2023 সালে তৈরি করেছিল, অ্যানথ্রপিক ঘোষণা করেছে যে এটি শুধুমাত্র নিরাপত্তা উদ্বেগের ভিত্তিতে প্রশিক্ষণ বা আরও শক্তিশালী AI মডেলগুলি প্রকাশ করা বন্ধ করতে আর প্রতিশ্রুতিবদ্ধ হবে না।
অ্যানথ্রপিক ব্যাখ্যা করে যে যদিও এর আগের মডেলটি বর্তমান ঝুঁকির জন্য আরও ভাল সুরক্ষা তৈরি করতে সাহায্য করেছিল, এটি একটি “অস্পষ্টতার অঞ্চল” আঘাত করেছে, যেখানে একটি এআই মডেল কখন বিপজ্জনক হয়ে ওঠে তা সঠিকভাবে প্রমাণ করা কঠিন। কোম্পানির মতে, “মডেল মূল্যায়নের বিজ্ঞান ডিসপোজিটিভ উত্তর দেওয়ার জন্য যথেষ্ট উন্নত নয়,” এইভাবে Anthropic-এর পক্ষে অন্যান্য AI কোম্পানি বা সরকারকে তাদের জন্য থামতে এবং অপেক্ষা করতে রাজি করানো কঠিন।
সংস্থাটি আরও যুক্তি দেয় যে যদি এটি কঠোর “স্টপ” নিয়মগুলি মেনে চলে যখন অন্যান্য সংস্থাগুলি আরও শক্তিশালী AI তৈরি করতে থাকে তবে এটি পিছিয়ে পড়তে পারে। এবং যদি অ্যানথ্রপিকের মতো সংস্থাগুলি প্রভাব হারায়, তবে এটি “একটি বিশ্ব যা কম নিরাপদ” হতে পারে। তাই একা নিজেকে ধীর করার পরিবর্তে, অ্যানথ্রপিক কঠোর স্টপ নিয়মগুলি থেকে দূরে সরে যাওয়ার এবং আরও নমনীয় পদ্ধতি গ্রহণ করার সিদ্ধান্ত নিয়েছে।
অ্যানথ্রপিক আরও উল্লেখ করেছেন যে বড় হুমকির বিরুদ্ধে সর্বোচ্চ স্তরের নিরাপত্তায় পৌঁছানো বর্তমানে একটি একক কোম্পানির পক্ষে একা অর্জন করা “সম্ভব নয়”। সুতরাং, কঠোর, একতরফা প্রতিশ্রুতি বজায় রাখার পরিবর্তে, এটি স্বচ্ছতা এবং নিয়মিত “ঝুঁকি রিপোর্ট” এর উপর দৃষ্টি নিবদ্ধ করে আরও নমনীয় সিস্টেমের দিকে চলে যাচ্ছে। এই রিপোর্টগুলির মাধ্যমে, সংস্থাটি বলেছে যে এটি স্পষ্টভাবে ব্যাখ্যা করবে যে এটি কীভাবে এর AI মডেলগুলি আরও শক্তিশালী হয়ে উঠছে এবং ঝুঁকিগুলি চিহ্নিত করছে এবং পরিচালনা করছে৷
নৃতাত্ত্বিক মূল নিরাপত্তা নিয়ম কাঁপে?
অ্যানথ্রপিকের সর্বশেষ নীতি পরিবর্তন শিল্পের জন্য একটি বড় চমক হিসাবে এসেছে। প্রাক্তন OpenAI গবেষকদের দ্বারা প্রতিষ্ঠিত যারা উন্নত AI এর ঝুঁকি নিয়ে সোচ্চার ছিলেন, কোম্পানিটি নিরাপত্তাকে প্রথমে রাখার জন্য তার খ্যাতি তৈরি করেছে। যখন এটি 2023 সালে তার দায়বদ্ধ স্কেলিং নীতি (RSP) প্রবর্তন করে, তখন কোম্পানির কাঠামোটি এমন মডেলগুলির লঞ্চের উপর একটি স্পষ্ট “হার্ড-স্টপ” কেন্দ্রিক ছিল যা নিরাপত্তার নিশ্চয়তা দেয় না। প্রকৃতপক্ষে, প্রতিশ্রুতি প্রধান কারণগুলির মধ্যে একটি হয়ে উঠেছে কেন অ্যানথ্রোপিককে প্রধান AI ল্যাবগুলির মধ্যে সবচেয়ে নিরাপত্তা-কেন্দ্রিক হিসাবে দেখা হয়।
কিন্তু AI রেসে উত্তপ্ত প্রতিযোগিতার মাঝখানে, সংস্থাটি এখন নিরাপত্তাকে কিছুটা দ্বিতীয় অগ্রাধিকার দেওয়ার সিদ্ধান্ত নিয়েছে।
– শেষ
টিউন ইন করুন
[ad_2]
Source link