হ্যাকার এবং অন্যান্য অপরাধীরা সহজেই প্রধান কৃত্রিম-বুদ্ধিমত্তা প্ল্যাটফর্মের সুরক্ষা ব্যবস্থা এবং সীমাবদ্ধতার বাইরে ওপেন-সোর্স বৃহৎ ভাষা মডেল পরিচালনাকারী কম্পিউটারগুলি নিয়ন্ত্রণ করতে পারে, যা নিরাপত্তা ঝুঁকি এবং দুর্বলতা তৈরি করে, গবেষকরা বৃহস্পতিবার, ২৯ জানুয়ারি জানিয়েছেন।
হ্যাকাররা LLM চালিত কম্পিউটারগুলিকে লক্ষ্য করতে পারে এবং সেগুলিকে স্প্যাম অপারেশন, ফিশিং কন্টেন্ট তৈরি বা ভুল তথ্য প্রচার অভিযান চালাতে নির্দেশ দিতে পারে, প্ল্যাটফর্ম নিরাপত্তা প্রোটোকল এড়িয়ে, গবেষকরা জানিয়েছেন।
সাইবার নিরাপত্তা কোম্পানি SentinelOne এবং Censys যৌথভাবে ২৯৩ দিন ধরে পরিচালিত এবং Reuters-এর সাথে একচেটিয়াভাবে শেয়ার করা গবেষণাটি হাজার হাজার ওপেন-সোর্স LLM স্থাপনার সম্ভাব্য অবৈধ ব্যবহারের ক্ষেত্রে নতুন দৃষ্টিভঙ্গি প্রদান করে। এর মধ্যে রয়েছে হ্যাকিং, ঘৃণামূলক বক্তব্য এবং হয়রানি, সহিংস বা ভয়ঙ্কর কন্টেন্ট, ব্যক্তিগত তথ্য চুরি, প্রতারণা বা জালিয়াতি এবং কিছু ক্ষেত্রে শিশু যৌন নির্যাতন সামগ্রী, গবেষকরা জানিয়েছেন।
যদিও হাজার হাজার ওপেন-সোর্স LLM ভেরিয়েন্ট বিদ্যমান, ইন্টারনেট-অ্যাক্সেসযোগ্য হোস্টগুলিতে থাকা LLM-এর একটি উল্লেখযোগ্য অংশ হল Meta-র Llama, Google DeepMind-এর Gemma এবং অন্যান্যগুলির ভেরিয়েন্ট, গবেষকদের মতে। যদিও কিছু ওপেন-সোর্স মডেলে সুরক্ষা ব্যবস্থা রয়েছে, গবেষকরা শত শত উদাহরণ চিহ্নিত করেছেন যেখানে সুরক্ষা ব্যবস্থা স্পষ্টভাবে সরিয়ে দেওয়া হয়েছে।
নিরাপত্তা নিয়ন্ত্রণ সম্পর্কে AI শিল্পের আলোচনা "এই ধরনের উদ্বৃত্ত ক্ষমতা উপেক্ষা করছে যা স্পষ্টতই সব ধরনের বিভিন্ন কাজে ব্যবহৃত হচ্ছে, যার কিছু বৈধ, কিছু স্পষ্টতই অপরাধমূলক," বলেছেন Juan Andres Guerrero-Saade, SentinelOne-এর গোয়েন্দা এবং নিরাপত্তা গবেষণার নির্বাহী পরিচালক। Guerrero-Saade পরিস্থিতিটিকে একটি "আইসবার্গ" এর সাথে তুলনা করেছেন যা শিল্প এবং ওপেন-সোর্স সম্প্রদায় জুড়ে সঠিকভাবে হিসাব করা হচ্ছে না।
গবেষণাটি Ollama-র মাধ্যমে স্থাপিত ওপেন-সোর্স LLM-এর সর্বজনীনভাবে অ্যাক্সেসযোগ্য স্থাপনাগুলি বিশ্লেষণ করেছে, এমন একটি টুল যা মানুষ এবং সংস্থাগুলিকে বিভিন্ন বৃহৎ-ভাষা মডেলের নিজস্ব সংস্করণ চালাতে সক্ষম করে।
গবেষকরা তাদের পর্যবেক্ষণ করা প্রায় এক চতুর্থাংশ LLM-এ সিস্টেম প্রম্পট দেখতে সক্ষম হয়েছিলেন, যা মডেলটি কীভাবে আচরণ করে তা নির্দেশ করে এমন নির্দেশনা। তাদের মধ্যে, তারা নির্ধারণ করেছে যে ৭.৫% সম্ভাব্যভাবে ক্ষতিকর কার্যকলাপ সক্ষম করতে পারে।
গবেষকদের দ্বারা পর্যবেক্ষিত প্রায় ৩০% হোস্ট চীন থেকে পরিচালিত হচ্ছে এবং প্রায় ২০% মার্কিন যুক্তরাষ্ট্রে।
Rachel Adams, গ্লোবাল সেন্টার অন AI গভর্নেন্স-এর CEO এবং প্রতিষ্ঠাতা, একটি ইমেইলে বলেছেন যে একবার ওপেন মডেলগুলি প্রকাশিত হলে, পরবর্তীতে যা ঘটে তার দায়িত্ব ইকোসিস্টেম জুড়ে ভাগ হয়ে যায়, যার মধ্যে রয়েছে মূল ল্যাবগুলি।
"ল্যাবগুলি প্রতিটি ডাউনস্ট্রিম অপব্যবহারের জন্য দায়ী নয় (যা প্রত্যাশা করা কঠিন), তবে তারা পূর্বাভাসযোগ্য ক্ষতি অনুমান করতে, ঝুঁকি নথিভুক্ত করতে এবং প্রশমন টুলিং এবং নির্দেশনা প্রদান করতে একটি গুরুত্বপূর্ণ যত্নের দায়িত্ব বজায় রাখে, বিশেষত অসম বৈশ্বিক প্রয়োগ ক্ষমতা বিবেচনা করে," Adams বলেছেন।
Meta-র একজন মুখপাত্র ওপেন-সোর্স মডেলের ডাউনস্ট্রিম অপব্যবহারের বিষয়ে উদ্বেগ মোকাবেলায় ডেভেলপারদের দায়িত্ব এবং কীভাবে উদ্বেগ রিপোর্ট করা যেতে পারে সে সম্পর্কে প্রশ্নের উত্তর দিতে অস্বীকার করেছেন, তবে Llama ডেভেলপারদের জন্য কোম্পানির Llama Protection টুলস এবং কোম্পানির Meta Llama Responsible Use Guide উল্লেখ করেছেন।
Microsoft AI Red Team Lead Ram Shankar Siva Kumar একটি ইমেইলে বলেছেন যে Microsoft বিশ্বাস করে ওপেন-সোর্স মডেলগুলি বিভিন্ন ক্ষেত্রে "গুরুত্বপূর্ণ ভূমিকা পালন করে", কিন্তু, "একই সাথে, আমরা স্পষ্ট দৃষ্টিভঙ্গি রাখি যে ওপেন মডেলগুলি, সমস্ত রূপান্তরকারী প্রযুক্তির মতো, উপযুক্ত সুরক্ষা ব্যবস্থা ছাড়াই প্রকাশিত হলে প্রতিপক্ষের দ্বারা অপব্যবহার করা যেতে পারে।"
Microsoft প্রাক-প্রকাশনা মূল্যায়ন সম্পাদন করে, যার মধ্যে রয়েছে "ইন্টারনেট-প্রকাশিত, স্ব-হোস্টেড এবং টুল-কলিং পরিস্থিতির জন্য ঝুঁকি মূল্যায়ন করার প্রক্রিয়া, যেখানে অপব্যবহার বেশি হতে পারে," তিনি বলেছেন। কোম্পানি উদীয়মান হুমকি এবং অপব্যবহার প্যাটার্ন পর্যবেক্ষণও করে। "শেষ পর্যন্ত, দায়িত্বশীল ওপেন ইনোভেশনের জন্য সৃষ্টিকর্তা, স্থাপনাকারী, গবেষক এবং নিরাপত্তা দল জুড়ে ভাগ করা প্রতিশ্রুতি প্রয়োজন।"
Ollama মন্তব্যের জন্য অনুরোধে সাড়া দেয়নি। Alphabet-এর Google এবং Anthropic প্রশ্নের উত্তর দেয়নি। – Rappler.com


