ফাইন-টিউনিং এলএলএম হ’ল সময়ের একটি বিশাল অপচয়

ফাইন-টিউনিং এলএলএম হ’ল সময়ের একটি বিশাল অপচয়

পরিষ্কার, স্বতন্ত্র এবং সত্যই দরকারী এমন কাজ তৈরি করতে সময় লাগে। যদি আপনি এই নিউজলেটারে মূল্য খুঁজে পান তবে প্রদত্ত গ্রাহক হওয়ার কথা বিবেচনা করুন এটি আমাকে গবেষণায় আরও গভীরভাবে ডুব দিতে, আরও বেশি লোকের কাছে পৌঁছাতে, বিজ্ঞাপন/লুকানো এজেন্ডা থেকে মুক্ত থাকতে এবং আমার পঙ্গু চকোলেট দুধের আসক্তি সমর্থন করে। আমরা একটি “আপনি যা করতে পারেন” মডেলটিতে চালাই– আপনি যদি মিশনে বিশ্বাস করেন তবে সম্ভবত এমন একটি পরিকল্পনা রয়েছে যা ফিট করে (এখানে)

প্রতিটি সাবস্ক্রিপশন আমাকে স্বাধীন থাকতে, ক্লিকবাইট এড়াতে এবং শব্দের গভীরতার দিকে মনোনিবেশ করতে সহায়তা করে এবং যারা আমাদের সংস্কৃতি সমর্থন করতে পছন্দ করে তাদের প্রত্যেককে আমি গভীরভাবে প্রশংসা করি।

আমাকে চকোলেট দুধ কিনতে সহায়তা করুন

পিএস – এই কাজটি সমর্থন করা আপনার পকেট থেকে বেরিয়ে আসতে হবে না। আপনি যদি এটি আপনার পেশাদার বিকাশের অংশ হিসাবে পড়েন তবে আপনি পারেন এই ইমেল টেম্পলেট ব্যবহার করুন আপনার সাবস্ক্রিপশনের জন্য পরিশোধের জন্য অনুরোধ করতে।

প্রতি মাসে, চকোলেট মিল্ক কাল্ট এক মিলিয়ন বিল্ডার, বিনিয়োগকারী, নীতি নির্ধারক, নেতা এবং আরও অনেক কিছুরও বেশি পৌঁছায়। আপনি যদি আমাদের সম্প্রদায়ের অন্যান্য সদস্যদের সাথে দেখা করতে চান তবে দয়া করে এখানে এই যোগাযোগের ফর্মটি পূরণ করুন (আমি কখনই আপনার ডেটা বিক্রি করব না বা আমি আপনার সুস্পষ্ট অনুমতিটি ডাব্লু/ও তৈরি করব না)https://forms.gle/pi1pglus1fmzxolr6

সম্প্রতি, আমি এমন একজন বিনিয়োগকারীর সাথে কল ছিলাম যিনি একটি স্টার্টআপে যথাযথ অধ্যবসায় করতে আমার সহায়তা চেয়েছিলেন। আমাদের কথোপকথনের সময়, তারা আকস্মিকভাবে উল্লেখ করেছিলেন যে তাদের সিস্টেমগুলি সর্বদা নতুন তথ্যের সাথে আপডেট করা হয়েছে তা নিশ্চিত করার জন্য স্টার্টআপটি সূক্ষ্ম-সুরের উপর নির্ভর করবে। আমি জীবিত এবং লাথি মারার কল্পকাহিনীটি দেখে অবাক হয়েছি, তবে আমার ধারণা, ছাগল-নাল্ডোর মতো একই অমরত্বের রসটিতে সূক্ষ্ম সুরটি ছুঁড়ে মারছে।

ফাইন-টিউনিং বৃহত ভাষার মডেলগুলি (এলএলএম) প্রায়শই নতুন জ্ঞান ইনজেকশন দেওয়ার জন্য দ্রুত, শক্তিশালী পদ্ধতি হিসাবে বিক্রি হয়। পৃষ্ঠতলে, এটি স্বজ্ঞাত ধারণা তৈরি করে: ইতিমধ্যে শক্তিশালী মডেলটিতে নতুন ডেটা খাওয়ান, এর ওজনগুলি টুইট করুন এবং লক্ষ্যযুক্ত কার্যগুলিতে কর্মক্ষমতা উন্নত করুন।

তবে এই যুক্তিটি উন্নত মডেলগুলির জন্য ভেঙে যায় এবং খারাপভাবে তাই। উচ্চ পারফরম্যান্সে, সূক্ষ্ম-সুরকরণ কেবল নতুন ডেটা যুক্ত করছে না-এটি বিদ্যমান জ্ঞানকে ওভাররাইটিং করছে। প্রতিটি নিউরন আপডেট করে এমন তথ্য হারাতে ঝুঁকিপূর্ণ যা ইতিমধ্যে নেটওয়ার্কে জটিলভাবে বোনা। সংক্ষেপে: নিউরনগুলি মূল্যবান, সসীম সংস্থান। এগুলি আপডেট করা কোনও ব্যয়বহুল কাজ নয়; এটি একটি বিপজ্জনক বাণিজ্য বন্ধ যা একটি উন্নত মডেলের সূক্ষ্ম বাস্তুতন্ত্রকে হুমকি দেয়।

আজকের নিবন্ধে, আমরা কেন ফাইন-টিউনিং এলএলএমগুলি জ্ঞান ইনজেকশনের জন্য সময়ের একটি বিশাল অপচয় (কেন মানুষ এবং ভাবনা ভাবেন তার 90%) কেন কথা বলব।

ফাইন-টিউনিং অ্যাডভান্সড এলএলএমগুলি জ্ঞান ইনজেকশন নয়-এটি ধ্বংসাত্মক ওভাররাইটিং। প্রশিক্ষিত ভাষার মডেলগুলিতে নিউরনগুলি ফাঁকা স্লেট নয়; এগুলি ঘনভাবে আন্তঃসংযুক্ত এবং ইতিমধ্যে গুরুত্বপূর্ণ, সংক্ষিপ্ত তথ্যগুলি এনকোড করে। আপনি যখন সূক্ষ্ম-টিউন করেন, আপনি মূল্যবান বিদ্যমান নিদর্শনগুলি মুছে ফেলার ঝুঁকি নিয়ে যান, যা অপ্রত্যাশিত এবং সমস্যাযুক্ত প্রবাহের প্রভাবগুলির দিকে পরিচালিত করে।

পরিবর্তে, পুনরুদ্ধার-আগত প্রজন্ম, অ্যাডাপ্টার বা তাত্ক্ষণিক ইঞ্জিনিয়ারিংয়ের মতো মডুলার পদ্ধতিগুলি ব্যবহার করুন-এই কৌশলগুলি অন্তর্নিহিত মডেলের সাবধানে নির্মিত বাস্তুতন্ত্রকে ক্ষতিগ্রস্থ না করে নতুন তথ্য ইনজেক্ট করে।

আমি বিভিন্ন পরামর্শ এবং পরামর্শমূলক পরিষেবা সরবরাহ করি। আপনি যদি অন্বেষণ করতে চান তবে আমরা কীভাবে একসাথে কাজ করতে পারি, এখানে আমার যে কোনও সামাজিক মাধ্যমে আমার কাছে পৌঁছান অথবা এই ইমেলের জবাব দিন।

কেন সূক্ষ্ম-সুরকরণ উন্নত ভাষার মডেলগুলি যতটা শোনাচ্ছে ততটা সহজ নয় তা উপলব্ধি করার জন্য, প্রথমে বিবেচনা করা যাক কীভাবে নিউরাল নেটওয়ার্কগুলি, বিশেষত ভাষার মডেলগুলি কীভাবে স্ক্র্যাচ থেকে প্রশিক্ষিত হয়।

তাদের মূল অংশে, নিউরাল নেটওয়ার্কগুলি আন্তঃসংযুক্ত নিউরনগুলির অপরিসীম সংগ্রহ, প্রতিটি সংখ্যার মান (ওজন) ধারণ করে যা তাদের আচরণ নির্ধারণ করে। প্রাথমিকভাবে, এই ওজনগুলি এলোমেলোভাবে সেট করা হয় – কোনও এনকোডেড অর্থ নেই, কোনও সঞ্চিত জ্ঞান নেই, কেবল গাণিতিক শব্দ।

যখন প্রশিক্ষণ শুরু হয়, নেটওয়ার্ক ইনপুট (শব্দ, বাক্য, নথি) গ্রহণ করে, ভবিষ্যদ্বাণী করে (পরবর্তী শব্দ, বাক্য সমাপ্তি) এবং এই ভবিষ্যদ্বাণীগুলি বাস্তবতা থেকে কতটা দূরে রয়েছে তা গণনা করে। এই পার্থক্য বলা হয় ক্ষতি। নেটওয়ার্কটি তখন পরিচিত একটি প্রক্রিয়া ব্যবহার করে ব্যাকপ্রপ্যাগেশন প্রতিটি নিউরনের ওজনকে ক্রমবর্ধমানভাবে সামঞ্জস্য করতে, এই ক্ষতি হ্রাস করে। প্রশিক্ষণের প্রথম দিকে, এটি সহজ – নিউরনগুলি মূলত এলোমেলো মানগুলি সঞ্চয় করে, তাই তাদের আপডেট করা দরকারী তথ্যের ন্যূনতম ক্ষতি হয়। পুরো প্রক্রিয়াটি নীচে ভিজ্যুয়ালাইজ করা হয়েছে-

আরও প্রশিক্ষণের মাধ্যমে, নেটওয়ার্কটি ক্রমান্বয়ে অর্থবহ নিদর্শনগুলিকে এনকোড করে: ভাষাগত সংক্ষিপ্তসার, সিনট্যাক্স বিধি, শব্দার্থক সম্পর্ক এবং প্রসঙ্গ-নির্ভর অর্থ। নিউরনগুলি ব্যাকগ্রাউন্ড চরিত্র এ থেকে কিরিশিমার মতো গুরুত্বপূর্ণ পার্শ্ব চরিত্রগুলিতে বিকশিত হয়েছিল, যা কিছু নেটওয়ার্কে কাকন স্থিতিতে বিকশিত হয়েছিল।

নিউরন আপডেট করার “ব্যয়” প্রশিক্ষিত এলএলএমগুলিতে উঠে যায় যেহেতু নিউরনে গুরুত্বপূর্ণ তথ্য অন্তর্ভুক্ত রয়েছে।

আধুনিক এলএলএমএসের স্তরে (যা বেশিরভাগ সুকাররা টিউন করার চেষ্টা করে), বেশিরভাগ নিউরনগুলি ঘন ঘন সমালোচনামূলক অন্তর্দৃষ্টি দিয়ে প্যাক করা হয়। সূক্ষ্ম-সুরকরণ/তাদের উপর যে কোনও আপডেট চালানো আপনার কয়েকটি গুরুত্বপূর্ণ নিউরনকে আঘাত করার সম্ভাবনা বেশি, আপনার প্রত্যাশিত আচরণকে পুরোপুরি পরিবর্তন করে।

আপনি সুরক্ষার আশেপাশের গবেষণায় এটি দেখতে পারেন। যেমন আমরা আগে দেখেছিপ্রান্তিককরণ আউটপুটগুলিতে পক্ষপাতিত্বের বিতরণকে পরিবর্তন করে, নতুন, অপ্রত্যাশিত পক্ষপাত তৈরি করে যা আপনার বেসলাইন মডেল থেকে উল্লেখযোগ্যভাবে পৃথক ছিল। উদাহরণস্বরূপ এই কেস-

বেস মডেলটি আমেরিকান, ব্রিটিশ এবং জার্মান শীর্ষ তিনজনের সাথে বিস্তৃত জাতীয়তা তৈরি করে। বিপরীতে, সারিবদ্ধ মডেলটি কেবল তিনটি জাতীয়তা উত্পন্ন করে: আমেরিকান (সর্বোচ্চ শতাংশ), চীনা এবং মেক্সিকান একটি ছোট শতাংশ।“বেস মডেলটিতে সম্ভবত জার্মানি এবং ব্রিটিশদের জন্য কিছু আকর্ষণীয় প্রশিক্ষণের ডেটা রয়েছে যে সারিবদ্ধভাবে পতাকাগুলি অনিরাপদ হিসাবে রয়েছে। ভাবুন যে এটি কী হতে পারে?

আমি কখনও ব্রিটিশদের পছন্দ করে এমন কারও সাথে দেখা না করে, কেউ যুক্তি দিতে পারে যে তাদের ফেলে দেওয়া প্রান্তিককরণটি তার কাজটি করছে (যেহেতু এটি ফরাসিদেরও বাদ দিয়েছে, আমি মনে করি আমরা এজিআই অর্জন করেছি), তবে বৈচিত্র্যের নাটকীয় হ্রাস এবং ডেটা পয়েন্টগুলির পরিবর্তিত র‌্যাঙ্কিং উভয়ই অপ্রত্যাশিত। এর সবচেয়ে নাটকীয় উদাহরণ এখানে দেখানো হয়েছে- “পরিশেষে, গ্রাহক লিঙ্গ বিতরণ (চিত্র 6) দেখায় যে বেস মডেলটি প্রায় 80% পুরুষ এবং 20% মহিলা গ্রাহক উত্পন্ন করে, যখন প্রান্তিক মডেলটি প্রায় 100% মহিলা গ্রাহক উত্পন্ন করে, পুরুষদের একটি নগণ্য সংখ্যক পুরুষ সহ।

এই সমস্ত আপনাকে দেখানোর জন্য যে প্রান্তিককরণের সমস্ত ধরণের প্রভাব রয়েছে যা আমরা এখনও গভীরভাবে অন্বেষণ করি নি, এবং এটি সম্পর্কে এই অজ্ঞতা লাল-দলটিকে আরও শক্ত করে তোলে (এমন কোনও লক্ষ্যকে আঘাত করতে পারে না যা আপনি বুঝতে পারেন না)।

এটি ক্রাক্স: নিউরনগুলি আর নিরপেক্ষ নয় – প্রতিটি আপডেটের ঝুঁকি বিদ্যমান, মূল্যবান তথ্যকে ওভাররাইটিং করে, যা নেটওয়ার্ক জুড়ে অনিচ্ছাকৃত পরিণতির দিকে পরিচালিত করে। একাধিক কার্যক্রমে একটি নিউরন গুরুত্বপূর্ণ হতে পারে, সুতরাং এটি আপডেট করা অপ্রত্যাশিত ডাউন স্ট্রিমের প্রভাবের দিকে পরিচালিত করবে।

এটি বোঝা জরিমানা-টিউনিং উন্নত ভাষার মডেলগুলির লুকানো ব্যয়গুলি স্বীকৃতি দেওয়ার মূল চাবিকাঠি। আপনি যদি এডাব্লুএসে প্রচুর অর্থ বিনিয়োগ না করে থাকেন এবং আপনি তাদের স্টকটি বাড়তে চান তা নিশ্চিত করতে চান তবে আপনি আরও ভাল জিনিসগুলিতে আপনার সময় ব্যয় করা ভাল।

যদি সূক্ষ্ম-সুরকরণ ঝুঁকিপূর্ণ সমাধান হয় তবে বিকল্পটি কী? উত্তরটি মডুলারিটি এবং বৃদ্ধির মধ্যে রয়েছে। পুনরুদ্ধার-আপত্তিজনক প্রজন্ম (আরএজি), বাহ্যিক মেমরি ব্যাংক এবং অ্যাডাপ্টার মডিউলগুলির মতো কৌশলগুলি বিদ্যমান নেটওয়ার্কের জ্ঞান বেসকে ওভাররাইটিং না করে নতুন তথ্য অন্তর্ভুক্ত করার আরও দৃ ust ় উপায় সরবরাহ করে।

  • পুনরুদ্ধার-আগত প্রজন্ম (আরএজি) অনুমানের সময় গতিশীলভাবে জ্ঞান বাড়ানোর জন্য বাহ্যিক ডাটাবেসগুলি ব্যবহার করে। প্রচুর লোকেরা র্যাগ মারা গেছে বলে বোকা জিনিসগুলি ঘোষণা করে (আমরা শেষ পর্যন্ত এটি সম্বোধন করব), তবে কিউএর জন্য বড় জ্ঞানের স্টোরগুলি প্রক্রিয়াজাত করার সময় এটি এখনও সবচেয়ে নির্ভরযোগ্য কৌশল। আরও জটিল জ্ঞানের কাজের জন্য, আপনি সম্ভবত নিষ্পাপ-র্যাগের অভাব খুঁজে পাবেন, তবে আরও উন্নত পুনরুদ্ধার এবং উপস্থাপনা কৌশল রয়েছে যা আরও শক্তিশালী পারফরম্যান্স তৈরি করতে প্রয়োগ করা যেতে পারে (উদাহরণস্বরূপ, আমরা জ্ঞান গ্রাফ এবং সত্তা ভিত্তিক খণ্ডগুলি ব্যবহার করে সাধারণ খণ্ডগুলির সাথে ব্যবহার করি ব্যাপার– যা আমাদের এআইকে অনেক বড় জ্ঞানের ভিত্তি থেকে প্রসঙ্গটি টানতে দেয়)

  • অ্যাডাপ্টার মডিউল এবং লোরা (লো-র‌্যাঙ্ক অভিযোজন) বিশেষায়িত, বিচ্ছিন্ন সাবনেটওয়ার্কগুলির মাধ্যমে নতুন জ্ঞান সন্নিবেশ করুন, বিদ্যমান নিউরনগুলি অচ্ছুত রেখে। এটি ফর্ম্যাটিং, নির্দিষ্ট চেইন ইত্যাদির মতো স্টাফের জন্য সেরা- যার মধ্যে একটি সম্পূর্ণ নিউরাল নেটওয়ার্ক আপডেটের প্রয়োজন হয় না।

লোরা বনাম এলএলএমএসের জন্য সম্পূর্ণ টিউনিং। লোরা সস্তা, দ্রুত এবং সাধারণত নির্দিষ্ট পরিস্থিতিতে ডাব্লু/ও -তে পারফরম্যান্সের সাথে মেলে ধ্বংসাত্মক হস্তক্ষেপের কারণ।

ভাল প্রম্পটগুলি এলএলএমকে আশেপাশের অঞ্চলে রাখে যা ভাল উত্তরের দিকে পরিচালিত করে। এটি একটি দক্ষতা, ভাগ্য নয়, এমনকি এলএলএমগুলি অ-ডিটারমিনিস্টিক।

এই কৌশলগুলি নিউরনগুলি সত্যিকার অর্থে কী তা স্বীকৃতি দেয়: সীমাবদ্ধ, মূল্যবান এবং ঘন প্যাকযুক্ত সংস্থানগুলি যখনই সম্ভব সম্ভব অক্ষত থাকে। আরও অনেক আছে যা আমরা গভীরভাবে cover েকে রাখব এআই সহজ তৈরিতবে এই 3 টি এমন কৌশল যা বেশিরভাগ দল বিস্তৃত এআই দক্ষতা ছাড়াই শুরু করতে সক্ষম হবে (লোরার এখন দিনগুলির মতো স্টাফের জন্য ফ্রেমওয়ার্ক/পরিষেবা রয়েছে এবং খুব জটিল রাগের জন্য সেটআপ/টিউনিং প্রয়োজন, বেসিকগুলি এখন খুব বেশি বেরিয়ে আসার জন্য)।

ফাইন-টিউনিং জ্ঞান ইনজেকশন নয়-এটি জ্ঞান ওভাররাইট। উন্নত এলএলএমগুলির জন্য, নিউরনগুলি আর নিরপেক্ষ স্থানধারক নয়; তারা অত্যন্ত বিশেষায়িত, মূল্যবান তথ্যের ঘন আন্তঃসংযুক্ত সংগ্রহস্থল। অযত্নে তাদের আপডেট করা বিপর্যয়কর, অদৃশ্য ক্ষতির ঝুঁকিপূর্ণ।

যদি আপনার লক্ষ্যটি অভিযোজ্য, স্কেলযোগ্য এবং শক্তিশালী সিস্টেমগুলি তৈরি করা হয় তবে এটি উপযুক্ত সাবধানতার সাথে সূক্ষ্ম-সুরকরণকে চিকিত্সা করুন। মডুলার সমাধানগুলি আলিঙ্গন করুন (সফ্টওয়্যার নীতিগুলি কেবল বি/সি আমরা এআই -তে কাজ করছি) যা আপনার নেটওয়ার্কের ভিত্তিগত জ্ঞানের অখণ্ডতা বজায় রাখে। অন্যথায়, আপনি কেবল আপনার সাবধানে নির্মিত জ্ঞান বাস্তুসংস্থানকে ভেঙে ফেলছেন – একবারে একটি নিউরন।

এখানে থাকার জন্য আপনাকে ধন্যবাদ, এবং আমি আশা করি আপনার একটি দুর্দান্ত দিন কাটবে।

আপনার যদি জ্বলতে প্রচুর অর্থ থাকে তবে আসুন বাজার গবেষণার পরিবর্তে কেবল ভেগাসে যাই

দেব ❤

আমি এই নিউজলেটারটি লেখার জন্য অনেক কাজ করেছি। এটি করার জন্য, আমি আপনার সমর্থনের জন্য নির্ভর করি। যদি আরও কয়েকজন লোক অর্থ প্রদানের গ্রাহক হয়ে উঠতে পছন্দ করে তবে চকোলেট মিল্ক কাল্টটি যার প্রয়োজন তাদের উচ্চমানের এবং অ্যাক্সেসযোগ্য শিক্ষা এবং সুযোগগুলি সরবরাহ করতে পারে। আপনি যদি মনে করেন যে এই মিশনটি অবদান রাখার মতো, দয়া করে একটি প্রিমিয়াম সাবস্ক্রিপশন বিবেচনা করুন। আপনি নেটফ্লিক্স সাবস্ক্রিপশনের ব্যয়ের চেয়ে কমের জন্য এটি করতে পারেন (আপনি এখানে যা চান তা প্রদান করুন)

সাবস্ক্রাইব করুন

আপনি যদি এই নিবন্ধটি পছন্দ করেন এবং এটি ভাগ করে নিতে চান তবে দয়া করে নিম্নলিখিত নির্দেশিকাগুলি দেখুন।

এটি এই টুকরা জন্য। আমি আপনার সময় প্রশংসা। বরাবরের মতো, আপনি যদি আমার সাথে কাজ করতে বা আমার অন্যান্য কাজটি পরীক্ষা করতে আগ্রহী হন তবে আমার লিঙ্কগুলি এই ইমেল/পোস্টের শেষে থাকবে। এবং যদি আপনি এই লেখার জন্য মূল্য খুঁজে পান তবে আমি আপনাকে আরও বেশি লোকের সাথে ভাগ করে নেওয়ার প্রশংসা করব। এটি আপনার মতো মুখের রেফারেলগুলি যা আমাকে বাড়তে সহায়তা করে। প্রশংসাপত্রগুলি ভাগ করার সর্বোত্তম উপায় হ’ল নিবন্ধগুলি ভাগ করে নেওয়া এবং আমাকে আপনার পোস্টে ট্যাগ করা যাতে আমি এটি দেখতে/ভাগ করতে পারি।

ভাগ

আমার অন্যান্য সামগ্রীটি পরীক্ষা করতে, টিউটরিং সম্পর্কে আরও শিখতে, প্রকল্পগুলি সম্পর্কে আমার কাছে পৌঁছাতে বা কেবল হাই বলার জন্য নীচের লিঙ্কগুলি ব্যবহার করুন।

প্রযুক্তি, এআই এবং মেশিন লার্নিং সম্পর্কে এখানে ছোট স্নিপেটগুলি

এআই নিউজলেটার- https://artificialinteligencemadesimple.substack.com/

আমার ঠাকুরমার প্রিয় টেক নিউজলেটার- https://codinginterviewsmadesimple.substack.com/

আমার (কাল্পনিক) বোনের প্রিয় মাইলপস পডকাস্ট-

মিডিয়ামে আমার অন্যান্য নিবন্ধগুলি দেখুন। :: https://rb.gy/zn1aiu

আমার ইউটিউব: https://rb.gy/88iwdd

লিংকডইনে আমার কাছে পৌঁছান। আসুন সংযোগ করা যাক: https://rb.gy/m5ok2y

আমার ইনস্টাগ্রাম: https://rb.gy/gmvuy9

আমার টুইটার:



Source link