But what is a GPT?
GPT কী?
GPT মানে হলো Generative Pre-trained Transformer। এটি একটি AI মডেল যা টেক্সট তৈরি করতে পারে। কিন্তু এটি আসলে কীভাবে কাজ করে?
১. মূল কাজ — “পরবর্তী শব্দ অনুমান করা”
GPT-এর মূল কাজ অত্যন্ত সরল:
একটি বাক্যের পরে কোন শব্দটি আসবে, তা অনুমান করা।
উদাহরণ: “আকাশ নীল কারণ…” — এর পরে কী আসবে? GPT সম্ভাব্য সব শব্দের একটি probability distribution তৈরি করে এবং সবচেয়ে উপযুক্ত শব্দটি বেছে নেয়।
২. Tokenization — শব্দকে সংখ্যায় রূপান্তর
কম্পিউটার সরাসরি শব্দ বোঝে না। তাই প্রতিটি শব্দ বা শব্দের অংশকে token নামক সংখ্যায় ভাঙা হয়।
যেমন: "playing" → ["play", "ing"] → [1234, 5678]
৩. Embedding — টোকেনকে গাণিতিক স্থানে রাখা
প্রতিটি token-কে একটি vector (বহুমাত্রিক সংখ্যার তালিকা) হিসেবে উপস্থাপন করা হয়। এই ভেক্টর-স্থানে অর্থের মিল থাকলে, ভেক্টরগুলোও কাছাকাছি থাকে।
যেমন: “রাজা” − “পুরুষ” + “নারী” ≈ “রানী”
৪. Attention Mechanism — কোন শব্দটি গুরুত্বপূর্ণ?
এটি Transformer-এর সবচেয়ে গুরুত্বপূর্ণ অংশ।
“The animal didn’t cross the street because it was too tired.”
এখানে “it” বলতে কাকে বোঝানো হচ্ছে? “animal”-কে, নাকি “street”-কে?
Attention Mechanism ঠিক এই কাজটি করে — প্রতিটি শব্দ বাক্যের অন্য কোন কোন শব্দের দিকে “মনোযোগ দেবে” তা নির্ধারণ করে।
Query, Key, Value — এই তিনটি ম্যাট্রিক্সের মাধ্যমে প্রতিটি token অন্য সব token-এর সাথে তার সম্পর্ক নির্ণয় করে।
৫. Multi-Head Attention — একসাথে অনেক দৃষ্টিভঙ্গি
একটি মাত্র attention নয়, GPT একসাথে অনেকগুলো attention head চালায়। প্রতিটি head ভিন্ন ধরনের সম্পর্ক ধরে:
একটি head হয়তো ব্যাকরণের সম্পর্ক বোঝে
আরেকটি হয়তো অর্থের সম্পর্ক বোঝে
আরেকটি হয়তো দূরত্বের সম্পর্ক বোঝে
৬. Feed-Forward Layer — জ্ঞান সংরক্ষণ
Attention-এর পর প্রতিটি token একটি Feed-Forward Neural Network-এর মধ্য দিয়ে যায়। এখানে মডেলের “শেখা জ্ঞান” সংরক্ষিত থাকে। এটি অনেকটা একটি বিশাল তথ্যকোষের মতো।
৭. Layer-এর পর Layer — গভীরতা
GPT-তে এই পুরো প্রক্রিয়া (Attention + Feed-Forward) বহুবার পুনরাবৃত্তি হয়। প্রতিটি layer আগের layer-এর উপর ভিত্তি করে আরও জটিল প্যাটার্ন বোঝে।
৮. Pre-training — ইন্টারনেট পড়ে শেখা
GPT ট্রেনিং-এ ইন্টারনেটের বিশাল পরিমাণ টেক্সট পড়ে। লক্ষ লক্ষ বার “পরবর্তী শব্দ অনুমান” করতে করতে এটি ভাষা, তথ্য, যুক্তি সবকিছু শিখে যায়।
সারসংক্ষেপ
GPT আসলে একটি অত্যন্ত জটিল “পরবর্তী শব্দ অনুমানকারী যন্ত্র” — কিন্তু লক্ষ কোটি প্যারামিটার এবং গভীর গাণিতিক কাঠামোর কারণে এটি মানুষের মতো কথা বলতে, যুক্তি দিতে এবং সমস্যা সমাধান করতে পারে।
Tokenization-> শব্দ → সংখ্যা
Embedding-> সংখ্যা → ভেক্টর
Attention-> কোন শব্দ কার সাথে সম্পর্কিত
Feed-Forward-> জ্ঞান প্রয়োগ
Output-> পরবর্তী শব্দের সম্ভাবনা
Comments (0)
Login to leave a comment.