কৃত্রিম বুদ্ধিমত্তা
ডিপ লার্নিং যেভাবে বদলে দিয়েছে এআই জগৎ
ডিপ লার্নিং। এই বিশেষ ধরনের অ্যালগরিদম বদলে দিয়েছে কৃত্রিম বুদ্ধিমত্তার খোলনলচে। এর শুরুটা হয়েছিল সেই ইমেজনেট তৈরির পরপর।
ইমেজনেটের মতো অসংখ্য ছবির তথ্যভান্ডার তৈরির ফলে কৃত্রিম বুদ্ধিমত্তা বা এআই তৈরির জন্য তথ্যের যে ঘাটতি ছিল, তার সমাধান হয়ে গেল। এখন প্রয়োজন ছবিগুলোকে নির্ভুলভাবে শনাক্ত করতে পারবে, এমন পদ্ধতি বা প্রযুক্তি। এই উদ্দেশ্যেই বিজ্ঞানীরা একটি প্রতিযোগিতা আয়োজন করেন, যেন এর মাধ্যমে ভালো কোনো পদ্ধতি খুঁজে পাওয়া যায়। ২০১২ সালের ৩০ সেপ্টেম্বর, ইমেজনেটের সেই প্রতিযোগিতায় একটি বিশেষ পদ্ধতি (অ্যালগরিদম) বিজয়ী হলো। সেই প্রযুক্তিই ডিপ লার্নিং। আজ থাকছে এই প্রযুক্তি তৈরির ঘটনা। সঙ্গে জানবেন, কীভাবে এই প্রযুক্তি বদলে দিয়েছে কৃত্রিম বুদ্ধিমত্তার রূপরেখা।
আজ আমরা প্রতিদিন এমন সব প্রযুক্তি ব্যবহার করছি, যেগুলো আমাদের কথা বুঝতে পারে, ছবি চিনতে পারে। এমনকি আমাদের চেয়েও দ্রুত জটিল সব সমস্যার সমাধান করতে পারে। এই সবকিছুর পেছনে আছে বিশেষ এক প্রযুক্তি—ডিপ লার্নিং। এই প্রযুক্তির পেছনের গল্প জানতে আমাদের একটু পেছনে ফিরতে হবে। চলুন, আপনাদের নিয়ে যাই ১৯৮০-এর দশকে।
কৃত্রিম বুদ্ধিমত্তা গবেষণা তখন বেশ কঠিন সময় পার করছে। এই কাজে তেমন কোনো অর্থ বিনিয়োগ পাওয়া যেত না, তাই বিজ্ঞানীরা এই বিষয়ে গবেষণায় তেমন আগ্রহী হতেন না। গবেষণার জন্য পিএইচডিতে নতুন শিক্ষার্থী পাওয়া যেত না। সেই সময় এক সন্ধ্যায়, কেমব্রিজ শহরের এক গবেষণাগারে বসে জিওফ্রি হিন্টন গভীর চিন্তায় ডুবে ছিলেন। এই মানুষটিই আমাদের আজকের গল্পের নায়ক। কৃত্রিম বুদ্ধিমত্তার অন্যতম গুরুত্বপূর্ণ প্রযুক্তি নিউরাল নেটওয়ার্ক নিয়ে গবেষণা করতেন তিনি। চারপাশের পরিবেশ বেশ নির্জন, গবেষণাগারগুলো প্রায় ফাঁকা হয়ে পড়ছে। হিন্টন জানালা দিয়ে অন্ধকার আকাশের দিকে তাকিয়ে নিজেকে প্রশ্ন করলেন, ‘আমরা সবাই কি ভুল করছি? যন্ত্র কি আসলেই শিখতে পারবে?’ পরক্ষণেই তাঁর মনে পড়ল মানুষের মস্তিষ্কের কথা। তিনি মনে মনে নিজেকে বললেন, ‘মানুষের মস্তিষ্ক যদি পারে, তবে একদিন না একদিন যন্ত্রও পারবে। নিউরাল নেটওয়ার্ক দিয়েই এ কাজ করা যাবে।’
সেই সময়ে নিউরাল নেটওয়ার্কের কঠিন বেশ কজন সমালোচক ছিলেন। এর মধ্যে মার্ভিন মিনস্কি ও সিমুর পাপার্ট ছিলেন অন্যতম। তাঁরা দাবি করতেন, নিউরাল নেটওয়ার্ক খুব সীমাবদ্ধ, এটি বড় বা জটিল সমস্যা সমাধানে অক্ষম। এই সমালোচনা হিন্টনের জেদ আরও বাড়িয়ে দিল। কারণ তিনি বিশ্বাস করতেন, সমস্যার মূল সমাধান লুকিয়ে আছে আরও গভীরতর নেটওয়ার্কে। তিনি ঠিক করলেন, হাল ছাড়বেন না। আরও গভীরে অনুসন্ধান করবেন।
১৯৮৭ সালের দিকে মার্কিন যুক্তরাষ্ট্রে সেই সময় কৃত্রিম বুদ্ধিমত্তা গবেষণার অর্থ আসত মূলত ডারপার মতো সামরিক সংস্থা থেকে। কিন্তু রাজনৈতিক সমস্যা ও কেলেঙ্কারি নিয়ে যুক্তরাষ্ট্রের আচরণ ছিল প্রশ্নবিদ্ধ
কীভাবে করা যায়? হিন্টন ভাবলেন, মানুষের মস্তিষ্ক তো অসংখ্য স্তরীভূত নিউরন দিয়ে গঠিত। যদি একাধিক স্তরের নিউরাল নেটওয়ার্ক তৈরি করা যায়, তাহলে জটিল সমস্যা সমাধান করা হয়তো সম্ভব। কিন্তু প্রশ্ন হলো, এই বহুস্তরের নেটওয়ার্ককে প্রশিক্ষণ দেবেন কীভাবে? তখনকার দিনে একাধিক স্তরের নিউরাল নেটওয়ার্ককে কার্যকরভাবে শেখানোর পদ্ধতি ছিল অজানা। এক স্তরের নিউরাল নেটওয়ার্ককে প্রশিক্ষণ দেওয়ার পদ্ধতি জানা ছিল, কিন্তু বেশি স্তর হলে কোন ভুলের জন্য নেটওয়ার্কের কোন অংশ দায়ী, তা বের করে সমন্বয় করার কাজটি ছিল রীতিমতো জটিল। কারণ, প্রতিটি স্তর শেষে যে আউটপুটটি দেয়, তার ওপর নির্ভর করে পরের স্তরগুলোর আউটপুট। এই আউটপুটকে ইংরেজিতে বলা হয় ‘ওয়েট’, বাংলায় ‘ওজন’ বলা যায়, তবে আমরা ওয়েটই বলব। এটি আসলে ওজনই বোঝায়—অর্থাৎ ওই স্তরের নেটওয়ার্কটিতে একটি নিউরনের আউটপুট অন্য নিউরনের ইনপুটে কতটা প্রভাব রাখবে, অর্থাৎ সেটা কতটা ‘ওজনদার’, সেটাই বোঝানো হয় এই আউটপুট সংখ্যাটি দিয়ে।
ক্যালিফোর্নিয়ার সান দিয়েগোতে হিন্টনের দেখা হলো ডেভিড রুমেলহার্ট নামে এক প্রগতিশীল মনোবিজ্ঞানীর সঙ্গে। রুমেলহার্ট মানুষের মনে তথ্যপ্রক্রিয়ার মডেল নিয়ে কাজ করছিলেন। তিনিও বিশ্বাস করতেন, মানুষের মস্তিষ্কের মতো করেই যন্ত্রকে শিখতে হবে। হিন্টন তাঁর গবেষক দলে যোগ দিলেন। তাঁদের সঙ্গে ছিলেন আরেক তরুণ বিজ্ঞানী—রোনাল্ড উইলিয়ামস। একসঙ্গে তাঁরা বহুস্তরবিশিষ্ট নেটওয়ার্ককে কীভাবে শেখানো যায়, সেই ধাঁধার সমাধান খুঁজতে লাগলেন।
একদিন রুমেলহার্ট আলোচনায় বললেন, ‘আমরা জানি, মানুষ ভুল থেকে শেখে। যন্ত্রও কি ভুল থেকে শিখতে পারে না?’ এই কথায় হিন্টনের মনে নতুন ভাবনা এল—যদি আউটপুটের ভুল ধরে, পেছনের স্তরগুলোর ওজনগুলো বদলানো যায়, তাহলে নেটওয়ার্ক নিজেই নিজের ভুল সংশোধন করতে পারবে। (বিস্তারিত জানতে পড়ুন: কৃত্রিম বুদ্ধিমত্তার জন্ম: ভুল থেকে শেখা শুরু)। এই ধারণা থেকেই জন্ম নিল বিখ্যাত ‘ব্যাকপ্রোপাগেশন’ (Backpropagation) পদ্ধতি। এই কৌশল ব্যবহার করে কম্পিউটার প্রথমে ভুল করলেও, পরে সেই ভুল বিশ্লেষণ করে নিজেই সংশোধন করে। ১৯৮৬ সালে তাঁরা এই যুগান্তকারী ফলাফল প্রকাশ করেন। এর মাধ্যমে সূচনা হয় বহুস্তরের নিউরাল নেটওয়ার্ককে শেখানো।
এর আগে নিউরাল নেটওয়ার্ক ছিল সীমাবদ্ধ এবং অগভীর। কিন্তু ব্যাকপ্রোপাগেশন সেই সমস্যার সমাধান দিল। এই অ্যালগরিদমের মাধ্যমে নেটওয়ার্ক তার ভুলগুলোর জন্য দায়ী স্তরগুলোকে চিহ্নিত করে ওয়েটগুলো পেছনের দিকে সামঞ্জস্য করতে পারত, ফলে সহজ হয়ে গেল জটিল প্যাটার্ন শেখা। এই গবেষণা নিউরাল নেটওয়ার্কের জন্য নতুন এক অধ্যায়ের সূচনা করে।
১৯৮৭ সালের দিকে মার্কিন যুক্তরাষ্ট্রে সেই সময় কৃত্রিম বুদ্ধিমত্তা গবেষণার অর্থ আসত মূলত ডারপার মতো সামরিক সংস্থা থেকে। কিন্তু রাজনৈতিক সমস্যা ও কেলেঙ্কারি নিয়ে যুক্তরাষ্ট্রের আচরণ ছিল প্রশ্নবিদ্ধ। হিন্টনের স্ত্রী রোজ তখন তাঁকে বলেন, ‘আমি আর আমেরিকায় থাকতে পারব না।’ তখনকার রাজনৈতিক পরিবেশ, সামরিক অর্থায়নের প্রতি বিতৃষ্ণা, এবং পারিবারিক চাপ—এই সবকিছু মিলে হিন্টন কানাডার টরন্টো বিশ্ববিদ্যালয়ে যোগ দেন। সেখানে তিনি ‘লার্নিং ইন মেশিনস অ্যান্ড ব্রেনস’ নামে এক নতুন গবেষণা কার্যক্রম শুরু করেন।
টরন্টোতে আসার কিছু বছর পর হঠাৎ করেই তাঁর স্ত্রী ওভারিয়ান ক্যান্সারে আক্রান্ত হন। হিন্টন তখন ভাবতে শুরু করেন গবেষণা ছেড়ে দেবেন, কারণ তাঁকে সন্তানের দেখাশোনা করতে হবে। তিনি বলতেন, ‘আমি চিন্তা করে সময় কাটাতে অভ্যস্ত ছিলাম।’ স্ত্রী মারা যাওয়ার পর তাঁর গবেষণা জীবন পুরোপুরি থমকে যায়। পরে আবার পুরোনো এক ভালোবাসার মানুষ—ব্রিটিশ আর্ট হিস্টোরিয়ান জ্যাকি ফোর্ড—তাঁর জীবনে ফিরে আসেন এবং তাঁকে বাঁচিয়ে তোলেন, আবার ফেরান গবেষণার জগতে।
সেই সময়ে টরন্টোতে কৃত্রিম বুদ্ধিমত্তা গবেষকদের কমিউনিটিটি ছোট হলেও বেশ শক্তিশালী ছিল। হিন্টনের অফিসটি ছিল ইউনিভার্সিটি অব টরন্টোর কম্পিউটার সায়েন্স বিল্ডিংয়ের কোণে—যেখানে ঠান্ডা জানালাগুলো সব সময় উষ্ণতা শুষে নিত, কিন্তু তাঁর প্রাণবন্ততা আর রসবোধে অফিস গমগম করত। শিক্ষার্থীরা লাইন দিয়ে দাঁড়িয়ে থাকত তাঁর দরজার বাইরে। অনেকে বলত, ‘জিওফ্রি মানুষদের সফল করে তোলেন।’
যদিও ব্যাকপ্রোপাগেশনকে হিন্টন ও তাঁর সহকর্মীরা জনপ্রিয় করে তোলেন, তবে এটি তাঁদের মৌলিক আবিষ্কার ছিল না। সেপ্পো লিন্নাইনমাও ১৯৭০ সালে রিভার্স-মোড অটোমেটিক ডিফারেনসিয়েশন নামে একটি পদ্ধতি প্রস্তাব করেছিলেন। আর পল ওয়ার্বোস ১৯৭৪ সালে এটি নিউরাল নেটওয়ার্ক প্রশিক্ষণে ব্যবহার করার প্রস্তাব দিয়েছিলেন। তবে হিন্টন, রুমেলহার্ট এবং উইলিয়ামসের কাজ এই ধারণাকে মূলধারায় নিয়ে আসে। ইঞ্জিনিয়ারিং ও গবেষণার পর হিন্টন এবং তাঁর দল দেখালেন, এই নেটওয়ার্কগুলো ডেটা থেকে উপযোগী অভ্যন্তরীণ উপস্থাপনা শিখতে পারে। বাস্তব জগতের সমস্যা সমাধানে এর ব্যবহার দেখে অনেকেই উৎসাহিত হন।
কানাডার তুষারঢাকা শীত উপেক্ষা করে হিন্টন নতুন উদ্যমে কাজে ঝাঁপিয়ে পড়লেন। তাঁর জন্য এটি ছিল এক নতুন অধ্যায়ের শুরু। আশির দশকের শেষে পরিবারসহ টরন্টো শহরে থিতু হয়ে তিনি অনুভব করলেন, এখানকার প্রশান্ত পরিবেশে হয়তো গবেষণার দীর্ঘমেয়াদি পরিকল্পনা বাস্তবায়ন সহজ হবে। টরন্টোতে হিন্টন একটি ছোট দল গড়ে তুললেন। এ দলের সব সদস্য গভীরভাবে বিশ্বাস করতেন, নিউরাল নেটওয়ার্কই ভবিষ্যতের চাবিকাঠি। সেই দলে এক সময় যোগ দিলেন ফ্রান্সের মেধাবী তরুণ ইয়ান লেকুন, যিনি হিন্টনের তত্ত্বাবধানে পোস্টডক্টরাল গবেষণা করতে এলেন। ইয়ান লেকুন শিখছিলেন, কীভাবে ছবির ভেতর থেকে প্যাটার্ন চিনতে নিউরাল নেটওয়ার্ক ব্যবহার করা যায়। অন্যদিকে কানাডায় জন্ম নেওয়া আরেক মেধাবী গবেষক ইয়শুয়া বেঙ্গিও হিন্টনের গবেষণায় অনুপ্রাণিত হয়ে মন্ট্রিয়লে একই ধরনের কাজ শুরু করলেন। হিন্টন, লেকুন আর বেঙ্গিও—তিনজন ভিন্ন পথ থেকে এলেও তাঁদের লক্ষ্য এক ছিল: যন্ত্রকে আরও গভীরভাবে শেখার ক্ষমতা দেওয়া।
নব্বইয়ের দশকে নিউরাল নেটওয়ার্ক কিছু বাস্তব সাফল্য পেতে শুরু করে। ইয়ান লেকুন ও তাঁর সহকর্মীরা কনভোলুশ্যনাল নিউরাল নেটওয়ার্ক বা সিএনএন নামে বিশেষ এক আর্কিটেকচার বা মডেল উদ্ভাবন করলেন
স্ত্রীর মৃত্যু হিন্টনকে গভীরভাবে নাড়া দিলেও নিজের দুই সন্তানের দায়িত্ব এবং গবেষণার প্রতি ভালোবাসা—দুইই তাঁকে কঠিন সময়ে এগিয়ে নিয়েছিল। সন্ধ্যায় বাড়ি ফিরে ছোট ছেলের প্রশ্নের উত্তর দেওয়ার চেষ্টা করতেন হিন্টন।
ছেলে জিজ্ঞাসা করত, ‘বাবা, তুমি কী নিয়ে কাজ করো?’
হিন্টন হেসে বলতেন, ‘তুমি যেভাবে শেখো, সেভাবেই আমি কম্পিউটারকে শেখানোর চেষ্টা করছি। যেমন ধরো, তুমি কীভাবে নতুন কিছু শিখে নাও?’
শিশুটি বলত, ‘আমি তোমার কাছ থেকে শিখি বা বই পড়ে শিখি।’
হিন্টন বোঝাতেন, ‘ঠিক তাই। আমি একটা যন্ত্র বানাচ্ছি, যে আমাদের মতো বই পড়ে বা উদাহরণ দেখে শিখতে পারবে।’
সন্তানের বিস্ময়মাখা মুখ দেখে হিন্টন আরও যোগ করতেন, ‘একদিন কম্পিউটারও তোমার মতো প্রশ্ন বুঝতে পারবে আর উত্তর দিতে পারবে।’
ছেলেটি খুশি মুখে বলত, ‘অসাধারণ!’
এই সরল কথোপকথন হিন্টনকে আরও অনুপ্রাণিত করত। তিনি অনুভব করতেন, যদি শিশুরাও বিষয়টা বুঝতে পারে, তবে তা বাস্তবেও ঘটানো সম্ভব।
নিউরাল নেটওয়ার্কের প্রথম বাণিজ্যিক সাফল্য: LeNet (১৯৯০-এর দশক)
নব্বইয়ের দশকে নিউরাল নেটওয়ার্ক কিছু বাস্তব সাফল্য পেতে শুরু করে। ইয়ান লেকুন ও তাঁর সহকর্মীরা কনভোলুশ্যনাল নিউরাল নেটওয়ার্ক বা সিএনএন (CNN) নামে বিশেষ এক আর্কিটেকচার বা মডেল উদ্ভাবন করলেন। এই নেটওয়ার্কে একাধিক স্তরে ছবি বিশ্লেষণ করা হয়। প্রথম স্তরে ছোট ছোট অংশ থেকে প্রাথমিক বৈশিষ্ট্য (যেমন রেখা বা ধারা) শনাক্ত হয়, ধাপে ধাপে পরের স্তরগুলো সেই তথ্য ব্যবহার করে বড় আকৃতি এবং শেষে পুরো অক্ষর বা সংখ্যা চিনতে পারে। এতে কম্পিউটার হাতের লেখা চেনার ক্ষমতা পেল, এবং সিএনএন মডেল দ্রুত এ ক্ষেত্রে নিজের দক্ষতা প্রমাণ করল। মার্কিন ডাক বিভাগ লেকুনের তৈরি এই প্রযুক্তি পরীক্ষা করে দেখল, যন্ত্র স্বয়ংক্রিয়ভাবে চিঠির খামের ওপর লেখা হাতের লেখা (জিপ কোড) পড়তে পারছে! এটি ছিল নিউরাল নেটওয়ার্কের প্রথমদিককার অন্যতম বাণিজ্যিক সাফল্য। এতে প্রমাণ হলো, বাস্তব জগতে এই প্রযুক্তি কাজে লাগতে পারে। (বিস্তারিত পড়ুন: কৃত্রিম বুদ্ধিমত্তার অগ্রদূত ইয়ান লেকুনের সিএনএন)।
তবু নব্বইয়ের দশকের মাঝামাঝি সময়ে এসে অনেক গবেষক মনে করতে লাগলেন, নিউরাল নেটওয়ার্ক হয়তো তার চূড়ান্ত সীমায় পৌঁছে গেছে। খুব বেশি স্তর বা খুব জটিল নেটওয়ার্ক তখনো সেভাবে কাজ করছিল না, কারণ প্রশিক্ষণের জন্য প্রয়োজনীয় কম্পিউটার শক্তি ও বিপুল পরিমাণ তথ্য তখনো ছিল সীমিত। এর পাশাপাশি মেশিন লার্নিংয়ের জগতে বিকল্প পদ্ধতিগুলোও জনপ্রিয়তা পাচ্ছিল—উদাহরণ হিসেবে বলা যায়, পরিসংখ্যানভিত্তিক অ্যালগরিদম ও অন্যান্য কৌশল—যেমন ডিসিশন ট্রি, সাপোর্ট ভেক্টর মেশিন ইত্যাদি। ধীরে ধীরে অনেকে ভাবলেন, নিউরাল নেটওয়ার্ক ভালো বিষয়, তবে এর মাধ্যমেই সব সমস্যার সমাধান হবে, তা নয়। ফলে এই গবেষণাক্ষেত্রটি আবার কিছুটা কোণঠাসা হয়ে পড়ে। হিন্টন এবং তাঁর ঘনিষ্ঠ কয়েকজন সহকর্মী ও শিক্ষার্থীই শুধু বিষয়টি নিয়ে গবেষণা করতেন। তাঁরা হাল ছাড়লেন না। তাঁদের দৃঢ়বিশ্বাস ছিল, আরও গভীর এবং শক্তিশালী নেটওয়ার্ক একদিন অবশ্যই আরও ভালো ফল দেখাবে, শুধু সঠিক উপায়টা খুঁজে বের করতে হবে।
গভীর এক রাতে কম্পিউটারের পর্দার দিকে তাকিয়ে হিন্টন দেখলেন, বহু স্তরের একটি জটিল নেটওয়ার্ক সঠিকভাবে শিখে চলেছে। এতদিন ধরে যা প্রায় অসম্ভব মনে হয়েছিল, তা সম্ভব হওয়ার ইঙ্গিত স্পষ্ট।
ছোট এই গবেষকদলের সদস্যরা নিজেরাই নিজেদের উৎসাহ দিয়ে এই ক্ষেত্রে গবেষণা চালিয়ে গেছেন। অনেকটা রবীন্দ্রনাথের সেই কবিতার মতন—যদি তোর ডাক শুনে কেউ না আসে, তবে একলা চলো রে। হিন্টন যখনই ইয়শুয়া বেঙ্গিও এবং ইয়ান লেকুনের সঙ্গে দেখা করতেন, তাঁরা পরস্পরকে বলতেন, ‘আরেকটু চেষ্টা করে দেখি, আমরা ঠিক বড় সাফল্য পাব।’ হিন্টন ক্লাস বা সেমিনারে মাঝেমধ্যে শিক্ষার্থীদের মজা করে বলতেন, ‘দেখবে, একদিন ডিপ নিউরাল নেটওয়ার্ক নিজেই সব শিখে নেবে!’ তখন অনেকে সন্দেহের দৃষ্টিতে তাকাত, কিন্তু হিন্টনের চোখে তখনো দেখা যেত স্বপ্নের দীপ্তি।
সময় গড়িয়ে ২০০০ সালের কাছাকাছি এল। ইন্টারনেটের ব্যাপক বিস্তার আর ডিজিটাল যুগের সূচনার ফলে ডেটার প্রাচুর্য বেড়ে গেল, কম্পিউটার প্রসেসরগুলোর ক্ষমতাও বাড়তে লাগল। এতদিন নিউরাল নেটওয়ার্কের যা যা প্রয়োজন ছিল, প্রচুর তথ্য আর শক্তিশালী গণনার ক্ষমতা—তা এবার হয়ে উঠল বাস্তব। ক্ষেত্র প্রস্তুত।
কানাডিয়ান ইনস্টিটিউট ফর অ্যাডভান্সড রিসার্চ থেকে খুব সামান্য গবেষণা ফান্ড পেতেন হিন্টন। তিনি বুঝতে পারলেন, হয়তো এবার সেই পুরাতন বাধাগুলো কাটানোর সময় এসেছে। তিনি এবং অন্য কয়েকজন গবেষক নতুন কৌশল নিয়ে পরীক্ষা-নিরীক্ষা শুরু করলেন—কীভাবে অনেকগুলো লেয়ার বা স্তর দিয়ে নেটওয়ার্ক বানিয়ে তাকে আরও কার্যকরভাবে শেখানো যায়। এই প্রচেষ্টার ফসল হিসেবে ২০০৬ সালে হিন্টন ও তাঁর দলের গবেষকরা উপস্থাপন করলেন ‘ডিপ বিলিভ নেটওয়ার্ক’ নামে একটি ধারণা। এই পদ্ধতিতে নেটওয়ার্ককে একবারে সবগুলো স্তর একসঙ্গে শেখানোর বদলে, পর্যায়ক্রমে এক স্তর এক স্তর করে শেখানো হয়। প্রথমে মূল তথ্যভান্ডার বা ডেটাবেস থেকে এটি বৈশিষ্ট্য বের করে নেয় প্রথম স্তরে। এটিকে একধরনের স্বশিক্ষণ বলে। প্রযুক্তিবিদদের ভাষায় একে বলে, আনসুপারভাইজড প্রি-ট্রেইনিং। এরপরে সেই জ্ঞান ব্যবহার করে এর পরের স্তরটি শেখে, এভাবে ক্রমে ওপরের স্তরগুলো শিখতে থাকে। সবশেষে পুরো নেটওয়ার্কটিকে একটু ফাইন টিউন করে আরও উন্নত করা হয়। এই পদ্ধতিতে ফলাফল হয় চমকপ্রদ। এতদিন যে একাধিক স্তরের নেটওয়ার্ককে প্রশিক্ষণ দেওয়া অসম্ভব মনে হচ্ছিল, তা সম্ভব হতে শুরু করে।
অতঃপর গভীর এক রাতে কম্পিউটারের পর্দার দিকে তাকিয়ে হিন্টন দেখলেন, বহু স্তরের একটি জটিল নেটওয়ার্ক সঠিকভাবে শিখে চলেছে। এতদিন ধরে যা প্রায় অসম্ভব মনে হয়েছিল, তা সম্ভব হওয়ার ইঙ্গিত স্পষ্ট। সহকর্মীদের চোখে-মুখেও ফুটে উঠল উচ্ছ্বাসের ঝলক। হয়তো তিনি শান্ত স্বভাবের মানুষ, কিন্তু সে মুহূর্তে তাঁর মুখে হাসি ফুটল—বহু বছরের অন্ধকার কাটতে শুরু করেছে।
হিন্টনের এই সাফল্যের খবর দ্রুতই সারা বিশ্বের গবেষক মহলে ছড়িয়ে পড়ল। ইয়শুয়া বেঙ্গিও নিজেও মন্ট্রিয়লে তাঁর দলের সঙ্গে মিলিয়ে-মিলিয়ে এমন গভীর বা ডিপ নেটওয়ার্ক প্রশিক্ষণের পদ্ধতি আবিষ্কার করে সফলতা অর্জন করেন। ভিন্ন ল্যাবে একই ধরনের সাফল্য প্রমাণ করল, এই পন্থায় সত্যিই কাজ হবে। ‘ডিপ লার্নিং’ নামটি তখন ধীরে ধীরে সবার মুখে মুখে ফিরতে শুরু করেছে।
২০০৬ সালে জিওফ্রি হিন্টন ও তাঁর টিম বিশ্বখ্যাত নেচার জার্নালে ‘ডিপ বিলিভ নেটওয়ার্ক’ বা ‘ডিবিএন’ ধারণাটি প্রকাশ করে। এটি ছিল এক যুগান্তকারী সাফল্য। এতদিন যে একাধিক স্তরের নেটওয়ার্কে প্রশিক্ষণ দেওয়া অসম্ভব মনে হতো, ডিবিএন-এর স্তর ধরে ধরে শেখানোর মাধ্যমে তা সম্ভব হলো। এই পদ্ধতিতে নেটওয়ার্ক প্রথমে প্রাথমিক স্তরগুলোতে নিজেই বৈশিষ্ট্য শিখে নিত, এরপর ধাপে ধাপে শিখে চলত। হিন্টনের এই আবিষ্কার বিজ্ঞানী মহলে নতুন আশার সঞ্চার করে।
জিওফ্রি হিন্টন ‘ডিপ লার্নিং’ নামটি প্রথম ব্যবহার করেন ২০০৬ সালে, কানাডার ভ্যাঙ্কুভারে অনুষ্ঠিত বার্ষিক এনআইপিএস (NIPS—Neural Information Processing Systems) সম্মেলনে। এটি ছিল তাঁর ৬০তম জন্মদিনের দিন। সেই লেকচারের শিরোনামেই প্রথমবারের মতো ডিপ লার্নিং নামটি ব্যবহৃত হয়। বক্তৃতায় তিনি বলেন: ‘সবাই শ্যালো (অগভীর) লার্নিং করছে, আর আমি করছি ডিপ (গভীর) লার্নিং।’ এ কথায় সারা কক্ষজুড়ে হাসির রোল উঠেছিল। তবে এই রসবোধপূর্ণ মন্তব্যের মধ্যেই ছিল এক গভীর রূপান্তরের বীজ। যদিও প্রযুক্তিটা ছিল পুরোনো (মাল্টি-লেয়ার নিউরাল নেটওয়ার্ক), কিন্তু ডিপ লার্নিং নাম দিয়ে সেটিকে নতুনভাবে প্রতিষ্ঠিত করা হয়। এর মাধ্যমে এআই গবেষণায় এক নতুন তরঙ্গের সূচনা ঘটে। এই ধারণা এত গুরুত্বপূর্ণ হয়ে ওঠে যে পরে জিপিটি (বা চ্যাটজিপিটি), বার্ট, জেমিনি, গুগল ট্রান্সলেট বা ইমেজনেট—সব কিছুই গড়ে উঠেছে এই ডিপ লার্নিংয়ের ওপর। তাঁর ডিপ লার্নিংয়ের পেছনে ছিল এমন এক ধারণা—শেখা যাবে স্তর ধরে ধরে, একেবারে মস্তিষ্কের মতো করে।
চলুন দেখা যাক, কীভাবে কাজ করে এই প্রযুক্তি।
নিউরাল নেটওয়ার্কে প্রায়ই তিন ধরনের স্তর থাকে: ইনপুট লেয়ার, হিডেন লেয়ার, এবং আউটপুট লেয়ার। ইনপুট লেয়ার হলো যেখানে মেশিন তথ্য পায়। উদাহরণস্বরূপ, যদি কেউ একটি ছবি দেখতে চায়, তাহলে ছবির প্রতিটি পিক্সেল ইনপুট হিসেবে ব্যবহৃত হবে। এরপর তথ্যটি ‘হিডেন লেয়ার’-এ যায়, যেখানে এটি বিভিন্নভাবে প্রক্রিয়াজাত বা প্রসেস করা হয়। হিডেন লেয়ারগুলো তথ্যের গুরুত্বপূর্ণ বৈশিষ্ট্য খুঁজে বের করে এবং পরবর্তী স্তরে সেগুলো পাঠায়। সবশেষে আউটপুট লেয়ার একটি চূড়ান্ত সিদ্ধান্ত গ্রহণ করে, শনাক্তের চেষ্টা করে ওটা কীসের ছবি। যেমন এটি কুকুর নাকি বিড়ালের ছবি?
ভাবুন, আপনি একটি বিমানের ছবি দেখলেন। আপনার চোখের রেটিনা প্রথমে শুধু রং আর রেখা ধরে—এটা প্রথম স্তর। এরপর আপনি বুঝলেন ওটা একটা পাখির ডানার মতো—এটা দ্বিতীয় স্তর। এরপর পুরো বিমানের গঠন, তার রং, রুট—সব মিলিয়ে আপনার মস্তিষ্ক বুঝে নেয় ‘এটি একটি বিমান’। কম্পিউটারও একইভাবে ছবি বিশ্লেষণ করে ধাপে ধাপে, একাধিক স্তরে। প্রতিটি স্তরে নতুন নতুন বৈশিষ্ট্য বের করে। আর এই ‘স্তর ধরে, ধাপে ধাপে শেখা’র পদ্ধতিই হলো ডিপ লার্নিং।
এটুকু যদি বোঝা যায়, তাহলে বলব, মূল বিষয়গুলো আপনি জেনে ফেলেছেন। কিন্তু শুধু একটা ধারণা এবং তার সফল প্রয়োগ হলেই হয় না। সেটার বিপুল ব্যবহার না হলে বিপ্লব আসে না প্রযুক্তি জগতে। আগেই বলেছি, ডিপ লার্নিং এই বিপ্লব করেছে, এর ওপর ভিত্ত করেই গড়ে উঠেছে আধুনিক এআই। রোমাঞ্চকর সেই কাহিনি শোনাব পরের পর্বে। সেখানে থাকবে বিগ ডেটা, হার্ডওয়্যার বিপ্লব, ডিপ লার্নিংয়ের বাস্তব প্রয়োগসহ আরও অনেক কিছু।
অপেক্ষায় থাকুন।