মূর্খের মতো প্রশ্ন করলে আর উত্তর দেবে না গুগল! সম্প্রতি এমন ঘোষণা দিয়েছে টেক জায়ান্ট প্রতিষ্ঠানটি। এই সার্চ ইঞ্জিন তাদের ‘ফিচার স্নিপেটস’ সার্ভিসের প্রযুক্তিগত উন্নয়ন করছে। এরমধ্য দিয়ে ব্যবহারকারীদের বোকা বোকা প্রশ্নের চটকদার উত্তর দেওয়া বন্ধ হবে।
ব্রিটিশ সংবাদমাধ্যম দ্য গার্ডিয়ানের প্রতিবেদন বলা হয়েছে, গুগলের নতুন আপডেটের ফলে ব্যবহারকারীরা নিজের খেয়াল খুশি মতো প্রশ্ন করলেই উত্তর পাবেন না। যে প্রশ্নের উত্তরের পেছনে যথেষ্ট যুক্তি ও সত্যতা পাওয়া যাবে সে সব প্রশ্নের উত্তরই দেবে গুগল।
এতে আরও বলা হয়েছে, যে সব প্রশ্নের সঠিক উত্তর পাওয়া যাবে না সে সব প্রশ্নের উত্তরে ‘যথেষ্ট ভালো উত্তর পাওয়া যায়নি’ বলে ব্যবহারকারীদের সতর্ক করা হবে। এ ক্ষেত্রে ‘ইটস লুক লাইক দেয়ার অ্যারেন্ট মেনি গ্রেট রেজাল্ট ফর দিল সার্চ’ লেখা আসবে।
এ নিয়ে দ্য গার্ডিয়ানের সঙ্গে কথা বলেছেন গুগলের সার্চ বিষয়ক বিভাগের প্রদান পান্ডু নায়ক। তিনি বলেন, ‘প্রশ্নের উত্তরে গুগল সতর্কবার্তা দেওয়া মানে হলো, এই প্রশ্নের কোনো যুতসই উত্তর নেই বা যে সব সম্ভাব্য উত্তর পাওয়া যাচ্ছে তার মান খুবই নিম্ন মানের। সেখানে ভ্রান্তিমূলক তথ্য থাকতে পারে।’
এছাড়াও সার্চ ইঞ্জিনটি আগের মত বিস্তারিত উত্তর দেবে না। যদি প্রশ্ন হয়, আব্রহাম লিংকনকে কখন হত্যা করা হয়েছিল। তখন এর উত্তরে গুগল কেবল মাত্র ‘সাল’ উল্লেখ করবে। অর্থাৎ সঠিক তারিখ প্রদান করবে। এ সম্পর্কে বাড়তি কোনো তথ্য প্রদান করবে না।
এতদিন গুগলে প্রশ্নের সরাসরি না দিলেও ফিচারধর্মী উত্তর দিয়েছে আর্টিফিশিয়াল ইন্টিলিজেন্ট ব্যবহার করে। ফলে ব্যবহারকারীরা কোনো ওয়েবসাইটে প্রবেশ না করেই গুগল ফিডে উত্তর সংশ্লিষ্ট তথ্য পেতো। এক্ষেত্রে গুগল উল্লেখিত ওয়েবসাইটে সয়ংক্রিয় পদ্ধতিতে প্রবেশ করে সার্চ সংশ্লিষ্ট উত্তর খুঁজে প্রকাশ করতো। তবে এরকম কাজ করতে গিয়ে এই টেক জায়ান্টকে অনেকবার বিপদে পড়তে হয়েছে।
২০১৭ সালে সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামাকে নিয়ে একটি প্রশ্নের ভুল উত্তর দিয়ে বিপাকে পড়তে হয় গুগলকে। সেখানে একজন ব্যবহারকারী প্রশ্ন করেছিল, ওবামা কি অভ্যুত্থানের পরিকল্পনা করছেন? এমন প্রশ্নের উত্তরে গুগল একটি কন্সপেরেসি ওয়েবসাইট থেকে তথ্য সংগ্রহ করে উত্তর দেয়- ওবামা তার ক্ষমতার শেষ দিকে একটি কমিউনিটি অভ্যুত্থানের পরিকল্পনা করছেন।
তবে গুগল দাবি করছে, তাদের নতুন আপডেটের ফলে এই ধরনের ভুল আর হবে না।