Home Blog Page 51

উত্তরার আইচি হাসপাতালের নামে ভুয়া নিয়োগ বিজ্ঞপ্তি প্রচার 

0

সম্প্রতি, “উত্তরার আইচি হাসপাতালে নিয়োগ” দাবিতে আইচি হাসপাতালের লোগো যুক্ত একটি নিয়োগ বিজ্ঞপ্তির ছবি সামাজিক যোগাযোগ মাধ্যম ফেসবুকে প্রচার করা হয়েছে। 

প্রচারিত নিয়োগ বিজ্ঞপ্তিটির শর্তাবলীতে উল্লেখ করা হয়, 

১. আগ্রহী প্রার্থীকে অবশ্যই পূর্ণ জীবন বৃত্তান্ত, শিক্ষাগত যোগ্যতা সনদপত্র ও সদ্য তোলা দুই কপি পাসপোর্ট সাইজের ছবিসহ নিম্ন স্বাক্ষরকারীর বরাবর উক্ত জিমেইল- [email protected] মাধ্যমে আবেদন করতে হবে।
২. অত্র অফিস সরাসরি/হাতে কোন আবেদন গ্রহণ করা হবে না।
৩. অত্র কর্তৃপক্ষ প্রয়োজন মোতাবেক পদের সংখ্যা হ্রাস/বৃদ্ধি করতে পারবে।
৪. উক্ত তারিখের পর প্রাপ্ত কোনো দরখাস্ত গ্রহণ করা হবে না।
৫. বয়স প্রমাণের জন্য এফিডেভিট গ্রহনযোগ্য নয়।
৬. অসম্পূর্ণ এবং ক্রটিপূর্ণ আবেদন কোনো কারণ দর্শানো ব্যতিরেকে বাতিল বলে গণ্য হবে। প্রাথমিক বাছাই এর পর কর্তৃপক্ষের বিবেচনায় কেবলমাত্র সর্বাধিক উপযুক্ত প্রার্থীগণকে লিখিত বা মৌখিক অথবা পরিক্ষায় অংশ গ্রহণের মেসেজ এর মাধ্যমে জানানো হবে।
৭. কর্তৃপক্ষ কোন কারণ প্রদর্শন ব্যতিরেকে যে কোন দরখাস্ত গ্রহণ বা বাতিলের ক্ষমতা সংরক্ষণ করেন এবং এ নিয়োগ বিজ্ঞপ্তি প্রচারের কারণে কর্তৃপক্ষ নিয়োগ প্রদান করতে কিংবা ইন্টারভিউ কার্ড ইস্যু করতে বাধ্য থাকবে না। দরখাস্তের সহিত দাখিলকৃত কাগজপত্র ফেরৎ দেয়া হবে না।
৮. যেকোন প্রকার তদবীর বা সুপারিশ প্রার্থীর অযোগ্যতা বলে বিবেচিত হবে।
৯. প্রার্থীকে লিখিত/ মৌখিক পরীক্ষায় অংশ গ্রহনের জন্য কোন প্রকার টি এ/ ডি এ প্রদান করা হবে না।
১০. আবেদনের সময়সীমা শেষ তারিখ ২৫.০৭.২০২৫ ইং। 

উক্ত দাবিতে ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ) এবং এখানে (আর্কাইভ)। 

ফ্যাক্টচেক 

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, উত্তরার আইচি হাসপাতালের নামে প্রচারিত নিয়োগ বিজ্ঞপ্তিটি আইচি হাসপাতাল কর্তৃপক্ষ প্রকাশ করেনি বরং, আর্থিক প্রতারণার উদ্দেশ্যে কথিত এই নিয়োগ বিজ্ঞপ্তিটি আইচি হাসপাতালের নাম ব্যবহার করে প্রচার করা হয়েছে। 

এই বিষয়ে অনুসন্ধানের শুরুতেই কথিত নিয়োগ বিজ্ঞপ্তির ছবিটি পর্যালোচনা করে দেখা যায়, নিয়োগ বিজ্ঞপ্তিটি প্রকাশের সময় হিসেবে ১৮ জুলাই, ২০২৫ উল্লেখ রয়েছে এবং ছবির উপরে ‘Aichi Hospital’ এর লোগো এবং নাম যুক্ত আছে। 

পরবর্তীতে, আইচি হাসপাতালের ওয়েবসাইট এবং সামাজিক যোগাযোগ মাধ্যমগুলো পর্যবেক্ষণ করে আলোচিত নিয়োগ বিজ্ঞপ্তির কোনো সত্যতা পাওয়া যায়নি।

তবে, ‘Aichi Hospital Ltd’ এর ফেসবুক পেজে গত ২৮ জুলাই আলোচিত নিয়োগ বিজ্ঞপ্তিটি সম্পূর্ণ ভিত্তিহীন এবং ভুয়া জানিয়ে একটি সতর্কবাণী পোস্ট করা হয়। উক্ত পোস্টে আইচি হসপিটাল কর্তৃপক্ষ এ ধরনের কোন নিয়োগ বিজ্ঞপ্তি প্রকাশ করেনি বলে জানিয়ে এ ধরনের ভুয়া নিয়োগ বিজ্ঞপ্তির ফাঁদে পা না দেয়ারও অনুরোধ জানায়। 

অর্থাৎ, প্রচারিত নিয়োগ বিজ্ঞপ্তিটি আইচি হাসপাতালের নয়। 

সুতরাং, আইচি হাসপাতালের নামে প্রচারিত এই নিয়োগ বিজ্ঞপ্তিটি ভুয়া ও বানোয়াট। 

তথ্যসূত্র 

  • Aichi Hospital Ltd: Facebook Post 
  • Rumor Scanner’s analysis 

মাইলস্টোনে বিমান দুর্ঘটনায় নিহত শিক্ষার্থীদের তালিকা দাবিতে প্রচারিত ছবিটি এআই দিয়ে তৈরি

0

গত ২১ জুলাই রাজধানীর উত্তরার দিয়াবাড়ি এলাকায় মাইলস্টোন স্কুল অ্যান্ড কলেজে বাংলাদেশ বিমানবাহিনীর একটি এফ-৭ যুদ্ধবিমান বিধ্বস্তের ঘটনা ঘটেছে। এ ঘটনায় এখন অবধি অন্তত ৩৬ জনের মৃত্যু হয়েছে বলে গণমাধ্যম সূত্রে জানা যায়। এছাড়াও আহত ও দগ্ধ হয়েছে অন্তত শতাধিক, যাদের বেশিরভাগই শিশু শিক্ষার্থী। এই ঘটনার প্রেক্ষিতে, নিহত শিক্ষার্থীদের তালিকা দাবিতে একটি ছবি ইন্টারনেটে প্রচার করা হয়েছে।

উক্ত দাবিতে ফেসবুকে প্রচারিত ছবি দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ)।

এক্সে প্রচারিত ছবি দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ)।

ইনস্টাগ্রামে প্রচারিত ছবি দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ)।

ইউটিউবে প্রচারিত ছবি দেখুন এখানে (আর্কাইভ)।

টিকটকে প্রচারিত ছবি দেখুন এখানে (আর্কাইভ)।

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, যুদ্ধবিমান বিধ্বস্তের ঘটনায় মাইলস্টোন স্কুল অ্যান্ড কলেজের নিহত শিক্ষার্থী দাবিতে প্রচারিত তালিকাটি সত্য নয়। প্রকৃতপক্ষে, কৃত্রিম বুদ্ধিমত্তা বা এআই প্রযুক্তি ব্যবহার করে ভুয়া এই তালিকা ছবি তৈরি করা হয়েছে।

এই বিষয়ে অনুসন্ধানে মূলধারার গণমাধ্যম কিংবা প্রতিষ্ঠানটির ফেসবুক পেজ এবং ওয়েবসাইটে নিহত শিক্ষার্থীদের তালিকা দাবির এই ছবির বিষয়ে কোনো তথ্য খুঁজে পাওয়া যায়নি।

ছবিটি পর্যবেক্ষণে দেখা যায় এতে, যেমন – ছবিটির উপরের একটি বৃত্তাকার লোগো রয়েছে, যেখানে একটি খোলা বই, 2001, এবং এমন একটি লেখার রয়েছে যা স্বাভাবিক বাংলা ভাষায় নয়। এছাড়া, বৃত্তকার লোগোটির নিচে বাংলায় লেখা ‘মাইলস্টন কুল এন্ড কলেজ’ এবং ইংরেজিতে লেখা ‘MILESTONE SCHOOL & COLLEGE’। তালিকাটিতে ২০ জনের ছবি রয়েছে। ১০ জন ছেলে এবং ১০ জন মেয়ে। ছবির নিচে লেখা রয়েছে ‘নিহত ছাত্র ছাত্রী’।

তবে, রিউমর স্ক্যানার টিমের বিশ্লেষণে নিহত শিক্ষার্থী দাবির এই তালিকা ছবিটিতে এআই-জনিত অসঙ্গতি লক্ষ্য করা গেছে। যেমন – এক. বৃত্তকার লোগোর ভেতরে লেখাটির কোনো অর্থ নির্দেশ করেনা এবং লেখাটি স্বাভাবিক কোনো বাংলা ভাষায় নয়। দুই. বাংলায় লেখা ‘মাইলস্টন কুল এন্ড কলেজ’ লেখাটিতে ‘মাইলস্টন’, ‘কুল’ লেখা রয়েছে। তিন. তালিকাটিতে থাকা প্রত্যেক শিক্ষার্থীর মুখাবয়ব দেখতে প্রায় একই রকম। সাধারণত এআই দিয়ে তৈরি ছবির ক্ষেত্রে এমন অসামঞ্জস্যতা দেখা যায়।

Indicated by Rumor Scanner

বিষয়টি আরও নিশ্চিত হতে ছবিটি এআই কনটেন্ট শনাক্তকারী ওয়েবসাইট সাইটইঞ্জিনে পরীক্ষা করা হয়। ওয়েবসাইটটির বিশ্লেষণে দেখা যায়, ছবিটি এআই দিয়ে তৈরি হওয়ার সম্ভাবনা ৯৭ শতাংশ।

Screenshot From Sightengine

তালিকাটির বিষয়ে আরও নিশ্চিত হতে মাইলস্টোন স্কুল অ্যান্ড কলেজের স্কুল সেকশনের প্রধান শিক্ষক খাদিজা আক্তারের সাথে যোগাযোগ করা হলে তিনি রিউমর স্ক্যানারকে জানান, এটি নিহত শিক্ষার্থীদের তালিকা নয়। তিনি আরও বলেন, ছবিটি দেখে মনে হচ্ছে Al ছবি। একই বাচ্চার ছবি বার বার দেয়া হয়েছে।

সুতরাং, কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি একটি তালিকাকে মাইলস্টোন স্কুল অ্যান্ড কলেজের নিহত শিক্ষার্থীদের তালিকা দাবিতে প্রচার করা হয়েছে; যা মিথ্যা।

তথ্যসূত্র

  • Rumor Scanner’s analysis.
  • Sightengine.
  • Statement : Khadija Akter, Milestone School and College

চাঁদপুরে স্কুলছাত্রের লাশ উদ্ধারের ঘটনায় জামায়াত ইসলামীকে জড়িয়ে ঢাকা পোস্টের নামে ভুয়া ফটোকার্ড প্রচার 

0

সম্প্রতি ‘চাঁদপুরে লেকের পাড় থেকে স্কুল ছাত্র আল-আমিন লা*শ উদ্ধার!’ ক্যাপশনে ‘চাঁদপুর জেলা কচুয়া উপজেলা জামায়াত নেতার হুমকি বিএনপির নেতা কর্মীদের প্রকাশ্যে হত্যার, এরপরই হত্যা’ শিরোনামে একাধিক ছবি যুক্ত করে অনলাইন নিউজ পোর্টাল ঢাকা পোস্টের ডিজাইন সম্বলিত একটি ফটোকার্ড সামাজিক যোগাযোগ মাধ্যমে প্রচার করা হয়েছে।

উক্ত দাবিতে ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ)৷

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, চাঁদপুরে স্কুলছাত্রের লাশ উদ্ধারের ঘটনায় বাংলাদেশ জামায়াতে ইসলামীকে জড়িয়ে ঢাকা পোস্ট এমন কোনো ফটোকার্ড বা সংবাদ প্রকাশ করেনি। প্রকৃতপক্ষে, গত ১২ জুলাই চাঁদপুর শহরের একটি লেক থেকে আল-আমিন নামে এক স্কুলছাত্রের মৃতদেহ উদ্ধার করা হয়েছে। এই ঘটনার প্রকৃত কারণ এখনো উদঘাটিত হয়নি। প্রকৃত কারণ জানতে পুলিশের তদন্ত চলমান রয়েছে।

এ বিষয়ে অনুসন্ধানের শুরুতে আলোচিত ফটোকার্ডটি পর্যবেক্ষণ করে দেখা যায়, ফটোকার্ডটিতে ঢাকা পোস্টের লোগো রয়েছে এবং এটি প্রকাশের তারিখ ১৩ জুলাই, ২০২৫ উল্লেখ করা হয়েছে।

উক্ত তথ্যাবলীর সূত্র ধরে ঢাকা পোস্টের  ফেসবুক পেজে প্রচারিত ফটোকার্ডগুলো পর্যবেক্ষণ করে উক্ত তারিখে আলোচিত শিরোনাম সম্বলিত কোনো ফটোকার্ড খুঁজে পাওয়া যায়নি। এছাড়া, ঢাকা পোস্টের ওয়েবসাইটইউটিউব চ্যানেলে উক্ত দাবির বিষয়ে কোনো সংবাদ খুঁজে পাওয়া যায়নি। তাছাড়া, ঢাকা পোস্টের প্রচলিত ফটোকার্ডের শিরোনামের ফন্টের সাথে আলোচিত ফটোকার্ডটির ফন্টের পার্থক্যও লক্ষ্য করা যায়। 

ঢাকা পোস্ট ব্যতীত অন্য কোনো গণমাধ্যমেও উক্ত দাবিকে সমর্থন করে এমন কোনো সংবাদ বা তথ্য খুঁজে পাওয়া যায়নি৷

তবে, ঢাকা পোস্টের ওয়েবসাইটে গত ১৩ জুলাই ‘শহরের লেক থেকে স্কুলছাত্রের মরদেহ উদ্ধার’ শিরোনামে প্রকাশিত একটি প্রতিবেদন খুঁজে পাওয়া যায়। উক্ত প্রতিবেদনে যুক্ত ছবির সাথে আলোচিত ফটোকার্ডে যুক্ত দ্বিতীয় ও তৃতীয় ছবির দৃশ্যের মিল রয়েছে।

Comparison: Rumor Scanner 

প্রতিবেদনটিতে বলা হয়, চাঁদপুর শহরের লেকের পানি থেকে আল-আমিন (১৭) নামে এক স্কুলছাত্রের মৃতদেহ উদ্ধার করা হয়েছে। গত ১২ জুলাই রাত ৯টার দিকে স্থানীয়রা তাকে উদ্ধার করে চাঁদপুর সরকারি জেনারেল হাসপাতালে নিয়ে গেলে কর্তব্যরত চিকিৎসক তাকে মৃত ঘোষণা করেন। নিহত আল-আমিন চাঁদপুুর সদর রাজরাজেশ্বর ইউনিয়ন যুবদলের সাধারণ সম্পাদক রমজান আলী প্রধানিয়ার ছেলে। তাদের পরিবার বর্তমানে চাঁদপুর শহরের মমিনপাড়া এলাকায় বসবাস করে। সে চাঁদপুর শহরের গনি মডেল হাই স্কুল থেকে এবার এসএসসি পরীক্ষা দিয়েছিল।

পরিবার ও পুলিশ সূত্রের বরাত দিয়ে গণমাধ্যমটি আরও জানায়, শনিবার বিকেলে আল-আমিন বাসা থেকে বের হয়ে চাঁদপুর শহরের হাসান আলী হাই স্কুল মাঠ সংলগ্ন মুক্তিযুদ্ধের স্মারক ভাস্কর্য অঙ্গীকারের সম্মুখে লেকের পাড় এলাকায় কয়েকজন সহপাঠীর সঙ্গে আড্ডা দিচ্ছিল। পরে রাত ১০টার দিকে হঠাৎ লেকের পানিতে ভাসমান অবস্থায় তাকে উদ্ধার করা হয়। হাসপাতালে আনার পর তার শরীরে আঘাতের চিহ্ন দেখতে পান স্বজনরা। এ ঘটনায় তাৎক্ষণিকভাবে আল-আমিনের ৭ জন বন্ধুকে জিজ্ঞাসাবাদের জন্যে আটক করে চাঁদপুর মডেল থানা পুলিশ। চাঁদপুরের অতিরিক্ত পুলিশ সুপার লুৎফর রহমান বলেন, বিষয় নিয়ে তদন্ত করা হচ্ছে।

এই বিষয়ে ইলেকট্রনিক গণমাধ্যম চ্যানেল টোয়েন্টিফোরের ওয়েবসাইটে ১৩ জুলাই ‘চাঁদপুরে লেক থেকে স্কুলছাত্রের লাশ উদ্ধার, আটক ৭ সহপাঠী’ শিরোনামে প্রকাশিত প্রতিবেদনে একই চিত্র ও তথ্য পাওয়া যায়। 

সুতরাং, ‘চাঁদপুর জেলা কচুয়া উপজেলা জামায়াত নেতার হুমকি বিএনপির নেতা কর্মীদের প্রকাশ্যে হত্যার, এরপরই হত্যা’ শিরোনামে ঢাকা পোস্টের নামে প্রচারিত ফটোকার্ডটি ভুয়া ও বানোয়াট। 

তথ্যসূত্র

গাজীপুরের প্রেম সংক্রান্ত ঘটনার নয়, এক ব্যক্তিকে পিটিয়ে জখমের এই ভিডিওটি বরিশালের ভিন্ন ঘটনার

সম্প্রতি, ‘গাজীপুরে প্রেমের প্রস্তাবে রাজি না হওয়াই ইউনিয়ন বিএনপি’র সন্ত্রাসী সংগঠন ছাত্রদলের সভাপতি এক তরুণীকে প্রকাশ্যে পাইপ দিয়ে এলোপাথাড়ি পেঠাচ্ছেন।’ – এই দাবিতে একটি ভিডিও ইন্টারনেটে প্রচার করা হয়েছে।

উক্ত দাবিতে ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ)।

উক্ত দাবিতে ইনস্টাগ্রামে প্রচারিত ভিডিও দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ)।

এছাড়াও, ভিডিওটিকে ২০২০ সালের ছাত্রলীগ নেতার ভিডিও দাবি করে ২০২০ সালের যুগান্তরের একটি নিউজে আলোচিত ভিডিওর ফ্রেম কোলাজ দেখিয়ে ভিডিওটিকে পুরোনো হিসেবে দাবি করা হচ্ছে।

ক্যাপশনে দাবি করা হয়, ‘এভাবেই বটবাহিনী গুজব ছড়িয়েই যাচ্ছে প্রতিনিয়ত! ২০২০ সালের ছাত্রলীগ নেতার ভিডিও ২০২৫ সালে এসে ছাত্রদল বলে চালিয়ে দিলো!’

উক্ত দাবিতে ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ)।

এক্সে প্রচারিত পোস্ট দেখুন এখানে

টিকটকে প্রচারিত পোস্ট দেখুন এখানে

ইউটিউবে প্রচারিত পোস্ট দেখুন এখানে

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, ভিডিওটি গাজীপুরের প্রেম সংক্রান্ত কোনো ঘটনার নয়। প্রকৃতপক্ষে, এটি বরিশালের ঘটনা। উক্ত ঘটনার সাথে প্রেমের কোনো সম্পর্ক নেই। উক্ত ঘটনায় ভুক্তভোগী এবং অভিযুক্তের পক্ষ থেকে চাঁদা এবং জমি সংক্রান্ত বিষয়ে পাল্টাপাল্টি অভিযোগ করা হয়েছে। তবে, কোনো পক্ষই তাদের অভিযোগে প্রেম সংক্রান্ত ঘটনা এমন কোনো দাবি করেনি। তাছাড়া, এটি ২০২০ সালের ঘটনাও নয়। এমনকি যুগান্তরের সংবাদ দাবিতে প্রচারিত স্ক্রিনশটটিও সম্পাদিত। যুগান্তরের ফেসবুক পেজে প্রচারিত পুরোনো একটি সংবাদের ফিচারে আলোচিত ভিডিওটি যুক্ত করে স্ক্রিনশটটি তৈরি করা হয়েছে।

এই বিষয়ে অনুসন্ধানে ভিডিওটিতে থাকা ‘এখন বাংলা টিভি’ লেখার সূত্র ধরে  ‘Ekhon Bangla Tv’ নামক ফেসবুক পেজে গত ২৩ জুলাই ভিডিওটি প্রচার করতে দেখা যায়।

ভিডিওটির ক্যাপশনে উল্লেখ করা হয়, ‘আব্বা আব্বা বলে তরুণীর আহাজারি।

ভিডিওতে দেখা যাচ্ছে, কয়েকজন যুবক পাইপ দিয়ে এক ব্যক্তিকে এলোপাতাড়ি আঘাত করছে।
স্থান : উজিরপুর, ধামুরা বাজার।’

Comparison : Rumor Scanner

পেজটি থেকে ভিডিওটির মন্তব্যের ঘরে উল্লেখিত তথ্য থেকে জানা যায়, বরিশালের উজিরপুর উপজেলার ধামুরা বাজারে সোহেল রানা (৪০) নামের এক স্বেচ্ছাসেবক লীগ নেতাকে ছাত্রদল নেতার নেতৃত্বে পিটিয়ে জখম করার ভিডিও এটি। জমিসংক্রান্ত বিরোধের জেরে বুধবার [২৩ জুলাই] বিকেলে ধামুরা বাজারে প্রকাশ্যে এ হামলা হয়। 

জানা যায়, হামলার নেতৃত্ব দেওয়া ধামুরা ডিগ্রি কলেজ ছাত্রদলের সভাপতি সাব্বির ব্যাপারী। এবং নির্যাতনের শিকার সোহেল শোলক ইউনিয়নের ওয়ার্ড স্বেচ্ছাসেবক লীগের সাংগঠনিক সম্পাদক।

তবে, ঘটনাটি নিয়ে পাল্টাপাল্টি অভিযোগ রয়েছে। সোহেল রানার অভিযোগ, ধামুরা বাজারে তাঁর কাঠ, স্যানিটারি রিং-স্ল্যাব বিক্রি ও চায়ের দোকান রয়েছে। হামলাকারীরা তাঁর প্রতিবেশী। তাঁর কাছে ২০ লাখ টাকা চাঁদা চেয়েছিলেন। টাকা না দেওয়ায় তাঁকে নির্মমভাবে পেটানো হয়। তাঁকে রক্ষা করতে গেলে বাবা আবু বক্কর ও স্ত্রী নেহেরু বেগম হামলার শিকার হন। আহত হয়ে তাঁরা হাসপাতালে ভর্তি হওয়ার পর হামলাকারীরা তাঁর চায়ের দোকান আগুন দিয়ে পুড়িয়ে দিয়েছে বলেও দাবি করা হয়।

অভিযুক্ত সাব্বিরের বাবা সেলিম ব্যাপারীর দাবি, পাশাপাশি বসতবাড়ি হওয়ায় সোহেল তাঁর ২ শতাংশ জমি দখলে রেখেছেন। এ নিয়ে দীর্ঘদিনের বিরোধ চলছে। ২৩ জুলাই বিকেলে সেলিমের স্ত্রী বিরোধীয় জমিতে গেলে সোহেল হামলা করেন। মাকে আঘাতের খবর পেয়ে সাব্বির ঘটনাস্থলে গেলে তাঁকে কুপিয়ে জখম করা হয়। এ খবর জানতে পেরে সাব্বিরের ঘনিষ্ঠজন ছাত্রদলের কর্মীরা সোহেলকে পিটিয়েছেন।

পরবর্তীতে, উক্ত তথ্যের সূত্র ধরে প্রাসঙ্গিক কি-ওয়ার্ড সার্চ করে জাতীয় গণমাধ্যম আজকের পত্রিকা, ঢাকা ট্রিবিউন, বাংলাদেশ প্রতিদিন এবং বরিশালের স্থানীয় অনলাইন সংবাদ মাধ্যম টাইমস অফ বরিশাল -এর ওয়েবসাইটে এই বিষয়ে প্রকাশিত প্রতিবেদন থেকেও একই তথ্য জানা যায়।

অর্থাৎ, এটি নিশ্চিত যে ঘটনাটি গাজীপুরের নয়। এটি বরিশালের ঘটনা। তাছাড়া, উক্ত ঘটনার সাথে প্রেমের কোনো সম্পর্ক নেই। ভুক্তভোগী এবং অভিযুক্তের পক্ষ চাঁদা এবং জমি সংক্রান্ত বিষয়ে পাল্টাপাল্টি অভিযোগ করলেও প্রেম সংক্রান্ত ঘটনার কোনো তথ্য তাদের অভিযোগে নেই।

যুগান্তরের নিউজ যাচাই

আলোচিত দাবিতে প্রচারিত পোস্টে যুগান্তরের স্ক্রিনশট দাবিতে থাকা স্ক্রিনশটের তথ্য প্রাসঙ্গিক কি-ওয়ার্ড সার্চ করে যুগান্তরের ফেসবুক পেজে ২০২০ সালের ১৮ অক্টোবর প্রচারিত পোস্টটি খুঁজে পাওয়া যায়। তবে, পোস্টের সংবাদে আলোচিত ছবিটি ছিল না। এছাড়াও পোস্টের সংবাদ লিংকটিতে প্রবেশ করেও আলোচিত স্ক্রিনশটে থাকা ছবি দেখতে পাওয়া যায়নি। তাছাড়া, যুগান্তরের প্রতিবেদনের ঘটনাটি ২০২০ সালের কিশোরগঞ্জের হোসেনপুরের ঘটনা। আর বর্তমানের আলোচিত ভিডিওর ঘটনাটি বরিশালের।

Screenshot : Jugantor

সুতরাং, বরিশালের ভিন্ন একটি ঘটনার ভিডিওকে গাজীপুরে প্রেমের প্রস্তাবে রাজি না হওয়াই ইউনিয়ন ছাত্রদলের সভাপতির এক তরুণীকে প্রকাশ্যে পাইপ দিয়ে এলোপাথাড়ি পেঠানোর দৃশ্য দাবিতে প্রচার করা হয়েছে; যা বিভ্রান্তিকর। এছাড়া, যুগান্তরের সংবাদ  দাবিতে প্রচারিত স্ক্রিনশটটি সম্পাদিত।

তথ্যসূত্র

জনসভায় এক ব্যক্তির বিএনপি বিরোধী বক্তব্য দাবিতে এআই দিয়ে তৈরি ভিডিও প্রচার

গত ৯ জুলাই সন্ধ্যায় রাজধানীর মিটফোর্ড হাসপাতালের সামনে প্রকাশ্যে পিটিয়ে ও পাথর ছুড়ে লাল চাঁদ ওরফে সোহাগ (৩৯) নামের এক ব্যক্তিকে নৃশংসভাবে হত্যা করা হয়। বাংলাদেশ জাতীয়তাবাদী দল (বিএনপি) এর অঙ্গ সংগঠন বাংলাদেশ জাতীয়তাবাদী যুবদলের নেতা-কর্মীদের বিরুদ্ধে এই হত্যাকাণ্ডে জড়িত থাকার অভিযোগ উঠেছে। এরই প্রেক্ষিতে  বিএনপিকে নিয়ে এক ব্যক্তি জনসভায়  “ধানের শীষে ভোট দিন, নিজের লাশ বুঝে নিন। যুবদলের অনেক গুণ, পাথর মেরে মানুষ খুন।” শীর্ষক বক্তব্য দিয়েছেন দাবিতে একটি ভিডিও সামাজিক যোগাযোগ মাধ্যমে প্রচার করা হয়েছে। 

উক্ত দাবিতে ফেসবুকে প্রচারিত কিছু পোস্ট দেখুন এখানে (আর্কাইভ)।

টিকটকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ)।

ইউটিউবে প্রচারিত পোস্ট দেখুন এখানে

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, বিএনপি বিরোধী বক্তব্যের আলোচিত ভিডিওটি আসল নয়; বরং এটি কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে তৈরি একটি ভুয়া ভিডিও।

ভিডিওটির বিষয়ে অনুসন্ধানে কোনো বিশ্বস্ত গণমাধ্যম বা নির্ভরযোগ্য সূত্রে এর অস্তিত্ব পাওয়া যায়নি।

আলোচিত দাবিতে প্রচারিত ভিডিওটি পর্যবেক্ষণ করলে তাতে এক ব্যক্তিকে মঞ্চে ভাষণ দিতে দেখা যায় এবং মঞ্চের আশেপাশে কিছু ব্যানার পরিলক্ষিত হয়। তবে ব্যানারে থাকা ব্যক্তিদের ছবি এবং বক্তব্য দেখা ব্যক্তির সাথে চেহারার সাথে বাংলাদেশে মূলধারার রাজনীতিতে জড়িত কোনো ব্যক্তির চেহারার মিল খুঁজে পাওয়া যায়নি। বক্তব্য দেয়া ব্যক্তিকে বক্তব্যের সময় চোখের পলক ফেলতে দেখা যায়নি যা সাধারণত কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির সাহায্যে তৈরি কনটেন্টে দেখা যায়।

এছাড়া, প্রচারিত ভিডিওটির নিচের ডান কোণে ‘Veo’ নামের একটি জলছাপ রয়েছে। অনুসন্ধানে জানা গেছে, ‘Veo’ হলো গুগলের একটি অত্যাধুনিক এআই টুল, যা টেক্সট প্রম্পট থেকে ৮ সেকেন্ডের বাস্তবসম্মত ভিডিও তৈরি করতে পারে। এই টুল দিয়ে তৈরি ভিডিওতে সাধারণত ‘Veo’ জলছাপ থাকে। এই ভিডিওটিতেও ‘Veo’ জলছাপ রয়েছে এবং এর দৈর্ঘ্য ৮ সেকেন্ড।

Screenshot: Claimed Video

পরবর্তীতে, বিষয়টি অধিকতর নিশ্চিতে ভিডিওটি এআই (AI) কন্টেন্ট ডিটেকশন টুল ‘Cantilux’ দিয়ে যাচাই করলে তা এআই দিয়ে তৈরি হওয়ার সম্ভাবনা প্রায় ৮০ শতাংশ পর্যন্ত বলে জানা যায়।

Screenshot From Cantilux

সুতরাং, এআই দিয়ে তৈরি একটি ভিডিওকে জনসভায় এক ব্যক্তির বিএনপি বিরোধী বক্তব্যের দৃশ্য দাবি করে সামাজিক মাধ্যমে প্রচার করা হয়েছে, যা মিথ্যা। 

তথ্যসূত্র

  • Rumor Scanner’s analysis
  • AI Content Detection Tool: Cantilux

আওয়ামী লীগ পরিচয় দিলেই মার খেতে হয় বলে ব্যক্তির বক্তব্য দাবিতে এআই দিয়ে তৈরি ভিডিও প্রচার

সম্প্রতি, “আমি আওয়ামী লীগ করি বললেই মার খেতে হবে? কোথায় স্বাধীনতা!”” শীর্ষক দাবিতে একটি ভিডিও সামাজিক যোগাযোগ মাধ্যমে প্রচার করা হয়েছে।

উক্ত দাবিতে ফেসবুকে প্রচারিত কিছু পোস্ট দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ) এবং এখানে (আর্কাইভ)।

ইউটিউবে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ)।

টিকটকে প্রচারিত পোস্ট দেখুন এখানে

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, আওয়ামী লীগ পরিচয় দিলেই মার খেতে হয় বলে এক ব্যক্তির বক্তব্যের দাবিতে প্রচারিত ভিডিওটি আসল নয়; বরং এটি কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে তৈরি একটি ভুয়া ভিডিও।

ভিডিওটির বিষয়ে অনুসন্ধানে কোনো বিশ্বস্ত গণমাধ্যম বা নির্ভরযোগ্য সূত্রে এর অস্তিত্ব পাওয়া যায়নি।

আলোচিত দাবিতে প্রচারিত ভিডিওটি পর্যবেক্ষণ করে এতে বক্তব্যরত ব্যক্তিকে কথা বলার সময় চোখের পলক ফেলতে দেখা যায় নি এবং উক্ত ব্যক্তির মুখ নড়লেও চোখের অস্বাভাবিকতা পরিলক্ষিত হয় যা সাধারণত কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির সাহায্যে তৈরি কনটেন্টে দেখা যায়। 

এছাড়া, প্রচারিত ভিডিওটির নিচের ডান কোণে ‘Veo’ নামের একটি জলছাপ রয়েছে। অনুসন্ধানে জানা গেছে, ‘Veo’ হলো গুগলের একটি অত্যাধুনিক এআই টুল, যা টেক্সট প্রম্পট থেকে ৮ সেকেন্ডের বাস্তবসম্মত ভিডিও তৈরি করতে পারে। এই টুল দিয়ে তৈরি ভিডিওতে সাধারণত ‘Veo’ জলছাপ থাকে। এই ভিডিওটিতেও ‘Veo’ জলছাপ রয়েছে এবং এর দৈর্ঘ্য ৮ সেকেন্ড।

Screenshot: Claimed Video

পরবর্তীতে, বিষয়টি অধিকতর নিশ্চিতে ভিডিওটি এআই (AI) কন্টেন্ট ডিটেকশন টুল ‘Cantilux’ দিয়ে যাচাই করলে তা এআই দিয়ে তৈরি হওয়ার সম্ভাবনা প্রায় ৯০ শতাংশ পর্যন্ত বলে জানা যায়।

Screenshot From Cantilux

সুতরাং, এআই দিয়ে তৈরি একটি ভিডিওকে আওয়ামী লীগ পরিচয় দিলেই মার খেতে হয় বলে ব্যক্তির বক্তব্যের দৃশ্য দাবি করে সামাজিক মাধ্যমে প্রচার করা হয়েছে, যা মিথ্যা। 

তথ্যসূত্র

  • Rumor Scanner’s analysis
  • AI Content Detection Tool: Cantilux

পটুয়াখালীতে নদীতে পড়ে বাস দুর্ঘটনা দাবিতে এআই নির্মিত ভিডিও প্রচার 

সম্প্রতি ‘পটুয়াখালী পায়রা গঞ্জ নদীতে পড়ে গেছে যাত্রীসহ বাস!’ ক্যাপশনে একটি বাস দুর্ঘটনার ভিডিও ইন্টারনেটের বিভিন্ন প্লাটফর্মে প্রচার করা হয়েছে।

উক্ত দাবিতে ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ), এখানে (আর্কাইভ)৷ 

ইউটিউবে প্রচারিত ভিডিও দেখুন এখানে (আর্কাইভ)। 

ইন্সটাগ্রামে প্রচারিত ভিডিও দেখুন এখানে (আর্কাইভ)। 

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, পটুয়াখালীতে কথিত পায়রা গঞ্জ নদীতে যাত্রীসহ বাস পড়ে সংঘটিত দুর্ঘটনা দাবিতে প্রচারিত ভিডিও আসল নয়। প্রকৃতপক্ষে, কৃত্রিম বুদ্ধিমত্তা বা এআই  প্রযুক্তির সহায়তায় ভুয়া ভিডিওটি তৈরি করা হয়েছে। 

এ বিষয়ে অনুসন্ধানে Cozyclouds1 নামক ফেসবুক পেজে গত ২৯ জুন প্রকাশিত একটি ভিডিও খুঁজে পাওয়া যায়। উক্ত ভিডিওর সাথে আলোচিত দাবিতে প্রচারিত ভিডিওটির সাদৃশ্য রয়েছে। 

Comparison: Rumor Scanner 

উক্ত ভিডিওর ক্যাপশনে এটিকে খরস্রোতা নদীতে পড়ে বাস দুর্ঘটনার ভিডিও বলে উল্লেখ করা হয়৷ ভিডিওটিতে ‘AI Info’ লেবেল যুক্ত করা আছে, যার অর্থ হলো  ভিডিওটির পোস্টদাতা নিজেই এটিকে কৃত্রিম বুদ্ধিমত্তা (AI) দ্বারা তৈরি বলে চিহ্নিত করেছেন। 

Screenshot: Facebook 

Cozyclouds1 নামক ফেসবুক পেজটির ডেসক্রিপশন পর্যবেক্ষণ করে দেখা যায়, পেজটি এআই বা কৃত্রিম বুদ্ধিমত্তার সহায়তায় নির্মিত কন্টেন্ট প্রচার করে। 

পরবর্তীতে, একই নামে ‘Cozyclouds1’ নামক ইন্সটাগ্রাম অ্যাকাউন্টে প্রচারিত ভিডিওটির অনুরূপ একটি ভিডিও খুঁজে পাওয়া যায়। 

উক্ত ইন্সটাগ্রাম অ্যাকাউন্টটির ডেসক্রিপশনেও এটিকে এআই কন্টেন্ট নির্মাতা বলে উল্লেখ করা হয়েছে। 

Screenshot: Instagram 

উল্লেখ্য, পটুয়াখালী জেলায় পায়রা নামক একটি নদী রয়েছে এবং পটুয়াখালী-মির্জাগঞ্জ সড়কের পায়রা নদীর কাছাকাছি পায়রাকুঞ্জ নামক এলাকা রয়েছে। কিন্তু পটুয়াখালীরে পায়রা গঞ্জ নামক কোনো নদী বা স্থান নেই। 

সুতরাং, পটুয়াখালীতে কথিত ‘পায়রা গঞ্জ’ নদীতে পড়ে যাত্রীবাহী বাস দুর্ঘটনার ভিডিও দাবিতে কৃত্রিম বুদ্ধিমত্তার সহায়তায় নির্মিত ভিডিও প্রচার করা হয়েছে; যা মিথ্যা। 

তথ্যসূত্র

গাজীপুরে সেনাবাহিনীর শক্তিশালী মিসাইল দাবিতে এআই নির্মিত ভিডিও প্রচার 

সম্প্রতি, “গাজীপুরে দেখা মিলল বাংলাদেশের শক্তিশালী য*ন্ত্র” শিরোনামে সামরিক যানে মিসাইল বহনের দৃশ্য দাবিতে একটি ভিডিও টিকটকে প্রচার করা হয়েছে। 

উক্ত দাবিতে ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে

উক্ত দাবিতে টিকটকে প্রচারিত ভিডিও দেখুন এখানে (আর্কাইভ) এবং এখানে (আর্কাইভ)। 

ইউটিউবে প্রচারিত ভিডিও দেখুন এখানে

ফ্যাক্টচেক 

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, প্রচারিত ভিডিওটি ঢাকার গাজীপুরে সামরিক যানে মিসাইল বহনের আসল দৃশ্য নয়। প্রকৃতপক্ষে, এটি কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে তৈরি একটি ভুয়া ভিডিও। 

এই বিষয়ে অনুসন্ধানে কোনো নির্ভরযোগ্য সূত্রে আলোচিত এই ভিডিওর অস্তিত্ব খুঁজে পাওয়া যায়নি। 

পরবর্তীতে আলোচিত ভিডিওটি নিয়ে রিউমর স্ক্যানার টিমের বিশ্লেষণে দেখা যায়, ভিডিওটির নিচের ডান কোণে ‘MINIMAX | Hailuo Ai’ নামের একটি জলছাপ রয়েছে। অনুসন্ধানে জানা গেছে, ‘Hailuo Ai’ মিনিম্যাক্স নামের একটি চাইনিজ কৃত্রিম বুদ্ধিমত্তা প্রতিষ্ঠানের একটি উন্নত এআই টুল, যা টেক্সট প্রম্পট থেকে ৬ সেকেন্ডের বাস্তবসম্মত ভিডিও তৈরি করতে সক্ষম। এই ভিডিওটির দৈর্ঘ্যও ৬ সেকেন্ড। 

এছাড়া, প্রচারিত ভিডিওটিতে বেশকিছু অসঙ্গতি লক্ষ্য করা যায়। যেমন, সামরিক যানের নড়াচড়া, গাড়ির নাম্বার প্লেটে অসঙ্গতিসহ রাস্তার আশেপাশে বেশিরভাগ সাইনবোর্ডে GAZIPUR শব্দ লেখা দেখা যায়, যা অস্বাভাবিক। 

Screenshot from TikTok by Rumor Scanner

পরবর্তীতে, বিষয়টি অধিকতর নিশ্চিতে ভিডিওটি এআই (AI) কন্টেন্ট ডিটেকশন টুল ‘Cantilux’ দিয়ে যাচাই করলে তা এআই দিয়ে তৈরি হওয়ার সম্ভাবনা প্রায় ৯৮ শতাংশ পর্যন্ত বলে জানা যায়। 

Screenshot from Cantilux by Rumor Scanner  

সুতরাং, এআই দিয়ে তৈরি একটি ভিডিওকে ঢাকার গাজীপুরে সামরিক যানে মিসাইল বহনের আসল দৃশ্য দাবিতে ইন্টারনেটে প্রচার করা হয়েছে; যা মিথ্যা। 

তথ্যসূত্র 

  • Hailuo AI: Transform Idea to Visual with AI 
  • Cantilux – Free AI Image & Video Detector | Detect AI 
  • Rumor Scanner’s analysis 

মাইলস্টোনে বিমান দুর্ঘটনার দৃশ্য দাবিতে এআই ভিডিও প্রচার

ঢাকার উত্তরার দিয়াবাড়ী এলাকায় মাইলস্টোন স্কুল এলাকায় গত ২১ জুলাই বিমান বাহিনীর একটি যুদ্ধ বিমান বিধ্বস্ত হয়েছে। এ ঘটনায় এখন অবধি অন্তত ৩৬ জনের মৃত্যু হয়েছে বলে গণমাধ্যম সূত্রে জানা যায়। এছাড়া, আহত ও দগ্ধ হয়েছে অন্তত শতাধিক, যাদের বেশিরভাগই শিশু শিক্ষার্থী। এরই প্রেক্ষিতে অনলাইনে একটি ভিডিও প্রচার করে দাবি করা হয়েছে, প্রচারিত ভিডিওটি “ঢাকা উত্তরা মাইলস্টোন ইস্কুলে ট্রনিং বিমান বিধস্ত চিত্র”।

এরূপ দাবিতে ফেসবুকে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ)।

এই প্রতিবেদনটি প্রকাশ হওয়া অবধি আলোচিত দাবিতে প্রচারিত উপরোল্লিখিত ভিডিওটি প্রায় ২১ লক্ষ বার দেখা হয়েছে এবং প্রায় ১৩ হাজারটি পৃথক অ্যাকাউন্ট থেকে পোস্টটিতে প্রতিক্রিয়া জানানো হয়েছে।

এরূপ দাবিতে ইউটিউবে প্রচারিত পোস্ট দেখুন এখানে (আর্কাইভ)।

টিকটকে প্রচারিত পোস্ট দেখুন এখানে

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, আলোচিত ভিডিওটি মাইলস্টোন স্কুল অ্যান্ড কলেজে বিমান বিধ্বস্ত হওয়ার আসল দৃশ্যের নয় বরং, এটি কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে তৈরি একটি ভুয়া ভিডিও।

ভিডিওটির বিষয়ে অনুসন্ধানে কোনো বিশ্বস্ত গণমাধ্যম বা নির্ভরযোগ্য সূত্রে এর অস্তিত্ব পাওয়া যায়নি। প্রকৃতপক্ষে বিমান দুর্ঘটনার এরূপ কোনো ভিডিও ধারণ করা হলে তা মূলধারার গণমাধ্যমে প্রচার করা হতো।

পাশাপাশি প্রচারিত ভিডিওটি পর্যবেক্ষণ করলে বিমানের বিধ্বস্ত হওয়া ও পারিপার্শ্বিক অবস্থাতেও খানিকটা অস্বাভাবিকতা পরিলক্ষিত হয় যা সাধারণত কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি দিয়ে তৈরি কনটেন্টে পরিলক্ষিত হয়।

Screenshot of Claimed Video

এছাড়া, ভিডিওটি পর্যবেক্ষণে ভিডিওটির নিচের ডান কোণে ‘Veo’ নামের একটি জলছাপ ও এআই দিয়ে তৈরি কনটেন্টের লেবেল দেখতে পাওয়া যায়। ‘Veo’ গুগলের একটি উন্নত এআই টুল, যা টেক্সট প্রম্পট থেকে ৮ সেকেন্ডের বাস্তবসম্মত ভিডিও তৈরি করতে সক্ষম। এই ভিডিওটির দৈর্ঘ্যও ৮ সেকেন্ড।

এ থেকে নিশ্চিত হওয়া যায় যে, প্রচারিত ভিডিওটি কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি দিয়ে তৈরি করা হয়েছে।

সুতরাং, এআই দিয়ে তৈরি একটি ভিডিওকে মাইলস্টোন স্কুল অ্যান্ড কলেজে বিমান বিধ্বস্ত হওয়ার আসল দৃশ্য দাবি করে সামাজিক মাধ্যমে প্রচার করা হয়েছে, যা মিথ্যা।

তথ্যসূত্র

  • Veo
  • Rumor Scanner’s analysis

বয়স্ক ব্যক্তির ‘অবুঝ ছাত্ররা টাকার কাছে বিক্রি হয়ে দেশ ধ্বংস করেছে’ শীর্ষক মন্তব্যর ভিডিওটি এআই দিয়ে তৈরি

সম্প্রতি, সামাজিক যোগাযোগ মাধ্যম ফেসবুকে একজন বয়স্ক ব্যক্তির সাক্ষাৎকারের একটি ভিডিও প্রচার করা হয়েছে। যেখানে গণমাধ্যমকর্মী তার কাছে ৫ আগস্ট সম্পর্কে জানতে চাইলে তাকে ‘অবুঝ ছাত্ররা টাকার কাছে বিক্রি হয়ে দেশ ধ্বংস করেছে’ শীর্ষক মন্তব্য করতে দেখা যায়। 

ফেসবুকে প্রচারিত এমন ভিডিও দেখুন এখানে (আর্কাইভ), এখানে (আর্কাইভ) এবং এখানে (আর্কাইভ)। 

এরূপ দাবিতে ইনস্টাগ্রামে প্রচারিত পোস্ট দেখুন এখানে

টিকটকে প্রচারিত পোস্ট দেখুন এখানে

ফ্যাক্টচেক

রিউমর স্ক্যানার টিমের অনুসন্ধানে দেখা যায়, আন্দোলনকারী শিক্ষার্থীদের নিয়ে করা বয়স্ক ব্যক্তির সাক্ষাৎকার প্রদানের আলোচিত ভিডিওটি আসল নয়। প্রকৃতপক্ষে, কৃত্রিম বুদ্ধিমত্তা বা এআই প্রযুক্তি ব্যবহার করে তৈরি ভুয়া এই ভিডিওটি তৈরি করা হয়েছে।

অনুসন্ধানের শুরুতে আলোচিত ভিডিওটি পর্যালোচনা করে রিউমর স্ক্যানার। এতে ভিডিওটিতে বেশ কিছু এআই সংক্রান্ত অসঙ্গতি লক্ষ্য করা যায়। ভিডিওটির নিচের অংশে দেখতে পাওয়া বাংলা লেখাগুলো অসামঞ্জস্যপূর্ণ যার কোনো অর্থবোধকতা নেই। 

Screenshot: Facebook 

পাশাপশি ভিডিওটির নিচের ডান কোণে ‘Veo’ নামের একটি জলছাপ রয়েছে। অনুসন্ধানে জানা গেছে, ‘Veo’ গুগলের একটি উন্নত এআই টুল, যা টেক্সট প্রম্পট থেকে ৮ সেকেন্ডের বাস্তবসম্মত ভিডিও তৈরি করতে সক্ষম। এই ভিডিওটির দৈর্ঘ্যও ৮ সেকেন্ড। 

Screenshot: Facebook 

এছাড়াও ভিডিওটির উপরের ডান কোণে টিকটকের একটি লোগো দেখতে পাওয়া যায়। যার পাশে ‘আমি বাঙালী’ শীর্ষক লেখা ভেসে উঠে। এ থেকে ধারণা করা যাচ্ছে ভিডিওটি ওই নামের কোনো অ্যাকাউন্ট পরিচালনাকারী তৈরি করতে পারেন।

ভিডিওটি এআই দ্বারা তৈরি কিনা তা যাচাই করতে ভিডিওটিকে এআই কনটেন্ট শনাক্তকারী টুল ক্যান্টিলাক্সে বিশ্লেষণ করা হলে, এটি এআই দিয়ে তৈরি হওয়ার সম্ভাবনা ৭৩ শতাংশ বলে ফলাফল আসে।

Screenshot: Cantilux 

পরবর্তীতে ‘আমি বাঙালী’ নামের ওই টিকটক অ্যাকাউন্টের বিষয়ে অনুসন্ধানে কি-ওয়ার্ড সার্চের মাধ্যমে গত ২৬ জুন টিকটকে প্রচারিত একটি ভিডিও খুঁজে পাওয়া যায়। 

Screenshot: Tiktok

উক্ত ভিডিওটিও অনেকটা একই ধরনের গ্রামভিত্তিক ভিডিও। ভিডিওটিতেও এই ফন্টে লেখা ‘আমি বাঙ্গালী’ শীর্ষক একটি জলছাপ দেখতে পাওয়া যায়। এছাড়াও ভিডিওটি পর্যালোচনা করে দেখা যায়, এটি @আমি বাঙ্গালী নামের একটি অ্যাকাউন্টের ভিডিওর সাথে ডুয়েট করা হয়েছে। 

‘@আমি বাঙ্গালী’ শীর্ষক ট্যাগটিতে ক্লিক করলে aslamhossainoffical1 নামের একটি টিকটক অ্যাকাউন্টে নিয়ে যায়। উক্ত অ্যাকাউন্ট ব্যতীত ‘আমি বাঙ্গালী’ নামের কোনো অ্যাকাউন্ট টিকটকে খুঁজে পাওয়া যায়নি। পরবর্তীতে অ্যাকাউন্টটি পর্যালোচনা করে গত ২৬ জুন প্রচারিত মূল ভিডিওটি খুঁজে পাওয়া যায়। 

Screenshot: Tiktok

যেখানে প্রচারকারী ভিডিওটিকে এআই দ্বারা তৈরি কনটেন্ট বলে লেভেল করেছেন। এছাড়াও একই ধরনের আরও বেশকিছু ভিডিও অ্যাকাউন্টটিতে দেখতে পাওয়া যায়। যার প্রায় সবগুলোতেই ‘আমি বাঙ্গালী’ শীর্ষক জলছাপ রয়েছে। এ থেকে ধারণা করা যাচ্ছে, উক্ত ব্যক্তিই আলোচিত দাবিতে প্রচারিত ভিডিওটির ক্রিয়েটর।

সুতরাং, এআই দিয়ে তৈরি একটি ভিডিওকে বয়স্ক ব্যক্তির গণমাধ্যমে আন্দোলনকারী শিক্ষার্থীদের নিয়ে ‘অবুঝ ছাত্ররা টাকার কাছে বিক্রি হয়ে দেশ ধ্বংস করেছে’ শীর্ষক মন্তব্য করার দাবিতে প্রচার করা হয়েছে; যা সম্পূর্ণ মিথ্যা।

তথ্যসূত্র

  • Cantilux
  • User307323971917 Tiktok Account Post
  • Aslamhossainoffical1 Tiktok Account Post
  • Rumor Scanner’s Analysis