20250607 152323

ठेकेदार ने AI से बनाई फर्जी पक्की सड़क, इंजीनियर को धोखा देकर पास कराया बिल , वीडियो वायरल

ठेकेदार ने AI से बनाई फर्जी पक्की सड़क, इंजीनियर को धोखा देकर पास कराया बिल , वीडियो वायरल

WhatsApp Group Join Now
Telegram Group Join Now
Instagram Group Join Now
Thank you for reading this post, don't forget to subscribe!

सोशल मीडिया पर एक वायरल वीडियो ने सरकारी कार्यों में आर्टिफिशियल इंटेलिजेंस (AI) के दुरुपयोग का चौंकाने वाला मामला सामने लाया है। वीडियो में दावा किया गया है कि एक ठेकेदार ने कच्ची सड़क की तस्वीर को AI टूल, संभवतः ChatGPT या किसी अन्य इमेज एडिटिंग AI, की मदद से पक्की सीमेंट-कंक्रीट (CC) सड़क में बदल दिया। इस नकली तस्वीर को ठेकेदार ने व्हाट्सएप के जरिए इंजीनियर को भेजा, जिसे देखकर इंजीनियर ने बिना मौके का निरीक्षण किए काम की तारीफ की और बिल पास करने की बात कही। यह घटना AI के गलत इस्तेमाल और सरकारी प्रक्रियाओं में सत्यापन की कमी को उजागर करती है।

  •                                   वायरल वीडियो

घटना का विवरण:
क्या हुआ? वीडियो में एक व्यक्ति, जिसे ठेकेदार बताया जा रहा है, एक कच्ची सड़क की तस्वीर खींचता है। वह AI टूल को निर्देश देता है कि इस तस्वीर को पक्की CC सड़क में बदल दे। कुछ ही सेकंड में AI तस्वीर को एडिट कर चमचमाती सड़क बना देता है, जिसमें सफेद पट्टियाँ और पक्के गटर भी दिखाए जाते हैं।
इंजीनियर की प्रतिक्रिया: ठेकेदार इस नकली तस्वीर को इंजीनियर को व्हाट्सएप पर भेजता है। इंजीनियर, जो तस्वीर को असली मान लेता है, जवाब देता है, “काम अच्छा हुआ है, बिल भेज दो, पैसा मिल जाएगा।”
वायरल वीडियो: यह वीडियो इंस्टाग्राम पर
@sndconstruction
.india अकाउंट से शेयर किया गया, जिसे 40 लाख से ज्यादा बार देखा जा चुका है।
सोशल मीडिया पर प्रतिक्रियाएँ:
एक यूजर ने लिखा, “ये ठेकेदार तो फिल्मों के ठगों से भी आगे निकला।”
दूसरे ने मजाक में कहा, “अब AI से देश बनेगा या बिगड़ेगा।”
कुछ यूजर्स ने इसे “डिजिटल ठगी” करार दिया, जबकि एक यूजर ने लिखा, “नई रोड को टूटा हुआ बना दो, दोबारा टेंडर लेना है।”

AI के दुरुपयोग की चिंता:
जाहिर है यह घटना AI के गलत इस्तेमाल की बढ़ती समस्या को रेखांकित करती है। पहले भी AI-जनरेटेड डीपफेक वीडियो और तस्वीरों का उपयोग धोखाधड़ी के लिए हो चुका है,

नोट: स्थान और ठेकेदार की पहचान की पुष्टि न होने के कारण, इस खबर को पूरी तरह सत्यापित नहीं माना जा सकता। पाठकों से अनुरोध है कि वे ऐसी खबरों को सावधानी से लें और आधिकारिक स्रोतों से पुष्टि करें।

Share via
Share via