ओपनएआई ने यह सुनिश्चित करने के लिए कई नियामक संशोधनों को लागू किया है कि इसके जेनरेटिव एआई-आधारित उत्पाद, जैसे चैटजीपीटी, डल-ई और अन्य, आने वाले चुनावों के दौरान 'लोकतांत्रिक प्रक्रिया' को कमजोर न करें। विशेष रूप से, इस वर्ष के चुनाव अमेरिका, ब्रिटेन और भारत सहित दुनिया के सबसे शक्तिशाली लोकतंत्रों में होंगे।
Image Source: Times of India
ओपनएआई ने नए समायोजनों की घोषणा करते हुए एक ब्लॉग पोस्ट में कहा, "हम यह सुनिश्चित करना चाहते हैं कि हमारे एआई सिस्टम निर्मित, तैनात और सुरक्षित रूप से उपयोग किए जाएं।" किसी भी नई तकनीक की तरह इन तकनीकों के भी फायदे और नुकसान हैं। हमारी रणनीति सही मतदान जानकारी को बढ़ावा देने, मापे गए मानकों को लागू करने और पारदर्शिता बढ़ाने के द्वारा अपने प्लेटफ़ॉर्म सुरक्षा प्रयासों को जारी रखने की है क्योंकि हम 2024 में दुनिया के सबसे बड़े लोकतंत्रों में चुनावों के लिए तैयार हैं।"
"हम प्रासंगिक दुरुपयोग को रोकने और रोकने का प्रयास करते हैं - जैसे भ्रामक "डीपफेक", बड़े पैमाने पर प्रभाव संचालन, या उम्मीदवारों के रूप में प्रस्तुत चैटबॉट।" सैम ऑल्टमैन के नेतृत्व वाले स्टार्टअप ने कहा।
2024 के चुनावों के लिए OpenAI की संशोधित रणनीतियाँ
ओपनएआई ने घोषणा की कि वह लॉबिंग और राजनीतिक अभियानों के लिए अपनी प्रौद्योगिकियों के उपयोग की अनुमति देगा। इसके अतिरिक्त, निगम उन चैटबॉट्स के विकास को सीमित कर रहा है जो स्थानीय सरकारों या उम्मीदवारों जैसे वास्तविक व्यक्तियों का प्रतिरूपण कर सकते हैं।
सैन फ्रांसिस्को स्थित एआई स्टार्टअप के अनुसार, यह उन अनुप्रयोगों को भी स्वीकार नहीं करेगा जो मतदाताओं को हतोत्साहित करते हैं या लोगों को राजनीतिक प्रक्रिया में भाग लेने से रोकने के लिए योग्यता का झूठा दावा करते हैं।
इसके अतिरिक्त, OpenAI ने घोषणा की है कि वह Dall-E द्वारा उत्पादित तस्वीरों की पहचान करने में उपयोगकर्ताओं की सहायता के लिए एक उद्गम वर्गीकरणकर्ता का उपयोग करेगा। कंपनी ने घोषणा की कि परीक्षकों के पहले समूह, जिसमें शोधकर्ता और पत्रकार शामिल हैं, को जल्द ही इसके नए टूल तक पहुंच मिलेगी।
इस रहस्योद्घाटन से पहले राजनीतिक विज्ञापनों को अपने जेनरेटिव एआई-आधारित विज्ञापन निर्माण टूल का उपयोग करने से प्रतिबंधित करने के अलावा, फेसबुक और इंस्टाग्राम जैसे सोशल मीडिया दिग्गज मेटा ने इस नई तकनीक से जुड़े "संभावित जोखिमों" के कारण ऐसा किया।
मेटा ने अपनी वेबसाइट पर एक ब्लॉग पोस्ट में कहा, "हमें लगता है कि यह दृष्टिकोण हमें संभावित जोखिमों को बेहतर ढंग से समझने और विनियमित उद्योगों में संभावित संवेदनशील विषयों से संबंधित विज्ञापनों में जेनरेटिव एआई के उपयोग के लिए सही सुरक्षा उपाय बनाने की अनुमति देगा।"
You may also read English translation
OpenAI has implemented several regulatory modifications to ensure that its generative AI-based products, like ChatGPT, Dall-e, and others, do not undermine the 'democratic process' during approaching elections. Notably, this year's elections will take place in the world's most powerful democracies, including the US, UK, and India.
OpenAI stated, "We want to make sure that our AI systems are built, deployed, and used safely," in a blog post announcing the new adjustments. These technologies have advantages and disadvantages like any new technology. Our strategy is to continue our platform safety efforts by promoting correct voting information, enforcing measured standards, and enhancing transparency as we get ready for elections in the largest democracies in the world in 2024."
"We strive to foresee and stop pertinent abuse—like deceptive "deepfakes," large-scale influence operations, or chatbots posing as candidates." the startup led by Sam Altman stated.
OpenAI's revised strategies for the 2024 elections
OpenAI declared that it will permit the use of its technologies for lobbying and political campaigns. Additionally, the corporation i limiting the development of chatbots that can impersonate local governments or actual individuals, such as candidates.
According to the San Francisco-based AI startup, it would also not accept applications that discourage voters or falsely claim qualifications to prevent people from taking part in the political process.
Additionally, OpenAI has declared that it would put a provenance classifier into use to assist users in identifying photographs produced by Dall-E. The company announced that the first group of testers, comprising researchers and journalists, will soon get access to its new tool.
In addition to prohibiting political advertisements from using its generative AI-based ad creation tools before this revelation, Meta, a social media behemoth like Facebook and Instagram, did so because of the "potential risks" associated with this new technology.
"We think this approach will allow us to better understand potential risks and build the right safeguards for the use of Generative AI in ads that relate to potentially sensitive topics in regulated industries," Meta stated in a blog post on its website.
Image Source: Zee News
Ⓒ Copyright 2023. All Rights Reserved Powered by Vygr Media.