अप्रत्याशित लागूलाई अस्वीकार गर्ने व्यक्ति र संगठनहरूको बढ्दो प्रवृत्ति छ AI तिनीहरूको जीवनमा। डिसेम्बर 2023 मा, द न्यूयोर्क टाइम्सले ओपनएआई र माइक्रोसफ्टलाई मुद्दा हाल्यो प्रतिलिपि अधिकार उल्लङ्घनको लागि। मार्च 2024 मा, तीन लेखकहरूले क्यालिफोर्नियामा विरुद्ध एक वर्ग कार्य दायर गरे Nvidia कथित रूपमा यसको AI प्लेटफर्म NeMo लाई तिनीहरूको प्रतिलिपि अधिकार कार्यमा तालिम दिएकोमा। दुई महिना पछि, ए-लिस्ट अभिनेत्री स्कारलेट जोहानसनले OpenAI लाई कानुनी पत्र पठाए जब उनले महसुस गरे कि यसको नयाँ ChatGPT आवाज उनको जस्तै “अत्यन्तै मिल्दोजुल्दो” थियो।
प्रविधि यहाँ समस्या होइन। शक्ति गतिशील छ। मानिसहरूले बुझ्छन् कि यो प्रविधि तिनीहरूको डेटामा बनाइएको छ, प्रायः हाम्रो अनुमति बिना। AI मा जनताको विश्वास घट्दै गएकोमा कुनै अचम्मको कुरा होइन। द्वारा हालै गरिएको एक अध्ययन प्यू रिसर्च मध्य र दक्षिण अमेरिकी, अफ्रिकी र मध्य पूर्वी देशहरूका धेरैजसो मानिसहरूले प्रतिध्वनि गरेको भावना एआई बारे आधाभन्दा बढी अमेरिकीहरू उत्साहित भएको भन्दा बढी चिन्तित रहेको देखाउँछ। विश्व जोखिम सर्वेक्षण।
2025 मा, हामी मानिसहरूले AI कसरी प्रयोग गरिन्छ भन्ने बारे थप नियन्त्रणको माग गरेको देख्नेछौं। त्यो कसरी हासिल हुनेछ? एउटा उदाहरण रेड टिमिङ हो, सेनाबाट उधारिएको अभ्यास र साइबर सुरक्षामा प्रयोग गरिन्छ। रातो टोली बनाउने अभ्यासमा, बाह्य विशेषज्ञहरूलाई “घुसाउन” वा प्रणाली तोड्न भनिएको छ। यसले तपाइँको प्रतिरक्षा कहाँ गलत हुन सक्छ भन्ने परीक्षणको रूपमा कार्य गर्दछ, त्यसैले तपाइँ तिनीहरूलाई ठीक गर्न सक्नुहुन्छ।
रेड टिमिङलाई प्रमुख एआई कम्पनीहरूले आफ्नो मोडेलमा समस्याहरू फेला पार्न प्रयोग गर्छन्, तर सार्वजनिक प्रयोगको अभ्यासको रूपमा अझै व्यापक रूपमा प्रयोग गरिएको छैन। त्यो 2025 मा परिवर्तन हुनेछ।
कानुनी फर्म DLA पाइपर, उदाहरणका लागि, अब एआई प्रणालीहरू कानुनी ढाँचाहरू अनुरूप छन् कि छैनन् भनेर प्रत्यक्ष परीक्षण गर्न वकीलहरूसँग रातो टोली प्रयोग गर्दछ। मेरो गैर-नाफामुखी, मानवीय बुद्धिमत्ता, भेदभाव र पूर्वाग्रहको लागि AI परीक्षण गर्न गैर-प्राविधिक विशेषज्ञहरू, सरकारहरू र नागरिक समाज संगठनहरूसँग रातो टोली बनाउने अभ्यासहरू बनाउँछ। 2023 मा, हामीले 2,200-व्यक्तिको रातो टोली अभ्यास गर्यौं जुन ह्वाइट हाउसद्वारा समर्थित थियो। 2025 मा, हाम्रो रातो टोलीका कार्यक्रमहरूले इस्लामोफोबियाको लागि AI मोडेलहरू मूल्याङ्कन गर्न र महिलाहरू विरुद्ध अनलाइन उत्पीडन सक्षम पार्ने क्षमताका लागि नियमित मानिसहरूको प्रत्यक्ष अनुभवलाई आकर्षित गर्नेछ।
अत्यधिक रूपमा, जब म यी अभ्यासहरू मध्ये कुनै एक होस्ट गर्छु, मलाई सोधिएको सबैभन्दा सामान्य प्रश्न हो कि हामी समस्याहरू पहिचान गर्ने देखि समस्याहरू आफैं समाधान गर्न कसरी विकसित हुन सक्छौं। अर्को शब्दमा, मानिसहरू मर्मत गर्ने अधिकार चाहन्छन्।
मर्मत गर्ने AI अधिकार यस्तो देखिन सक्छ — प्रयोगकर्तासँग AI मा निदान चलाउने, कुनै पनि विसंगतिहरू रिपोर्ट गर्ने र कम्पनीले कहिले समाधान गरेको हेर्न सक्ने क्षमता हुन सक्छ। तेस्रो-पक्ष-समूहहरू, जस्तै नैतिक ह्याकरहरूले, जो कोहीले पहुँच गर्न सक्ने समस्याहरूको लागि प्याच वा समाधानहरू सिर्जना गर्न सक्छन्। वा, तपाइँ एआई प्रणालीको मूल्याङ्कन गर्न र तपाइँको लागि यसलाई अनुकूलित गर्न एक स्वतन्त्र मान्यता प्राप्त पार्टी भाडामा लिन सक्नुहुन्छ।
जबकि यो आज एक अमूर्त विचार हो, हामी भविष्यमा वास्तविकता हुन मर्मत गर्ने अधिकारको लागि चरण सेट गर्दैछौं। वर्तमान, खतरनाक पावर डायनामिकलाई उल्टाउन केही काम लाग्नेछ — हामी द्रुत रूपमा एउटा यस्तो संसारलाई सामान्य बनाउन धकेलिरहेका छौं जहाँ AI कम्पनीहरूले नयाँ र परीक्षण नगरिएका AI मोडेलहरू वास्तविक-विश्व प्रणालीहरूमा राख्छन्, नियमित मानिसहरूलाई संपार्श्विक क्षतिको रूपमा। मर्मत गर्ने अधिकारले प्रत्येक व्यक्तिलाई आफ्नो जीवनमा AI कसरी प्रयोग गरिन्छ भनेर नियन्त्रण गर्ने क्षमता दिन्छ। २०२४ विश्व एआईको व्यापकता र प्रभावको लागि जागृत भएको वर्ष थियो। 2025 हामीले हाम्रो अधिकार माग्ने वर्ष हो।