ABC NEWS NEPAL | No.1 News channel of Nepal

Accuracy, Balance & Credibility - JOURNALISM

  • गृहपृष्ठ
  • मुख्य समाचार
  • समाचार
  • अन्तर्राष्ट्रिय
  • मनोरञ्जन
  • खेलकुद
  • अन्तर्वार्ता
  • सहित्यकला
  • English
  • समाचार
  • विशेष
  • रिपोर्ट
  • विचार
  • एबीसी विज
  • जीवनशैली
  • प्रवास
  • मनोरञ्जन
  • खेलकुद
  • प्रदेश बिशेष
    • प्रदेश १
    • प्रदेश २
    • बागमती
    • गण्डकी प्रदेश
    • वाग्मती प्रदेश
    • कर्णाली प्रदेश
    • सुदूरपश्चिम प्रदेश
  • सोसल भिडिया
  • Facebook
  • Twitter
  • Youtube
  • Instagram

एआई त्रियामिक अरुचिपूर्ण रोजाईः क्रान्तिकारी प्रविधिलाई कसरी नियमन गर्ने ?


सेबास्टियन एल्बाउम र सेबास्टियन मालाबी
फाल्गुन १, २०८२ शुक्रबार  ८ : ०१ बजे

सरकारले जानाजानी छनोट नगरे प्रविधिले आफैं छनोट गर्छ

२०२२ को अन्त्यमा च्याटजीपीटीको रिलिजसँगै कृत्रिम बुद्धिमत्तालाई नियमन गर्न विश्वव्यापी दौड सुरु भयो । अमेरिकामा बाइडेन प्रशासनले जोखिम पहिचान गर्न प्रोटोकल विकास गर्ने जिम्मेवारीसहित यूएस एआई सेफ्टी इन्स्टिच्युट स्थापना गर्‍यो । क्यानडा, जापान, सिंगापुर, दक्षिण कोरिया, बेलायत र युरोपेली संघले पनि यस्तै निगरानी निकाय बनाए । विश्व नेताहरूले बेल्टचली पार्क (दोस्रो विश्वयुद्धमा सहयोगी कोड ब्रेकरहरूले गोप्य काम गरेको ठाउँ) मा एआईबारे छलफल गरे । त्यसपछि सियोल र पेरिसमा सम्मेलन भए । काम, युद्ध र मानवता नै परिवर्तन गर्ने प्रविधिको सामना गर्दा राजनीतिक प्रतिक्रियाको मञ्च तयार भएको थियो । व्यावसायिक एआई प्रयोगशालाका नेताहरूले पनि समन्वित एआई गभर्नेन्सको माग गरेका थिए ।
आज यस्ता माग दुर्लभ छन् । जेनेरेटिभ एआई मोडलको शक्ति तीव्र रूपमा बढिरहेको छ र सर्वेक्षणहरूले जनतामा रोजगारी विस्थापन र अन्य हानिको डर देखाए पनि सरकार वा निजी क्षेत्रका नेताहरूले राष्ट्रिय वा अन्तर्राष्ट्रिय स्तरमा नियमन सम्भव नभएको ठान्छन् । ट्रम्प प्रशासनको नियमनप्रतिको घृणा (विशेष गरी वैश्विक नियमन) ले यो परिवर्तनको केही हिस्सा व्याख्या गर्छ, तर यो मात्र कारण होइन । प्रविधिलाई छोडिदिन शक्तिशाली प्रोत्साहन छन् । एआई बूमले अमेरिकी अर्थतन्त्रको धेरै वृद्धि गराइरहेको छः यसमा बाधा पुर्‍याउँदा ठूलो लागत पर्न सक्छ । डिपसीक जस्ता शक्तिशाली चिनियाँ एआई मोडलको रिलिजले अमेरिकी सरकारलाई घरेलु प्रयोगशालालाई रोक्न हतोत्साहित गरेको छ, नत्र चीन अगाडि बढ्नेछ ।
एआई बबल फुटे पनि ठूला टेक कम्पनीहरूले तीव्र रूपमा डिप्लोयमेन्ट जारी राख्नेछन् । यो दौड गतिशीलताका कारण एआई गभर्नेन्सको सम्भावना चुनौतीपूर्ण छ । तर धेरै कुरा दाउमा छ, नियमनको प्रयास छोड्न सकिँदैन । ढिलो वा चाँडो (सायद एआई आपत्तिबाट, जस्तै क्रिटिकल पूर्वाधारमा साइबर आक्रमण) यो सत्य स्पष्ट हुनेछ । कृत्रिम बुद्धिमत्ताले औद्योगिक क्रान्तिजत्तिकै सामाजिक र मनोवैज्ञानिक उथलपुथल निम्त्याउँदैछ, जसले राजनीतिक क्रान्ति र विश्वयुद्धको शताब्दी तयार पारेको थियो । कुनै समय सरकारहरूले एआई क्रान्तिलाई आकार नदिनुलाई जिम्मेवारीबाट पन्छिने ठान्नेछन् । क्यालिफोर्निया लगायत अमेरिकी राज्यहरूको नियमनको टुक्राटुक्रा संरचनाले सुसंगत फ्रेमवर्क बनाउन सक्दैन, तर यसले धेरै मानिसहरू ‘केही नगर्ने’ विकल्पबाट असन्तुष्ट भएको देखाउँछ ।
नियमनका पक्षधरहरूले राष्ट्रिय एजेन्डामा एआई फर्किन तयार हुन आफ्नो स्थितिका कमजोरीहरू जाँच्नुपर्छ । २०२३–२४ को सुरक्षा अभियान फेल हुनुको मुख्य कारण यसको व्यापकता थियो । विभिन्न पक्षधरहरूले एआईले निम्त्याउन सक्ने समस्या (रोजगारी विस्थापन, विद्यालयमा क्रिटिकल थिङ्किङ घट्ने, राष्ट्रिय सुरक्षामा खतरा, वातावरणीय लागत, कपीराइट उल्लङ्घन, हेलुसिनेसन, डिपफेक आदि) को लामो सूची बनाए । तर एआई नियमन सफल हुन प्राथमिकता छान्नुपर्छ र स्पष्ट योजना बनाउनुपर्छ । यसका लागि प्रतिस्पर्धी उद्देश्यहरूबीचको ट्रेडअफ बुझ्नुपर्छ र भविष्यमा एआई कसरी विकास हुन्छ भन्ने गलत धारणाहरू सामना गर्नुपर्छ । नियमनकर्ताहरूले व्यावहारिक नीति र अव्यावहारिक नीतिबीच फरक छुट्याउनुपर्छ । व्यावहारिक नीतिले निजी प्रयोगशालाको प्रोत्साहनलाई ध्यान दिन्छ र सरकारलाई उचित अधिकार दिन्छ । उदाहरणका लागि, निजी एआई प्रयोगशालामा ‘रिस्क ट्याक्स’ लगाउँदा सुरक्षा अनुसन्धानमा लगानी बढ्छ । राष्ट्रिय डाटा रेपोजिटरीबाट राजस्व कमाएर सरकारको एआई सुरक्षा निगरानीलाई स्रोत दिन सकिन्छ ।
तीनवटा उद्देश्यको ट्राइलेमा
अमेरिकामा एआई नीति पक्षधरका लक्ष्य तीन श्रेणीमा पर्छन्ः

राष्ट्रिय सुरक्षाः सैन्य र खुफिया सेवाले एआईबाट बलियो हुनुपर्छ ।
आर्थिक सुरक्षाः अमेरिकी व्यवसायले एआई विकास र प्रयोगबाट अन्तर्राष्ट्रिय बजारमा प्रतिस्पर्धी हुनुपर्छ ।
सामाजिक सुरक्षाः मालवेयर जस्ता विषाक्त आउटपुट कम गर्ने, रोजगारी हानि र असमानता रोक्ने, दुरुपयोग रोक्ने, र साइन्स–फिक्सन जस्तो मेसिनले मानव विनाश गर्ने जोखिम कम गर्ने ।

यी तीनै उद्देश्य एकैसाथ पछ्याउँदा एजेन्डा भ्रमपूर्ण र कार्यान्वयन कठिन बन्छ । तीनवटा परिदृश्य हेर्नुहोस्ः
१. राष्ट्रिय र आर्थिक सुरक्षालाई प्राथमिकता दिँदा एआई अनुसन्धान, डाटा सेन्टर र ऊर्जा पूर्वाधारमा अधिकतम लगानी हुन्छ (ट्रम्प प्रशासनको अहिलेको नीति) । तर यसले सामाजिक सुरक्षालाई कमजोर बनाउँछ, जसले मोडल रिलिज ढिलो गरेर जोखिम पहिचान र सुधार गर्न समय दिन्छ ।
२. राष्ट्रिय र सामाजिक सुरक्षालाई प्राथमिकता दिँदा एआईलाई आणविक प्रविधिजस्तै सैन्य र ऊर्जा क्षेत्रमा सीमित राखिन्छ । यसले राज्य र जनतालाई सुरक्षित बनाउँछ तर आर्थिक सुरक्षालाई कमजोर बनाउँछ, व्यावसायिक एआई प्रयोग रोकेर उद्योगलाई प्रतिस्पर्धाबाट पछाडि पार्छ ।
३. आर्थिक र सामाजिक सुरक्षालाई प्राथमिकता दिँदा पूर्ण गतिमा विकास र कडा सुरक्षा नियम लागू हुन्छ । ठूला टेक कम्पनीहरूले यसलाई ‘जिम्मेवार नवप्रवर्तन’ भन्छन् । यसले सार्वजनिक विश्वास बढाउँछ र दीर्घकालीन अवलम्वन बढाउँछ । तर यसले राष्ट्रिय सुरक्षालाई कमजोर बनाउँछ किनकि ‘जिम्मेवार’ देशहरूले ढिलो गरे पनि ‘गैरजिम्मेवार’ प्रतिद्वन्द्वीहरूले स्वायत्त हतियार र साइबर क्षमता तीव्र रूपमा डिप्लोय गर्छन् ।
सिंगुलारिटी भ्रम
यी ट्रेडअफ नेभिगेट गर्न गाह्रो छ, तर ‘सिंगुलारिटी’ को व्यापक भ्रमले झन् जटिल बनाएको छ । भर्नर भिन्जेले ३० वर्षअघि प्रस्ताव गरेको र रे कुर्जवाइलले अँगालेको यो अवधारणाअनुसार एआई मोडलले आफ्नै कोड अपग्रेड गर्न सक्ने भएपछि ‘रेकर्सिभ सेल्फ–इम्प्रुभमेन्ट’ को फिडब्याक लूपले बुद्धिमत्ताको विस्फोट निम्त्याउँछ ।
यदि यो मोडेल सही छ भने ट्राइलेमाको समाधान सरल हुन्छः सिंगुलारिटी नजिक छ भने राष्ट्रिय सुरक्षाका लागि छोटो अवधिको लगानी व्यर्थ हुन्छ, सुपरइन्टेलिजेन्सले सबैलाई उछिन्छ । आर्थिक सुरक्षाका लागि आजको व्यावसायिक एआई अपनाइ पनि व्यर्थ हुन्छ । सिंगुलारिटी नजिक छ भने मात्र दुई उद्देश्य महत्वपूर्ण हुन्छन्ः प्रतिद्वन्द्वीभन्दा पहिले पुग्नु (सैन्य र आर्थिक सुरक्षा पछि आउँछ) र सामाजिक सुरक्षाका लागि मेसिनले मानवलाई दास बनाउने वा विनाश गर्ने जोखिम कम गर्नु । यो ‘जिम्मेवार नवप्रवर्तन’ को संस्करण होः सुपरइन्टेलिजेन्स दौडमा पुग्नु र सावधानीपूर्वक रोलआउट गर्नु ।
वाशिङ्टनका निर्यात नियन्त्रण समर्थकहरूले सिंगुलारिटी धारणाबाट चीनलाई ढिलो पार्नु फाइदाजनक ठान्छन् । तर सिंगुलारिटी हुने सम्भावना कम छ । सीमित रेकर्सिभ सेल्फ–इम्प्रुभमेन्ट अहिले पनि छ (जस्तै एन्थ्रोपिकको क्लाउडले अर्को पुस्ताको मोडल लेख्न मद्दत गर्छं) तर प्रविधिले आफैं एजेन्सी प्राप्त गर्दैन । शक्तिशाली हुन सुपरइन्टेलिजेन्सलाई कार्य गर्ने वातावरण चाहिन्छ, जुन मानिसले डिजाइन र नियन्त्रण गर्छन् ।
उदाहरणः सुपरइन्टेलिजेन्सले धेरैजसो वकिललाई प्रतिस्थापन गर्न सक्छ तर यसका लागि क्लाइन्ट डाटा, दायित्व प्रश्न, नियमन स्वीकृति, साइबर आक्रमणबाट सुरक्षा र कामदार लबिङ जस्ता अवरोध पार गर्नुपर्छ । प्रत्येक कदममा नयाँ कानुनी र संस्थागत बाधा आउँछन् । सुपरइन्टेलिजेन्सले मानिसलाई छिट्टै प्रतिस्थापन गर्दैन ।
सिंगुलारिटीले भौतिक अवरोध पनि बेवास्ता गर्छ । सुपरइन्टेलिजेन्सलाई लाखौं काममा लागू गर्न सेमिकन्डक्टर र्‍याक, कूलिङ सिस्टम र ठूलो बिजुली (उर्जा) चाहिन्छ । यसका लागि चिप कारखाना, दुर्लभ पृथ्वी तत्व, ऊर्जा ग्रिड विस्तार चाहिन्छ । यी सबैमा मानिसको हात हुन्छ ।
वास्तवमा सुपरइन्टेलिजेन्स क्रमिक रूपमा आउँछ, एकै क्षणमा होइन । यसले अमेरिका–चीन दौड लामो हुने देखाउँछ – जसले सेमिकन्डक्टर निर्यात नियन्त्रणको औचित्य कम गर्छ । ‘सेफ सिंगुलारिटी’ तर्फ दौडने तर्क पनि कमजोर हुन्छ किनकि एआई नीति ट्रेडअफ लामो समयसम्म चल्छ ।
व्यावहारिकता परीक्षण
ट्राइलेमा बुझेपछि र सिंगुलारिटी भ्रमबाट बचेर नियमन पक्षधरले अन्तिम परीक्षा दिनुपर्छः केही लोकप्रिय चिन्ता नीति प्राथमिकता हुनु हुँदैन । स्पष्ट उदाहरणः एआई मोडलले हेलुसिनेसन गर्छ भन्ने डर । २०२३ सम्म ठूला भाषा मोडल विषाक्त र अविश्वसनीय थिए । तर २०२३ पछि हेलुसिनेसन घटेको छ । केही सन्दर्भमा एआईले विशेषज्ञ मानिसभन्दा बढी सही जवाफ दिन्छ । प्रयोगशालालाई मोडल सुधार्न प्रोत्साहन छ ।
अन्य चिन्ता जायज छन् तर व्यावहारिक छैनन् । एआईले ज्ञान कामदारको रोजगारी खोस्छ तर रोजगारी संरक्षणलाई प्राथमिकता बनाउन सकिँदैन किनकि सरकारले यसमा धेरै गर्न सक्दैन । केही वकिल, रेडियोग्राफर र हलिउड लेखकहरूले एआई प्रयोग सिकेर बाँच्न सक्छन् । विस्थापितलाई सार्वजनिक सुरक्षा जाल (जस्तै युनिभर्सल बेसिक इनकम) चाहिन्छ तर प्रविधि विकास रोक्नु अव्यावहारिक छ ।
सेमिकन्डक्टर निर्यात नियन्त्रण पनि व्यावहारिक छैन । बाइडेन प्रशासनले २०२२ को अन्त्यमा चीनलाई उच्चस्तरीय चिप रोकेर तीनै उद्देश्य पूरा गर्ने आशा गरेको थियो । तर चीनले आफ्नै चिप विकासमा ध्यान दिएको छ र तस्करी रोक्न गाह्रो छ । चिनियाँ मोडल निर्माताले कमजोर चिपको ठूलो संख्या प्रयोग गरेर र सफ्टवेयर सुधार गरेर अगाडि बढेका छन् । यसले अमेरिकी प्रयोगशालालाई मात्र कमजोर बनाउँछ ।
ट्रेडअफलाई अँगाल्नुहोस्
एआई नियमनको सबैभन्दा राम्रो बाटो दुई सम्झौता अँगाल्नु हो, जसले थोरै आर्थिक लागतमा ठूलो सामाजिक सुरक्षा दिन्छ ।
पहिलो सम्झौताः मोडल सुरक्षा निजी र सार्वजनिक दुवै वस्तु हो । प्रयोगशालालाई प्रयोगकर्ताका लागि सुरक्षित मोडल बनाउन प्रोत्साहन हुन्छ तर प्रयोगकर्तालाई हानि नपुर्‍याउने मोडलले पनि सार्वजनिक सुरक्षामा हानि पुर्‍याउन सक्छ (जस्तै चुनावी धाँधली फैलाउने हजारौं सामाग्रीहरु) ) । निजी प्रयोगशालालाई यसको बाह्य प्रभावबाट बच्न प्रोत्साहन हुँदैन । ‘रिस्क ट्याक्स’ ले यो कमी पूरा गर्न सक्छ । उदाहरणः १ अर्ब डलर खर्च गरेर मोडल बनाउने प्रयोगशालालाई ५ प्रतिशत ट्याक्स (५० मिलियन डलर) लाग्छ । यदि २०० मिलियन डलर सुरक्षा अनुसन्धानमा खर्च गरे २५ प्रतिशत क्रेडिट (५० मिलियन) पाउँछन् । यसले सुरक्षा अनुसन्धानमा लगानी बढाउँछ ।
दोस्रो सम्झौताः सरकारले आफ्नो गोप्य डाटालाई प्रयोग गरेर एआई कम्पनीसँग नजिकको सहकार्य गर्नुपर्छ । उच्च गुणस्तरको सार्वजनिक टेक्स्ट अब सकिएको छ, अब नवप्रवर्तन गोप्य डाटासेटमा छ । ट्रम्प प्रशासनले ऊर्जा विभागको १७ राष्ट्रिय प्रयोगशालाको वैज्ञानिक डाटा निजी एआई प्रयोगशालालाई उपलब्ध गराउने योजना बनाएको छ । यो पहललाई स्वास्थ्य, कर डाटा आदि क्षेत्रमा विस्तार गर्न सकिन्छ ।
सरकारले सेन्टर फर एआई स्ट्यान्डर्ड्स एन्ड इनोभेसन (सीएआईएसआई) अन्तर्गत राष्ट्रिय डाटा रेपोजिटरी बनाउन सक्छ । यसले गोपनीयता मापदण्ड पूरा गरेर डाटा सफा र एनोनिमाइज गर्छ र निजी डेभलपरलाई बेच्छ । राजस्वले सीएआईएसआईको क्षमता बढाउँछ ।
सीएआईएसआईलाई बलियो बनाउन थप अधिकार चाहिन्छ । बाइडेन प्रशासनले फ्रन्टियर मोडल डेभलपरलाई वाणिज्य विभागमा सुरक्षा जानकारी दिन बाध्य बनाएको थियो । ट्रम्पले यसलाई स्थगित गरेका छन् । तर जानकारीको अधिकार मात्र होइन, खतरनाक मोडल रिलिज रोक्ने अधिकार पनि चाहिन्छ – जस्तै खाद्य तथा औषधि प्रशासनले असुरक्षित औषधि रोक्छ ।
यी प्रस्तावले निजी प्रयोगशालाको प्रोत्साहनलाई ध्यान दिन्छन् र सरकारलाई उचित अधिकार दिन्छन् । यसले थोरै आर्थिक लागतमा ठूलो सामाजिक सुरक्षा दिन्छ ।
नयाँ ननप्रोलिफरेसन विजयतर्फ
यी प्रस्तावका आलोचकहरूले भन्न सक्छन्ः चिनियाँ वा ओपन–वेट मोडल असुरक्षित भए अमेरिकी प्रयोगशालामा ट्याक्स र नियमनको के अर्थ ? तर अमेरिकी प्रोप्राइटरी मोडल अझै बलियो छन्, विशेष गरी जटिल तर्क र मल्टिमोडल काममा । यदि अमेरिकी नियमनकर्ताको लक्ष्य सबैभन्दा नवप्रवर्तनकारी, शक्तिशाली र खतरनाक मोडल ट्र्याक गर्नु हो भने प्रोप्राइटरी प्रयोगशालामा फोकस उपयुक्त छ ।
यसले समग्र उद्योगमा सकारात्मक प्रभाव पार्छ । प्रोप्राइटरी प्रयोगशालालाई सुरक्षा अनुसन्धानमा खर्च गर्न बाध्य बनाउँदा सबै मोडलमा सुधार हुन्छ । इन्क्रिप्सन र मल्टिफ्याक्टर अथेन्टिकेसन जस्तै सुरुमा उच्चस्तरीय सफ्टवेयरमा सीमित थिए, ती पछि सबैतिर फैलिए । एआई सुरक्षा विधि पनि यस्तै हुनेछ । प्रोप्राइटरी मोडलले सुरक्षा एड–अनको मूल्य देखाउँदा ओपन–वेट मोडलमा यसको अभावलाई दोषपूर्ण ठानिन्छ । यो बजार दबाब र सीएआईएसआईको ब्ल्याकलिस्ट अधिकारले सम्पूर्ण उद्योगलाई अनुशासित गर्छ ।
प्रोप्राइटरी एआई नियमनको संस्थागत पूर्वाधार बनाउँदा ओपन–वेट प्रणालीमा अन्तर्राष्ट्रिय सम्झौताको आधार तयार हुन्छ । आज अमेरिका–चीन सम्बन्ध खराब भएकाले ओपन–वेट नियन्त्रण गर्न गाह्रो छ तर सम्बन्ध सुध्रिएमा सम्भव छ । शीतयुद्धका बेलाको क्युबा मिसाइल संकटपछि पनि १९६८ मा आणविक ननप्रोलिफरेसन सन्धि भयो । अमेरिकाले ओपन–वेट एआईमा पनि यस्तै ननप्रोलिफरेसन विजय हासिल गर्न सक्छ ।
एआई नियमनका पक्षधरहरूले कठिन छनोट सामना गर्नुपर्छ – केही आर्थिक, सामाजिक वा राष्ट्रिय सुरक्षाको बलिदान दिनुपर्छ । तर ट्रेडअफलाई अँगाल्नु राम्रो हो । सरकारले जानाजानी छनोट नगरे प्रविधिले आफैं छनोट गर्छ ।

(सेबास्टियन एल्बाउम भर्जिनिया विश्वविद्यालयका कम्प्युटर विज्ञानका प्राध्यापक तथा काउन्सिल अन फरेन रिलेसन्सका एडजंक्ट सिनियर फेलो हुन् । सेबास्टियन मालाबी काउन्सिल अन फरेन रिलेसन्सका सिनियर फेलो तथा आगामी पुस्तक ‘द इन्फिनिटी मेसिनः डेमिस हासाबिस, डीपमाइन्ड, एन्ड द रेस फर सुपरइन्टेलिजेन्स’ का लेखक हुन् ।)
फरेन अफेयर्सबाट

प्रतिक्रिया दिनुहोस्

भर्खरै

डोल्पामा दाजुभाइबीचको रोचक भिडन्त: भाइको वर्चस्व तोड्न दाइ मैदानमा

बंगलादेशको मतपरिणाम: ‘क्रान्तिकारी’ युवाहरूको शर्मनाक हार !

सम्बन्धित

डोल्पामा दाजुभाइबीचको रोचक भिडन्त: भाइको वर्चस्व तोड्न दाइ मैदानमा

बंगलादेशको मतपरिणाम: ‘क्रान्तिकारी’ युवाहरूको शर्मनाक हार !

हिजो व्यवस्था फेर्न बन्दुक बोक्यौं, अब अवस्था फेर्न समृद्धिको झण्डा बोक्छौं : प्रचण्ड

रुपन्देही १ मा रोचक प्रतिस्पर्धा : नयाँ भर्सेस पुराना, तर बहुपक्षीय प्रतिस्पर्धा (तथ्य,व्यक्तित्व र विरासत विस्तृत)

जसपाको चुनावी घोषणापत्र: संविधान पुनरावलोकन आयोग गठनको प्रस्ताव (पूर्णपाठ)

रास्वपा रणनीति : काठमाडौंका दुई क्षेत्र र चितवन मात्र ग्रिन जोन, अन्यत्र सबैतिर त्रास, अब के गर्ने ?‘

ABC NEWS NEPAL | No.1 News channel of Nepal
एबीसी मिडिया ग्रुप प्रा.लि.
  • सूचना विभागमा दर्ता नं. : २००१।०७७–०७८
  • कार्यालय सम्पर्क
  • New Plaza, Putalisadak Kathmandu - 30
    +977 01 4240666 / 977-014011122
    Admin: [email protected]
    News: [email protected]
    विज्ञापनका लागि सम्पर्क
  • +977 9802082541, 9802018150
    [email protected]
साइट नेभिगेशन
  • गृहपृष्‍ठ
  • समाचार
  • विशेष
  • अन्तर्वार्ता
  • एबीसी विज
  • जीवनशैली
  • मनोरञ्जन
  • विचार
  • SS Opinion
एबीसी मिडिया ग्रुप प्रा.लि.टीम
  • अध्यक्ष / प्रधान सम्पादक : शुभ शंकर कँडेल
  • प्रबन्ध निर्देशक : शारदा शर्मा
  • सम्पादक : डण्ड गुरुङ
  • सह-सम्पादक : कविराज बुढाक्षेत्री
©2026 ABC NEWS NEPAL | No.1 News channel of Nepal | Website by appharu.com