23 May 2023 5:57 AM GMT
Summary
- നിയന്ത്രണത്തിന് ആള്ട്ട്മാന്റെ 3 നിര്ദേശങ്ങള്
- ചെറിയ ശേഷിയുടെ പ്രൊജക്റ്റുകളില് നിയന്ത്രണ ഭാരം അരുത്
- താരതമ്യം ആണവോര്ജ്ജത്തോടും സിന്തറ്റിക് ബയോളജിയോടും
അടുത്ത പത്ത് വർഷത്തിനുള്ളിൽ, എഐ സിസ്റ്റങ്ങള് പല മേഖലകളിലും മനുഷ്യ വൈദഗ്ധ്യത്തെ മറികടക്കുമെന്നും വലിയ കോർപ്പറേഷനുകളെപ്പോലെ ഉൽപ്പാദനക്ഷമതയുള്ളതായിരിക്കുമെന്നും ഓപ്പൺഎഐ സിഇഒ സാം ആൾട്ട്മാൻ. ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് ലോകത്ത് ഏറെ ചര്ച്ചാ വിഷയമായ ചാറ്റ് ജിപിടി-യുടെ സൃഷ്ടാക്കളാണ് ഓപ്പണ് എഐ. വലിയ നേട്ടങ്ങൾക്കൊപ്പം നിരവധി അപകട സാധ്യതകളുമുള്ളതാണ് സൂപ്പർ ഇന്റലിജൻസ് എന്ന് ആള്ട്ട്മാന് മറ്റു രണ്ട് വിദഗ്ധര്ക്കൊപ്പം ചേര്ന്ന് എഴുതിയ ലേഖനത്തില് പറയുന്നു. എഐ നിയന്ത്രണ സംവിധാനത്തിനുള്ള വിശദമായ ഒരു പദ്ധതിയും ലേഖനം മുന്നോട്ടുവെക്കുന്നുണ്ട്.
ആണവോര്ജ്ജം, സിന്തറ്റിക് ബയോളജി തുടങ്ങിയ മേഖലകള്ക്കുള്ള നിയന്ത്രണത്തോടാണ് എഐ നിയന്ത്രണത്തെ അദ്ദേഹം ചരിത്രപരമായി താരതമ്യപ്പെടുത്തുന്നത്. അപകടസാധ്യതകൾ കാരണം പ്രത്യേക ചികിത്സയും ഏകോപനവും ആവശ്യമായ മേഖലകളാണ് ഇവയെല്ലാമെന്ന് ആള്ട്ട്മാന് ചൂണ്ടിക്കാണിക്കുന്നു. ചാറ്റ്ജിപിടിക്ക് പുറമേ ഗൂഗിള് ബാര്ഡ് പോലെ വളര്ന്നു വരുന്ന മറ്റ് എഐ സംവിധാനങ്ങളെയും ലേഖനത്തില് അദ്ദേഹം പരാമര്ശിക്കുന്നുണ്ട്.
നിയന്ത്രിക്കാന് 3 വഴികള്
സൂപ്പർ ഇന്റലിജൻസിന്റെ വികാസത്തെ വിജയകരമായി മുന്നോട്ട് നയിക്കുന്നതിന് മൂന്ന് പ്രധാന ആശയങ്ങളാണ് അദ്ദേഹം നിർദ്ദേശിക്കുന്നത്. ഏകോപനമാണ് ആദ്യത്തേത്, സുരക്ഷയും എഐ സമൂഹവുമായി ഒത്തുപോകുന്നതും ഉറപ്പാക്കാൻ ഏകോപനം ആവശ്യമാണ്. സർക്കാരുകള് ഒരു പ്രോജക്റ്റ് നടപ്പിലാക്കുന്നതോ എഐ ശേഷി വികാസത്തിന് വിവിധ മേഖലകളില് പരിധികള് നിശ്ചയിക്കുന്നതോ എല്ലാം എഐ-യുടെ ഭാഗമായി വരാം.
അന്താരാഷ്ട്ര അതോറിറ്റി എന്നതാണ് ആള്ട്ട്മാന് മുന്നോട്ടുവെക്കുന്ന രണ്ടാമത്തെ ആശയം. ആണവോർജ്ജത്തിനായുള്ള ഇന്റർനാഷണൽ ആറ്റോമിക് എനർജി ഏജൻസി (IAEA) പോലെ, ഒരു നിശ്ചിത ശേഷിക്ക് മുകളിലുള്ള എഐ പ്രോജക്റ്റുകൾ ഒരു അന്താരാഷ്ട്ര അതോറിറ്റിക്ക് വിധേയമായിരിക്കണമെന്ന് അദ്ദേഹം നിര്ദേശിക്കുന്നു. ഈ അതോറിറ്റി വിവിധ എഐ സിസ്റ്റങ്ങൾ പരിശോധിക്കുകയും സുരക്ഷാ മാനദണ്ഡങ്ങൾ നടപ്പിലാക്കുകയും വിന്യാസത്തിലും സുരക്ഷയിലും നിയന്ത്രണങ്ങൾ ഏർപ്പെടുത്തുകയും ചെയ്യണം. സുരക്ഷാ ഗവേഷണമാണ് മൂന്നാമത്തെ ആശയം. സൂപ്പർ ഇന്റലിജൻസ് സുരക്ഷിതമാക്കാൻ സാങ്കേതിക ഗവേഷണം ആവശ്യമാണ്.
അനിവാര്യമായ എഐ വികാസം
ഒരു നിശ്ചിത ശേഷി പരിധിക്ക് താഴെയുള്ള AI മോഡലുകളുടെ വികസനത്തെ നിയന്ത്രണം തടസ്സപ്പെടുത്തരുതെന്നും ആൾട്ട്മാൻ ആവശ്യപ്പെടുന്നു. കമ്പനികൾക്കും ഓപ്പൺ സോഴ്സ് പ്രോജക്റ്റുകൾക്കും എഐ മോഡലുകൾ നിയന്ത്രണങ്ങളുടെ ഭാരമില്ലാതെ വികസിപ്പിക്കാനുള്ള സ്വാതന്ത്ര്യം ഉണ്ടായിരിക്കണമെന്നാണ് ആള്ട്ട്മാന് ചൂണ്ടിക്കാണിക്കുന്നത്.
എന്നിരുന്നാലും, ഏറ്റവും ശക്തമായ AI സിസ്റ്റങ്ങളുടെ നിയന്ത്രണം ശക്തമായ പൊതു മേൽനോട്ടത്തിലാകണം. അവരുടെ വിന്യാസത്തെയും പരിമിതികളെയും കുറിച്ചുള്ള തീരുമാനങ്ങൾ ലോകമെമ്പാടുമുള്ള ആളുകൾ ജനാധിപത്യപരമായി എടുക്കണം.
അപകടസാധ്യതകൾക്കിടയിലും എഐ കൂടുതൽ മെച്ചപ്പെട്ട ലോകത്തിലേക്ക് നയിക്കുമെന്നും വിവിധ പ്രശ്നങ്ങൾ പരിഹരിക്കുമെന്നും സമൂഹങ്ങളെ മെച്ചപ്പെടുത്തുമെന്നും ലേഖകര് വിശദീകരിക്കുന്നു. സൂപ്പർ ഇന്റലിജൻസിന്റെ വികസനം നിർത്തിവെക്കുന്നത് ശ്രമകരമാണ്. അതിനാല് ജാഗ്രതയോടെയുള്ള അതിന്റെ വികാസമാണ് അവശ്യമെന്നും അതിനാണ് ഓപ്പണ് എഐ ശ്രമിക്കുന്നതെന്നും അവര് പറയുന്നു.