જેમ્સ ડબલ્યુ. માર્શલ અને ChatGPT 3.5 માં એક વસ્તુ સમાન છે. બંનેએ “ધસારો” કર્યો અને દુનિયા બદલી નાખી. જ્યારે માર્શલને જાન્યુઆરી 1848માં સૌપ્રથમ ગોલ્ડ નગેટ મળ્યો, કેલિફોર્નિયામાં 300,000 લોકોનો ધસારો શરૂ થયો, નવેમ્બર 2022માં ChatGPT 3.5ના લોન્ચથી વપરાશકર્તાઓ અને ટેક રોકાણકારોમાં હલચલ મચી ગઈ. AI અને Large Language Models (LLMs) અચાનક જ મુખ્યપ્રવાહ બની ગયા, લાખો વપરાશકર્તાઓ ચેટબોટનો ઉપયોગ કરવા દોડી આવ્યા, વિશ્વને કાયમ માટે બદલી નાખ્યું.
AI બૂમના નકારાત્મક પાસાઓ હવે પ્રકાશમાં આવી રહ્યા છે, પછી ભલે તે કૉપિરાઇટ, પૂર્વગ્રહ, નીતિશાસ્ત્ર, ગોપનીયતા, સુરક્ષા અથવા નોકરીઓ પરની અસરને નિયંત્રિત કરવામાં આવે. એટલા માટે AI એક્ટ સાથે ટેક્નોલોજીનું નિયમન કરીને નૈતિક અને નૈતિક મુદ્દાઓને ધ્યાનમાં લેવાનો EUનો ઈરાદો સમયસર અને યોગ્ય છે. તે જ સમયે, કદાચ ગ્રહ પરની દરેક મોટી કંપનીએ ઉત્પાદકતા વધારવા, ગ્રાહક સંતોષને ઑપ્ટિમાઇઝ કરવા અને આખરે વેચાણ વધારવા માટે તેમની વેબસાઇટ્સ, ઉત્પાદનો અને સેવાઓમાં કૃત્રિમ બુદ્ધિમત્તાને કેવી રીતે બુદ્ધિપૂર્વક એકીકૃત કરવી તે અંગે વિચારણા કરી છે.
માર્ક મોલિનેક્સ
સામાજિક લિંક્સ નેવિગેશન
જોખમો અને આડઅસરો તરફ આંખ આડા કાન કરશો નહીં
ગોલ્ડ રશની જેમ, AI બૂમે પણ બૅન્ડવેગન પર કૂદકો મારતા લોકોનો ઝડપી ધસારો ઉભો કર્યો જેથી તે પ્રસ્તુત તકને ગુમાવી ન શકે. જો કે, કંપનીઓમાં AI નો ઉપયોગ ગોલ્ડ રશની જેમ ‘વાઇલ્ડ વેસ્ટ’ જેવી રીતે થવો જોઈએ નહીં; તેના બદલે, તે નિકોટિન જાહેરાત જેવી જ સ્પષ્ટ ચેતવણી સાથે આવવી જોઈએ કારણ કે AI જોખમો અને આડઅસરોને અવગણવાથી – આત્યંતિક સંજોગોમાં – ઘાતક પરિણામો આવી શકે છે.
પ્રક્રિયામાં કંપનીઓ AI અને ડેટાનો ઉપયોગ કેવી રીતે કરે છે તે અંગે ગ્રાહકોની અપેક્ષાઓ બદલવા માટે વિકાસ વિભાગો દ્વારા આકસ્મિક રીતે જાહેર LLM સાથે ડિઝાઇન અથવા કોડની રેખાઓ શેર કરવામાં આવતા વધુ લાક્ષણિક જોખમોનું પ્રમાણ. પરંતુ આ જોખમો ઝડપથી વધી શકે છે, જેનાથી નુકસાન થાય છે; ઉદાહરણ તરીકે, 2016માં જ્યારે, માઇક્રોસોફ્ટના ટેએ 16 કલાકમાં ~95,000 ટ્વીટ્સ પુશ કરી, જેમાં ઘણા જાતિવાદી અને દુરૂપયોગી હતા. કોહેસિટીના અભ્યાસ મુજબ, ત્રણ ચતુર્થાંશથી વધુ ગ્રાહકો (78 ટકા) AI દ્વારા તેમના ડેટાના અનિયંત્રિત અથવા અનિયંત્રિત ઉપયોગ અંગે ગંભીર ચિંતાઓ ધરાવે છે.
પરંતુ એઆઈને કેવી રીતે કાબૂમાં કરી શકાય? તે પહેલાથી જ ઘણી કંપનીઓમાં તેના ઉપયોગ માટેના નિયમો નક્કી કર્યા વિના અથવા પાલનનું નિરીક્ષણ કર્યા વિના તૈનાત કરવામાં આવી છે – ક્લાઉડ કમ્પ્યુટિંગમાં “ધસારો” કેવી રીતે થયો તેની તુલનામાં, ઘણી કંપનીઓ શરૂઆતથી ફરી શરૂ થઈ અને સમય અને નાણાં ગુમાવી. આને તમામ સમસ્યાઓનું કારણ ન બને તે માટે, આવનારા વર્ષમાં AIનો જવાબદારીપૂર્વક ઉપયોગ કરવા માગતી કોઈપણ સંસ્થાએ આ પ્રસારને આંતરિક રીતે નિયંત્રિત કરવી જોઈએ, ઍક્સેસને નિયંત્રિત કરવી જોઈએ અને કડક AI નીતિઓ ધરાવવી જોઈએ. તાજેતરના સમયમાં, એમેઝોન અને નાણાકીય જાયન્ટ JPMC સહિતની ઘણી કંપનીઓએ ફ્લડગેટ્સ ખુલે તે પહેલાં ઉચ્ચ સ્તરનું નિયંત્રણ લાવવા માટે ChatGPT નો ઉપયોગ કરીને તેમના સ્ટાફ પર નિયંત્રણો લાવ્યા છે અને જ્યારે ઉપયોગ નીતિઓ અને તકનીકી નિયંત્રણો હોય ત્યારે યોગ્ય ઍક્સેસને હળવાશથી ફરીથી રજૂ કરવાની યોજના બનાવી છે. સ્થાને છે.
કંપનીઓ માટે તેમના પોતાના AI પ્રોજેક્ટ્સ કયો ડેટા એક્સેસ કરી શકે છે અને તેઓ તેને કેવી રીતે પ્રોસેસ કરી શકે છે તે સ્પષ્ટપણે વ્યાખ્યાયિત કરવા માટે પણ નિર્ણાયક છે. ક્લાસિક રોલ-આધારિત એક્સેસ કંટ્રોલ કે જે ભૂમિકાઓ અને કાર્યોને ડેટા સ્ત્રોતો સાથે લિંક કરે છે તેને સ્કેલેબલ રીતે નિયંત્રિત કરવા માટે એક સારો વિકલ્પ છે. જરૂરી વિશેષાધિકારો ધરાવતા લોકો જ ડેટા સ્ત્રોતો ખોલી શકે છે. આ ભૂમિકાઓ એ પણ પ્રતિબિંબિત કરવી જોઈએ કે કોઈ વ્યક્તિને કાનૂની કારણોસર ચોક્કસ ડેટા સ્ત્રોતો ખોલવાની મંજૂરી નથી. અને તે ભૌગોલિક અવરોધો જેમ કે ડેટા સાર્વભૌમત્વ ચુસ્તપણે નિયંત્રિત છે.
હાલમાં જે ભાગ્યે જ ચકાસવામાં આવે છે – અને ભવિષ્યમાં સમસ્યારૂપ બની શકે છે – એ છે કે શું અને કેવી રીતે શોધી શકાય છે, બરાબર, AI મોડલને શું ખવડાવવામાં આવ્યું હતું (પ્રશિક્ષિત) અને કયા ક્રમમાં. આ અંધ સ્પોટના કાનૂની, નૈતિક અને નૈતિક પરિણામો હોઈ શકે છે. જો AI ભવિષ્યમાં ઘાતક નિર્ણય લે છે, તો તેના ઓછામાં ઓછા એક – અથવા, સૌથી ખરાબ કિસ્સામાં – તે તમામ ક્ષેત્રોમાં સમસ્યારૂપ પરિણામો આવશે. એક સખત ન્યાયાધીશ એ જાણવા માંગશે કે ઘાતક પરિણામ હાંસલ કરવા માટે AI મોડલ્સને કેવી રીતે તાલીમ આપવામાં આવી હતી. તમારે નિયત સમયગાળા માટે મોડેલ તાલીમનો સંપૂર્ણ સંસ્કરણ ઇતિહાસ રાખવાની પણ જરૂર પડશે.
શીખવાની પ્રક્રિયાઓને પારદર્શક બનાવો અને “બેક” બટન ઇન્સ્ટોલ કરો
તેથી, તેમાં આપવામાં આવેલ ડેટાનું વર્ગીકરણ કરવું અને શીખવાની પ્રક્રિયાનું દસ્તાવેજીકરણ કરવું મહત્વપૂર્ણ છે. આનાથી કંપનીઓ ગ્રાહકો માટે વધુ પારદર્શિતા ઊભી કરી શકશે અને શીખવાની પ્રક્રિયાની ગુણવત્તામાં સુધારો કરશે. માત્ર યોગ્ય રીતે માન્ય ડેટાનો ઉપયોગ કરીને, એઆઈ અને તેના માનવ તત્વ પાસે ડેટાની યોગ્ય સ્તરની ઍક્સેસ છે અને તેઓ અયોગ્ય રીતે ડેટામાં સુધારો કરી શકતા નથી અથવા ડેટાને ઍક્સેસ કરી શકતા નથી તે સુનિશ્ચિત કરીને, સંચાલિત અને જવાબદાર રીતે આનો સંપર્ક કરવો પણ યોગ્ય છે. જોવાની મંજૂરી – ભૂમિકા-આધારિત ઍક્સેસ નિયંત્રણો બંને ગોપનીયતાને સુનિશ્ચિત કરે છે, પરંતુ એ પણ કે AI ઍક્સેસ પણ યોગ્ય રીતે નિયંત્રિત થાય છે.
તે જ સમયે, જો કે, AI શીખવાની પ્રક્રિયા હજુ પણ એક રહસ્ય છે; તે ગાણિતિક રીતે જટિલ ગાણિતીક નિયમોમાં થાય છે, અને સૌથી ઉપર, તે લાંબો સમય લે છે. વર્ષોથી, ટેસ્લાએ તેના AI ને વાસ્તવિક ટ્રાફિક પરિસ્થિતિઓમાં સ્વાયત્ત રીતે વાહન ચલાવવા માટે તાલીમ આપી છે. પરંતુ તમે નુકશાન અને ખોટા ઇનપુટથી વર્ષોના શિક્ષણના સારને કેવી રીતે સુરક્ષિત કરશો? તમે તે શીખવાની તમારી સ્પર્ધા અથવા ધમકી આપનારા કલાકારોથી કેવી રીતે રક્ષણ કરશો, જેઓ વર્તણૂકોને પ્રતિકૂળ રીતે પ્રભાવિત કરવા માંગે છે? તમે તમારી બૌદ્ધિક સંપત્તિને AI તાલીમમાં ગેરકાયદેસર રીતે સામેલ થવાથી કેવી રીતે સુરક્ષિત કરશો? બાદમાંનું એક સારું ઉદાહરણ એ છે કે ન્યુયોર્ક ટાઈમ્સ એ GPT LLM ને તાલીમ આપવા માટે NYT લેખોના અણધાર્યા ઉપયોગ માટે OpenAI અને Microsoft પર દાવો માંડ્યો છે. આ અમને જવાબદાર અને સંચાલિત રીતે AI નો સંપર્ક કરવા માટે સરસ રીતે પાછા દોરી જાય છે.
અત્યાર સુધી, કોઈ પણ સ્ટાર્ટઅપે એઆઈ એન્જિન કેવી રીતે રેકોર્ડ કરી શકે છે કે તાજા ડેટા દાખલ કર્યા પછી શીખવાની પ્રક્રિયામાં કયા બિટ્સ અને બાઈટ્સ બદલાયા હતા તે રેકોર્ડ કરી શકે છે. કોઈપણ જે AI ને પહેલાની સ્થિતિમાં રીસેટ કરવા માંગે છે કારણ કે તેણે તેને ખોટી રીતે ખવડાવ્યું છે – ઉદાહરણ તરીકે, કાયદેસર રીતે સુરક્ષિત સામગ્રી સાથે – તે AI એન્જિનમાં સીધા આ કરવા માટે અસમર્થ રહેશે. તેમને એવા વર્કઅરાઉન્ડની જરૂર છે જે અન્ય IT ક્ષેત્રોમાં પહેલેથી જ સ્થાપિત થઈ ચૂકી છે. IT સિક્યોરિટીમાં, AI મોડલ્સને વધુ સારી રીતે સુરક્ષિત કરવા માટે અજમાવી અને પરીક્ષણ કરાયેલ પદ્ધતિઓ પણ ઉપયોગી થઈ શકે છે. કેટલાક ઉકેલો સમગ્ર સિસ્ટમના સ્નેપશોટ લેવાનું શક્ય બનાવે છે અને પછી કટોકટીમાં પાછલા સંસ્કરણ પર પાછા ફરે છે. પછી તમે સ્નેપશોટ બનાવટ અને ઓળખાયેલ સમયની સમસ્યાઓ વચ્ચેના દિવસો ગુમાવો છો, પરંતુ તમામ જ્ઞાન કામ કરતું નથી. AI ના જોખમોને ધ્યાનમાં લેતી વખતે કંપનીઓએ આને ધ્યાનમાં લેવાની અને તેનો લાભ લેવાની જરૂર છે.
અમે શ્રેષ્ઠ AI સાધનોની વિસ્તૃત સૂચિ તૈયાર કરી છે.
આ લેખ TechRadarPro ની નિષ્ણાત આંતરદૃષ્ટિ ચેનલના ભાગ રૂપે બનાવવામાં આવ્યો હતો જ્યાં અમે આજે ટેક્નોલોજી ઉદ્યોગમાં શ્રેષ્ઠ અને તેજસ્વી દિમાગ દર્શાવીએ છીએ. અહીં વ્યક્ત કરાયેલા મંતવ્યો લેખકના છે અને જરૂરી નથી કે તે TechRadarPro અથવા Future plcના હોય. જો તમને યોગદાન આપવામાં રસ હોય તો અહીં વધુ જાણો: https://www..com/news/submit-your-story-to–pro