ઓપન સોર્સ મશીન લર્નિંગ સિસ્ટમ્સ સુરક્ષાના જોખમો માટે અત્યંત સંવેદનશીલ છે

ઓપન સોર્સ મશીન લર્નિંગ સિસ્ટમ્સ સુરક્ષાના જોખમો માટે અત્યંત સંવેદનશીલ છે

MLflow ને સૌથી વધુ સંવેદનશીલ ઓપન-સોર્સ ML પ્લેટફોર્મ તરીકે ઓળખવામાં આવે છે ડાયરેક્ટરી ટ્રાવર્સલ ખામીઓ WeaveZenML ક્લાઉડના એક્સેસ કંટ્રોલ મુદ્દાઓ વિશેષાધિકાર વૃદ્ધિ જોખમોને સક્ષમ કરે છે.

મશીન લર્નિંગ (ML) ફ્રેમવર્કના સિક્યોરિટી લેન્ડસ્કેપના તાજેતરના વિશ્લેષણમાં જાણવા મળ્યું છે કે ML સૉફ્ટવેર વધુ પરિપક્વ કેટેગરીઝ જેમ કે DevOps અથવા વેબ સર્વર્સ કરતાં વધુ સુરક્ષા નબળાઈઓને આધીન છે.

સમગ્ર ઉદ્યોગોમાં મશીન લર્નિંગની વધતી જતી દત્તક ML સિસ્ટમ્સને સુરક્ષિત કરવાની નિર્ણાયક જરૂરિયાતને હાઇલાઇટ કરે છે, કારણ કે નબળાઈઓ અનધિકૃત ઍક્સેસ, ડેટા ભંગ અને સમાધાનકારી કામગીરી તરફ દોરી શકે છે.

અહેવાલ JFrog દાવો કરે છે કે ML પ્રોજેક્ટ્સ જેમ કે MLflow માં ગંભીર નબળાઈઓમાં વધારો જોવા મળ્યો છે. છેલ્લા કેટલાક મહિનાઓમાં, JFrog એ 15 ઓપન સોર્સ ML પ્રોજેક્ટ્સમાં 22 નબળાઈઓ શોધી કાઢી છે. આ નબળાઈઓમાં, બે શ્રેણીઓ અલગ છે: સર્વર-બાજુના ઘટકોને લક્ષ્ય બનાવવાની ધમકીઓ અને ML ફ્રેમવર્કની અંદર વિશેષાધિકાર વૃદ્ધિના જોખમો.

ML ફ્રેમવર્કમાં જટિલ નબળાઈઓ

JFrog દ્વારા ઓળખવામાં આવેલી નબળાઈઓ ML વર્કફ્લોમાં વારંવાર ઉપયોગમાં લેવાતા મુખ્ય ઘટકોને અસર કરે છે, જે હુમલાખોરોને ML પ્રેક્ટિશનરો દ્વારા તેમની લવચીકતા માટે, સંવેદનશીલ ફાઈલોની અનધિકૃત ઍક્સેસ મેળવવા અથવા ML વાતાવરણમાં વિશેષાધિકારો વધારવા માટે મોટાભાગે ML પ્રેક્ટિશનરો દ્વારા વિશ્વસનીય સાધનોનો ઉપયોગ કરવાની મંજૂરી આપી શકે છે.

હાઇલાઇટ કરાયેલ નબળાઈઓમાંની એકમાં વેઈટસ એન્ડ બાયસીસ (W&B) ની લોકપ્રિય ટૂલકીટ વેવ સામેલ છે, જે ML મોડલ મેટ્રિક્સને ટ્રેકિંગ અને વિઝ્યુઅલાઈઝ કરવામાં મદદ કરે છે. WANDB વીવ ડિરેક્ટરી ટ્રાવર્સલ નબળાઈ (CVE-2024-7340) ઓછી વિશેષાધિકૃત વપરાશકર્તાઓને સમગ્ર ફાઇલસિસ્ટમમાં મનસ્વી ફાઇલોને ઍક્સેસ કરવા સક્ષમ કરે છે.

ફાઇલ પાથને હેન્ડલ કરતી વખતે અયોગ્ય ઇનપુટ માન્યતાને કારણે આ ખામી ઊભી થાય છે, સંભવિતપણે હુમલાખોરોને સંવેદનશીલ ફાઇલો જોવાની મંજૂરી આપે છે જેમાં એડમિન API કી અથવા અન્ય વિશેષાધિકૃત માહિતી શામેલ હોઈ શકે છે. આવા ઉલ્લંઘનથી વિશેષાધિકારમાં વધારો થઈ શકે છે, હુમલાખોરોને સંસાધનોની અનધિકૃત ઍક્સેસ આપી શકે છે અને સમગ્ર ML પાઇપલાઇનની સુરક્ષા સાથે સમાધાન કરી શકે છે.

ZenML, એક MLOps પાઈપલાઈન મેનેજમેન્ટ ટૂલ, તેની એક્સેસ કંટ્રોલ સિસ્ટમ્સ સાથે સમાધાન કરતી ગંભીર નબળાઈથી પણ પ્રભાવિત છે. આ ખામી ન્યૂનતમ એક્સેસ વિશેષાધિકારો ધરાવતા હુમલાખોરોને ZenML ક્લાઉડની અંદર તેમની પરવાનગીઓને વધારવાની મંજૂરી આપે છે, ZenML ની ​​વ્યવસ્થાપિત જમાવટ, ત્યાં ગોપનીય રહસ્યો અથવા મોડેલ ફાઇલો સહિત પ્રતિબંધિત માહિતીને ઍક્સેસ કરી શકે છે.

ZenML માં એક્સેસ કંટ્રોલની સમસ્યા સિસ્ટમને નોંધપાત્ર જોખમો માટે ખુલ્લી પાડે છે, કારણ કે વધેલા વિશેષાધિકારો હુમલાખોરને ML પાઇપલાઇન્સ સાથે ચેડાં કરવા, મોડલ ડેટા સાથે ચેડાં કરવા અથવા સંવેદનશીલ ઓપરેશનલ ડેટાને ઍક્સેસ કરવા સક્ષમ બનાવી શકે છે, જે સંભવિતપણે આ પાઇપલાઇન્સ પર નિર્ભર ઉત્પાદન વાતાવરણને અસર કરે છે.

ડીપ લેક કમાન્ડ ઈન્જેક્શન (CVE-2024-6507) તરીકે ઓળખાતી અન્ય ગંભીર નબળાઈ ડીપ લેક ડેટાબેઝમાં મળી આવી હતી – એક ડેટા સ્ટોરેજ સોલ્યુશન જે AI એપ્લીકેશન માટે ઑપ્ટિમાઇઝ કરવામાં આવ્યું છે. આ નબળાઈ હુમલાખોરોને ડીપ લેક બાહ્ય ડેટાસેટની આયાતને કેવી રીતે હેન્ડલ કરે છે તેનો ઉપયોગ કરીને મનસ્વી આદેશો ચલાવવાની પરવાનગી આપે છે.

અયોગ્ય કમાન્ડ સેનિટાઈઝેશનને લીધે, હુમલાખોર ડેટાબેઝ અને કોઈપણ કનેક્ટેડ એપ્લિકેશન બંનેની સુરક્ષા સાથે સમાધાન કરીને રિમોટ કોડ એક્ઝિક્યુશનને સંભવતઃ હાંસલ કરી શકે છે.

Vanna AI માં પણ નોંધપાત્ર નબળાઈ જોવા મળી હતી, જે કુદરતી ભાષાની SQL ક્વેરી જનરેશન અને વિઝ્યુલાઇઝેશન માટે રચાયેલ સાધન છે. Vanna.AI પ્રોમ્પ્ટ ઇન્જેક્શન (CVE-2024-5565) હુમલાખોરોને એસક્યુએલ પ્રોમ્પ્ટ્સમાં દૂષિત કોડ દાખલ કરવાની મંજૂરી આપે છે, જે સાધન પછીથી પ્રક્રિયા કરે છે. આ નબળાઈ, જે રિમોટ કોડ એક્ઝિક્યુશન તરફ દોરી શકે છે, દૂષિત કલાકારોને Vanna AI ની SQL-ટુ-ગ્રાફ વિઝ્યુલાઇઝેશન સુવિધાને વિઝ્યુલાઇઝેશનમાં હેરફેર કરવા, SQL ઇન્જેક્શન ચલાવવા અથવા ડેટાને બહાર કાઢવા માટે લક્ષ્ય બનાવવાની મંજૂરી આપે છે.

Mage.AI, ડેટા પાઇપલાઇન્સનું સંચાલન કરવા માટેનું MLOps ટૂલ, અનધિકૃત શેલ એક્સેસ, આર્બિટરી ફાઇલ લીક્સ અને નબળા પાથ ટ્રાવર્સલ ચેક્સ સહિત બહુવિધ નબળાઈઓ હોવાનું જણાયું છે.

આ મુદ્દાઓ હુમલાખોરોને ડેટા પાઇપલાઇન્સ પર નિયંત્રણ મેળવવા, સંવેદનશીલ રૂપરેખાંકનો ઉજાગર કરવા અથવા દૂષિત આદેશો ચલાવવાની મંજૂરી આપે છે. આ નબળાઈઓનું સંયોજન વિશેષાધિકાર વૃદ્ધિ અને ડેટા અખંડિતતા ભંગનું ઉચ્ચ જોખમ રજૂ કરે છે, જે ML પાઇપલાઇન્સની સુરક્ષા અને સ્થિરતા સાથે સમાધાન કરે છે.

ML ડેટાબેસેસ અથવા રજિસ્ટ્રીઝમાં એડમિન એક્સેસ મેળવીને, હુમલાખોરો મૉડલમાં દૂષિત કોડને એમ્બેડ કરી શકે છે, જે પાછળના દરવાજા તરફ દોરી જાય છે જે મોડલ લોડ પર સક્રિય થાય છે. આ ડાઉનસ્ટ્રીમ પ્રક્રિયાઓ સાથે સમાધાન કરી શકે છે કારણ કે મોડેલોનો ઉપયોગ વિવિધ ટીમો અને CI/CD પાઇપલાઇન્સ દ્વારા કરવામાં આવે છે. હુમલાખોરો પણ સંવેદનશીલ ડેટાને બહાર કાઢી શકે છે અથવા મોડલના પ્રદર્શનને બગાડવા અથવા આઉટપુટમાં હેરફેર કરવા માટે મોડલ ઝેરી હુમલાઓ કરી શકે છે.

JFrog ના તારણો MLOps સુરક્ષામાં ઓપરેશનલ ગેપને પ્રકાશિત કરે છે. ઘણી સંસ્થાઓમાં વ્યાપક સાયબર સુરક્ષા વ્યૂહરચનાઓ સાથે AI/ML સુરક્ષા પ્રથાઓના મજબૂત એકીકરણનો અભાવ છે, જે સંભવિત અંધ સ્પોટ્સને છોડી દે છે. જેમ કે ML અને AI નોંધપાત્ર ઔદ્યોગિક પ્રગતિને આગળ ધપાવી રહ્યા છે, આ નવીનતાઓને પ્રોત્સાહન આપતા ફ્રેમવર્ક, ડેટાસેટ્સ અને મોડલ્સનું રક્ષણ કરવું સર્વોપરી બની જાય છે.

તમને પણ ગમશે

Exit mobile version