وصلت المنافسة بين شركات التكنولوجيا الكبرى إلى آفاق جديدة مع فجر عصر الذكاء الاصطناعي – وقد أعلن البعض أنها “حرب ذكاء اصطناعي”. من مظهرها ، يبدو أن Microsoft في المقدمة بفضل ترسانتها الهائلة من المنتجات المدعومة بالذكاء الاصطناعي مثل Bing Chat و Image Creator. وفي الوقت نفسه ، لا يبدو أن Google بعيدة جدًا عن الركب ، على الرغم من أنها لم تطلق بعد منتجًا قائمًا بذاته للذكاء الاصطناعي أو توصل التقنية إلى أكبر منتج لها ، وهو بحث Google.
ومع ذلك ، أكد مهندس برمجيات كبير في Google أنه ليس Microsoft أو OpenAI هو ما يجب أن يخافه محرك البحث ، بل هو مصدر مفتوح.
صرح Luke Sernau ، كبير مهندسي البرمجيات في Google ومؤسس Better Engineering ، في وثيقة أنه لا Google ولا OpenAI في وضع يسمح لهما بالفوز في سباق التسلح للذكاء الاصطناعي. وأشار إلى أن التنافس بين Google و OpenAI قد صرف انتباه الشركة عن التطورات السريعة التي تحدث في تكنولوجيا المصادر المفتوحة: “بينما كنا نتشاجر ، كان هناك فصيل ثالث يأكل طعام الغداء بهدوء. أنا أتحدث ، بالطبع ، عن المصدر المفتوح “.
كانت تصريحات سيرناو جزءًا من وثيقة نُشرت على نظام الإنترنت في Google في أوائل أبريل. منذ ذلك الحين ، تمت مشاركته آلاف المرات بين موظفي Google ، وفقًا للتقرير الذي يستشهد بأحد الأشخاص المطلعين على الأمر. في 4 مايو ، تم نشر الوثيقة من قبل شركة الاستشارات SemiAnalysis ، وبعد ذلك تم تداولها في وادي السيليكون.
“ليس لدينا صلصة سرية”
عندما يتعلق الأمر بنماذج اللغات الكبيرة ، يبدو أن Meta LLaMA هو المفضل لمجتمع مفتوح المصدر. ادعى Meta أن النموذج ، الذي تم إصداره في فبراير ، يتفوق على GPT-3 في العديد من المهام ، بما في ذلك معالجة اللغة الطبيعية وتحليل المشاعر. كما أنها أكثر قابلية للتكيف مع الأوزان القابلة للتخصيص التي تسمح لها بالعمل على أجهزة أقل قوة ، مما يجعلها أكثر ملاءمة للمطورين.
لكن LLaMA ليس LLM الوحيد المناسب للمطورين ، ومن الواضح أن Sernau تدرك ذلك.
“بينما لا تزال موديلاتنا تتمتع بميزة طفيفة من حيث الجودة ، فإن الفجوة تضيق بسرعة مذهلة. تعد النماذج مفتوحة المصدر أسرع ، وأكثر قابلية للتخصيص ، وأكثر خصوصية ، وأكثر قدرة على الرطل مقابل الجنيه. إنهم يفعلون أشياء باستخدام معلمات بقيمة 100 دولار و 13 مليار والتي نكافح من أجلها عند 10 ملايين دولار و 540 مليار دولار. وهم يفعلون ذلك في أسابيع وليس شهور “.
كتب سيرناو: “ليس لدينا صلصة سرية”. “أفضل أمل لنا هو التعلم من والتعاون مع ما يفعله الآخرون خارج Google.”
كما أشار إلى أن العملاء لن يكونوا مستعدين للدفع مقابل النماذج المقيدة عندما تتوفر طرز أخرى عالية الجودة مجانًا.
“النماذج العملاقة تبطئنا”
غالبًا ما يتم وصف عدد المعلمات باعتباره العامل الأساسي الذي يحدد الدقة. لكن تدريب LLM بمئات المليارات من المعلمات يتطلب موارد حوسبة كبيرة ، مما يترجم إلى ارتفاع التكاليف واستهلاك الطاقة. تشغيل مثل هذه النماذج مكلف للغاية أيضًا.
يقترح سيرناو أن النماذج العملاقة تعمل على إبطاء عمل Google: “على المدى الطويل ، أفضل النماذج هي تلك التي يمكن تكرارها بسرعة. يجب أن نجعل المتغيرات الصغيرة أكثر من مجرد فكرة لاحقة ، والآن بعد أن عرفنا ما هو ممكن في نظام المعلمة <20B. "
لوضع الأمور في نصابها ، استشهد المهندس بـ Vicuna-13B ، قائلاً إن نماذج مثل هذه “تقوم بأشياء بقيمة 100 دولار و 13 مليار دولار والتي نكافح من أجلها عند 10 ملايين دولار و 540 مليار دولار.” وأضاف أن الموديلات الكبيرة ليست أكثر قدرة على المدى الطويل إذا كانت النماذج الأصغر ، الأقل تكلفة في التحديث ، تتكرر بشكل أسرع.
انتهى الأمر بسيرناو بدفع Google نحو سياسة أكثر انفتاحًا على المصادر.
“في النهاية ، أوبن إيه آي لا يهم. إنهم يرتكبون نفس الأخطاء التي نرتكبها في وضعهم بالنسبة إلى المصدر المفتوح ، وقدرتهم على الحفاظ على التفوق هي بالضرورة موضع تساؤل. يمكن للبدائل مفتوحة المصدر أن تتفوق عليها وستتفوق عليها في النهاية ما لم تغير موقفها. في هذا الصدد ، على الأقل ، يمكننا القيام بالخطوة الأولى.
اكتشاف المزيد من مباشر التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.