تعتبر التطورات الأخيرة في صناعة الذكاء الاصطناعي بمثابة الثورة الصناعية الرابعة من قبل بعض الناس. لقد أدت ظهور النماذج الكبيرة إلى تحسين كبير في كفاءة جميع القطاعات، حيث تقدر بوسطن كونسلتينج أن GPT قد حسنت كفاءة العمل في الولايات المتحدة بنسبة حوالي 20%. في الوقت نفسه، تعتبر القدرة العامة التي تأتي مع النماذج الكبيرة بمثابة نموذج تصميم برامج جديد، حيث يتم الانتقال من تصميم الشفرات الدقيقة في الماضي إلى إطار نماذج كبيرة أكثر عمومية يتم تضمينه في البرمجيات، مما يجعل البرمجيات تقدم أداءً أفضل وتدعم مدخلات ومخرجات أنماط أوسع. لقد جلبت تقنيات التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد أثرت هذه الموجة أيضًا على صناعة العملات المشفرة.
سيتناول هذا التقرير بالتفصيل تاريخ تطور صناعة الذكاء الاصطناعي ، وتصنيفات التكنولوجيا ، وتأثير اختراع تقنية التعلم العميق على الصناعة. ثم سيتم تحليل سلسلة الإمداد لصناعة التعلم العميق ، بما في ذلك GPU ، والحوسبة السحابية ، ومصادر البيانات ، والأجهزة الطرفية ، بالإضافة إلى حالة تطورها والاتجاهات الحالية. أخيرًا ، سيتم مناقشة العلاقة الجوهرية بين العملات المشفرة وصناعة الذكاء الاصطناعي بالتفصيل ، مع ترتيب هيكل سلسلة الإمداد المرتبطة بالعملات المشفرة.
بدأت صناعة الذكاء الاصطناعي منذ الخمسينيات من القرن الماضي، ومن أجل تحقيق رؤية الذكاء الاصطناعي، قامت الأوساط الأكاديمية والصناعية في عصور وخلفيات علمية مختلفة بتطوير عدة مدارس لتحقيق الذكاء الاصطناعي.
تستخدم تقنية الذكاء الاصطناعي الحديثة بشكل رئيسي مصطلح "تعلم الآلة"، وتتمثل فكرة هذه التقنية في جعل الآلات تعتمد على البيانات للتكرار في المهام من أجل تحسين أداء النظام. الخطوات الرئيسية هي إدخال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار نشر النموذج، واستخدام النموذج لإكمال مهام التنبؤ الآلي.
توجد حاليًا ثلاثة تيارات رئيسية في التعلم الآلي، وهي الاتصال، والرمزية، والسلوكية، التي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك.
! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة](https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201
حاليًا، تهيمن الشبكات العصبية، والتي تمثلها المدرسة الاتصالية، وهي تعرف أيضًا بالتعلم العميق، وذلك بسبب أن هذا الهيكل يحتوي على طبقة إدخال وطبقة إخراج، ولكن لديه العديد من الطبقات المخفية. بمجرد أن تكون الطبقات وعدد الخلايا العصبية كافية، سيكون هناك فرصة كافية لتناسب المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل معلمات الخلايا العصبية باستمرار، وأخيرًا، بعد المرور عبر العديد من البيانات، ستصل هذه الخلية العصبية إلى الحالة المثلى، وهذه هي ما يسمى "العميق" - عدد كافٍ من الطبقات والخلايا العصبية.
على سبيل المثال، يمكن فهم ذلك ببساطة على أنه تم بناء دالة، وعندما يكون الإدخال X=2 تكون النتيجة Y=3، وعندما يكون X=3 تكون النتيجة Y=5. إذا كنت ترغب في أن تتعامل هذه الدالة مع جميع قيم X، فستحتاج إلى إضافة درجات الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكن بناء دالة تلبي هذا الشرط وهي Y = 2X -1، ولكن إذا كانت هناك نقطة بيانات حيث X=2 وY=11، فستحتاج إلى إعادة بناء دالة تناسب هذه النقاط الثلاث، واستخدام GPU للبحث عن حل عنيف لاكتشاف أن Y = X2 -3X +5 هو الأنسب، ولكن لا يتعين أن تتطابق تمامًا مع البيانات، يكفي أن تلتزم بالتوازن وأن تكون النتائج مشابهة تقريبا. هنا X2 وX وX0 تمثل خلايا عصبية مختلفة، و1 و-3 و5 هي معاملاتها.
في هذه الحالة، إذا تم إدخال كميات كبيرة من البيانات إلى الشبكة العصبية، يمكن زيادة عدد الخلايا العصبية ومعلمات التكرار لتناسب البيانات الجديدة، مما سيمكن من ملاءمة جميع البيانات.
تكنولوجيا التعلم العميق القائمة على الشبكات العصبية شهدت أيضًا عدة تكرارات وتطورات تقنية، بدءًا من الشبكات العصبية في بدايتها، إلى الشبكات العصبية التغذوية، وشبكات RNN، وشبكات CNN، وGAN، وأخيرًا تطورت إلى النماذج الكبيرة الحديثة مثل GPT التي تستخدم تقنية Transformer. تقنية Transformer هي مجرد اتجاه تطوري واحد للشبكات العصبية، حيث أضافت محولًا )Transformer(، يُستخدم لتحويل جميع الأنماط ) مثل الصوت والفيديو والصور وما إلى ذلك ( إلى بيانات عددية تمثلها، ثم يتم إدخالها إلى الشبكة العصبية، مما يمكّن الشبكة العصبية من ملاءمة أي نوع من البيانات، مما يعني تحقيق تعدد الأنماط.
شهد تطور الذكاء الاصطناعي ثلاث موجات تكنولوجية، كانت الموجة الأولى في ستينيات القرن الماضي، بعد عشر سنوات من تقديم تقنية الذكاء الاصطناعي، وكانت هذه الموجة نتاج تطور تقنية الرمزية، التي حلت مشاكل معالجة اللغة الطبيعية الشاملة والحوار بين الإنسان والآلة. في نفس الفترة، وُلدت أنظمة الخبراء، وكان من أبرزها نظام DENRAL الذي تم إنجازه تحت إشراف جامعة ستانفورد ووكالة الفضاء الأمريكية NASA، حيث يمتلك هذا النظام معرفة كيميائية قوية جداً، ويقوم باستنتاج الإجابات عبر الأسئلة ليولد إجابات مشابهة لتلك التي يقدمها الخبراء الكيميائيون، ويمكن اعتبار هذا النظام بمثابة دمج بين قاعدة بيانات المعرفة الكيميائية ونظام الاستدلال.
بعد أنظمة الخبراء، قدم العالِم والفيلسوف الأمريكي من أصل إسرائيلي، جوديا بيرل ) Judea Pearl (، في التسعينيات، الشبكات البايزية، التي تُعرف أيضًا بشبكات الاعتقاد. في نفس الفترة، اقترح بروكس علم الروبوتات القائم على السلوك، مما يمثل ولادة السلوكية.
في عام 1997، هزم برنامج "بلو" التابع لشركة تكنولوجيا معروفة بواقع 3.5:2.5 بطل الشطرنج كاسباروف )Kasparov(، وكانت هذه النصر تُعتبر علامة بارزة في الذكاء الاصطناعي، حيث شهدت تقنيات الذكاء الاصطناعي ذروة جديدة من التطور.
حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. قدم عمالقة التعلم العميق Yann LeCun و Geoffrey Hinton و Yoshua Bengio مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الاصطناعية لتعلم تمثيل البيانات. بعد ذلك، تطورت خوارزميات التعلم العميق تدريجياً، من RNN و GAN إلى Transformer و Stable Diffusion، حيث شكلت هذه الخوارزميات معاً هذه الموجة التقنية الثالثة، وكانت أيضاً فترة ازدهار الترابطية.
ظهرت العديد من الأحداث البارزة بالتزامن مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:
في عام 2011، تغلب واتسون) من شركة تكنولوجيا مشهورة على البشر وفاز بالبطولة في برنامج اختبار《خطر边缘》(Jeopardy).
في عام 2014، اقترح Goodfellow شبكة GAN( التنافسية التوليدية، Generative Adversarial Network)، من خلال السماح لشبكتين عصبيتين بالتنافس بينهما لتعلم كيفية توليد صور تبدو حقيقية بشكل مذهل. في نفس الوقت، كتب Goodfellow كتابًا بعنوان "Deep Learning"، المعروف باسم كتاب الزهور، وهو واحد من الكتب الأساسية المهمة في مجال التعلم العميق.
في عام 2015 ، قدم هينتون وآخرون خوارزمية التعلم العميق في مجلة "Nature" ، وقد أثار تقديم هذه الطريقة في التعلم العميق صدى هائل في الأوساط الأكاديمية والصناعية.
في عام 2015، تم إنشاء مؤسسة بحثية مشهورة في مجال الذكاء الاصطناعي، وأعلن عدد من الشخصيات الشهيرة عن استثمار مشترك بقيمة 10 مليارات دولار.
في عام 2016، خاضت AlphaGo، المعتمدة على تقنيات التعلم العميق، معركة شطرنج ضد بطل العالم في الشطرنج، لاعب الشطرنج المحترف ذو التسع دان، لي شي شي، وحققت الفوز بتسجيل 4-1.
في عام 2017، طورت شركة روبوتات معروفة إنسانًا آليًا يُدعى صوفيا، والذي يُعتبر أول روبوت يحصل على وضعية المواطن من الدرجة الأولى في التاريخ، ويتميز بتعبيرات وجهية غنية وقدرة على فهم اللغة البشرية.
في عام 2017، أصدرت شركة تكنولوجيا معروفة تمتلك موارد غنية في مجال الذكاء الاصطناعي ورقة بحثية بعنوان "Attention is all you need" والتي قدمت خوارزمية Transformer، وبدأت النماذج اللغوية الكبيرة في الظهور.
في عام 2018، أصدرت إحدى المؤسسات المعروفة في مجال الذكاء الاصطناعي نموذج GPT(، وهو نموذج تحويل تم بناؤه على أساس خوارزمية Transformer، وكان أحد أكبر نماذج اللغة في ذلك الوقت.
في عام 2018، أصدرت مجموعة معروفة في مجال الذكاء الاصطناعي نموذج AlphaGo المعتمد على التعلم العميق، والذي يمكنه التنبؤ بهياكل البروتين، ويعتبر علامة بارزة في التقدم الكبير في مجال الذكاء الاصطناعي.
في عام 2019، أصدرت إحدى المؤسسات المعروفة في مجال أبحاث الذكاء الاصطناعي نموذج GPT-2، الذي يحتوي على 1.5 مليار معلمة.
في عام 2020، طور معهد أبحاث ذكاء اصطناعي معروف نموذج GPT-3، الذي يحتوي على 175 مليار معلمة، وهو أعلى بمعدل 100 مرة من الإصدار السابق GPT-2. تم تدريب هذا النموذج باستخدام 570 جيجابايت من النصوص، ويمكنه تحقيق أداء متقدم في العديد من مهام معالجة اللغة الطبيعية) مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات(.
في عام 2021، أصدرت مؤسسة أبحاث الذكاء الاصطناعي الشهيرة نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، وهو 10 مرات أكبر من GPT-3.
تم إطلاق تطبيق ChatGPT المستند إلى نموذج GPT-4 في يناير 2023، وفي مارس، بلغ عدد مستخدمي ChatGPT مئة مليون، ليصبح التطبيق الأسرع تاريخياً في الوصول إلى مئة مليون مستخدم.
في عام 2024، أصدرت مؤسسة بحثية مشهورة في مجال الذكاء الاصطناعي GPT-4 أومني.
ملاحظة: نظرًا لوجود العديد من الأوراق البحثية حول الذكاء الاصطناعي، والعديد من المدارس الفكرية، وتطور تقني غير متساوٍ، فإننا هنا نتبع بشكل أساسي تاريخ تطور التعلم العميق أو الوصلية. لا تزال المدارس الفكرية الأخرى والتقنيات في مرحلة التطور السريع.
! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
سلسلة صناعة التعلم العميق
تستخدم النماذج الكبيرة الحالية لغة تعتمد على أساليب التعلم العميق المستندة إلى الشبكات العصبية. وقد أدت النماذج الكبيرة التي تقودها GPT إلى موجة من الحماس في مجال الذكاء الاصطناعي، حيث تدفق عدد كبير من اللاعبين إلى هذا المجال، كما اكتشفنا أن السوق بحاجة كبيرة إلى البيانات والقوة الحاسوبية. لذلك، في هذا الجزء من التقرير، نستكشف بشكل رئيسي سلسلة صناعة خوارزميات التعلم العميق، وكيف تتكون سلسلة القيمة في صناعة الذكاء الاصطناعي التي تقودها خوارزميات التعلم العميق، وما هو وضع سلسلة القيمة والعلاقة بين العرض والطلب، وكيف سيكون التطور في المستقبل.
أولاً، نحتاج إلى توضيح أنه عند إجراء تدريب نماذج LLMs الكبيرة القائمة على تقنية Transformer بقيادة GPT)، يتم تقسيم العملية إلى ثلاث خطوات.
قبل التدريب، وبما أنه يعتمد على الTransformer، يحتاج المحول إلى تحويل إدخال النص إلى قيم عددية، وتسمى هذه العملية "Tokenization"، وبعد ذلك تُعرف هذه القيم العددية باسم Token. وفقًا للقواعد التجريبية العامة، يمكن اعتبار كلمة أو حرف إنجليزي بشكل تقريبي كToken واحد، بينما يمكن اعتبار كل حرف صيني بشكل تقريبي كTokenين. هذه أيضًا هي الوحدة الأساسية المستخدمة في تسعير GPT.
الخطوة الأولى، التدريب المسبق. من خلال إعطاء طبقة الإدخال عددًا كافيًا من أزواج البيانات، مثل (X,Y) المذكورة في الجزء الأول من التقرير، للبحث عن أفضل معلمات لكل خلية عصبية تحت هذا النموذج، في هذه المرحلة تحتاج إلى كمية كبيرة من البيانات، وهذه العملية أيضًا هي الأكثر استهلاكًا للطاقة الحاسوبية، لأنها تتطلب تكرار تجربة المعلمات المختلفة للخلية العصبية. بعد الانتهاء من تدريب دفعة من أزواج البيانات، عادة ما يتم استخدام نفس الدفعة لإجراء تدريب ثانٍ لتكرار المعلمات.
الخطوة الثانية، التعديل الدقيق. التعديل الدقيق هو إعطاء مجموعة صغيرة نسبيًا ولكنها ذات جودة عالية من البيانات للتدريب، وسيؤدي هذا التغيير إلى تحسين جودة مخرجات النموذج، لأن التدريب المسبق يتطلب كميات كبيرة من البيانات، ولكن قد تحتوي الكثير من البيانات على أخطاء أو تكون ذات جودة منخفضة. يمكن أن تعزز خطوة التعديل الدقيق جودة النموذج من خلال البيانات عالية الجودة.
الخطوة الثالثة، التعلم التعزيزي. أولاً، سيتم إنشاء نموذج جديد تمامًا، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جدًا، وهو ترتيب النتائج الناتجة، لذلك سيكون إنشاء هذا النموذج بسيطًا نسبيًا، حيث أن سيناريو العمل عمودي للغاية. بعد ذلك، سيتم استخدام هذا النموذج لتحديد ما إذا كانت مخرجات نموذجنا الكبير ذات جودة عالية، وبالتالي يمكن استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ( لكن في بعض الأحيان يكون من الضروري أيضًا المشاركة البشرية لتقييم جودة مخرجات النموذج )
باختصار، خلال عملية تدريب النماذج الكبيرة، يكون هناك متطلبات عالية جدًا للبيانات في مرحلة ما قبل التدريب، وكذلك تكون هناك حاجة لأعلى قدرة حسابية من وحدة معالجة الرسوميات (GPU)، بينما تحتاج عملية الضبط الدقيق إلى بيانات عالية الجودة لتحسين المعلمات. يمكن أن تتكرر عملية التعلم المعزز من خلال نموذج مكافأة لتكرار المعلمات من أجل إنتاج نتائج ذات جودة أعلى.
خلال عملية التدريب، كلما زاد عدد المعلمات، زادت قدرة النموذج على التعميم، على سبيل المثال، في مثال الوظيفة Y = aX + b، هناك في الواقع عصبونان X و X0، لذلك فإن كيفية تغير المعلمات تحدد البيانات التي يمكن أن يتناسب معها النموذج، لأنها في جوهرها لا تزال خطًا مستقيمًا. إذا كان هناك عدد أكبر من العصبونات، يمكن تكرار المزيد من المعلمات، وبالتالي يمكن التناسب مع المزيد من البيانات، وهذا هو السبب وراء أن النماذج الكبيرة تحقق إنجازات رائعة، وأيضًا لماذا تم تسميتها بالنماذج الكبيرة، حيث أنها تتكون من عدد هائل من العصبونات والمعلمات، وكمية هائلة من البيانات، وتتطلب أيضًا قوة حوسبة ضخمة.
لذلك، يتم تحديد أداء النماذج الكبيرة بشكل رئيسي من خلال ثلاثة عوامل: عدد المعلمات، كمية ونوعية البيانات، وقوة الحساب. هذه العوامل الثلاثة تؤثر بشكل مشترك على جودة نتائج النموذج وقدرته على التعميم. دعنا نفترض أن عدد المعلمات هو p، وكمية البيانات هي n( والتي يتم حسابها بناءً على عدد التوكينز )، وبالتالي يمكننا حساب كمية الحساب المطلوبة من خلال قاعدة الخبرة العامة، مما يسمح لنا بتقدير الحالة العامة لقوة الحساب التي نحتاج إلى شرائها ومدة التدريب.
! [علم الوافد الجديد الشعبي 丨 الذكاء الاصطناعي × التشفير: من الصفر إلى الذروة] (
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
العمق解析:AI与الأصول الرقمية融合 从发展历程到产业链全景
AI x Crypto: من الصفر إلى القمة
تعتبر التطورات الأخيرة في صناعة الذكاء الاصطناعي بمثابة الثورة الصناعية الرابعة من قبل بعض الناس. لقد أدت ظهور النماذج الكبيرة إلى تحسين كبير في كفاءة جميع القطاعات، حيث تقدر بوسطن كونسلتينج أن GPT قد حسنت كفاءة العمل في الولايات المتحدة بنسبة حوالي 20%. في الوقت نفسه، تعتبر القدرة العامة التي تأتي مع النماذج الكبيرة بمثابة نموذج تصميم برامج جديد، حيث يتم الانتقال من تصميم الشفرات الدقيقة في الماضي إلى إطار نماذج كبيرة أكثر عمومية يتم تضمينه في البرمجيات، مما يجعل البرمجيات تقدم أداءً أفضل وتدعم مدخلات ومخرجات أنماط أوسع. لقد جلبت تقنيات التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد أثرت هذه الموجة أيضًا على صناعة العملات المشفرة.
سيتناول هذا التقرير بالتفصيل تاريخ تطور صناعة الذكاء الاصطناعي ، وتصنيفات التكنولوجيا ، وتأثير اختراع تقنية التعلم العميق على الصناعة. ثم سيتم تحليل سلسلة الإمداد لصناعة التعلم العميق ، بما في ذلك GPU ، والحوسبة السحابية ، ومصادر البيانات ، والأجهزة الطرفية ، بالإضافة إلى حالة تطورها والاتجاهات الحالية. أخيرًا ، سيتم مناقشة العلاقة الجوهرية بين العملات المشفرة وصناعة الذكاء الاصطناعي بالتفصيل ، مع ترتيب هيكل سلسلة الإمداد المرتبطة بالعملات المشفرة.
! علم الوافد الجديد 丨 الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة
تاريخ تطور صناعة الذكاء الاصطناعي
بدأت صناعة الذكاء الاصطناعي منذ الخمسينيات من القرن الماضي، ومن أجل تحقيق رؤية الذكاء الاصطناعي، قامت الأوساط الأكاديمية والصناعية في عصور وخلفيات علمية مختلفة بتطوير عدة مدارس لتحقيق الذكاء الاصطناعي.
تستخدم تقنية الذكاء الاصطناعي الحديثة بشكل رئيسي مصطلح "تعلم الآلة"، وتتمثل فكرة هذه التقنية في جعل الآلات تعتمد على البيانات للتكرار في المهام من أجل تحسين أداء النظام. الخطوات الرئيسية هي إدخال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار نشر النموذج، واستخدام النموذج لإكمال مهام التنبؤ الآلي.
توجد حاليًا ثلاثة تيارات رئيسية في التعلم الآلي، وهي الاتصال، والرمزية، والسلوكية، التي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك.
! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة](https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201
حاليًا، تهيمن الشبكات العصبية، والتي تمثلها المدرسة الاتصالية، وهي تعرف أيضًا بالتعلم العميق، وذلك بسبب أن هذا الهيكل يحتوي على طبقة إدخال وطبقة إخراج، ولكن لديه العديد من الطبقات المخفية. بمجرد أن تكون الطبقات وعدد الخلايا العصبية كافية، سيكون هناك فرصة كافية لتناسب المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل معلمات الخلايا العصبية باستمرار، وأخيرًا، بعد المرور عبر العديد من البيانات، ستصل هذه الخلية العصبية إلى الحالة المثلى، وهذه هي ما يسمى "العميق" - عدد كافٍ من الطبقات والخلايا العصبية.
على سبيل المثال، يمكن فهم ذلك ببساطة على أنه تم بناء دالة، وعندما يكون الإدخال X=2 تكون النتيجة Y=3، وعندما يكون X=3 تكون النتيجة Y=5. إذا كنت ترغب في أن تتعامل هذه الدالة مع جميع قيم X، فستحتاج إلى إضافة درجات الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكن بناء دالة تلبي هذا الشرط وهي Y = 2X -1، ولكن إذا كانت هناك نقطة بيانات حيث X=2 وY=11، فستحتاج إلى إعادة بناء دالة تناسب هذه النقاط الثلاث، واستخدام GPU للبحث عن حل عنيف لاكتشاف أن Y = X2 -3X +5 هو الأنسب، ولكن لا يتعين أن تتطابق تمامًا مع البيانات، يكفي أن تلتزم بالتوازن وأن تكون النتائج مشابهة تقريبا. هنا X2 وX وX0 تمثل خلايا عصبية مختلفة، و1 و-3 و5 هي معاملاتها.
في هذه الحالة، إذا تم إدخال كميات كبيرة من البيانات إلى الشبكة العصبية، يمكن زيادة عدد الخلايا العصبية ومعلمات التكرار لتناسب البيانات الجديدة، مما سيمكن من ملاءمة جميع البيانات.
تكنولوجيا التعلم العميق القائمة على الشبكات العصبية شهدت أيضًا عدة تكرارات وتطورات تقنية، بدءًا من الشبكات العصبية في بدايتها، إلى الشبكات العصبية التغذوية، وشبكات RNN، وشبكات CNN، وGAN، وأخيرًا تطورت إلى النماذج الكبيرة الحديثة مثل GPT التي تستخدم تقنية Transformer. تقنية Transformer هي مجرد اتجاه تطوري واحد للشبكات العصبية، حيث أضافت محولًا )Transformer(، يُستخدم لتحويل جميع الأنماط ) مثل الصوت والفيديو والصور وما إلى ذلك ( إلى بيانات عددية تمثلها، ثم يتم إدخالها إلى الشبكة العصبية، مما يمكّن الشبكة العصبية من ملاءمة أي نوع من البيانات، مما يعني تحقيق تعدد الأنماط.
شهد تطور الذكاء الاصطناعي ثلاث موجات تكنولوجية، كانت الموجة الأولى في ستينيات القرن الماضي، بعد عشر سنوات من تقديم تقنية الذكاء الاصطناعي، وكانت هذه الموجة نتاج تطور تقنية الرمزية، التي حلت مشاكل معالجة اللغة الطبيعية الشاملة والحوار بين الإنسان والآلة. في نفس الفترة، وُلدت أنظمة الخبراء، وكان من أبرزها نظام DENRAL الذي تم إنجازه تحت إشراف جامعة ستانفورد ووكالة الفضاء الأمريكية NASA، حيث يمتلك هذا النظام معرفة كيميائية قوية جداً، ويقوم باستنتاج الإجابات عبر الأسئلة ليولد إجابات مشابهة لتلك التي يقدمها الخبراء الكيميائيون، ويمكن اعتبار هذا النظام بمثابة دمج بين قاعدة بيانات المعرفة الكيميائية ونظام الاستدلال.
بعد أنظمة الخبراء، قدم العالِم والفيلسوف الأمريكي من أصل إسرائيلي، جوديا بيرل ) Judea Pearl (، في التسعينيات، الشبكات البايزية، التي تُعرف أيضًا بشبكات الاعتقاد. في نفس الفترة، اقترح بروكس علم الروبوتات القائم على السلوك، مما يمثل ولادة السلوكية.
في عام 1997، هزم برنامج "بلو" التابع لشركة تكنولوجيا معروفة بواقع 3.5:2.5 بطل الشطرنج كاسباروف )Kasparov(، وكانت هذه النصر تُعتبر علامة بارزة في الذكاء الاصطناعي، حيث شهدت تقنيات الذكاء الاصطناعي ذروة جديدة من التطور.
حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. قدم عمالقة التعلم العميق Yann LeCun و Geoffrey Hinton و Yoshua Bengio مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الاصطناعية لتعلم تمثيل البيانات. بعد ذلك، تطورت خوارزميات التعلم العميق تدريجياً، من RNN و GAN إلى Transformer و Stable Diffusion، حيث شكلت هذه الخوارزميات معاً هذه الموجة التقنية الثالثة، وكانت أيضاً فترة ازدهار الترابطية.
ظهرت العديد من الأحداث البارزة بالتزامن مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:
في عام 2011، تغلب واتسون) من شركة تكنولوجيا مشهورة على البشر وفاز بالبطولة في برنامج اختبار《خطر边缘》(Jeopardy).
في عام 2014، اقترح Goodfellow شبكة GAN( التنافسية التوليدية، Generative Adversarial Network)، من خلال السماح لشبكتين عصبيتين بالتنافس بينهما لتعلم كيفية توليد صور تبدو حقيقية بشكل مذهل. في نفس الوقت، كتب Goodfellow كتابًا بعنوان "Deep Learning"، المعروف باسم كتاب الزهور، وهو واحد من الكتب الأساسية المهمة في مجال التعلم العميق.
في عام 2015 ، قدم هينتون وآخرون خوارزمية التعلم العميق في مجلة "Nature" ، وقد أثار تقديم هذه الطريقة في التعلم العميق صدى هائل في الأوساط الأكاديمية والصناعية.
في عام 2015، تم إنشاء مؤسسة بحثية مشهورة في مجال الذكاء الاصطناعي، وأعلن عدد من الشخصيات الشهيرة عن استثمار مشترك بقيمة 10 مليارات دولار.
في عام 2016، خاضت AlphaGo، المعتمدة على تقنيات التعلم العميق، معركة شطرنج ضد بطل العالم في الشطرنج، لاعب الشطرنج المحترف ذو التسع دان، لي شي شي، وحققت الفوز بتسجيل 4-1.
في عام 2017، طورت شركة روبوتات معروفة إنسانًا آليًا يُدعى صوفيا، والذي يُعتبر أول روبوت يحصل على وضعية المواطن من الدرجة الأولى في التاريخ، ويتميز بتعبيرات وجهية غنية وقدرة على فهم اللغة البشرية.
في عام 2017، أصدرت شركة تكنولوجيا معروفة تمتلك موارد غنية في مجال الذكاء الاصطناعي ورقة بحثية بعنوان "Attention is all you need" والتي قدمت خوارزمية Transformer، وبدأت النماذج اللغوية الكبيرة في الظهور.
في عام 2018، أصدرت إحدى المؤسسات المعروفة في مجال الذكاء الاصطناعي نموذج GPT(، وهو نموذج تحويل تم بناؤه على أساس خوارزمية Transformer، وكان أحد أكبر نماذج اللغة في ذلك الوقت.
في عام 2018، أصدرت مجموعة معروفة في مجال الذكاء الاصطناعي نموذج AlphaGo المعتمد على التعلم العميق، والذي يمكنه التنبؤ بهياكل البروتين، ويعتبر علامة بارزة في التقدم الكبير في مجال الذكاء الاصطناعي.
في عام 2019، أصدرت إحدى المؤسسات المعروفة في مجال أبحاث الذكاء الاصطناعي نموذج GPT-2، الذي يحتوي على 1.5 مليار معلمة.
في عام 2020، طور معهد أبحاث ذكاء اصطناعي معروف نموذج GPT-3، الذي يحتوي على 175 مليار معلمة، وهو أعلى بمعدل 100 مرة من الإصدار السابق GPT-2. تم تدريب هذا النموذج باستخدام 570 جيجابايت من النصوص، ويمكنه تحقيق أداء متقدم في العديد من مهام معالجة اللغة الطبيعية) مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات(.
في عام 2021، أصدرت مؤسسة أبحاث الذكاء الاصطناعي الشهيرة نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، وهو 10 مرات أكبر من GPT-3.
تم إطلاق تطبيق ChatGPT المستند إلى نموذج GPT-4 في يناير 2023، وفي مارس، بلغ عدد مستخدمي ChatGPT مئة مليون، ليصبح التطبيق الأسرع تاريخياً في الوصول إلى مئة مليون مستخدم.
في عام 2024، أصدرت مؤسسة بحثية مشهورة في مجال الذكاء الاصطناعي GPT-4 أومني.
ملاحظة: نظرًا لوجود العديد من الأوراق البحثية حول الذكاء الاصطناعي، والعديد من المدارس الفكرية، وتطور تقني غير متساوٍ، فإننا هنا نتبع بشكل أساسي تاريخ تطور التعلم العميق أو الوصلية. لا تزال المدارس الفكرية الأخرى والتقنيات في مرحلة التطور السريع.
! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
سلسلة صناعة التعلم العميق
تستخدم النماذج الكبيرة الحالية لغة تعتمد على أساليب التعلم العميق المستندة إلى الشبكات العصبية. وقد أدت النماذج الكبيرة التي تقودها GPT إلى موجة من الحماس في مجال الذكاء الاصطناعي، حيث تدفق عدد كبير من اللاعبين إلى هذا المجال، كما اكتشفنا أن السوق بحاجة كبيرة إلى البيانات والقوة الحاسوبية. لذلك، في هذا الجزء من التقرير، نستكشف بشكل رئيسي سلسلة صناعة خوارزميات التعلم العميق، وكيف تتكون سلسلة القيمة في صناعة الذكاء الاصطناعي التي تقودها خوارزميات التعلم العميق، وما هو وضع سلسلة القيمة والعلاقة بين العرض والطلب، وكيف سيكون التطور في المستقبل.
أولاً، نحتاج إلى توضيح أنه عند إجراء تدريب نماذج LLMs الكبيرة القائمة على تقنية Transformer بقيادة GPT)، يتم تقسيم العملية إلى ثلاث خطوات.
قبل التدريب، وبما أنه يعتمد على الTransformer، يحتاج المحول إلى تحويل إدخال النص إلى قيم عددية، وتسمى هذه العملية "Tokenization"، وبعد ذلك تُعرف هذه القيم العددية باسم Token. وفقًا للقواعد التجريبية العامة، يمكن اعتبار كلمة أو حرف إنجليزي بشكل تقريبي كToken واحد، بينما يمكن اعتبار كل حرف صيني بشكل تقريبي كTokenين. هذه أيضًا هي الوحدة الأساسية المستخدمة في تسعير GPT.
الخطوة الأولى، التدريب المسبق. من خلال إعطاء طبقة الإدخال عددًا كافيًا من أزواج البيانات، مثل (X,Y) المذكورة في الجزء الأول من التقرير، للبحث عن أفضل معلمات لكل خلية عصبية تحت هذا النموذج، في هذه المرحلة تحتاج إلى كمية كبيرة من البيانات، وهذه العملية أيضًا هي الأكثر استهلاكًا للطاقة الحاسوبية، لأنها تتطلب تكرار تجربة المعلمات المختلفة للخلية العصبية. بعد الانتهاء من تدريب دفعة من أزواج البيانات، عادة ما يتم استخدام نفس الدفعة لإجراء تدريب ثانٍ لتكرار المعلمات.
الخطوة الثانية، التعديل الدقيق. التعديل الدقيق هو إعطاء مجموعة صغيرة نسبيًا ولكنها ذات جودة عالية من البيانات للتدريب، وسيؤدي هذا التغيير إلى تحسين جودة مخرجات النموذج، لأن التدريب المسبق يتطلب كميات كبيرة من البيانات، ولكن قد تحتوي الكثير من البيانات على أخطاء أو تكون ذات جودة منخفضة. يمكن أن تعزز خطوة التعديل الدقيق جودة النموذج من خلال البيانات عالية الجودة.
الخطوة الثالثة، التعلم التعزيزي. أولاً، سيتم إنشاء نموذج جديد تمامًا، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جدًا، وهو ترتيب النتائج الناتجة، لذلك سيكون إنشاء هذا النموذج بسيطًا نسبيًا، حيث أن سيناريو العمل عمودي للغاية. بعد ذلك، سيتم استخدام هذا النموذج لتحديد ما إذا كانت مخرجات نموذجنا الكبير ذات جودة عالية، وبالتالي يمكن استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ( لكن في بعض الأحيان يكون من الضروري أيضًا المشاركة البشرية لتقييم جودة مخرجات النموذج )
باختصار، خلال عملية تدريب النماذج الكبيرة، يكون هناك متطلبات عالية جدًا للبيانات في مرحلة ما قبل التدريب، وكذلك تكون هناك حاجة لأعلى قدرة حسابية من وحدة معالجة الرسوميات (GPU)، بينما تحتاج عملية الضبط الدقيق إلى بيانات عالية الجودة لتحسين المعلمات. يمكن أن تتكرر عملية التعلم المعزز من خلال نموذج مكافأة لتكرار المعلمات من أجل إنتاج نتائج ذات جودة أعلى.
خلال عملية التدريب، كلما زاد عدد المعلمات، زادت قدرة النموذج على التعميم، على سبيل المثال، في مثال الوظيفة Y = aX + b، هناك في الواقع عصبونان X و X0، لذلك فإن كيفية تغير المعلمات تحدد البيانات التي يمكن أن يتناسب معها النموذج، لأنها في جوهرها لا تزال خطًا مستقيمًا. إذا كان هناك عدد أكبر من العصبونات، يمكن تكرار المزيد من المعلمات، وبالتالي يمكن التناسب مع المزيد من البيانات، وهذا هو السبب وراء أن النماذج الكبيرة تحقق إنجازات رائعة، وأيضًا لماذا تم تسميتها بالنماذج الكبيرة، حيث أنها تتكون من عدد هائل من العصبونات والمعلمات، وكمية هائلة من البيانات، وتتطلب أيضًا قوة حوسبة ضخمة.
لذلك، يتم تحديد أداء النماذج الكبيرة بشكل رئيسي من خلال ثلاثة عوامل: عدد المعلمات، كمية ونوعية البيانات، وقوة الحساب. هذه العوامل الثلاثة تؤثر بشكل مشترك على جودة نتائج النموذج وقدرته على التعميم. دعنا نفترض أن عدد المعلمات هو p، وكمية البيانات هي n( والتي يتم حسابها بناءً على عدد التوكينز )، وبالتالي يمكننا حساب كمية الحساب المطلوبة من خلال قاعدة الخبرة العامة، مما يسمح لنا بتقدير الحالة العامة لقوة الحساب التي نحتاج إلى شرائها ومدة التدريب.
! [علم الوافد الجديد الشعبي 丨 الذكاء الاصطناعي × التشفير: من الصفر إلى الذروة] (