بيرت، غالبًا ما يتم كتابتها باسم BERT وترمز إلى تمثيلات التشفير ثنائية الاتجاه من المحولات، هي تقنية تدريب مسبق لمعالجة اللغة الطبيعية تم تطويرها بواسطة Google Neural Networks والتي يمكن استخدامها في مجموعة متنوعة من المهام. يعتمد BERT، الذي تم تطويره في عام 2018 من قبل باحثين في Google Research، على نموذج التعلم العميق Transformer لتحويل النص إلى قيم رقمية، مما يسمح بالتدريب دون تحسين المهمة بشكل مباشر.

من خلال تعلم اللغة بشكل عام، فإنه يمكّن النماذج من ضبط مهام محددة بطريقة أكثر تركيزًا، وقد تم تدريبه لفهم الفروق الدقيقة وسياق الكلمات بشكل أفضل، على عكس نماذج البرمجة اللغوية العصبية الأخرى التي قد تكون محدودة في فهم السياق. من خلال كونه ثنائي الاتجاه، يتجنب BERT التحيز اللغوي "من اليسار إلى اليمين" و"من اليمين إلى اليسار" الموجود في النماذج أحادية الاتجاه.

بنية BERT عبارة عن سلسلة من كتل المحولات المكدسة، والتي تمرر جملة إدخال مرتين من خلال جهازي تشفير. تتكون مجموعات الإدخال والإخراج الخاصة بها من رموز تمثل الكلمات، وعلامات الترقيم، والتمثيلات الرقمية للكلمات، مثل تضمينات المتجهات، اعتمادًا على نوع مهمة البرمجة اللغوية العصبية.

أصبحت تقنية التدريب المسبق لـ BERT ذات شعبية متزايدة في عالم البرمجة اللغوية العصبية، حيث أصبح أدائها على قدم المساواة أو يفوق أداء أحدث التقنيات. تم تطبيق BERT على مجموعة متنوعة من المهام، بما في ذلك الإجابة على الأسئلة وتصنيف النص والتعرف على الكيانات. لقد أظهر أيضًا نجاحًا كبيرًا في المهام المستندة إلى اللغة مثل تلخيص النص واستدلال اللغة الطبيعية.

يعد BERT ابتكارًا مهمًا في مجال البرمجة اللغوية العصبية، ومن المتوقع أن يستمر استخدامه في مجموعة متنوعة من التطبيقات والمهام مع إلهام المزيد من الباحثين لاستخدامه وإيجاد حلول إبداعية للتحديات الجديدة.

اختر وشراء الوكيل

وكلاء مركز البيانات

وكلاء الدورية

وكلاء UDP

موثوق به من قبل أكثر من 10000 عميل حول العالم

العميل الوكيل
العميل الوكيل
وكيل العميلflowch.ai
العميل الوكيل
العميل الوكيل
العميل الوكيل