import{s as Si,o as Yi,n as Qi}from"../chunks/scheduler.56730f09.js";import{S as Ai,i as Di,g,s,r as p,m as Fi,A as Ki,h as u,f as l,c as a,j as Ei,u as i,x as d,n as Ii,k as Bi,y as Oi,a as n,v as m,d as $,t as f,w as r}from"../chunks/index.61415d3e.js";import{T as em}from"../chunks/Tip.81680c40.js";import{Y as Gl}from"../chunks/Youtube.4af31517.js";import{C as x}from"../chunks/CodeBlock.501e762d.js";import{H as h,E as tm}from"../chunks/getInferenceSnippets.7c09bf10.js";function lm(Nl){let b,j="قد تختلف تسميات كل نموذج، لذا تأكد دائمًا من مراجعة وثائق كل نموذج للحصول على معلومات حول التسميات الخاصة به.";return{c(){b=g("p"),b.textContent=j},l(C){b=u(C,"P",{"data-svelte-h":!0}),d(b)!=="svelte-1udlujo"&&(b.textContent=j)},m(C,Jl){n(C,b,Jl)},p:Qi,d(C){C&&l(b)}}}function nm(Nl){let b,j,C,Jl,o,Xl,T,mp="يحدد هذا المسرد مصطلحات التعلم الآلي العامة و 🤗 Transformers لمساعدتك على فهم الوثائق بشكل أفضل.",Fl,v,El,_,Il,M,$p="قناع الانتباه هو مُدخل اختياري يستخدم عند تجميع التسلسلات معًا",Bl,w,Sl,y,fp="يشير هذا المُدخل إلى النموذج أى الرموز المميزة (tokens) التي يجب الانتباه إليها، وأيها لا ينبغي ذلك.",Yl,P,rp="على سبيل المثال، تأمّل هذين التسلسُلين :",Ql,k,Al,U,gp="لدى الإصدارات المشفرة أطوال مختلفة:",Dl,Z,Kl,V,up="لذلك، لا يمكننا وضعها معًا في نفس المصفوفة كما هي. يجب إضافة حشو إلى التسلسل الأول حتى يصل إلى طول التسلسل الثاني، أو يجب تقليص الثاني إلى طول الأول.",Ol,H,dp="في الحالة الأولى، يتم تمديد قائمة المعرفات بواسطة مؤشرات الحشو. يمكننا تمرير قائمة إلى المحلل اللغوي وطلب منه إضافة الحشو بهذه الطريقة:",en,L,tn,q,hp="يمكننا أن نرى أنه تمت إضافة اصفار على يمين الجملة الأولى لجعلها بنفس طول الجملة الثانية:",ln,z,nn,R,bp="يمكن بعد ذلك تحويل هذا إلى مصفوفة في PyTorch أو TensorFlow. قناع الانتباه هو مصفوفة ثنائية تشير إلى\nموضع المؤشرات المحشوه بحيث لا ينتبه إليها النموذج. بالنسبة إلى BertTokenizer``1
يشير إلى\nقيمة يجب الانتباه إليها، في حين يشير 0
إلى قيمة مبطنة. يُمكن إيجاد قناع الانتباه في القاموس الذي يُعيده مُجزِّئ النصوص (tokenizer) تحت المفتاح “attention_mask”.",sn,J,an,W,pn,G,xp='راجع نماذج الترميز و نمذجة اللغة المقنعة',mn,N,$n,X,Cp='راجع نمذجة اللغة السببية و نماذج فك التشفير',fn,F,rn,E,gn,I,cp='يُمثل العمود الفقري الشبكة العصبونية (الترميزات والطبقات) المسؤولة عن إخراج الحالات الخفية أو المُميزات الأولية. عادة ما يكون متصلاً بـ رأس يستقبل المُميزات كمدخلات لإجراء تنبؤ. على سبيل المثال، يُعد النموذج ViTModel
عمودًا فقريًا دون رأس مُحدد مُرفق به. يمكن أيضًا استخدام ViTModel
كعمود فقري في نماذج أخرى, مثل DPT.',un,B,dn,S,hn,Y,jp="مهمة ما قبل التدريب يقوم فيها النموذج بقراءة النصوص بالترتيب ويتنبأ بالكلمة التالية. يتم ذلك عادةً من خلال قراءة الجملة كاملةً، ولكن مع استخدام قناع داخل النموذج لإخفاء الرموز المميزة اللاحقة في خطوة زمنية معينة.",bn,Q,xn,A,op="تتكون الصور الملونة من مزيج من القيم في ثلاث قنوات لونية: الأحمر والأخضر والأزرق (RGB) بينما تحتوي صور ذات التدرج رمادي على قناة واحدة فقط. في مكتبة 🤗 Transformers، يمكن أن تكون القناة اللونية البُعد الأول أو الأخير في مُصفوفة الصورة: [n_channels
، height
، width
] أو [height
، width
، n_channels
].",Cn,D,cn,K,Tp="خوارزمية تسمح للنموذج بالتعلم دون معرفة كيفية محاذاة المدخلات مع المخرجات بدقة؛ يحسب CTC توزيع جميع المخرجات المحتملة لمدخلات مُحددة ويختار المخرج الأكثر احتمالًا. تُستخدم CTC بشكل شائع في مهام التعرف على الكلام نظرًا لأن الكلام المنطوق لا يتوافق دائمًا بشكل مُباشر مع النص المكتوب، لأسباب مختلفة مثل معدلات الكلام المختلفة للمتكلم.",jn,O,on,ee,vp="نوع من الطبقات في شبكة عصبية، حيث تُضرب مصفوفة الإدخال عُنصرًا بُعنصر بمصفوفة أصغر تُسمى (النواة أو المرشح) ويتم جمع القيم في مصفوفة جديدة. يُعرف هذا باسم عملية الالتفاف التي يتم تكرارها عبر مصفوفة الإدخال بأكملها. تُطبق كل عملية التفاف على جزء مُختلف من مصفوفة الإدخال. تُستخدم الشبكات العصبية الالتفافية (CNNs) بشكل شائع في رؤية الحاسوب.",Tn,te,vn,le,_n,ne,_p="هي تقنية تُستخدم لتدريب النماذج على عدة وحدات معالجة رسومات (GPUs)، حيث يتم نسخ نفس إعداد التدريب عدة مرات، بحيث تتلقى كل نسخة شريحة مختلفة من البيانات يتم تنفيذ المعالجة بالتوازي ويتم مزامنة جميع الإعدادات في نهاية كل خطوة تدريب.",Mn,se,Mp='تعرف على المزيد حول كيفية عمل DataParallel هنا.',wn,ae,yn,pe,wp=`هذا المدخل خاص بنماذج الترميز وفك التشفير، ويحتوي على معرفات الإدخال التي سيتم تغذيتها إلى وحدة فك التشفير.
يجب استخدام هذه المدخلات لمهام التسلسل إلى التسلسل، مثل الترجمة أو التلخيص، وعادة ما يتم بناؤها بطريقة محددة لكل نموذج.`,Pn,ie,yp=`تقوم معظم نماذج الترميز وفك التشفير (BART، T5) بإنشاء معرفات decoder_input_ids
الخاصة بها من labels
. في مثل هذه النماذج،
يعد تمرير labels
هو الطريقة المفضلة للتعامل مع التدريب.`,kn,me,Pp="يرجى التحقق من وثائق كل نموذج لمعرفة كيفية تعاملها مع معرفات الإدخال هذه للتدريب على التسلسل إلى التسلسل.",Un,$e,Zn,fe,kp=`يُشار إليها أيضًا باسم نماذج التنبؤية الذاتية، وتنطوي نماذج فك التشفير على مهمة ما قبل التدريب (تسمى نمذجة اللغة السببية) حيث يقرأ النموذج النصوص بالترتيب ويتعين عليه التنبؤ بالكلمة التالية. يتم ذلك عادةً عن طريق
قراءة الجملة بأكملها مع قناع لإخفاء الرموز المميزة المستقبلية في خطوة زمنية معينة.`,Vn,re,Hn,ge,Ln,ue,qn,de,Up='تُعرف أيضًا باسم نماذج الترميز التلقائي، وتأخذ نماذج الترميز إدخالًا (مثل النص أو الصور) وتحويلها إلى تمثيل رقمي مكثف يُطلق عليه الترميز. غالبًا ما يتم تدريب نماذج الترميز مسبقًا باستخدام تقنيات مثل نمذجة اللغة المقنعة، والتي تقوم بإخفاء أجزاء من تسلسل الإدخال وإجبار النموذج على إنشاء تمثيلات أكثر دلالة (فائدة ووضوحاً).',zn,he,Rn,be,Jn,xe,Wn,Ce,Zp="عملية اختيار وتحويل البيانات الأولية إلى مجموعة من الميزات الأكثر إفادة وفائدة لخوارزميات التعلم الآلي. بعض الأمثلة على استخراج الميزات تشمل تحويل النص الأولي/الخام إلى ترميزات الكلمات واستخراج ميزات مهمة مثل الحواف أو الأشكال من بيانات الصور/الفيديو.",Gn,ce,Nn,je,Vp=`في كل وحدة الانتباه الباقية في المحولات، تلي طبقة الاهتمام الانتباه عادة طبقتان للتغذية الأمامية.
حجم تضمين الطبقة الأمامية الوسيطة أكبر عادة من حجم المخفي للنموذج (على سبيل المثال، لـ
google-bert/bert-base-uncased
).
بالنسبة لإدخال بحجم [batch_size, sequence_length]
، يمكن أن تمثل الذاكرة المطلوبة لتخزين التضمينات الأمامية الوسيطة [batch_size، sequence_length, config.intermediate_size]
جزءًا كبيرًا من استخدام الذاكرة. لاحظ مؤلفو (https://huggingface.co/papers/2001.04451)[Reformer: The Efficient Transformer] أنه نظرًا لأن الحساب مستقل عن بعد sequence_length
، فإنه من المكافئ رياضيًا حساب تضمينات الإخراج الأمامية [batch_size، config.hidden_size]_0, ..., [batch_size،
config_size]_n
فردياً والتوصيل بها لاحقًا إلى [batch_size, sequence_length, config.hidden_size]
مع n = sequence_length
، والذي يتداول زيادة وقت الحساب مقابل تقليل استخدام الذاكرة، ولكنه ينتج عنه نتيجة مكافئة رياضيا.`,Xn,oe,Hp="بالنسبة للنماذج التي تستخدم الدالة [apply_chunking_to_forward]
، يحدد chunk_size
عدد التضمينات يتم حساب الإخراج بالتوازي وبالتالي يحدد المقايضة بين حجم الذاكرة والتعقيد الوقت. إذا تم تعيين chunk_size
إلى 0
، فلن يتم إجراء تجزئة التغذية الأمامية.",Fn,Te,En,ve,Lp="الضبط الدقيق هو شكل من أشكال نقل التعلم، يتضمن أخذ نموذج مُدرّب مسبقًا، وتجميد أوزانه، واستبدال طبقة الإخراج برأس نموذج مُضاف حديثًا. يتم تدريب رأس النموذج على مجموعة البيانات المستهدفة.",In,_e,qp='راجع البرنامج التعليمي Fine-tune a pretrained model لمزيد من التفاصيل، وتعرف على كيفية ضبط النماذج باستخدام 🤗 Transformers.',Bn,Me,Sn,we,Yn,ye,zp="يشير رأس النموذج إلى الطبقة الأخيرة من الشبكة العصبية التي تقبل الحالات المخفية الخام/الأولية وتُسقطها على بُعد مختلف. يوجد رأس نموذج مختلف لكل مهمة.",Qn,Pe,Rp='
GPT2ForSequenceClassification
هو رأس تصنيف تسلسل - طبقة خطية - أعلى نموذج GPT2Model
الأساسي.ViTForImageClassification
هو رأس تصنيف صورة - طبقة خطية أعلى حالة مخفية نهائية للرمز CLS
- أعلى نموذج ViTModel
الأساسي.Wav2Vec2ForCTC
هو رأس نمذجة اللغة مع CTC أعلى نموذج Wav2Vec2Model
الأساسي.input_ids
:",ds,Se,hs,Ye,Bp=`لاحظ أن المحلل اللغوي يضيف تلقائيًا “رموزًا خاصة” (إذا كان النموذج المرتبط يعتمد عليها) وهي معرفات خاصة
يستخدمها النموذج في بعض الأحيان.`,bs,Qe,Sp="إذا قمنا بفك تشفير التسلسل السابق،",xs,Ae,Cs,De,Yp="سنرى",cs,Ke,js,Oe,Qp="لأن هذه هي الطريقة التي يتوقع بها نموذج BertModel
إدخالاته.",os,et,Ts,tt,vs,lt,Ap=`هي معامل اختياري يمكن إدخاله في النموذج لحساب الخسارة بنفسه.
نماذج تصنيف التسلسل: ([BertForSequenceClassification]) يتوقع النموذج مصفوفة ذات بعد (batch_size) حيث تتوافق كل قيمة من المجموعة مع الملصق المتوقع للتسلسل بأكمله.
نماذج تصنيف الرمز: ([BertForTokenClassification]) يتوقع النموذج مصفوفة ذات بعد (batch_size, seq_length) حيث تتوافق كل قيمة مع الملصق المتوقع لكل رمز فردي.
نماذج النمذجة اللغوية المقنعة:([BertForMaskedLM]) يتوقع النموذج مصفوفة ذات بعد (batch_size, seq_length) حيث تتوافق كل قيمة مع الملصق المتوقع لكل رمز فردي: تكون الملصقات هي معرف رمز الكلمة المقنعة، والقيم الأخرى يتم تجاهلها (عادةً -100).
مهام التسلسل إلى التسلسل: ([BartForConditionalGeneration], [MBartForConditionalGeneration]) يتوقع النموذج مصفوفة ذات بعد (batch_size, tgt_seq_length) حيث تتوافق كل قيمة مع التسلسل الهدف المرتبط بكل تسلسل مدخل. أثناء التدريب، سيقوم كل من BART و T5 بإنشاء decoder_input_ids و decoder attention masks داخليًا. عادةً لا يلزم توفيرها. هذا لا ينطبق على النماذج التي تستخدم إطار العمل Encoder-Decoder.
نماذج تصنيف الصور: ([ViTForImageClassification]) يتوقع النموذج مصفوفة ذات بعد (batch_size) حيث تتوافق كل قيمة من المجموعة مع الملصق المتوقع لكل صورة فردية.
نماذج التقسيم الدلالي: ([SegformerForSemanticSegmentation]) يتوقع النموذج مصفوفة ذات بعد (batch_size, height, width) حيث تتوافق كل قيمة من المجموعة مع الملصق المتوقع لكل بكسل فردي.
نماذج اكتشاف الأجسام: ([DetrForObjectDetection]) يتوقع النموذج قائمة من القواميس تحتوي على مفتاح class_labels و boxes حيث تتوافق كل قيمة من المجموعة مع الملصق المتوقع وعدد المربعات المحيطة بكل صورة فردية.
نماذج التعرف التلقائي على الكلام: ([Wav2Vec2ForCTC]) يتوقع النموذج مصفوفة ذات بعد (batch_size, target_length) حيث تتوافق كل قيمة مع الملصق المتوقع لكل رمز فردي.`,_s,c,Ms,nt,ws,st,Dp="مصطلح عام يشير إلى نماذج اللغة المحولة (GPT-3 و BLOOM و OPT) التي تم تدريبها على كمية كبيرة من البيانات. تميل هذه النماذج أيضًا إلى وجود عدد كبير من المعلمات القابلة للتعلم (على سبيل المثال، 175 مليار لمعلمة GPT-3).",ys,at,Ps,pt,ks,it,Kp="مهمة تدريب مسبق حيث يرى النموذج نسخة تالفة من النصوص، وعادة ما يتم ذلك عن طريق حجب بعض الرموز بشكل عشوائي، ويتعين على النموذج التنبؤ بالنص الأصلي.",Us,mt,Zs,$t,Op="مهمة تجمع بين النصوص مع نوع آخر من المدخلات (على سبيل المثال، الصور).",Vs,ft,Hs,rt,Ls,gt,ei='جميع المهام المتعلقة بتوليد النص (على سبيل المثال، اكتب باستخدام المحولات، والترجمة).',qs,ut,zs,dt,ti="طريقة عامة للقول “التعامل مع النصوص”.",Rs,ht,Js,bt,li="جميع المهام المتعلقة بفهم ما هو موجود في نص (على سبيل المثال تصنيف النص بأكمله، أو الكلمات الفردية).",Ws,xt,Gs,Ct,Ns,ct,ni="في مكتبة Transformers، يُشير مصطلح “خط الأنابيب” إلى سلسلة من الخطوات التي يتم تنفيذها بترتيب محدد لمعالجة البيانات وتحويلها وإرجاع تنبؤ من نموذج. بعض المراحل الشائعة في خط الأنابيب قد تشمل معالجة البيانات الأولية، واستخراج الميزات، والتوحيد.",Xs,jt,si='للحصول على مزيد من التفاصيل، راجع خطوط الأنابيب للاستدلال.',Fs,ot,Es,Tt,ai='تقنية توازي يتم فيها تقسيم النموذج رأسياً (على مستوى الطبقة) عبر وحدات معالجة الرسومات (GPU) متعددة، بحيث توجد طبقة واحدة أو عدة طبقات من النموذج على وحدة معالجة الرسومات (GPU) واحدة فقط. تقوم كل وحدة معالجة رسومات (GPU) بمعالجة مراحل مختلفة من خط الأنابيب بالتوازي والعمل على جزء صغير من الدفعة. تعرف على المزيد حول كيفية عمل PipelineParallel هنا.',Is,vt,Bs,_t,pi="مصفوفة من التمثيلات الرقمية لصورة يتم تمريرها إلى نموذج. تأخذ قيم البكسل شكل [batch_size
، num_channels
، height
، width
]، ويتم إنشاؤها من معالج الصور.",Ss,Mt,Ys,wt,ii="هي عملية تقوم بتقليص مصفوفة إلى مصفوفة أصغر، إما عن طريق أخذ القيمة القصوى أو المتوسط الحسابي للأبعاد التي يتم تجميعها. توجد طبقات التجميع بشكل شائع بين الطبقات التلافيفية convolutional layers لتقليل حجم تمثيل الميزات.",Qs,yt,As,Pt,mi="على عكس الشبكات العصبية المتكررة (RNNs) التي تتضمن موضع كل رمز (token) ضمن بنيتها، لا تدرك المحولات موضع كل رمز. لذلك، تستخدم معرفات الموضع (position_ids
) من قبل النموذج لتحديد موضع كل رمز في قائمة الرموز.",Ds,kt,$i="إنها معلمة اختيارية. إذا لم يتم تمرير أي position_ids
إلى النموذج، يتم إنشاء المعرفات تلقائيًا كترميزات موضعية مطلقة.",Ks,Ut,fi="يتم اختيار الترميزات الموضعية المطلقة في النطاق [0، config.max_position_embeddings - 1]
. تستخدم بعض النماذج أنواعًا أخرى من الترميزات الموضعية، مثل الترميزات الموضعية الجيبية أو الترميزات الموضعية النسبية.",Os,Zt,ea,Vt,ri='مهمة إعداد البيانات الخام بتنسيق يمكن أن تستهلكه نماذج التعلم الآلي بسهولة. على سبيل المثال، عادةً ما تتم معالجة النص مسبقًا عن طريق التمييز. للحصول على فكرة أفضل عن كيفية ظهور المعالجة المسبقة لأنواع الإدخال الأخرى، راجع البرنامج التعليمي Preprocess.',ta,Ht,la,Lt,gi="نموذج تم تدريبه مسبقًا على بعض البيانات (على سبيل المثال، كل Wikipedia). تنطوي طرق التدريب المسبق على هدف ذاتي الإشراف، والذي يمكن أن يكون قراءة النص ومحاولة التنبؤ بالكلمة التالية ( راجع (causal-language-modeling#)[نمذجة اللغة السببية] ) أو قناع بعض الكلمات ومحاولة التنبؤ بها ( راجع (masked-language#)[نمذجة اللغة المقنعة]- عرض MLM).",na,qt,ui="لدى نماذج الكلام والرؤية أهدافها التدريبية المسبقة الخاصة. على سبيل المثال، Wav2Vec2 هو نموذج كلام تم تدريبه مسبقًا على مهمة تباينية تتطلب من النموذج تحديد تمثيل الكلام “الحقيقي” من مجموعة من تمثيلات الكلام “الخاطئة”. من ناحية أخرى، BEiT هو نموذج رؤية تم تدريبه مسبقًا على مهمة نمذجة صورة مقنعة تقوم بقناع بعض رقع الصورة وتتطلب من النموذج التنبؤ بالرقع المقنعة (مشابهة لهدف نمذجة اللغة المقيدة).",sa,zt,aa,Rt,pa,Jt,di="هي نوع من النماذج التي تستخدم حلقة متكررة فوق طبقة معينة لمعالجة النصوص.",ia,Wt,ma,Gt,hi="هو فرع من فروع تعلم الآلة يركز على تعلم تمثيلات ذات معنى للبيانات الخام. بعض الأمثلة على تقنيات التعلم التمثيلي تشمل تضمين الكلمات، والمشفرات ذاتية، وشبكات التنافس التوليدية(GANs).",$a,Nt,fa,Xt,ra,Ft,bi="قياس، بالهرتز، لعدد العينات (إشارة الصوت) المأخوذة في الثانية. ينتج معدل العينات عن تمييز إشارة مستمرة مثل الكلام.",ga,Et,ua,It,xi="هو آلية تتيح لكل عنصر في المدخل أن يحدد أي العناصر الأخرى في نفس المدخل يجب أن ينتبه إليها.",da,Bt,ha,St,Ci='فئة من تقنيات التعلم الآلي التي يقوم فيها النموذج بإنشاء هدفه التعليمي الخاص من البيانات غير الموسومة. يختلف عن التعلم غير الخاضع للإشراف و التعلم الخاضع للإشراف في أن عملية التعلم خاضعة للإشراف، ولكن ليس صراحة من المستخدم.',ba,Yt,ci="مثال واحد على التعلم الذاتي الخاضع للإشراف هو [نمذجة اللغة المقيدة](#masked-language- عرض MLM)، حيث يتم تمرير جمل للنموذج مع إزالة نسبة من رموزه ويتعلم التنبؤ بالرموز المفقودة.",xa,Qt,Ca,At,ji='فئة واسعة من تقنيات تدريب التعلم الآلي التي تستفيد من كمية صغيرة من البيانات الموسومة مع كمية أكبر من البيانات غير الموسومة لتحسين دقة النموذج، على عكس التعلم الخاضع للإشراف و التعلم غير الخاضع للإشراف.',ca,Dt,oi="مثال على نهج التعلم شبه الخاضع للإشراف هو “التدريب الذاتي”، حيث يتم تدريب نموذج على بيانات موسومة، ثم يستخدم لتقديم تنبؤات حول البيانات غير الموسومة. يتم إضافة الجزء من البيانات غير الموسومة التي يتنبأ بها النموذج بأكبر قدر من الثقة إلى مجموعة البيانات الموسومة ويتم استخدامها لإعادة تدريب النموذج.",ja,Kt,oa,Ot,Ti='نماذج تولد تسلسلًا جديدًا من إدخال، مثل نماذج الترجمة، أو نماذج التلخيص (مثل Bart أو T5).',Ta,el,va,tl,vi='اسم آخر لمفهوم Zero Redundancy Optimizer الأساسي كما هو مستخدم من قبل العديد من التطبيقات الأخرى لـ Zero.',_a,ll,Ma,nl,_i="في العمليات التلافيفية أو التجميعية، تشير الخطوة إلى المسافة التي يتحرك بها النواة (kernel) فوق المصفوفة. خطوة تساوي 1 تعني أن النواة تتحرك بكسل واحد في كل مرة.",wa,sl,ya,al,Mi="هو نوع من تدريب النماذج التي تستخدم بيانات مُعلَّمة بشكل مباشر لتصحيح أداء النموذج وتوجيهه. يتم تغذية البيانات إلى النموذج قيد التدريب، ويتم مقارنة تنبؤاته بالنتائج الصحيحة المعروفة. يقوم النموذج بتعديل أوزانه بناءً على مدى خطأ تنبؤاته، وتتكرر هذه العملية لتحسين أداء النموذج.",Pa,pl,ka,il,Ua,ml,wi="تقنية توازي لتدريب وحدات معالجة الرسومات (GPU) متعددة يتم فيها تقسيم المصفوفة إلى عدة أجزاء، لذا بدلاً من وجود المصفوفة بأكملها على وحدة معالجة الرسومات (GPU) واحدة، توجد كل شظية من المصفوفة على وحدة معالجة الرسومات (GPU) المخصصة لها. تتم معالجة الشظايا بشكل منفصل وبالتوازي على وحدات معالجة الرسومات (GPU) المختلفة ويتم مزامنة النتائج في نهاية خطوة المعالجة. هذا ما يُطلق عليه أحيانًا التوازي الأفقي، حيث يحدث الانقسام على المستوى الأفقي.",Za,$l,yi='تعرف على المزيد حول توازي Tensor هنا.',Va,fl,Ha,rl,Pi="جزء من جملة، عادة ما يكون كلمة، ولكن يمكن أن يكون أيضًا كلمة فرعية (غالبًا ما يتم تقسيم الكلمات غير الشائعة إلى كلمات فرعية) أو علامة ترقيم.",La,gl,qa,ul,ki="الغرض من بعض النماذج هو إجراء التصنيف على أزواج من الجمل أو الإجابة على الأسئلة.",za,dl,Ra,hl,Ui="يتطلب ذلك تسلسلين مختلفين يتم دمجهما في إدخال “input_ids” واحد، والذي يتم عادةً باستخدام رموز خاصة، مثل رموز التصنيف ([CLS]
) والفاصل ([SEP]
). على سبيل المثال، يقوم نموذج BERT ببناء إدخال تسلسلين على النحو التالي:",Ja,bl,Wa,xl,Zi="يمكننا استخدام برنامجنا للتمييز لإنشاء مثل هذه الجملة تلقائيًا عن طريق تمرير التسلسلين إلى tokenizer
كمعامليين (وليس قائمة، كما كان من قبل) مثل هذا:",Ga,Cl,Na,cl,Vi="والذي سيعيد:",Xa,jl,Fa,ol,Hi="هذا يكفي لبعض النماذج لفهم أين ينتهي تسلسل واحد وأين يبدأ الآخر. ومع ذلك، تستخدم نماذج أخرى، مثل BERT، أيضًا معرفات نوع الرمز (يُطلق عليها أيضًا معرفات الجزء). يتم تمثيلها كماسك ثنائي لتحديد نوعي التسلسل في النموذج.",Ea,Tl,Li="يعيد برنامج الترميز هذا القناع كإدخال “token_type_ids”:",Ia,vl,Ba,_l,qi="يتم تمثيل التسلسل الأول، “السياق” المستخدم للسؤال، بجميع رموزه بواسطة 0
، في حين يتم تمثيل التسلسل الثاني، المقابل إلى “السؤال”، بجميع رموزه بواسطة 1
.",Sa,Ml,zi="تستخدم بعض النماذج، مثل XLNetModel
رمزًا إضافيًا يمثله 2
.",Ya,wl,Qa,yl,Ri="تقنية تنطوي على أخذ نموذج تم تدريبه مسبقًا وتكييفه مع مجموعة بيانات خاصة بمهمتك. بدلاً من تدريب نموذج من الصفر، يمكنك الاستفادة من المعرفة المكتسبة من نموذج موجود كنقطة بداية. يسرع هذا عملية التعلم ويقلل من كمية بيانات التدريب المطلوبة.",Aa,Pl,Da,kl,Ji="هو بنية لنموذج تعلم عميق يعتمد على الانتباه الذاتي.",Ka,Ul,Oa,Zl,ep,Vl,Wi="شكل من أشكال تدريب النماذج حيث لا يتم وضع علامات على البيانات المقدمة إلى النموذج. تستفيد تقنيات التعلم غير الخاضعة للإشراف من المعلومات الإحصائية لتوزيع البيانات للعثور على الأنماط المفيدة للمهمة المعنية.",tp,Hl,lp,Ll,np,ql,Gi='تقنية توازي تقوم بتشظية المصفوفات بطريقة مشابهة لـ TensorParallel، باستثناء إعادة بناء المصفوفة بالكامل في الوقت المناسب لحساب التقدير أو الحساب الخلفي، وبالتالي لا يلزم تعديل النموذج. تدعم هذه الطريقة أيضًا تقنيات الإخلاء المختلفة للتعويض عن ذاكرة GPU المحدودة.',sp,zl,Ni='تعرف على المزيد حول Zero هنا.',ap,Rl,pp,Wl,ip;return o=new h({props:{title:"قاموس المصطلحات",local:"قاموس-المصطلحات",headingTag:"h1"}}),v=new h({props:{title:"A",local:"a",headingTag:"h2"}}),_=new h({props:{title:"قناع الانتباه (Attention Mask)",local:"قناع-الانتباه-attention-mask",headingTag:"h3"}}),w=new Gl({props:{id:"M6adb1j2jPI"}}),k=new x({props:{code:"ZnJvbSUyMHRyYW5zZm9ybWVycyUyMGltcG9ydCUyMEJlcnRUb2tlbml6ZXIlMEElMEF0b2tlbml6ZXIlMjAlM0QlMjBCZXJ0VG9rZW5pemVyLmZyb21fcHJldHJhaW5lZCglMjJnb29nbGUtYmVydCUyRmJlcnQtYmFzZS1jYXNlZCUyMiklMEElMEFzZXF1ZW5jZV9hJTIwJTNEJTIwJTIyVGhpcyUyMGlzJTIwYSUyMHNob3J0JTIwc2VxdWVuY2UuJTIyJTBBc2VxdWVuY2VfYiUyMCUzRCUyMCUyMlRoaXMlMjBpcyUyMGElMjByYXRoZXIlMjBsb25nJTIwc2VxdWVuY2UuJTIwSXQlMjBpcyUyMGF0JTIwbGVhc3QlMjBsb25nZXIlMjB0aGFuJTIwc2VxdWVuY2UlMjBBLiUyMiUwQSUwQWVuY29kZWRfc2VxdWVuY2VfYSUyMCUzRCUyMHRva2VuaXplcihzZXF1ZW5jZV9hKSU1QiUyMmlucHV0X2lkcyUyMiU1RCUwQWVuY29kZWRfc2VxdWVuY2VfYiUyMCUzRCUyMHRva2VuaXplcihzZXF1ZW5jZV9iKSU1QiUyMmlucHV0X2lkcyUyMiU1RA==",highlighted:`from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained("google-bert/bert-base-cased")
sequence_a = "This is a short sequence."
sequence_b = "This is a rather long sequence. It is at least longer than sequence A."
encoded_sequence_a = tokenizer(sequence_a)["input_ids"]
encoded_sequence_b = tokenizer(sequence_b)["input_ids"]`,wrap:!1}}),Z=new x({props:{code:"bGVuKGVuY29kZWRfc2VxdWVuY2VfYSklMkMlMjBsZW4oZW5jb2RlZF9zZXF1ZW5jZV9iKQ==",highlighted:`len(encoded_sequence_a), len(encoded_sequence_b)
(8, 19)`,wrap:!1}}),L=new x({props:{code:"cGFkZGVkX3NlcXVlbmNlcyUyMCUzRCUyMHRva2VuaXplciglNUJzZXF1ZW5jZV9hJTJDJTIwc2VxdWVuY2VfYiU1RCUyQyUyMHBhZGRpbmclM0RUcnVlKQ==",highlighted:' padded_sequences = tokenizer([sequence_a, sequence_b], padding=True)',wrap:!1}}),z=new x({props:{code:"cGFkZGVkX3NlcXVlbmNlcyU1QiUyMmlucHV0X2lkcyUyMiU1RA==",highlighted:` padded_sequences["input_ids"]
[[101, 1188, 1110, 170, 1603, 4954, 119, 102, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [101, 1188, 1110, 170, 1897, 1263, 4954, 119, 1135, 1110, 1120, 1655, 2039, 1190, 1103, 4954, 138, 119, 102]]`,wrap:!1}}),J=new x({props:{code:"cGFkZGVkX3NlcXVlbmNlcyU1QiUyMmF0dGVudGlvbl9tYXNrJTIyJTVE",highlighted:` padded_sequences["attention_mask"]
[[1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]]`,wrap:!1}}),W=new h({props:{title:"نماذج الترميز التلقائي (autoencoding models)",local:"نماذج-الترميز-التلقائي-autoencoding-models",headingTag:"h3"}}),N=new h({props:{title:"النماذج ذاتية الانحدار (Autoregressive Models)",local:"النماذج-ذاتية-الانحدار-autoregressive-models",headingTag:"h3"}}),F=new h({props:{title:"B",local:"b",headingTag:"h2"}}),E=new h({props:{title:"العمود الفقري (backbone)",local:"العمود-الفقري-backbone",headingTag:"h3"}}),B=new h({props:{title:"C",local:"c",headingTag:"h2"}}),S=new h({props:{title:"نمذجة اللغة السببية (أو التنبؤية) causal language modeling",local:"نمذجة-اللغة-السببية-أو-التنبؤية-causal-language-modeling",headingTag:"h3"}}),Q=new h({props:{title:"قناة(channel)",local:"قناةchannel",headingTag:"h3"}}),D=new h({props:{title:"التصنيف الزمني التوصيلي connectionist temporal classification (CTC)",local:"التصنيف-الزمني-التوصيلي-connectionist-temporal-classification-ctc",headingTag:"h3"}}),O=new h({props:{title:"الالتفاف (Convolution)",local:"الالتفاف-convolution",headingTag:"h3"}}),te=new h({props:{title:"D",local:"d",headingTag:"h2"}}),le=new h({props:{title:"التوازي على مستوى البيانات (DataParallel - DP)",local:"التوازي-على-مستوى-البيانات-dataparallel---dp",headingTag:"h3"}}),ae=new h({props:{title:"معرفات مدخلات وحدة فك التشفير (decoder input IDs)",local:"معرفات-مدخلات-وحدة-فك-التشفير-decoder-input-ids",headingTag:"h3"}}),$e=new h({props:{title:"نماذج فك التشفير (decoder models)",local:"نماذج-فك-التشفير-decoder-models",headingTag:"h3"}}),re=new Gl({props:{id:"d_ixlCubqQw"}}),ge=new h({props:{title:"E",local:"e",headingTag:"h2"}}),ue=new h({props:{title:"نماذج الترميز (encoder models)",local:"نماذج-الترميز-encoder-models",headingTag:"h3"}}),he=new Gl({props:{id:"H39Z_720T5s"}}),be=new h({props:{title:"F",local:"f",headingTag:"h2"}}),xe=new h({props:{title:"استخراج الميزات (feature extraction)",local:"استخراج-الميزات-feature-extraction",headingTag:"h3"}}),ce=new h({props:{title:"تجزئة التغذية الأمامية (feed forward chunking)",local:"تجزئة-التغذية-الأمامية-feed-forward-chunking",headingTag:"h3"}}),Te=new h({props:{title:"النماذج المضبوطة (finetuned models)",local:"النماذج-المضبوطة-finetuned-models",headingTag:"h3"}}),Me=new h({props:{title:"H",local:"h",headingTag:"h2"}}),we=new h({props:{title:"رأس النموذج (head)",local:"رأس-النموذج-head",headingTag:"h3"}}),ke=new h({props:{title:"I",local:"i",headingTag:"h2"}}),Ue=new h({props:{title:"رقعة الصور (image patch)",local:"رقعة-الصور-image-patch",headingTag:"h3"}}),Ve=new h({props:{title:"الاستدلال (Inference)",local:"الاستدلال-inference",headingTag:"h3"}}),Le=new h({props:{title:"معرفات الإدخال (input IDs)",local:"معرفات-الإدخال-input-ids",headingTag:"h3"}}),ze=new Gl({props:{id:"VFp38yj8h3A"}}),Je=new x({props:{code:"ZnJvbSUyMHRyYW5zZm9ybWVycyUyMGltcG9ydCUyMEJlcnRUb2tlbml6ZXIlMEElMEF0b2tlbml6ZXIlMjAlM0QlMjBCZXJ0VG9rZW5pemVyLmZyb21fcHJldHJhaW5lZCglMjJnb29nbGUtYmVydCUyRmJlcnQtYmFzZS1jYXNlZCUyMiklMEElMEFzZXF1ZW5jZSUyMCUzRCUyMCUyMkElMjBUaXRhbiUyMFJUWCUyMGhhcyUyMDI0R0IlMjBvZiUyMFZSQU0lMjI=",highlighted:`from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained("google-bert/bert-base-cased")
sequence = "A Titan RTX has 24GB of VRAM"`,wrap:!1}}),Ge=new x({props:{code:"dG9rZW5pemVkX3NlcXVlbmNlJTIwJTNEJTIwdG9rZW5pemVyLnRva2VuaXplKHNlcXVlbmNlKQ==",highlighted:' tokenized_sequence = tokenizer.tokenize(sequence)',wrap:!1}}),Xe=new x({props:{code:"cHJpbnQodG9rZW5pemVkX3NlcXVlbmNlKQ==",highlighted:`print(tokenized_sequence)
['A', 'Titan', 'R', '##T', '##X', 'has', '24', '##GB', 'of', 'V', '##RA', '##M']`,wrap:!1}}),Fe=new x({props:{code:"cHJpbnQodG9rZW5pemVkX3NlcXVlbmNlKQ==",highlighted:`print(tokenized_sequence)
['A'، 'Titan'، 'R'، '##T'، '##X'، 'has'، '24'، '##GB'، 'of'، 'V'، '##RA'، '##M']`,wrap:!1}}),Ie=new x({props:{code:"aW5wdXRzJTIwJTNEJTIwdG9rZW5pemVyKHNlcXVlbmNlKQ==",highlighted:' inputs = tokenizer(sequence)',wrap:!1}}),Se=new x({props:{code:"ZW5jb2RlZF9zZXF1ZW5jZSUyMCUzRCUyMGlucHV0cyU1QiUyMmlucHV0X2lkcyUyMiU1RCUwQXByaW50KGVuY29kZWRfc2VxdWVuY2Up",highlighted:` encoded_sequence = inputs["input_ids"]
print(encoded_sequence)
[101، 138، 18696، 155، 1942، 3190، 1144، 1572، 13745، 1104، 159، 9664، 2107، 102]`,wrap:!1}}),Ae=new x({props:{code:"ZGVjb2RlZF9zZXF1ZW5jZSUyMCUzRCUyMHRva2VuaXplci5kZWNvZGUoZW5jb2RlZF9zZXF1ZW5jZSk=",highlighted:' decoded_sequence = tokenizer.decode(encoded_sequence)',wrap:!1}}),Ke=new x({props:{code:"cHJpbnQoZGVjb2RlZF9zZXF1ZW5jZSk=",highlighted:`print(decoded_sequence)
[CLS] A Titan RTX has 24GB of VRAM [SEP]`,wrap:!1}}),et=new h({props:{title:"L",local:"l",headingTag:"h2"}}),tt=new h({props:{title:"االملصقات (Labels)",local:"االملصقات-labels",headingTag:"h3"}}),c=new em({props:{$$slots:{default:[lm]},$$scope:{ctx:Nl}}}),nt=new h({props:{title:"نماذج اللغة الكبيرة large language models (LLM)",local:"نماذج-اللغة-الكبيرة-large-language-models-llm",headingTag:"h3"}}),at=new h({props:{title:"M",local:"m",headingTag:"h2"}}),pt=new h({props:{title:"نمذجة اللغة المقنعة masked language modeling (MLM)",local:"نمذجة-اللغة-المقنعة-masked-language-modeling-mlm",headingTag:"h3"}}),mt=new h({props:{title:"متعدد الوسائط (multimodal)",local:"متعدد-الوسائط-multimodal",headingTag:"h3"}}),ft=new h({props:{title:"N",local:"n",headingTag:"h2"}}),rt=new h({props:{title:"توليد اللغة الطبيعية Natural language generation (NLG)",local:"توليد-اللغة-الطبيعية-natural-language-generation-nlg",headingTag:"h3"}}),ut=new h({props:{title:"معالجة اللغة الطبيعية Natural language processing (NLP)",local:"معالجة-اللغة-الطبيعية-natural-language-processing-nlp",headingTag:"h3"}}),ht=new h({props:{title:"فهم اللغة الطبيعية Natural language understanding (NLU)",local:"فهم-اللغة-الطبيعية-natural-language-understanding-nlu",headingTag:"h3"}}),xt=new h({props:{title:"P",local:"p",headingTag:"h2"}}),Ct=new h({props:{title:"خط الأنابيب (pipeline)",local:"خط-الأنابيب-pipeline",headingTag:"h3"}}),ot=new h({props:{title:"التوازي على مستوى خط الأنابيب (PipelineParallel)",local:"التوازي-على-مستوى-خط-الأنابيب-pipelineparallel",headingTag:"h3"}}),vt=new h({props:{title:"قيم البكسل (pixel values)",local:"قيم-البكسل-pixel-values",headingTag:"h3"}}),Mt=new h({props:{title:"التجميع (Pooling)",local:"التجميع-pooling",headingTag:"h3"}}),yt=new h({props:{title:"معرفات الموضع (position IDs)",local:"معرفات-الموضع-position-ids",headingTag:"h3"}}),Zt=new h({props:{title:"ما قبل المعالجة (preprocessing)",local:"ما-قبل-المعالجة-preprocessing",headingTag:"h3"}}),Ht=new h({props:{title:"النموذج المسبق التدريب (pretrained model)",local:"النموذج-المسبق-التدريب-pretrained-model",headingTag:"h3"}}),zt=new h({props:{title:"R",local:"r",headingTag:"h2"}}),Rt=new h({props:{title:"شبكة عصبية متكررة (RNN)",local:"شبكة-عصبية-متكررة-rnn",headingTag:"h3"}}),Wt=new h({props:{title:"التعلم التمثيلي (representation learning)",local:"التعلم-التمثيلي-representation-learning",headingTag:"h3"}}),Nt=new h({props:{title:"S",local:"s",headingTag:"h2"}}),Xt=new h({props:{title:"معدل العينات (sampling rate)",local:"معدل-العينات-sampling-rate",headingTag:"h3"}}),Et=new h({props:{title:"الانتباه الذاتي (Self-Attention)",local:"الانتباه-الذاتي-self-attention",headingTag:"h3"}}),Bt=new h({props:{title:"التعلم الذاتي الخاضع للإشراف (supervised learning)",local:"التعلم-الذاتي-الخاضع-للإشراف-supervised-learning",headingTag:"h3"}}),Qt=new h({props:{title:"التعلم شبه الخاضع للإشراف (semi-supervised learning)",local:"التعلم-شبه-الخاضع-للإشراف-semi-supervised-learning",headingTag:"h3"}}),Kt=new h({props:{title:"تسلسل إلى تسلسل (seq2seq)",local:"تسلسل-إلى-تسلسل-seq2seq",headingTag:"h3"}}),el=new h({props:{title:"Sharded DDP",local:"sharded-ddp",headingTag:"h3"}}),ll=new h({props:{title:"الخطوة (Stride)",local:"الخطوة-stride",headingTag:"h3"}}),sl=new h({props:{title:"التعلم الخاضع للإشراف (supervised learning)",local:"التعلم-الخاضع-للإشراف-supervised-learning",headingTag:"h3"}}),pl=new h({props:{title:"T",local:"t",headingTag:"h2"}}),il=new h({props:{title:"توازي Tensor (TP)",local:"توازي-tensor-tp",headingTag:"h3"}}),fl=new h({props:{title:"الرمز اللغوي (Token)",local:"الرمز-اللغوي-token",headingTag:"h3"}}),gl=new h({props:{title:"معرفات نوع الرمز (token type ids)",local:"معرفات-نوع-الرمز-token-type-ids",headingTag:"h3"}}),dl=new Gl({props:{id:"0u3ioSwev3s"}}),bl=new x({props:{code:"JTIzJTIwJTVCQ0xTJTVEJTIwU0VRVUVOQ0VfQSUyMCU1QlNFUCU1RCUyMFNFUVVFTkNFX0IlMjAlNUJTRVAlNUQ=",highlighted:'# [CLS] SEQUENCE_A [SEP] SEQUENCE_B [SEP]',wrap:!1}}),Cl=new x({props:{code:"ZnJvbSUyMHRyYW5zZm9ybWVycyUyMGltcG9ydCUyMEJlcnRUb2tlbml6ZXIlMEElMEF0b2tlbml6ZXIlMjAlM0QlMjBCZXJ0VG9rZW5pemVyLmZyb21fcHJldHJhaW5lZCglMjJnb29nbGUtYmVydCUyRmJlcnQtYmFzZS1jYXNlZCUyMiklMEFzZXF1ZW5jZV9hJTIwJTNEJTIwJTIySHVnZ2luZ0ZhY2UlMjBpcyUyMGJhc2VkJTIwaW4lMjBOWUMlMjIlMEFzZXF1ZW5jZV9iJTIwJTNEJTIwJTIyV2hlcmUlMjBpcyUyMEh1Z2dpbmdGYWNlJTIwYmFzZWQlM0YlMjIlMEElMEFlbmNvZGVkX2RpY3QlMjAlM0QlMjB0b2tlbml6ZXIoc2VxdWVuY2VfYSVEOCU4QyUyMHNlcXVlbmNlX2IpJTBBZGVjb2RlZCUyMCUzRCUyMHRva2VuaXplci5kZWNvZGUoZW5jb2RlZF9kaWN0JTVCJTIyaW5wdXRfaWRzJTIyJTVEKQ==",highlighted:`from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained("google-bert/bert-base-cased")
sequence_a = "HuggingFace is based in NYC"
sequence_b = "Where is HuggingFace based?"
encoded_dict = tokenizer(sequence_a، sequence_b)
decoded = tokenizer.decode(encoded_dict["input_ids"])`,wrap:!1}}),jl=new x({props:{code:"cHJpbnQoZGVjb2RlZCk=",highlighted:`print(decoded)
[CLS] HuggingFace is based in NYC [SEP] Where is HuggingFace based؟ [SEP]`,wrap:!1}}),vl=new x({props:{code:"ZW5jb2RlZF9kaWN0JTVCJTIydG9rZW5fdHlwZV9pZHMlMjIlNUQ=",highlighted:` encoded_dict["token_type_ids"]
[0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 1، 1، 1، 1، 1، 1، 1، 1، 1]`,wrap:!1}}),wl=new h({props:{title:"التعلم الانتقالي (Transfer Learning)",local:"التعلم-الانتقالي-transfer-learning",headingTag:"h3"}}),Pl=new h({props:{title:"المحول (Transformer)",local:"المحول-transformer",headingTag:"h3"}}),Ul=new h({props:{title:"U",local:"u",headingTag:"h2"}}),Zl=new h({props:{title:"التعلم غير الخاضع للإشراف (unsupervised learning)",local:"التعلم-غير-الخاضع-للإشراف-unsupervised-learning",headingTag:"h3"}}),Hl=new h({props:{title:"Z",local:"z",headingTag:"h2"}}),Ll=new h({props:{title:"محسن التكرار الصفري (ZeRO)",local:"محسن-التكرار-الصفري-zero",headingTag:"h3"}}),Rl=new tm({props:{source:"https://github.com/huggingface/transformers/blob/main/docs/source/ar/glossary.md"}}),{c(){b=g("meta"),j=s(),C=g("p"),Jl=s(),p(o.$$.fragment),Xl=s(),T=g("p"),T.textContent=mp,Fl=s(),p(v.$$.fragment),El=s(),p(_.$$.fragment),Il=s(),M=g("p"),M.textContent=$p,Bl=s(),p(w.$$.fragment),Sl=s(),y=g("p"),y.textContent=fp,Yl=s(),P=g("p"),P.textContent=rp,Ql=s(),p(k.$$.fragment),Al=s(),U=g("p"),U.textContent=gp,Dl=s(),p(Z.$$.fragment),Kl=s(),V=g("p"),V.textContent=up,Ol=s(),H=g("p"),H.textContent=dp,en=s(),p(L.$$.fragment),tn=s(),q=g("p"),q.textContent=hp,ln=s(),p(z.$$.fragment),nn=s(),R=g("p"),R.innerHTML=bp,sn=s(),p(J.$$.fragment),an=s(),p(W.$$.fragment),pn=s(),G=g("p"),G.innerHTML=xp,mn=s(),p(N.$$.fragment),$n=s(),X=g("p"),X.innerHTML=Cp,fn=s(),p(F.$$.fragment),rn=s(),p(E.$$.fragment),gn=s(),I=g("p"),I.innerHTML=cp,un=s(),p(B.$$.fragment),dn=s(),p(S.$$.fragment),hn=s(),Y=g("p"),Y.textContent=jp,bn=s(),p(Q.$$.fragment),xn=s(),A=g("p"),A.innerHTML=op,Cn=s(),p(D.$$.fragment),cn=s(),K=g("p"),K.textContent=Tp,jn=s(),p(O.$$.fragment),on=s(),ee=g("p"),ee.textContent=vp,Tn=s(),p(te.$$.fragment),vn=s(),p(le.$$.fragment),_n=s(),ne=g("p"),ne.textContent=_p,Mn=s(),se=g("p"),se.innerHTML=Mp,wn=s(),p(ae.$$.fragment),yn=s(),pe=g("p"),pe.textContent=wp,Pn=s(),ie=g("p"),ie.innerHTML=yp,kn=s(),me=g("p"),me.textContent=Pp,Un=s(),p($e.$$.fragment),Zn=s(),fe=g("p"),fe.textContent=kp,Vn=s(),p(re.$$.fragment),Hn=Fi(`
### التعلم العميق deep learning (DL)
خوارزميات التعلم الآلي التي تستخدم الشبكات العصبية متعددة الطبقات.
`),p(ge.$$.fragment),Ln=s(),p(ue.$$.fragment),qn=s(),de=g("p"),de.innerHTML=Up,zn=s(),p(he.$$.fragment),Rn=s(),p(be.$$.fragment),Jn=s(),p(xe.$$.fragment),Wn=s(),Ce=g("p"),Ce.textContent=Zp,Gn=s(),p(ce.$$.fragment),Nn=s(),je=g("p"),je.innerHTML=Vp,Xn=s(),oe=g("p"),oe.innerHTML=Hp,Fn=s(),p(Te.$$.fragment),En=s(),ve=g("p"),ve.textContent=Lp,In=s(),_e=g("p"),_e.innerHTML=qp,Bn=s(),p(Me.$$.fragment),Sn=s(),p(we.$$.fragment),Yn=s(),ye=g("p"),ye.textContent=zp,Qn=s(),Pe=g("ul"),Pe.innerHTML=Rp,An=s(),p(ke.$$.fragment),Dn=s(),p(Ue.$$.fragment),Kn=s(),Ze=g("p"),Ze.textContent=Jp,On=s(),p(Ve.$$.fragment),es=s(),He=g("p"),He.innerHTML=Wp,ts=s(),p(Le.$$.fragment),ls=s(),qe=g("p"),qe.textContent=Gp,ns=s(),p(ze.$$.fragment),ss=s(),Re=g("p"),Re.innerHTML=Np,as=s(),p(Je.$$.fragment),ps=s(),We=g("p"),We.textContent=Xp,is=s(),p(Ge.$$.fragment),ms=s(),Ne=g("p"),Ne.textContent=Fp,$s=s(),p(Xe.$$.fragment),fs=s(),p(Fe.$$.fragment),rs=s(),Ee=g("p"),Ee.textContent=Ep,gs=s(),p(Ie.$$.fragment),us=s(),Be=g("p"),Be.innerHTML=Ip,ds=s(),p(Se.$$.fragment),hs=s(),Ye=g("p"),Ye.textContent=Bp,bs=s(),Qe=g("p"),Qe.textContent=Sp,xs=s(),p(Ae.$$.fragment),Cs=s(),De=g("p"),De.textContent=Yp,cs=s(),p(Ke.$$.fragment),js=s(),Oe=g("p"),Oe.innerHTML=Qp,os=s(),p(et.$$.fragment),Ts=s(),p(tt.$$.fragment),vs=s(),lt=g("p"),lt.textContent=Ap,_s=s(),p(c.$$.fragment),Ms=Fi("\nلا تقبل النماذج الأساسية (`BertModel`) الملصقات ، لأنها نماذج المحول الأساسية، والتي تقوم ببساطة بإخراج الميزات.\n"),p(nt.$$.fragment),ws=s(),st=g("p"),st.textContent=Dp,ys=s(),p(at.$$.fragment),Ps=s(),p(pt.$$.fragment),ks=s(),it=g("p"),it.textContent=Kp,Us=s(),p(mt.$$.fragment),Zs=s(),$t=g("p"),$t.textContent=Op,Vs=s(),p(ft.$$.fragment),Hs=s(),p(rt.$$.fragment),Ls=s(),gt=g("p"),gt.innerHTML=ei,qs=s(),p(ut.$$.fragment),zs=s(),dt=g("p"),dt.textContent=ti,Rs=s(),p(ht.$$.fragment),Js=s(),bt=g("p"),bt.textContent=li,Ws=s(),p(xt.$$.fragment),Gs=s(),p(Ct.$$.fragment),Ns=s(),ct=g("p"),ct.textContent=ni,Xs=s(),jt=g("p"),jt.innerHTML=si,Fs=s(),p(ot.$$.fragment),Es=s(),Tt=g("p"),Tt.innerHTML=ai,Is=s(),p(vt.$$.fragment),Bs=s(),_t=g("p"),_t.innerHTML=pi,Ss=s(),p(Mt.$$.fragment),Ys=s(),wt=g("p"),wt.textContent=ii,Qs=s(),p(yt.$$.fragment),As=s(),Pt=g("p"),Pt.innerHTML=mi,Ds=s(),kt=g("p"),kt.innerHTML=$i,Ks=s(),Ut=g("p"),Ut.innerHTML=fi,Os=s(),p(Zt.$$.fragment),ea=s(),Vt=g("p"),Vt.innerHTML=ri,ta=s(),p(Ht.$$.fragment),la=s(),Lt=g("p"),Lt.textContent=gi,na=s(),qt=g("p"),qt.textContent=ui,sa=s(),p(zt.$$.fragment),aa=s(),p(Rt.$$.fragment),pa=s(),Jt=g("p"),Jt.textContent=di,ia=s(),p(Wt.$$.fragment),ma=s(),Gt=g("p"),Gt.textContent=hi,$a=s(),p(Nt.$$.fragment),fa=s(),p(Xt.$$.fragment),ra=s(),Ft=g("p"),Ft.textContent=bi,ga=s(),p(Et.$$.fragment),ua=s(),It=g("p"),It.textContent=xi,da=s(),p(Bt.$$.fragment),ha=s(),St=g("p"),St.innerHTML=Ci,ba=s(),Yt=g("p"),Yt.textContent=ci,xa=s(),p(Qt.$$.fragment),Ca=s(),At=g("p"),At.innerHTML=ji,ca=s(),Dt=g("p"),Dt.textContent=oi,ja=s(),p(Kt.$$.fragment),oa=s(),Ot=g("p"),Ot.innerHTML=Ti,Ta=s(),p(el.$$.fragment),va=s(),tl=g("p"),tl.innerHTML=vi,_a=s(),p(ll.$$.fragment),Ma=s(),nl=g("p"),nl.textContent=_i,wa=s(),p(sl.$$.fragment),ya=s(),al=g("p"),al.textContent=Mi,Pa=s(),p(pl.$$.fragment),ka=s(),p(il.$$.fragment),Ua=s(),ml=g("p"),ml.textContent=wi,Za=s(),$l=g("p"),$l.innerHTML=yi,Va=s(),p(fl.$$.fragment),Ha=s(),rl=g("p"),rl.textContent=Pi,La=s(),p(gl.$$.fragment),qa=s(),ul=g("p"),ul.textContent=ki,za=s(),p(dl.$$.fragment),Ra=s(),hl=g("p"),hl.innerHTML=Ui,Ja=s(),p(bl.$$.fragment),Wa=s(),xl=g("p"),xl.innerHTML=Zi,Ga=s(),p(Cl.$$.fragment),Na=s(),cl=g("p"),cl.textContent=Vi,Xa=s(),p(jl.$$.fragment),Fa=s(),ol=g("p"),ol.textContent=Hi,Ea=s(),Tl=g("p"),Tl.textContent=Li,Ia=s(),p(vl.$$.fragment),Ba=s(),_l=g("p"),_l.innerHTML=qi,Sa=s(),Ml=g("p"),Ml.innerHTML=zi,Ya=s(),p(wl.$$.fragment),Qa=s(),yl=g("p"),yl.textContent=Ri,Aa=s(),p(Pl.$$.fragment),Da=s(),kl=g("p"),kl.textContent=Ji,Ka=s(),p(Ul.$$.fragment),Oa=s(),p(Zl.$$.fragment),ep=s(),Vl=g("p"),Vl.textContent=Wi,tp=s(),p(Hl.$$.fragment),lp=s(),p(Ll.$$.fragment),np=s(),ql=g("p"),ql.innerHTML=Gi,sp=s(),zl=g("p"),zl.innerHTML=Ni,ap=s(),p(Rl.$$.fragment),pp=s(),Wl=g("p"),this.h()},l(e){const t=Ki("svelte-u9bgzb",document.head);b=u(t,"META",{name:!0,content:!0}),t.forEach(l),j=a(e),C=u(e,"P",{}),Ei(C).forEach(l),Jl=a(e),i(o.$$.fragment,e),Xl=a(e),T=u(e,"P",{"data-svelte-h":!0}),d(T)!=="svelte-ees8na"&&(T.textContent=mp),Fl=a(e),i(v.$$.fragment,e),El=a(e),i(_.$$.fragment,e),Il=a(e),M=u(e,"P",{"data-svelte-h":!0}),d(M)!=="svelte-104loow"&&(M.textContent=$p),Bl=a(e),i(w.$$.fragment,e),Sl=a(e),y=u(e,"P",{"data-svelte-h":!0}),d(y)!=="svelte-17jet7c"&&(y.textContent=fp),Yl=a(e),P=u(e,"P",{"data-svelte-h":!0}),d(P)!=="svelte-1oi3md9"&&(P.textContent=rp),Ql=a(e),i(k.$$.fragment,e),Al=a(e),U=u(e,"P",{"data-svelte-h":!0}),d(U)!=="svelte-nkj53a"&&(U.textContent=gp),Dl=a(e),i(Z.$$.fragment,e),Kl=a(e),V=u(e,"P",{"data-svelte-h":!0}),d(V)!=="svelte-g4hush"&&(V.textContent=up),Ol=a(e),H=u(e,"P",{"data-svelte-h":!0}),d(H)!=="svelte-16l100i"&&(H.textContent=dp),en=a(e),i(L.$$.fragment,e),tn=a(e),q=u(e,"P",{"data-svelte-h":!0}),d(q)!=="svelte-11utz28"&&(q.textContent=hp),ln=a(e),i(z.$$.fragment,e),nn=a(e),R=u(e,"P",{"data-svelte-h":!0}),d(R)!=="svelte-2lnki4"&&(R.innerHTML=bp),sn=a(e),i(J.$$.fragment,e),an=a(e),i(W.$$.fragment,e),pn=a(e),G=u(e,"P",{"data-svelte-h":!0}),d(G)!=="svelte-k4hwc6"&&(G.innerHTML=xp),mn=a(e),i(N.$$.fragment,e),$n=a(e),X=u(e,"P",{"data-svelte-h":!0}),d(X)!=="svelte-nhcwni"&&(X.innerHTML=Cp),fn=a(e),i(F.$$.fragment,e),rn=a(e),i(E.$$.fragment,e),gn=a(e),I=u(e,"P",{"data-svelte-h":!0}),d(I)!=="svelte-103b3xu"&&(I.innerHTML=cp),un=a(e),i(B.$$.fragment,e),dn=a(e),i(S.$$.fragment,e),hn=a(e),Y=u(e,"P",{"data-svelte-h":!0}),d(Y)!=="svelte-aqk7ti"&&(Y.textContent=jp),bn=a(e),i(Q.$$.fragment,e),xn=a(e),A=u(e,"P",{"data-svelte-h":!0}),d(A)!=="svelte-tbgd2i"&&(A.innerHTML=op),Cn=a(e),i(D.$$.fragment,e),cn=a(e),K=u(e,"P",{"data-svelte-h":!0}),d(K)!=="svelte-16fqppp"&&(K.textContent=Tp),jn=a(e),i(O.$$.fragment,e),on=a(e),ee=u(e,"P",{"data-svelte-h":!0}),d(ee)!=="svelte-bi63fu"&&(ee.textContent=vp),Tn=a(e),i(te.$$.fragment,e),vn=a(e),i(le.$$.fragment,e),_n=a(e),ne=u(e,"P",{"data-svelte-h":!0}),d(ne)!=="svelte-157ug4n"&&(ne.textContent=_p),Mn=a(e),se=u(e,"P",{"data-svelte-h":!0}),d(se)!=="svelte-pfxbmq"&&(se.innerHTML=Mp),wn=a(e),i(ae.$$.fragment,e),yn=a(e),pe=u(e,"P",{"data-svelte-h":!0}),d(pe)!=="svelte-bra4ly"&&(pe.textContent=wp),Pn=a(e),ie=u(e,"P",{"data-svelte-h":!0}),d(ie)!=="svelte-sggtp9"&&(ie.innerHTML=yp),kn=a(e),me=u(e,"P",{"data-svelte-h":!0}),d(me)!=="svelte-1o5ssyh"&&(me.textContent=Pp),Un=a(e),i($e.$$.fragment,e),Zn=a(e),fe=u(e,"P",{"data-svelte-h":!0}),d(fe)!=="svelte-18r8qey"&&(fe.textContent=kp),Vn=a(e),i(re.$$.fragment,e),Hn=Ii(e,`
### التعلم العميق deep learning (DL)
خوارزميات التعلم الآلي التي تستخدم الشبكات العصبية متعددة الطبقات.
`),i(ge.$$.fragment,e),Ln=a(e),i(ue.$$.fragment,e),qn=a(e),de=u(e,"P",{"data-svelte-h":!0}),d(de)!=="svelte-zsnrt5"&&(de.innerHTML=Up),zn=a(e),i(he.$$.fragment,e),Rn=a(e),i(be.$$.fragment,e),Jn=a(e),i(xe.$$.fragment,e),Wn=a(e),Ce=u(e,"P",{"data-svelte-h":!0}),d(Ce)!=="svelte-3ymj2"&&(Ce.textContent=Zp),Gn=a(e),i(ce.$$.fragment,e),Nn=a(e),je=u(e,"P",{"data-svelte-h":!0}),d(je)!=="svelte-11obo8u"&&(je.innerHTML=Vp),Xn=a(e),oe=u(e,"P",{"data-svelte-h":!0}),d(oe)!=="svelte-1wbtnmn"&&(oe.innerHTML=Hp),Fn=a(e),i(Te.$$.fragment,e),En=a(e),ve=u(e,"P",{"data-svelte-h":!0}),d(ve)!=="svelte-eje1bt"&&(ve.textContent=Lp),In=a(e),_e=u(e,"P",{"data-svelte-h":!0}),d(_e)!=="svelte-1qaz66m"&&(_e.innerHTML=qp),Bn=a(e),i(Me.$$.fragment,e),Sn=a(e),i(we.$$.fragment,e),Yn=a(e),ye=u(e,"P",{"data-svelte-h":!0}),d(ye)!=="svelte-1ymjt0z"&&(ye.textContent=zp),Qn=a(e),Pe=u(e,"UL",{"data-svelte-h":!0}),d(Pe)!=="svelte-qg27hn"&&(Pe.innerHTML=Rp),An=a(e),i(ke.$$.fragment,e),Dn=a(e),i(Ue.$$.fragment,e),Kn=a(e),Ze=u(e,"P",{"data-svelte-h":!0}),d(Ze)!=="svelte-em7w29"&&(Ze.textContent=Jp),On=a(e),i(Ve.$$.fragment,e),es=a(e),He=u(e,"P",{"data-svelte-h":!0}),d(He)!=="svelte-1sf91dd"&&(He.innerHTML=Wp),ts=a(e),i(Le.$$.fragment,e),ls=a(e),qe=u(e,"P",{"data-svelte-h":!0}),d(qe)!=="svelte-gd0bra"&&(qe.textContent=Gp),ns=a(e),i(ze.$$.fragment,e),ss=a(e),Re=u(e,"P",{"data-svelte-h":!0}),d(Re)!=="svelte-yfzq8n"&&(Re.innerHTML=Np),as=a(e),i(Je.$$.fragment,e),ps=a(e),We=u(e,"P",{"data-svelte-h":!0}),d(We)!=="svelte-avh61x"&&(We.textContent=Xp),is=a(e),i(Ge.$$.fragment,e),ms=a(e),Ne=u(e,"P",{"data-svelte-h":!0}),d(Ne)!=="svelte-gow2nw"&&(Ne.textContent=Fp),$s=a(e),i(Xe.$$.fragment,e),fs=a(e),i(Fe.$$.fragment,e),rs=a(e),Ee=u(e,"P",{"data-svelte-h":!0}),d(Ee)!=="svelte-2rugs5"&&(Ee.textContent=Ep),gs=a(e),i(Ie.$$.fragment,e),us=a(e),Be=u(e,"P",{"data-svelte-h":!0}),d(Be)!=="svelte-137wghv"&&(Be.innerHTML=Ip),ds=a(e),i(Se.$$.fragment,e),hs=a(e),Ye=u(e,"P",{"data-svelte-h":!0}),d(Ye)!=="svelte-rk1p46"&&(Ye.textContent=Bp),bs=a(e),Qe=u(e,"P",{"data-svelte-h":!0}),d(Qe)!=="svelte-1c5fq3u"&&(Qe.textContent=Sp),xs=a(e),i(Ae.$$.fragment,e),Cs=a(e),De=u(e,"P",{"data-svelte-h":!0}),d(De)!=="svelte-u7xv0l"&&(De.textContent=Yp),cs=a(e),i(Ke.$$.fragment,e),js=a(e),Oe=u(e,"P",{"data-svelte-h":!0}),d(Oe)!=="svelte-q9k7il"&&(Oe.innerHTML=Qp),os=a(e),i(et.$$.fragment,e),Ts=a(e),i(tt.$$.fragment,e),vs=a(e),lt=u(e,"P",{"data-svelte-h":!0}),d(lt)!=="svelte-ae44g"&&(lt.textContent=Ap),_s=a(e),i(c.$$.fragment,e),Ms=Ii(e,"\nلا تقبل النماذج الأساسية (`BertModel`) الملصقات ، لأنها نماذج المحول الأساسية، والتي تقوم ببساطة بإخراج الميزات.\n"),i(nt.$$.fragment,e),ws=a(e),st=u(e,"P",{"data-svelte-h":!0}),d(st)!=="svelte-tdb4nb"&&(st.textContent=Dp),ys=a(e),i(at.$$.fragment,e),Ps=a(e),i(pt.$$.fragment,e),ks=a(e),it=u(e,"P",{"data-svelte-h":!0}),d(it)!=="svelte-10j0xhr"&&(it.textContent=Kp),Us=a(e),i(mt.$$.fragment,e),Zs=a(e),$t=u(e,"P",{"data-svelte-h":!0}),d($t)!=="svelte-1uizjj"&&($t.textContent=Op),Vs=a(e),i(ft.$$.fragment,e),Hs=a(e),i(rt.$$.fragment,e),Ls=a(e),gt=u(e,"P",{"data-svelte-h":!0}),d(gt)!=="svelte-hu920l"&&(gt.innerHTML=ei),qs=a(e),i(ut.$$.fragment,e),zs=a(e),dt=u(e,"P",{"data-svelte-h":!0}),d(dt)!=="svelte-1yw6bed"&&(dt.textContent=ti),Rs=a(e),i(ht.$$.fragment,e),Js=a(e),bt=u(e,"P",{"data-svelte-h":!0}),d(bt)!=="svelte-7arty3"&&(bt.textContent=li),Ws=a(e),i(xt.$$.fragment,e),Gs=a(e),i(Ct.$$.fragment,e),Ns=a(e),ct=u(e,"P",{"data-svelte-h":!0}),d(ct)!=="svelte-1hlwk55"&&(ct.textContent=ni),Xs=a(e),jt=u(e,"P",{"data-svelte-h":!0}),d(jt)!=="svelte-3i81n2"&&(jt.innerHTML=si),Fs=a(e),i(ot.$$.fragment,e),Es=a(e),Tt=u(e,"P",{"data-svelte-h":!0}),d(Tt)!=="svelte-7w0p6c"&&(Tt.innerHTML=ai),Is=a(e),i(vt.$$.fragment,e),Bs=a(e),_t=u(e,"P",{"data-svelte-h":!0}),d(_t)!=="svelte-15uyudw"&&(_t.innerHTML=pi),Ss=a(e),i(Mt.$$.fragment,e),Ys=a(e),wt=u(e,"P",{"data-svelte-h":!0}),d(wt)!=="svelte-1jsl5v2"&&(wt.textContent=ii),Qs=a(e),i(yt.$$.fragment,e),As=a(e),Pt=u(e,"P",{"data-svelte-h":!0}),d(Pt)!=="svelte-11b719v"&&(Pt.innerHTML=mi),Ds=a(e),kt=u(e,"P",{"data-svelte-h":!0}),d(kt)!=="svelte-khtm51"&&(kt.innerHTML=$i),Ks=a(e),Ut=u(e,"P",{"data-svelte-h":!0}),d(Ut)!=="svelte-1nyu7is"&&(Ut.innerHTML=fi),Os=a(e),i(Zt.$$.fragment,e),ea=a(e),Vt=u(e,"P",{"data-svelte-h":!0}),d(Vt)!=="svelte-1juyx4"&&(Vt.innerHTML=ri),ta=a(e),i(Ht.$$.fragment,e),la=a(e),Lt=u(e,"P",{"data-svelte-h":!0}),d(Lt)!=="svelte-estkan"&&(Lt.textContent=gi),na=a(e),qt=u(e,"P",{"data-svelte-h":!0}),d(qt)!=="svelte-1bigxjn"&&(qt.textContent=ui),sa=a(e),i(zt.$$.fragment,e),aa=a(e),i(Rt.$$.fragment,e),pa=a(e),Jt=u(e,"P",{"data-svelte-h":!0}),d(Jt)!=="svelte-1xn57gq"&&(Jt.textContent=di),ia=a(e),i(Wt.$$.fragment,e),ma=a(e),Gt=u(e,"P",{"data-svelte-h":!0}),d(Gt)!=="svelte-1bb5uml"&&(Gt.textContent=hi),$a=a(e),i(Nt.$$.fragment,e),fa=a(e),i(Xt.$$.fragment,e),ra=a(e),Ft=u(e,"P",{"data-svelte-h":!0}),d(Ft)!=="svelte-h9kupy"&&(Ft.textContent=bi),ga=a(e),i(Et.$$.fragment,e),ua=a(e),It=u(e,"P",{"data-svelte-h":!0}),d(It)!=="svelte-48z9xq"&&(It.textContent=xi),da=a(e),i(Bt.$$.fragment,e),ha=a(e),St=u(e,"P",{"data-svelte-h":!0}),d(St)!=="svelte-1v0b2j8"&&(St.innerHTML=Ci),ba=a(e),Yt=u(e,"P",{"data-svelte-h":!0}),d(Yt)!=="svelte-1iky9gs"&&(Yt.textContent=ci),xa=a(e),i(Qt.$$.fragment,e),Ca=a(e),At=u(e,"P",{"data-svelte-h":!0}),d(At)!=="svelte-fn4h3d"&&(At.innerHTML=ji),ca=a(e),Dt=u(e,"P",{"data-svelte-h":!0}),d(Dt)!=="svelte-1cahgvr"&&(Dt.textContent=oi),ja=a(e),i(Kt.$$.fragment,e),oa=a(e),Ot=u(e,"P",{"data-svelte-h":!0}),d(Ot)!=="svelte-ho9i2w"&&(Ot.innerHTML=Ti),Ta=a(e),i(el.$$.fragment,e),va=a(e),tl=u(e,"P",{"data-svelte-h":!0}),d(tl)!=="svelte-1vd9lil"&&(tl.innerHTML=vi),_a=a(e),i(ll.$$.fragment,e),Ma=a(e),nl=u(e,"P",{"data-svelte-h":!0}),d(nl)!=="svelte-cqhxf6"&&(nl.textContent=_i),wa=a(e),i(sl.$$.fragment,e),ya=a(e),al=u(e,"P",{"data-svelte-h":!0}),d(al)!=="svelte-s9vt29"&&(al.textContent=Mi),Pa=a(e),i(pl.$$.fragment,e),ka=a(e),i(il.$$.fragment,e),Ua=a(e),ml=u(e,"P",{"data-svelte-h":!0}),d(ml)!=="svelte-1297cc0"&&(ml.textContent=wi),Za=a(e),$l=u(e,"P",{"data-svelte-h":!0}),d($l)!=="svelte-1cqsoco"&&($l.innerHTML=yi),Va=a(e),i(fl.$$.fragment,e),Ha=a(e),rl=u(e,"P",{"data-svelte-h":!0}),d(rl)!=="svelte-nzcvkz"&&(rl.textContent=Pi),La=a(e),i(gl.$$.fragment,e),qa=a(e),ul=u(e,"P",{"data-svelte-h":!0}),d(ul)!=="svelte-ql3n1l"&&(ul.textContent=ki),za=a(e),i(dl.$$.fragment,e),Ra=a(e),hl=u(e,"P",{"data-svelte-h":!0}),d(hl)!=="svelte-1n0gim"&&(hl.innerHTML=Ui),Ja=a(e),i(bl.$$.fragment,e),Wa=a(e),xl=u(e,"P",{"data-svelte-h":!0}),d(xl)!=="svelte-1ctvhmt"&&(xl.innerHTML=Zi),Ga=a(e),i(Cl.$$.fragment,e),Na=a(e),cl=u(e,"P",{"data-svelte-h":!0}),d(cl)!=="svelte-lun8mo"&&(cl.textContent=Vi),Xa=a(e),i(jl.$$.fragment,e),Fa=a(e),ol=u(e,"P",{"data-svelte-h":!0}),d(ol)!=="svelte-13g47a5"&&(ol.textContent=Hi),Ea=a(e),Tl=u(e,"P",{"data-svelte-h":!0}),d(Tl)!=="svelte-c6lqjl"&&(Tl.textContent=Li),Ia=a(e),i(vl.$$.fragment,e),Ba=a(e),_l=u(e,"P",{"data-svelte-h":!0}),d(_l)!=="svelte-ypnnv2"&&(_l.innerHTML=qi),Sa=a(e),Ml=u(e,"P",{"data-svelte-h":!0}),d(Ml)!=="svelte-f1rlvh"&&(Ml.innerHTML=zi),Ya=a(e),i(wl.$$.fragment,e),Qa=a(e),yl=u(e,"P",{"data-svelte-h":!0}),d(yl)!=="svelte-1nzrhug"&&(yl.textContent=Ri),Aa=a(e),i(Pl.$$.fragment,e),Da=a(e),kl=u(e,"P",{"data-svelte-h":!0}),d(kl)!=="svelte-43qft6"&&(kl.textContent=Ji),Ka=a(e),i(Ul.$$.fragment,e),Oa=a(e),i(Zl.$$.fragment,e),ep=a(e),Vl=u(e,"P",{"data-svelte-h":!0}),d(Vl)!=="svelte-6ab8zi"&&(Vl.textContent=Wi),tp=a(e),i(Hl.$$.fragment,e),lp=a(e),i(Ll.$$.fragment,e),np=a(e),ql=u(e,"P",{"data-svelte-h":!0}),d(ql)!=="svelte-i4njao"&&(ql.innerHTML=Gi),sp=a(e),zl=u(e,"P",{"data-svelte-h":!0}),d(zl)!=="svelte-13s61vu"&&(zl.innerHTML=Ni),ap=a(e),i(Rl.$$.fragment,e),pp=a(e),Wl=u(e,"P",{}),Ei(Wl).forEach(l),this.h()},h(){Bi(b,"name","hf:doc:metadata"),Bi(b,"content",sm)},m(e,t){Oi(document.head,b),n(e,j,t),n(e,C,t),n(e,Jl,t),m(o,e,t),n(e,Xl,t),n(e,T,t),n(e,Fl,t),m(v,e,t),n(e,El,t),m(_,e,t),n(e,Il,t),n(e,M,t),n(e,Bl,t),m(w,e,t),n(e,Sl,t),n(e,y,t),n(e,Yl,t),n(e,P,t),n(e,Ql,t),m(k,e,t),n(e,Al,t),n(e,U,t),n(e,Dl,t),m(Z,e,t),n(e,Kl,t),n(e,V,t),n(e,Ol,t),n(e,H,t),n(e,en,t),m(L,e,t),n(e,tn,t),n(e,q,t),n(e,ln,t),m(z,e,t),n(e,nn,t),n(e,R,t),n(e,sn,t),m(J,e,t),n(e,an,t),m(W,e,t),n(e,pn,t),n(e,G,t),n(e,mn,t),m(N,e,t),n(e,$n,t),n(e,X,t),n(e,fn,t),m(F,e,t),n(e,rn,t),m(E,e,t),n(e,gn,t),n(e,I,t),n(e,un,t),m(B,e,t),n(e,dn,t),m(S,e,t),n(e,hn,t),n(e,Y,t),n(e,bn,t),m(Q,e,t),n(e,xn,t),n(e,A,t),n(e,Cn,t),m(D,e,t),n(e,cn,t),n(e,K,t),n(e,jn,t),m(O,e,t),n(e,on,t),n(e,ee,t),n(e,Tn,t),m(te,e,t),n(e,vn,t),m(le,e,t),n(e,_n,t),n(e,ne,t),n(e,Mn,t),n(e,se,t),n(e,wn,t),m(ae,e,t),n(e,yn,t),n(e,pe,t),n(e,Pn,t),n(e,ie,t),n(e,kn,t),n(e,me,t),n(e,Un,t),m($e,e,t),n(e,Zn,t),n(e,fe,t),n(e,Vn,t),m(re,e,t),n(e,Hn,t),m(ge,e,t),n(e,Ln,t),m(ue,e,t),n(e,qn,t),n(e,de,t),n(e,zn,t),m(he,e,t),n(e,Rn,t),m(be,e,t),n(e,Jn,t),m(xe,e,t),n(e,Wn,t),n(e,Ce,t),n(e,Gn,t),m(ce,e,t),n(e,Nn,t),n(e,je,t),n(e,Xn,t),n(e,oe,t),n(e,Fn,t),m(Te,e,t),n(e,En,t),n(e,ve,t),n(e,In,t),n(e,_e,t),n(e,Bn,t),m(Me,e,t),n(e,Sn,t),m(we,e,t),n(e,Yn,t),n(e,ye,t),n(e,Qn,t),n(e,Pe,t),n(e,An,t),m(ke,e,t),n(e,Dn,t),m(Ue,e,t),n(e,Kn,t),n(e,Ze,t),n(e,On,t),m(Ve,e,t),n(e,es,t),n(e,He,t),n(e,ts,t),m(Le,e,t),n(e,ls,t),n(e,qe,t),n(e,ns,t),m(ze,e,t),n(e,ss,t),n(e,Re,t),n(e,as,t),m(Je,e,t),n(e,ps,t),n(e,We,t),n(e,is,t),m(Ge,e,t),n(e,ms,t),n(e,Ne,t),n(e,$s,t),m(Xe,e,t),n(e,fs,t),m(Fe,e,t),n(e,rs,t),n(e,Ee,t),n(e,gs,t),m(Ie,e,t),n(e,us,t),n(e,Be,t),n(e,ds,t),m(Se,e,t),n(e,hs,t),n(e,Ye,t),n(e,bs,t),n(e,Qe,t),n(e,xs,t),m(Ae,e,t),n(e,Cs,t),n(e,De,t),n(e,cs,t),m(Ke,e,t),n(e,js,t),n(e,Oe,t),n(e,os,t),m(et,e,t),n(e,Ts,t),m(tt,e,t),n(e,vs,t),n(e,lt,t),n(e,_s,t),m(c,e,t),n(e,Ms,t),m(nt,e,t),n(e,ws,t),n(e,st,t),n(e,ys,t),m(at,e,t),n(e,Ps,t),m(pt,e,t),n(e,ks,t),n(e,it,t),n(e,Us,t),m(mt,e,t),n(e,Zs,t),n(e,$t,t),n(e,Vs,t),m(ft,e,t),n(e,Hs,t),m(rt,e,t),n(e,Ls,t),n(e,gt,t),n(e,qs,t),m(ut,e,t),n(e,zs,t),n(e,dt,t),n(e,Rs,t),m(ht,e,t),n(e,Js,t),n(e,bt,t),n(e,Ws,t),m(xt,e,t),n(e,Gs,t),m(Ct,e,t),n(e,Ns,t),n(e,ct,t),n(e,Xs,t),n(e,jt,t),n(e,Fs,t),m(ot,e,t),n(e,Es,t),n(e,Tt,t),n(e,Is,t),m(vt,e,t),n(e,Bs,t),n(e,_t,t),n(e,Ss,t),m(Mt,e,t),n(e,Ys,t),n(e,wt,t),n(e,Qs,t),m(yt,e,t),n(e,As,t),n(e,Pt,t),n(e,Ds,t),n(e,kt,t),n(e,Ks,t),n(e,Ut,t),n(e,Os,t),m(Zt,e,t),n(e,ea,t),n(e,Vt,t),n(e,ta,t),m(Ht,e,t),n(e,la,t),n(e,Lt,t),n(e,na,t),n(e,qt,t),n(e,sa,t),m(zt,e,t),n(e,aa,t),m(Rt,e,t),n(e,pa,t),n(e,Jt,t),n(e,ia,t),m(Wt,e,t),n(e,ma,t),n(e,Gt,t),n(e,$a,t),m(Nt,e,t),n(e,fa,t),m(Xt,e,t),n(e,ra,t),n(e,Ft,t),n(e,ga,t),m(Et,e,t),n(e,ua,t),n(e,It,t),n(e,da,t),m(Bt,e,t),n(e,ha,t),n(e,St,t),n(e,ba,t),n(e,Yt,t),n(e,xa,t),m(Qt,e,t),n(e,Ca,t),n(e,At,t),n(e,ca,t),n(e,Dt,t),n(e,ja,t),m(Kt,e,t),n(e,oa,t),n(e,Ot,t),n(e,Ta,t),m(el,e,t),n(e,va,t),n(e,tl,t),n(e,_a,t),m(ll,e,t),n(e,Ma,t),n(e,nl,t),n(e,wa,t),m(sl,e,t),n(e,ya,t),n(e,al,t),n(e,Pa,t),m(pl,e,t),n(e,ka,t),m(il,e,t),n(e,Ua,t),n(e,ml,t),n(e,Za,t),n(e,$l,t),n(e,Va,t),m(fl,e,t),n(e,Ha,t),n(e,rl,t),n(e,La,t),m(gl,e,t),n(e,qa,t),n(e,ul,t),n(e,za,t),m(dl,e,t),n(e,Ra,t),n(e,hl,t),n(e,Ja,t),m(bl,e,t),n(e,Wa,t),n(e,xl,t),n(e,Ga,t),m(Cl,e,t),n(e,Na,t),n(e,cl,t),n(e,Xa,t),m(jl,e,t),n(e,Fa,t),n(e,ol,t),n(e,Ea,t),n(e,Tl,t),n(e,Ia,t),m(vl,e,t),n(e,Ba,t),n(e,_l,t),n(e,Sa,t),n(e,Ml,t),n(e,Ya,t),m(wl,e,t),n(e,Qa,t),n(e,yl,t),n(e,Aa,t),m(Pl,e,t),n(e,Da,t),n(e,kl,t),n(e,Ka,t),m(Ul,e,t),n(e,Oa,t),m(Zl,e,t),n(e,ep,t),n(e,Vl,t),n(e,tp,t),m(Hl,e,t),n(e,lp,t),m(Ll,e,t),n(e,np,t),n(e,ql,t),n(e,sp,t),n(e,zl,t),n(e,ap,t),m(Rl,e,t),n(e,pp,t),n(e,Wl,t),ip=!0},p(e,[t]){const Xi={};t&2&&(Xi.$$scope={dirty:t,ctx:e}),c.$set(Xi)},i(e){ip||($(o.$$.fragment,e),$(v.$$.fragment,e),$(_.$$.fragment,e),$(w.$$.fragment,e),$(k.$$.fragment,e),$(Z.$$.fragment,e),$(L.$$.fragment,e),$(z.$$.fragment,e),$(J.$$.fragment,e),$(W.$$.fragment,e),$(N.$$.fragment,e),$(F.$$.fragment,e),$(E.$$.fragment,e),$(B.$$.fragment,e),$(S.$$.fragment,e),$(Q.$$.fragment,e),$(D.$$.fragment,e),$(O.$$.fragment,e),$(te.$$.fragment,e),$(le.$$.fragment,e),$(ae.$$.fragment,e),$($e.$$.fragment,e),$(re.$$.fragment,e),$(ge.$$.fragment,e),$(ue.$$.fragment,e),$(he.$$.fragment,e),$(be.$$.fragment,e),$(xe.$$.fragment,e),$(ce.$$.fragment,e),$(Te.$$.fragment,e),$(Me.$$.fragment,e),$(we.$$.fragment,e),$(ke.$$.fragment,e),$(Ue.$$.fragment,e),$(Ve.$$.fragment,e),$(Le.$$.fragment,e),$(ze.$$.fragment,e),$(Je.$$.fragment,e),$(Ge.$$.fragment,e),$(Xe.$$.fragment,e),$(Fe.$$.fragment,e),$(Ie.$$.fragment,e),$(Se.$$.fragment,e),$(Ae.$$.fragment,e),$(Ke.$$.fragment,e),$(et.$$.fragment,e),$(tt.$$.fragment,e),$(c.$$.fragment,e),$(nt.$$.fragment,e),$(at.$$.fragment,e),$(pt.$$.fragment,e),$(mt.$$.fragment,e),$(ft.$$.fragment,e),$(rt.$$.fragment,e),$(ut.$$.fragment,e),$(ht.$$.fragment,e),$(xt.$$.fragment,e),$(Ct.$$.fragment,e),$(ot.$$.fragment,e),$(vt.$$.fragment,e),$(Mt.$$.fragment,e),$(yt.$$.fragment,e),$(Zt.$$.fragment,e),$(Ht.$$.fragment,e),$(zt.$$.fragment,e),$(Rt.$$.fragment,e),$(Wt.$$.fragment,e),$(Nt.$$.fragment,e),$(Xt.$$.fragment,e),$(Et.$$.fragment,e),$(Bt.$$.fragment,e),$(Qt.$$.fragment,e),$(Kt.$$.fragment,e),$(el.$$.fragment,e),$(ll.$$.fragment,e),$(sl.$$.fragment,e),$(pl.$$.fragment,e),$(il.$$.fragment,e),$(fl.$$.fragment,e),$(gl.$$.fragment,e),$(dl.$$.fragment,e),$(bl.$$.fragment,e),$(Cl.$$.fragment,e),$(jl.$$.fragment,e),$(vl.$$.fragment,e),$(wl.$$.fragment,e),$(Pl.$$.fragment,e),$(Ul.$$.fragment,e),$(Zl.$$.fragment,e),$(Hl.$$.fragment,e),$(Ll.$$.fragment,e),$(Rl.$$.fragment,e),ip=!0)},o(e){f(o.$$.fragment,e),f(v.$$.fragment,e),f(_.$$.fragment,e),f(w.$$.fragment,e),f(k.$$.fragment,e),f(Z.$$.fragment,e),f(L.$$.fragment,e),f(z.$$.fragment,e),f(J.$$.fragment,e),f(W.$$.fragment,e),f(N.$$.fragment,e),f(F.$$.fragment,e),f(E.$$.fragment,e),f(B.$$.fragment,e),f(S.$$.fragment,e),f(Q.$$.fragment,e),f(D.$$.fragment,e),f(O.$$.fragment,e),f(te.$$.fragment,e),f(le.$$.fragment,e),f(ae.$$.fragment,e),f($e.$$.fragment,e),f(re.$$.fragment,e),f(ge.$$.fragment,e),f(ue.$$.fragment,e),f(he.$$.fragment,e),f(be.$$.fragment,e),f(xe.$$.fragment,e),f(ce.$$.fragment,e),f(Te.$$.fragment,e),f(Me.$$.fragment,e),f(we.$$.fragment,e),f(ke.$$.fragment,e),f(Ue.$$.fragment,e),f(Ve.$$.fragment,e),f(Le.$$.fragment,e),f(ze.$$.fragment,e),f(Je.$$.fragment,e),f(Ge.$$.fragment,e),f(Xe.$$.fragment,e),f(Fe.$$.fragment,e),f(Ie.$$.fragment,e),f(Se.$$.fragment,e),f(Ae.$$.fragment,e),f(Ke.$$.fragment,e),f(et.$$.fragment,e),f(tt.$$.fragment,e),f(c.$$.fragment,e),f(nt.$$.fragment,e),f(at.$$.fragment,e),f(pt.$$.fragment,e),f(mt.$$.fragment,e),f(ft.$$.fragment,e),f(rt.$$.fragment,e),f(ut.$$.fragment,e),f(ht.$$.fragment,e),f(xt.$$.fragment,e),f(Ct.$$.fragment,e),f(ot.$$.fragment,e),f(vt.$$.fragment,e),f(Mt.$$.fragment,e),f(yt.$$.fragment,e),f(Zt.$$.fragment,e),f(Ht.$$.fragment,e),f(zt.$$.fragment,e),f(Rt.$$.fragment,e),f(Wt.$$.fragment,e),f(Nt.$$.fragment,e),f(Xt.$$.fragment,e),f(Et.$$.fragment,e),f(Bt.$$.fragment,e),f(Qt.$$.fragment,e),f(Kt.$$.fragment,e),f(el.$$.fragment,e),f(ll.$$.fragment,e),f(sl.$$.fragment,e),f(pl.$$.fragment,e),f(il.$$.fragment,e),f(fl.$$.fragment,e),f(gl.$$.fragment,e),f(dl.$$.fragment,e),f(bl.$$.fragment,e),f(Cl.$$.fragment,e),f(jl.$$.fragment,e),f(vl.$$.fragment,e),f(wl.$$.fragment,e),f(Pl.$$.fragment,e),f(Ul.$$.fragment,e),f(Zl.$$.fragment,e),f(Hl.$$.fragment,e),f(Ll.$$.fragment,e),f(Rl.$$.fragment,e),ip=!1},d(e){e&&(l(j),l(C),l(Jl),l(Xl),l(T),l(Fl),l(El),l(Il),l(M),l(Bl),l(Sl),l(y),l(Yl),l(P),l(Ql),l(Al),l(U),l(Dl),l(Kl),l(V),l(Ol),l(H),l(en),l(tn),l(q),l(ln),l(nn),l(R),l(sn),l(an),l(pn),l(G),l(mn),l($n),l(X),l(fn),l(rn),l(gn),l(I),l(un),l(dn),l(hn),l(Y),l(bn),l(xn),l(A),l(Cn),l(cn),l(K),l(jn),l(on),l(ee),l(Tn),l(vn),l(_n),l(ne),l(Mn),l(se),l(wn),l(yn),l(pe),l(Pn),l(ie),l(kn),l(me),l(Un),l(Zn),l(fe),l(Vn),l(Hn),l(Ln),l(qn),l(de),l(zn),l(Rn),l(Jn),l(Wn),l(Ce),l(Gn),l(Nn),l(je),l(Xn),l(oe),l(Fn),l(En),l(ve),l(In),l(_e),l(Bn),l(Sn),l(Yn),l(ye),l(Qn),l(Pe),l(An),l(Dn),l(Kn),l(Ze),l(On),l(es),l(He),l(ts),l(ls),l(qe),l(ns),l(ss),l(Re),l(as),l(ps),l(We),l(is),l(ms),l(Ne),l($s),l(fs),l(rs),l(Ee),l(gs),l(us),l(Be),l(ds),l(hs),l(Ye),l(bs),l(Qe),l(xs),l(Cs),l(De),l(cs),l(js),l(Oe),l(os),l(Ts),l(vs),l(lt),l(_s),l(Ms),l(ws),l(st),l(ys),l(Ps),l(ks),l(it),l(Us),l(Zs),l($t),l(Vs),l(Hs),l(Ls),l(gt),l(qs),l(zs),l(dt),l(Rs),l(Js),l(bt),l(Ws),l(Gs),l(Ns),l(ct),l(Xs),l(jt),l(Fs),l(Es),l(Tt),l(Is),l(Bs),l(_t),l(Ss),l(Ys),l(wt),l(Qs),l(As),l(Pt),l(Ds),l(kt),l(Ks),l(Ut),l(Os),l(ea),l(Vt),l(ta),l(la),l(Lt),l(na),l(qt),l(sa),l(aa),l(pa),l(Jt),l(ia),l(ma),l(Gt),l($a),l(fa),l(ra),l(Ft),l(ga),l(ua),l(It),l(da),l(ha),l(St),l(ba),l(Yt),l(xa),l(Ca),l(At),l(ca),l(Dt),l(ja),l(oa),l(Ot),l(Ta),l(va),l(tl),l(_a),l(Ma),l(nl),l(wa),l(ya),l(al),l(Pa),l(ka),l(Ua),l(ml),l(Za),l($l),l(Va),l(Ha),l(rl),l(La),l(qa),l(ul),l(za),l(Ra),l(hl),l(Ja),l(Wa),l(xl),l(Ga),l(Na),l(cl),l(Xa),l(Fa),l(ol),l(Ea),l(Tl),l(Ia),l(Ba),l(_l),l(Sa),l(Ml),l(Ya),l(Qa),l(yl),l(Aa),l(Da),l(kl),l(Ka),l(Oa),l(ep),l(Vl),l(tp),l(lp),l(np),l(ql),l(sp),l(zl),l(ap),l(pp),l(Wl)),l(b),r(o,e),r(v,e),r(_,e),r(w,e),r(k,e),r(Z,e),r(L,e),r(z,e),r(J,e),r(W,e),r(N,e),r(F,e),r(E,e),r(B,e),r(S,e),r(Q,e),r(D,e),r(O,e),r(te,e),r(le,e),r(ae,e),r($e,e),r(re,e),r(ge,e),r(ue,e),r(he,e),r(be,e),r(xe,e),r(ce,e),r(Te,e),r(Me,e),r(we,e),r(ke,e),r(Ue,e),r(Ve,e),r(Le,e),r(ze,e),r(Je,e),r(Ge,e),r(Xe,e),r(Fe,e),r(Ie,e),r(Se,e),r(Ae,e),r(Ke,e),r(et,e),r(tt,e),r(c,e),r(nt,e),r(at,e),r(pt,e),r(mt,e),r(ft,e),r(rt,e),r(ut,e),r(ht,e),r(xt,e),r(Ct,e),r(ot,e),r(vt,e),r(Mt,e),r(yt,e),r(Zt,e),r(Ht,e),r(zt,e),r(Rt,e),r(Wt,e),r(Nt,e),r(Xt,e),r(Et,e),r(Bt,e),r(Qt,e),r(Kt,e),r(el,e),r(ll,e),r(sl,e),r(pl,e),r(il,e),r(fl,e),r(gl,e),r(dl,e),r(bl,e),r(Cl,e),r(jl,e),r(vl,e),r(wl,e),r(Pl,e),r(Ul,e),r(Zl,e),r(Hl,e),r(Ll,e),r(Rl,e)}}}const sm='{"title":"قاموس المصطلحات","local":"قاموس-المصطلحات","sections":[{"title":"A","local":"a","sections":[{"title":"قناع الانتباه (Attention Mask)","local":"قناع-الانتباه-attention-mask","sections":[],"depth":3},{"title":"نماذج الترميز التلقائي (autoencoding models)","local":"نماذج-الترميز-التلقائي-autoencoding-models","sections":[],"depth":3},{"title":"النماذج ذاتية الانحدار (Autoregressive Models)","local":"النماذج-ذاتية-الانحدار-autoregressive-models","sections":[],"depth":3}],"depth":2},{"title":"B","local":"b","sections":[{"title":"العمود الفقري (backbone)","local":"العمود-الفقري-backbone","sections":[],"depth":3}],"depth":2},{"title":"C","local":"c","sections":[{"title":"نمذجة اللغة السببية (أو التنبؤية) causal language modeling","local":"نمذجة-اللغة-السببية-أو-التنبؤية-causal-language-modeling","sections":[],"depth":3},{"title":"قناة(channel)","local":"قناةchannel","sections":[],"depth":3},{"title":"التصنيف الزمني التوصيلي connectionist temporal classification (CTC)","local":"التصنيف-الزمني-التوصيلي-connectionist-temporal-classification-ctc","sections":[],"depth":3},{"title":"الالتفاف (Convolution)","local":"الالتفاف-convolution","sections":[],"depth":3}],"depth":2},{"title":"D","local":"d","sections":[{"title":"التوازي على مستوى البيانات (DataParallel - DP)","local":"التوازي-على-مستوى-البيانات-dataparallel---dp","sections":[],"depth":3},{"title":"معرفات مدخلات وحدة فك التشفير (decoder input IDs)","local":"معرفات-مدخلات-وحدة-فك-التشفير-decoder-input-ids","sections":[],"depth":3},{"title":"نماذج فك التشفير (decoder models)","local":"نماذج-فك-التشفير-decoder-models","sections":[],"depth":3}],"depth":2},{"title":"E","local":"e","sections":[{"title":"نماذج الترميز (encoder models)","local":"نماذج-الترميز-encoder-models","sections":[],"depth":3}],"depth":2},{"title":"F","local":"f","sections":[{"title":"استخراج الميزات (feature extraction)","local":"استخراج-الميزات-feature-extraction","sections":[],"depth":3},{"title":"تجزئة التغذية الأمامية (feed forward chunking)","local":"تجزئة-التغذية-الأمامية-feed-forward-chunking","sections":[],"depth":3},{"title":"النماذج المضبوطة (finetuned models)","local":"النماذج-المضبوطة-finetuned-models","sections":[],"depth":3}],"depth":2},{"title":"H","local":"h","sections":[{"title":"رأس النموذج (head)","local":"رأس-النموذج-head","sections":[],"depth":3}],"depth":2},{"title":"I","local":"i","sections":[{"title":"رقعة الصور (image patch)","local":"رقعة-الصور-image-patch","sections":[],"depth":3},{"title":"الاستدلال (Inference)","local":"الاستدلال-inference","sections":[],"depth":3},{"title":"معرفات الإدخال (input IDs)","local":"معرفات-الإدخال-input-ids","sections":[],"depth":3}],"depth":2},{"title":"L","local":"l","sections":[{"title":"االملصقات (Labels)","local":"االملصقات-labels","sections":[],"depth":3},{"title":"نماذج اللغة الكبيرة large language models (LLM)","local":"نماذج-اللغة-الكبيرة-large-language-models-llm","sections":[],"depth":3}],"depth":2},{"title":"M","local":"m","sections":[{"title":"نمذجة اللغة المقنعة masked language modeling (MLM)","local":"نمذجة-اللغة-المقنعة-masked-language-modeling-mlm","sections":[],"depth":3},{"title":"متعدد الوسائط (multimodal)","local":"متعدد-الوسائط-multimodal","sections":[],"depth":3}],"depth":2},{"title":"N","local":"n","sections":[{"title":"توليد اللغة الطبيعية Natural language generation (NLG)","local":"توليد-اللغة-الطبيعية-natural-language-generation-nlg","sections":[],"depth":3},{"title":"معالجة اللغة الطبيعية Natural language processing (NLP)","local":"معالجة-اللغة-الطبيعية-natural-language-processing-nlp","sections":[],"depth":3},{"title":"فهم اللغة الطبيعية Natural language understanding (NLU)","local":"فهم-اللغة-الطبيعية-natural-language-understanding-nlu","sections":[],"depth":3}],"depth":2},{"title":"P","local":"p","sections":[{"title":"خط الأنابيب (pipeline)","local":"خط-الأنابيب-pipeline","sections":[],"depth":3},{"title":"التوازي على مستوى خط الأنابيب (PipelineParallel)","local":"التوازي-على-مستوى-خط-الأنابيب-pipelineparallel","sections":[],"depth":3},{"title":"قيم البكسل (pixel values)","local":"قيم-البكسل-pixel-values","sections":[],"depth":3},{"title":"التجميع (Pooling)","local":"التجميع-pooling","sections":[],"depth":3},{"title":"معرفات الموضع (position IDs)","local":"معرفات-الموضع-position-ids","sections":[],"depth":3},{"title":"ما قبل المعالجة (preprocessing)","local":"ما-قبل-المعالجة-preprocessing","sections":[],"depth":3},{"title":"النموذج المسبق التدريب (pretrained model)","local":"النموذج-المسبق-التدريب-pretrained-model","sections":[],"depth":3}],"depth":2},{"title":"R","local":"r","sections":[{"title":"شبكة عصبية متكررة (RNN)","local":"شبكة-عصبية-متكررة-rnn","sections":[],"depth":3},{"title":"التعلم التمثيلي (representation learning)","local":"التعلم-التمثيلي-representation-learning","sections":[],"depth":3}],"depth":2},{"title":"S","local":"s","sections":[{"title":"معدل العينات (sampling rate)","local":"معدل-العينات-sampling-rate","sections":[],"depth":3},{"title":"الانتباه الذاتي (Self-Attention)","local":"الانتباه-الذاتي-self-attention","sections":[],"depth":3},{"title":"التعلم الذاتي الخاضع للإشراف (supervised learning)","local":"التعلم-الذاتي-الخاضع-للإشراف-supervised-learning","sections":[],"depth":3},{"title":"التعلم شبه الخاضع للإشراف (semi-supervised learning)","local":"التعلم-شبه-الخاضع-للإشراف-semi-supervised-learning","sections":[],"depth":3},{"title":"تسلسل إلى تسلسل (seq2seq)","local":"تسلسل-إلى-تسلسل-seq2seq","sections":[],"depth":3},{"title":"Sharded DDP","local":"sharded-ddp","sections":[],"depth":3},{"title":"الخطوة (Stride)","local":"الخطوة-stride","sections":[],"depth":3},{"title":"التعلم الخاضع للإشراف (supervised learning)","local":"التعلم-الخاضع-للإشراف-supervised-learning","sections":[],"depth":3}],"depth":2},{"title":"T","local":"t","sections":[{"title":"توازي Tensor (TP)","local":"توازي-tensor-tp","sections":[],"depth":3},{"title":"الرمز اللغوي (Token)","local":"الرمز-اللغوي-token","sections":[],"depth":3},{"title":"معرفات نوع الرمز (token type ids)","local":"معرفات-نوع-الرمز-token-type-ids","sections":[],"depth":3},{"title":"التعلم الانتقالي (Transfer Learning)","local":"التعلم-الانتقالي-transfer-learning","sections":[],"depth":3},{"title":"المحول (Transformer)","local":"المحول-transformer","sections":[],"depth":3}],"depth":2},{"title":"U","local":"u","sections":[{"title":"التعلم غير الخاضع للإشراف (unsupervised learning)","local":"التعلم-غير-الخاضع-للإشراف-unsupervised-learning","sections":[],"depth":3}],"depth":2},{"title":"Z","local":"z","sections":[{"title":"محسن التكرار الصفري (ZeRO)","local":"محسن-التكرار-الصفري-zero","sections":[],"depth":3}],"depth":2}],"depth":1}';function am(Nl){return Yi(()=>{new URLSearchParams(window.location.search).get("fw")}),[]}class gm extends Ai{constructor(b){super(),Di(this,b,am,nm,Si,{})}}export{gm as component};