بناء نموذج GPT-2 لتوليد النصوص باستخدام PyTorch
تفاصيل العمل

قمت بتطوير نموذج ذكاء اصطناعي يعتمد على معمارية Transformer (GPT-2) لتوليد النصوص بشكل تلقائي باستخدام مكتبة PyTorch. تم تدريب النموذج على مجموعة بيانات TinyStories Dataset لتعلم أنماط اللغة وتوليد قصص قصيرة بشكل تلقائي. خطوات العمل تجهيز وتنظيف البيانات النصية. تقسيم البيانات إلى تدريب واختبار. بناء نموذج Transformer مشابه لـ GPT-2. تدريب النموذج باستخدام PyTorch. تقييم النموذج باستخدام مقياس Perplexity. توليد نصوص جديدة باستخدام النموذج المدرب. التقنيات المستخدمة Python PyTorch Deep Learning Transformers Natural Language Processing Artificial Intelligence مميزات المشروع بناء نموذج GPT-2 من الصفر استخدام آلية Attention في النموذج تدريب النموذج على بيانات حقيقية توليد نصوص تلقائية باستخدام الذكاء الاصطناعي

شارك
بطاقة العمل
تاريخ النشر
منذ 8 ساعات
المشاهدات
4
المستقل
طلب عمل مماثل
شارك
مركز المساعدة