استخراج وجمع البيانات (Web Scraping) من المواقع استخراج وجمع البيانات (Web Scraping) من المواقع
تفاصيل العمل

أوفر لك خدمة Web Scraping لالتقاط أي بيانات من المواقع (أسعار، منتجات، مقالات، قوائم شركات…) وتنظيمها في ملفات Excel/CSV أو قواعد بيانات. باستخدام Python (BeautifulSoup, Scrapy, Selenium) أضمن لك سرعة ودقة في جمع البيانات + مرونة في الصيغ المطلوبة. 💰 الأسعار: من 25$ لموقع صغير حتى 100$ لمشاريع احترافية تشمل عدة مواقع + تسليم الكود مثال عينة Web Scraping الفكرة: استخراج آخر الأخبار من موقع إخباري (مثال: عناوين + روابط). 📂 النتيجة (ملف CSV أو Excel): العنوان الرابط مصر تطلق مشروعًا جديدًا للطاقة https://example.com/news/1 ارتفاع أسعار الذهب عالميًا https://example.com/news/2 تقنية الذكاء الاصطناعي تتوسع https://example.com/news/3 --- 💻 مثال كود import requests from bs4 import BeautifulSoup import pandas as pd url = "https://example.com/news" res = requests.get(url) soup = BeautifulSoup(res.text, "html.parser") titles = [] links = [] for item in soup.select(".news-title a"): titles.append(item.text.strip()) links.append(item['href']) df = pd.DataFrame({"العنوان": titles, "الرابط": links}) df.to_excel("news_sample.xlsx", index=False) --- 📌 ملاحظات للعميل: دي مجرد عينة بسيطة على الأخبار. أقدر أطبق نفس الفكرة على أي موقع (متاجر، شركات، مقالات، منتجات…). التسليم بيكون ملف Excel/CSV منظم وجاهز للاستخدام.

شارك
بطاقة العمل
تاريخ النشر
منذ أسبوعين
المشاهدات
21
المستقل
Adham Glall
Adham Glall
مصمم جرافيك و كاتب
طلب عمل مماثل
شارك
مركز المساعدة