بررسی مدرس

  1. 0 از 5

    سلام دوست عزیز وقت شما بخیر. متاسفم اگر دوره، چیزی که انتظار داشتید نبوده. ای کاش فیلم دوره و توضیحات رو با دقت بیشتری مشاهده میکردید. البته در رابطه با عنوان هوش مصنوعی، در نظرات قبلی هم مطرح شده بود که منظور ما، دایره یادگیری ماشین و یادگیری عمیق هست با استریملیت قابل پیاده سازیه. به هر حال فکر کنم اگر به پشتیبانی پیام بدید، دررابطه با عودت هزینه راهنماییتون میکنن،

  2. 2 از 5

    دوست عزیز آقای ماجدی... درس دهم رو نوشتید "پروژه _ وب اپلیکیشن انتخاب فیلم از وبسایت imdb" من فکر کردم شما با API ها کار میکنید. شما یک فایل csv رو دارید میخونید . نه به آدرس url ای ریکوئست میدید نه ریسپانسی میگیرید.کجای این پروژه ما از سایت imdb انتخاب میکنیم؟ این یک رابط کاربری است که برای دسترسی به یک فایل csv ... شما نوشتی{انتخاب فیلم از وب سایت} بعد اومدی برای ما فایل csv میزاری کنار پروژه میگی لیست فیلم ها داخلش هست. نام دوره را گذاشته اید وب اپلکیشن هوش مصنوعی.... کجای این دوره در مورد هوش مصنوعی حرفی زده شده؟ در دوره های آقای آصفی کلی مباحث تئوری و عملی یاد میگیرم با قیمت بسیار مناسب تر... بنده راضی نیستم.

  3. 0 از 5

    سلام روزتون بخیر در درس پنجم که درمورد کراول کردن روی 250 فیلم برتر IMDB آموزش دادید هیچ لینک تکراری نبود و دقیقا 250 لینک خروجی داشتید اما برای من این اتفاق نمیفته و لینک های تکراری برگشت داده میشوند حتی اسپایدر خودتون رو اجرا میکنم، بازهم این مشکل وجود داره سعی کردم با قرار دادن یک set() جلوی بررسی لینک های تکراری رو بگیرم اما تاثیری نداشت برای رفع این مشکل پیشنهادی دارید؟

  4. 0 از 5

    چند تا راه حل وجود داره. مثل استفاده از user agent فیک. پیشنهاد میکنم نگاهی به این لینک بیندازید: https://www.zenrows.com/blog/403-web-scraping#seven-easy-ways-to-bypass-error-403

  5. 0 از 5

    مسئله اینجاست که در اولین تلاش این خطا رخ داد از دیروز تا امروز صبر کردم و مجددا با همون خطا مواجه شدم روی سایت های دیگه ای تست کردم و نتیجه گرفتم اما روی سایت IMDB همچنان این خطا رو نمایش میده پیشنهادی برای رفع خطا دارید؟

  6. 0 از 5

    سلام وقت بخیر. یک احتمال این هست که گاهی اوقات وقتی در یک بازه زمانی تعداد ریکوئست های ربات به یک وبسایتی زیاد میشه، اون دامنه بطور موقت ربات رو مسدود میکنه. مدتی صبر کنید و بعد دوباره اقدام کنید.

  7. 0 از 5

    سلام بعد از توضیحات ویدیوی جلسه سوم این دستور رو run کردم: ******************************************************* import scrapy class ExampleSpider(scrapy.Spider): name = "example" # allowed_domains = ["example.com"] start_urls = ["https://www.imdb.com/title/tt1375666/"] def parse(self, response): print(response.css('h1').extract_first()) ******************************************************* و با این خطا روبرو شدم 2024-03-17 11:01:38 [scrapy.core.engine] DEBUG: Crawled (200) (referer: None) 2024-03-17 11:01:38 [scrapy.core.engine] DEBUG: Crawled (403) (referer: None) 2024-03-17 11:01:38 [scrapy.spidermiddlewares.httperror] INFO: Ignoring response : HTTP status code is not handled or not allowed اینطور که من متوجه شدم IMDB برای ربات ها محدودیت ایجاد کرده و سرور پاسخ نمیده اگر اینطور هست چه راهی پیشنهاد میدید تا این محدودیت رو دور بزنیم؟

  8. 0 از 5

    (مهمان)

    سلام وقت بخیر نحوه پشتیبانی این دوره به چه صورت هست؟

  9. 0 از 5

    با سلام و احترام همراه ارجمند ضمن سپاس از لطف شما در خصوص بخش دوم پیام، می توانید برای ارتباط با مدرسان روی تصویر آن‌ها در هم رویش کلیک کرده و وارد صفحه آن‌ها شوید. سپس از طریق دکمه "ارتباط با مدرس" با ایشان ارتباط بگیرید. لازم به ذکر است مجموعه در این ارتباط دخالتی نخواهد داشت. آدرس صفحه ایشان : https://hamruyesh.com/teachers/majedinia/

  10. 5 از 5

    سلام و عرض ادب به مدرس بزرگوار آقای ماجدی نیا. بسیار آموزش کاربردی و جذابی بود که با بیان خیلی خوب و شیوا ارایه کردند. با تشکر از سایت همرویش. آیا امکان ارتباط از طریق ایمیل یا ... با آقای ماجدی نیا هست؟ با سپاس

  11. 0 از 5

    سلام و سپاس از شما برای اشتراک گذاری یافته خودتون.

  12. 0 از 5

    (مهمان)

    سلام مجدد مشکل خطا پیدا کردم برنامه از پورت 8501 استفاده میکنه که در بعضی از مواقع توسط ویندوز استفاده میشه برای رفع این مشکل در زمان امرای کد باید از دستور زیر استفاده کنیم 8080 server.port-- اطلاعات بیشتر داخل سایت sreamlit موجوده

  13. 0 از 5

    سلام به شما. این مشکل بیشتر به نظر میاد ناشی از سیستم باشه تا خود کد. سیستم عاملتون چی هست؟ لینک زیر چندتا راهکار توسط کاربرهای مختلف پیشنهاد شده امیدوارم مشکلتون رو حل کنه: https://stackoverflow.com/questions/2778840/socket-error-errno-10013-an-attempt-was-made-to-access-a-socket-in-a-way-forb

  14. 0 از 5

    (مهمان)

    سلام، وقت بخیر من این بسته آموزشی تهیه کردم اما زمانی که کدهای آموزش اجرا میکنم این خطا میده [WinError 10013] An attempt was made to access a socket in a way forbidden by its access permissions من حتی روی یه سیستم دیگه و با jupyter هم تست کردم اما همین خطا هستش انتی ویروس و فایروال هم غیر فعال کردم. لطفا راهنمایی کنید. ممنون

  15. 0 از 5

    سلام به شما. چندتا رفرنس بهتون معرفی میکنم که بطور کلی برای استخراج داده از سایت هایی که یا بر مبنای جاوااسکریپت هستند یا اطلاعات داخل تگ script یا nonscript قرار گرفته که یه مقدار مسیر وب اسکریپینگ رو پیچیده تر میکنند، مفید هستند: مورد اول بر اساس مستندات خود اسکریپی هست: https://docs.scrapy.org/en/latest/topics/dynamic-content.html#parsing-javascript-code مورد بعدی استفاده از برخی ابزارهای کمکی مثل splash، سلنیوم و playwright هست که میتونید با سرچ بیشتر، در موردشون اطلاعات کسب کنید. اما در مورد تغییر ای پی که بیان کردید، من با سرچی که کردم چند راهکار وجود داره: در هر درخواست از یک User-Agent تصادفی که توسط fake-usagent ارائه شده است استفاده کنید. یا میان افزار پروکسی Scrapy را طوری تنظیم کنید که در هر درخواست بچرخد. یا از مرورگر tor استفاده کنید و tor proxies1 را تنظیم کنید. کد زیر هم یک نمونه هست که میتونه شروع خوبی باشه. برخی جاهاش رو باید تغییر بدید مثل ادرس سایت: import requests from bs4 import BeautifulSoup # Define headers headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36" } # Define proxies proxies = { "http": "http://207.148.1.212:8080", "https": "https://207.148.1.212:8080" } # Send request response = requests.get("https://www.example.com", headers=headers, proxies=proxies) # Parse HTML soup = BeautifulSoup(response.content, "html.parser")

  16. 0 از 5

    سلام. خواهش میکنم! ممنون از شما که این همه انرژی مثبت فرستادید و نشون دادید ارزش وقتی که برای آموزش گذاشته شده رو درک کردید :) .

  17. 0 از 5

    سلام. بله حق با شماست. این دوره بیشتر جنبه مقدماتی داره ولی بعد از یادگرفتن این آموزش، ادامه راه نسبتا هموار هست. دلیل استفاده از واژه هوش مصنوعی هم بیشتر برای این بود که زیرشاخه های یادگیری ماشین و یادگیری عمیق و ... که بیانگر کاربردهای اصلی استریم لیت هستند را در یک عبارت کوتاه تر بیان بکنیم. برای اتصال استریم لیت به دیتابیس هم نمونه کد زیر میتونه شروع خوبی باشه ( my_table را با نام جدول خود و SELECT * را با دستور SQL مدنظر جایگزین کنید.): import mysql.connector import streamlit as st # Connect to MySQL database def connect(): return mysql.connector.connect( host=st.secrets["mysql"]["host"], user=st.secrets["mysql"]["user"], password=st.secrets["mysql"]["password"], database=st.secrets["mysql"]["database"] ) # Execute SQL query def execute_query(query): connection = connect() cursor = connection.cursor() cursor.execute(query) results = cursor.fetchall() connection.commit() connection.close() return results # Example query results = execute_query("SELECT * FROM my_table") st.write(results)

  18. 0 از 5

    سلام به شما. توی این آموزش نحوه استخراج داده ها و ذخیره اونها به فرمت های مختلف (از جمله json) آموزش داده شده ولی روی وب قرار دادن خروجی جزو این آموزش نیست.

  19. 0 از 5

    (مهمان)

    سلام ایا اموزش میدید چه طوری خروجی رو روی وب قرار بدیم ؟ مثلا json چه طور این کار انجام میشه ؟

  20. 4 از 5

    برای شروع خوب بود. من منتظر بحث اساسی اتصال استریم به دیتابیش ها هستم و ضمناْ نام دوره ساخت وب ا\لیکیشن هوش مصنوعی بود و من در این درس صحبتی از هوش مصنوعی که محاسبات زیادی داره ندیدم. بهتره نام دوره بشه استریم لیت مقدماتی