Страница 1 из 2 12 ПоследняяПоследняя
Показано с 1 по 10 из 12

Тема: Как сделать парсер на python для начинающих?

  1. Как сделать парсер на python для начинающих?

    Ребзя, подскажите, как сделать парсер на python? Я совсем начинающий, недавно начал кодить и хочу написать что-то простое, типа парсера для веб-страничек. Какие библиотеки юзать, как написать базовый код? Буду признателен за примеры и объяснения, но без заумных тем, а то мозг взорвется Хочу понять основы и потом развиваться дальше в этом направлении. Спасибо заранее!



  2. Ждём вас в нашем чате в Телеграмм ==>> @pythoneer_chat

    А ТАКЖЕ: Канал о Python, статьи и книги ==>>
    @pythoneer_ru

  3. Эй, бро, да ниче сложного в этом нет. Для простых парсеров на python юзай requests и BeautifulSoup. Вот тебе пример простого кода:

    Программный код:
    import requests
    from bs4 import BeautifulSoup
      
    url 
    'http://example.com'
    response requests.get(url)
    soup BeautifulSoup(response.text'html.parser')
      
    # Находим все ссылки на странице
    links soup.find_all('a')
    for 
    link in links:
        print(
    link.get('href')) 
    Для начала это будет норм. Потом можешь уже более продвинутые вещи изучать, типа scrapy или selenium, когда будешь готов. Удачи!

  4. Цитата Сообщение от NinaSinger
    Эй, бро, да ниче сложного в этом нет. Для простых парсеров на python юзай requests и BeautifulSoup. Вот тебе пример простого кода:

    Программный код:
    import requests
    from bs4 import BeautifulSoup
      
    url 
    'http://example.com'
    response requests.get(url)
    soup BeautifulSoup(response.text'html.parser')
      
    # Находим все ссылки на странице
    links soup.find_all('a')
    for 
    link in links:
        print(
    link.get('href')) 
    Для начала это будет норм. Потом можешь уже более продвинутые вещи изучать, типа scrapy или selenium, когда будешь готов. Удачи!
    Эх, мне бы кто так объяснял, когда я начинал! Просто и по делу, ништяк.

  5. Слушай, а может тебе посоветовать что-то помощнее? Вот scrapy, например. Он немного сложнее, но зато функционал крутой. Даже асинхронность поддерживает! Если твой парсер будет большой и сложный, тебе это всё равно понадобится.

  6. Цитата Сообщение от EarthGnome
    Слушай, а может тебе посоветовать что-то помощнее? Вот scrapy, например. Он немного сложнее, но зато функционал крутой. Даже асинхронность поддерживает! Если твой парсер будет большой и сложный, тебе это всё равно понадобится.
    Хороший совет, но для начала requests и BeautifulSoup самое то, простые и понятные.

  7. Если хочется по-быстрому что-то наколбасить, то BeautifulSoup отличный выбор. А вот если потом нужно будет парсить что-то более хитрое, selenium выручит. Единственное, selenium больше ресурсов хавает.

  8. Цитата Сообщение от Минотавр
    Если хочется по-быстрому что-то наколбасить, то BeautifulSoup отличный выбор. А вот если потом нужно будет парсить что-то более хитрое, selenium выручит. Единственное, selenium больше ресурсов хавает.
    Ну да, selenium может быть мастхэв, если дело дойдет до парсинга с динамическим контентом.

  9. Чувак, главное, это не бойся пробовать! Ошибки – это тоже опыт. Начни с requests и BeautifulSoup, как тут уже сказали. А потом, когда войдешь в тему, уже разберешься с более сложными инструментами. Важно же понимание процессов. Вот код, который поможет стартануть:

    Программный код:
    import requests
    from bs4 import BeautifulSoup
      
    def get_page_data
    (url):
        
    response requests.get(url)
        if 
    response.status_code == 200:
            
    soup BeautifulSoup(response.text'html.parser')
            return 
    soup
        
    else:
            return 
    None
      
    url 
    'https://example.com'
    data get_page_data(url)
    if 
    data:
        
    titles data.find_all('h1')
        for 
    title in titles:
            print(
    title.text)
    else:
        print(
    'Ошибка при запросе страницы'
    Так что не тормози и начинай кодить! Удачи

  10. Цитата Сообщение от ШунгитовыйСвет
    Чувак, главное, это не бойся пробовать! Ошибки – это тоже опыт. Начни с requests и BeautifulSoup, как тут уже сказали. А потом, когда войдешь в тему, уже разберешься с более сложными инструментами. Важно же понимание процессов. Вот код, который поможет стартануть:

    Программный код:
    import requests
    from bs4 import BeautifulSoup
      
    def get_page_data
    (url):
        
    response requests.get(url)
        if 
    response.status_code == 200:
            
    soup BeautifulSoup(response.text'html.parser')
            return 
    soup
        
    else:
            return 
    None
      
    url 
    'https://example.com'
    data get_page_data(url)
    if 
    data:
        
    titles data.find_all('h1')
        for 
    title in titles:
            print(
    title.text)
    else:
        print(
    'Ошибка при запросе страницы'
    Так что не тормози и начинай кодить! Удачи
    Полностью поддерживаю. Главное начать, а там дело пойдет. Спасибо за детальное объяснение.

Страница 1 из 2 12 ПоследняяПоследняя