V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
byfsdhr
V2EX  ›  Python

如何用 beatuful soup 做一个抓取小说分页阅读,然后整合在一起?

  •  
  •   byfsdhr · 2015-09-02 15:17:39 +08:00 · 2723 次点击
    这是一个创建于 3406 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我是想用查找下一页,然后 request 下一页地址然后循环直到没有下一页了。 将标题和文章输出成 text ,但是 find_all 找不到下一页 string ,求解

    7 条回复    2015-09-16 08:12:57 +08:00
    shoaly
        1
    shoaly  
       2015-09-03 12:21:41 +08:00
    给你一个建议, 抛弃 beautiful soup, 转战 pyquery, 一个 python 下面的 Jquery, 专治各种 dom 的 处理
    byfsdhr
        2
    byfsdhr  
    OP
       2015-09-03 20:18:28 +08:00
    我去
    byfsdhr
        3
    byfsdhr  
    OP
       2015-09-03 20:19:39 +08:00
    @shoaly 你看 scrapy 怎么样?
    29488503878
        4
    29488503878  
       2015-09-03 22:34:09 +08:00
    采集还是用 scrapy 框架比较好,解析 html 用 xpath 很省力
    shoaly
        5
    shoaly  
       2015-09-04 11:02:55 +08:00
    @byfsdhr scrapy 是负责采集 本身, 但是我个人不是太喜欢 xpath 的定位方式, 更喜欢 pyQuery, 因为 jquery 用太熟悉了哈
    bbking
        6
    bbking  
       2015-09-04 22:43:39 +08:00
    你看看页面是怎么生成的,有可能页面 url 就是 page=1,2...,如果是 js 生成的,那就用 js 的方法处理咯
    beviniy
        7
    beviniy  
       2015-09-16 08:12:57 +08:00
    一直用 lxml 模块的 xpath 解析 很好用
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2835 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 13:31 · PVG 21:31 · LAX 05:31 · JFK 08:31
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.