Python网络爬虫——获取cookie的方法
时间:2022-09-29 21:55:07浏览:1991
需要登录的网站
import requests url = 'https://www.processon.com/login' login_email = '283867@qq.com' login_password = 'ZZZ0' # 创建一个session,作用会自动保存cookie session = requests.session() data = { 'login_email': login_email, 'login_password': login_password } # 使用session发起post请求来获取登录后的cookie,cookie已经存在session中 response = session.post(url = url,data=data) # 用session给个人主页发送请求,因为session中已经有cookie了 index_url = 'https://www.processon.com/diagrams' index_page = session.get(url=index_url).text print(index_page)
上一篇:文本复制工具clipboard.js的使用详解
下一篇:Linux上实现秒级执行的定时任务
- Linux文章
- PHP文章
- 随机文章
- Linux中的find(-atime...
- mysql的expire_logs_...
- PHP 扩展 libsodium s...
- Linux下利用find和cp实现筛...
- 使用mysqldump命令导出备份m...
- Linux系统如何设置开机自动运行脚...
- Linux上实现秒级执行的定时任务
- shell echo -e 颜色输出
- Linux下通过grep查找指定的进...
- 解决执行脚本报syntax erro...
发表评论
昵称: 验证码: