文字作品 有哪些拿的出手


Python3 反爬虫原理与绕过实战
本书描述了爬虫技术与反爬虫技术的对抗过程,并详细介绍了这其中的原理和具体的实现方法。 本书从开发环境配置到 Web 网站的构成和页面渲染,再到动态网页和静态网页对爬虫造成的影响。然后介绍了不同类型的反爬虫原理、具体实现和绕过方法。书中还讲解了常见验证码的实现过程,并使用深度学习技术完成了验证。最后介绍了常见的编码和加密原理、JavaScript 代码混淆知识、前端禁止事件以及爬虫相关的法律知识和风险点。 本书适合爬虫技术爱好者、职业爬虫工程师、前端开发者和后端开发者。
电子小册《Python 实战:用 scrapyd 打造个人化的爬虫部署管理控制台》
将爬虫部署到服务器是大部分爬虫工程师必备的技能,这个技能可以为你的职业价值锦上添花。 然而网上关于 Scrapyd 的资料比较少,除了官方文档之外,只有一些零散的教程文章。这远远无法满足很多爬虫工程师的学习需求。所以你需要这本小册。 Scrapyd 并不提供访问控制功能,意味着只要你部署到服务器上,任何人都可以访问它并且控制你的爬虫。它也不提供数据统计的功能,你不可能知道你部署的爬虫有多少,也不知道它们运行了多少次,谁的运行时间最长,也无法对爬虫日志进行排序或者筛选过滤。 别慌,笔者写这本小册就是为了解决那些问题。
电子册《MongoDB 快速入门实战教程》
这是写给 0 基础同学的 MongoDB 快速入门文章。内容从文档 CRUD 到流式聚合操作;从执行计划、索引、数据模型到复制集;从分片、访问控制到数据备份与还原。全篇近 5 万词的内容覆盖了 MongoDB 的大部分知识点,完全满足日常开发的要求。 为什么选择本篇 Chat? -内容类似的 MongoDB 教程动辄几百元 -MongoDB 官方文档晦涩难懂 -网上其他文章不够全面,难以形成体系化知识 -Chat 中的示例代码可以直接复制使用,方便练习 -MongoDB 内容繁多,自学者不确定需要学习哪些知识 在本场 Chat 中,你将收获: -文档的 CRUD 操作和 Cursor 对象 -掌握流式聚合操作,轻松面对任何数据处理需求 -了解 MongoDB 的查询效率和优化 -如何提高 MongoDB 的可用性 -如何应对数据服务故障 -理解 MongoDB 的访问控制 -学会用数据模型降低数据冗余,提高效率 -掌握 mongodump 数据备份与还原方法 适合人群: -对 MongoDB 感兴趣的 0 基础开发者 -有一定基础,想要全面了解 MongoDB 的开发者

转载前请联系作者韦世东|禁止商业转载:算法和反爬虫 » 文字作品 有哪些拿的出手

赞 (0) 打赏

说说你的看法 0

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏