Python3.7爬虫:实时api(百度ai)检测验证码模拟登录(Selenium)页面by Liu Yue/2020-03-05 标签: 检测 爬虫 页面 Selenium python3.7 实时 登录 api ai 验证码 百度 模拟 今天有同学提出了一个需求,老板让自动登录这个页面:https://www.dianxiaomi.com/index.htm,毫无疑问登录页面基本都会有在线验证码,要破解这个验证码当然不是啥难事,诚然可以自己去训练模型,然而大量的训练集测试数据还得自己去打码,说白了,不值当,有现成的接口可以用,何乐而不为,于是我们向万恶的百度伸出了魔爪。 首先申请百度api开发平台:https://cloud.baidu.com/ ......了解更多
使用flex弹性布局来为微信小程序写自适应页面by Liu Yue/2019-09-03 标签: 页面 布局 适应 使用 微信 程序 flex 弹性 我们知道,写习惯了前端的人,一般切图后布局页面的话,上手最习惯的是基于盒子模型的浮动布局,依赖 display 属性 + position属性 + float属性,但是浮动布局有一些致命的小问题,比如垂直居中比较费劲,比如著名的float坍塌问题,另外有些极端情况下,还得使用模型+clear:both来手动清除浮动,比较麻烦。 于是,W3C 提出了一种新的方案----Flex 布局,可以简便、完整、响应式地实现各种页面布局......了解更多
利用grunt插件来压缩js和css文件用来减少http请求,提高页面效率by Liu Yue/2018-02-20 标签: 用来 页面 利用 插件 grunt js css http 压缩 请求 效率 文件 减少 提高1.安装nodejs http://nodejs.org/ 2.安装各自的node package js我用的是UglifyJS github地址:https://github.com/mishoo/UglifyJS css我用的是clean-css github地址:https://github.com/GoalSmashers/clean-css 图片用的是node-......了解更多
禁止爬虫爬你的页面by Liu Yue/2013-04-21 标签: 爬虫 页面 禁止 众所周知,使用robots.txt文件可以对爬虫能否爬页面进行声明,但是这只是一个“君子协定”,有人遵守也有人不遵守,所以还需要对页面进行一个声明,加入meta代码<meta name="robots" content="noindex"> 这样才能有效的对爬虫进行封禁,例如本站就是如此,但是这是一个双刃剑,禁止爬虫的同时,SEO就不那么友好了......了解更多