看了下上个版本是一年前了,今天有人说搜索不好使,更新一下。
更新日志 修复webp图片下载文件扩展名错误 修复搜索下载失败
参数说明: C:\Users\obaby>E:\Pycharm_Projects\meitulu-spider\dist\xrmnw_v2.exe **************************************************************************************************** _ _ ____ ___ | |__ __ _| |__ _ _ / __ \ _ __ ___ __ _ _ __ ___ / _ \| '_ \ / _` | '_ \| | | |/ / _` | '_ ` _ \ / _` | '__/ __| | (_) | |_) | (_| | |_) | |_| | | (_| | | | | | | (_| | | \__ \ \___/|_.__/ \__,_|_.__/ \__, |\ \__,_|_| |_| |_|\__,_|_| |___/ |___/ \____/ 秀人美女网爬虫<多站点版> Verson: 24.05.05 Blog: http://oba.by Web: https://nai.dog -------------------------------------------------------------------------------- 爬虫信息: 当前服务器地址: https://www.xrmn01.top 提示:切换域名请用-s参数,不知道怎么运行看下面一行!! 命令行工具使用方法:https://oba.by/?p=12240 PS:姐姐的上面的域名怎样啊?说不好的不让用!!哼!! 可选网站地址:https://www.xrmnw.cc https://www.xrmn02.cc 旧版本可用,通过-s参数置顶地址即可 **************************************************************************************************** USAGE: spider -h <help> -a <all> -q <search> Arguments: -a <download all site images> -q <query the image with keywords> -h <display help text, just this> Option Arguments: -p <image download path> -r <random index category list> -c <single category url> -e <early stop, work in site crawl mode only> -s <site url eg: https://www.xrmnw.cc (no last backslash "/")> ****************************************************************************************************
重点提示:
1.先去搜索怎么运行命令行工具!!!或者直接看这个视频:https://weibo.com/u/2120123121?tabtype=newVideo&layerid=4673816364844552
2.请使用-p参数指定下载路径!请使用-p参数指定下载路径!请使用-p参数指定下载路径!
3.不要问为什么运行闪退!!
不要问为什么运行闪退!!
不要问为什么运行闪退!!
不要问为什么运行闪退!!
不要问为什么运行闪退!!
教程:
下载地址:
87 comments
地址不对了吧
自己找新的