一、目的个性化推举、关联搜索推举,各大视频网站输入「啊」,那联想词真是不堪入门....其实PRON相干的网站,技巧都是杠杠的,所以技巧无好坏,看怎么利用了....最早用Ki"> 一、目的个性化推举、关联搜索推举,各大视频网站输入「啊」,那联想词真是不堪入门....其实PRON相干的网站,技巧都是杠杠的,所以技巧无好坏,看怎么利用了....最早用Ki" />
<track id="rbhrtjt"></track>
  • <track id="rbhrtjt"></track>

        <track id="rbhrtjt"></track>

        1. 「Python」

          时间 • 2021-04-19 06:50:04
          ">

          一、目的

          个性化推举、关联搜索推举,各大视频网站输入「啊」,那联想词真是不堪入门....其实PRON相干的网站,技巧都是杠杠的,所以技巧无好坏,看怎么利用了....

          最早用Kitty,被河蟹以后,一直在用bt^spread,不过bt^spread也被河蟹了....

          所以用bt^spread做例子,不至于带坏小孩,因为都翻墙了,应当有更高的认知寻求....

          说句不脸红的话,我只认识苍老师,哈哈哈哈哈....竟然还去岛国买了几张正版作为支撑....

          挂上VXN,掏出各种兵器,武断打开了「心爱」的网站,必需把苍老师装到碗里去(避免协调词频过高,1024)。

          二、踩点筹备

          1.搜索要害词在URL当中,成果分页,每页30条,以「苍老师」作为要害词一共有19页(辛劳老师了)。

          2.单击一条进入,可以发明网页还是非常简练,的大大的磁力链就在屏幕当中,当然也包含题目。

          三、编程实现

          成果处置,可以看到差不多19页,每页30个,一共将近500个磁力链,随意找一个丢到旋风里看下,速度还是很不错的。

          其实这篇算是一个Python学习笔记,只是内容较为敏感,后续应当不会有这么重口的笔记了,晚安。

          #!/usr/bin/env python3 # -*- coding: utf-8 -*- import sys import time import requests import re import urllib3 # 禁用requests提交https的get恳求时的报错 urllib3.disable_warnings() class CatchMagnet(object): def __init__(self, keyword, pages): self.keyword = keyword self.pages = pages self.btspread_url = "https://btso.pw/search/" def get_url_list(self): self.url_list = [] for page in range(1, self.pages+1): self.url_list.append(self.btspread_url+self.keyword+'/page/'+str(page)) def get_detail_url_list(self): detail_restr = r'(https://btso.pw/magnet/detail/hash/\w{40})\" title=\"' magnet_restr = r'readonly>+(magnet:.*\w+)</textarea>' title_resrt = r'<title>(.*\w+)</title>' header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36','Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','Accept-Encoding':'gzip, deflate, br','Accept-Language':'zh-CN,zh;q=0.9','Cache-Control':'max-age=0','Connection':'keep-alive','DNT':'1','Host':'btso.pw','If-Modified-Since':"Fri, 06 Jul 2018 15':'58':'35 GMT",'Upgrade-Insecure-Requests':'1'} for url in self.url_list: url_list_response = requests.get(url, headers=header, verify=False) html = url_list_response.text print('#'*90) L1 = re.findall(detail_restr, html) for detail_url in L1: url_detail_response = requests.get(detail_url, headers=header, verify=False) html = url_detail_response.text L2 = re.findall(magnet_restr, html) L3 = re.findall(title_resrt, html) s = '%s - %s\r\n' % (L3[0].split(' torrent')[0], L2[0]) print(s) else: print("over") def start(self): self.get_url_list() self.get_detail_url_list() bt = CatchMagnet('苍井空', 19) bt.start()