标签 - Python

Python    2022-11-30 14:58:07    0    0    0

一、安装

  1. pip install pymysql

二、连接数据库

三种连接数据库的方式

  1. import pymysql
  2. # 方式一
  3. conn = pymysql.connect('localhost', 'root', 'root')
  4. # 方式二
  5. conn = pymysql.connect(host='127.0.0.1', port=3306, user='root', passwd='root', db='', charset='utf8')
  6. # 方式三
  7. config = {
  8. 'host': '127.0.0.1',
  9. 'port': 3306,
  10. 'user': 'root',
  11. 'passwd': 'root',
  12. 'charset': 'utf8'
  13. }
  14. conn = pymysql.connect(**config)

三、创建数据库

创建一个test数据库并进入

  1. import pymysql
  2. db = pymysql.connect("localhost", "root", "root", "test")
  3. # 使用 cursor() 方法创建一个游标对象 cursor
  4. cursor = db.cursor()
  5. cursor.execute('DROP DATABASE IF EXISTS test')
  6. cursor.execute('CREATE DATABASE IF NOT EXISTS test')
  7. conn.select_db('test')

四、创建数据表

创建一张user表

  1. import pymysql
  2. db = pymysql.connect("localhost", "root", "root", "test")
  3. cursor = db.cursor()
  4. cursor.execute('CREATE TABLE user(id int primary key,name varchar(30))')

五、插入一条数据

  1. import pymysql
  2. db = pymysql.connect("localhost", "root", "root", "test")
  3. cursor = db.cursor()
  4. try:
  5. # 执行
Python Scrapy    2022-11-25 15:18:14    0    0    0

爬虫的本质就是“抓取”第二方网站中有价值的数据,因此,每个网站都会或多或少地采用一些反爬虫技术来防范爬虫。比如前面介绍的通过 User-Agent 请求头验证是否为浏览器、使用 JavaScript 动态加载资源等,这些都是常规的反爬虫手段。

下面针对更强的反爬虫技术提供一些解决方案。

IP 地址验证

有些网站会使用 IP 地址验证进行反爬虫处理,程序会检查客户端的 IP 地址,如果发现同一个 IP 地址的客户端频繁地请求数据, 该网站就会判断该客户端是爬虫程序。

针对这种情况,我们可以让 Scrapy 不断地随机更换代理服务器的 IP 地址,这样就可以欺骗目标网站了。

为了让 Scrapy 能随机更换代理服务器,可以自定义一个下载中间件,让该下载中间件随机更换代理服务器即可。

Scrapy 随机更换代理服务器只要两步:

打开 Scrapy 项目下的 middlewares.py 文件,在该文件中增加定义如下类:

  1. class RandomProxyMiddleware (object) :
  2. #动态设置代理服务器的IP 地址
  3. def process request (self, request, spider):
  4. # get_random_proxy() 函数随机返回代理服务器的IP 地址和端口
  5. request.meta["proxy"] = get_random_proxy()
  1. 上面程序通过自定义的下载中间件为 Scrapy 设置了代理服务器。程序中的 get_random_proxy() 函数需要能随机返回代理服务器的 IP 地址和端口,这就需要开发者事先准备好一系列代理服务器,该函数能随机从这些代理服务器中选择一个。
  2. 通过 settings.py 文件设置启用自定义的下载中间件。在 settings.py 文件中增加如下配置代码:
  1. #配置自定义的下载中间件
  2. DOWNLOADER MIDDLEWARES = {
  3. 'ZhipinSpider.middlewares.RandomProxyMiddleware': 543,
  4. }

禁用Cookie

有些网站可以通过跟踪 Cooki

人工智能 Python    2022-02-10 14:59:50    0    0    0

Faceswap是一款实用的视频换脸软件,效率高几乎无瑕疵,不过使用此软件需要一定的Python编程基础,方可轻松操作这款视频换脸软件。Faceswap最新版本不容易出错,最新的GUI图形界面更是非常好用。

Faceswap软件

使用方法:
0.我们先启动GUI界面

左上角5个标签,分别是Extract – 提取头像,Train – 训练, Convert – 转换,后面的effmpeg和sort有bug,我们暂时不用。

下载的压缩包里面已经包含workspace文件夹。在workspace有视频素材,我们从这里开始演示一次,下面我们来看怎么使用。

data_dst 目标文件夹,分解data_dst视频后的图片,将放在这里,也可以自己定义目录

data_src目标文件夹,分解data_src视频后的图片,将放在这里,也可以自己定义目录

model, 训练模型,将保存在这里,也可以自己定义目录

data_dst.mp4,目标视频文件

data_src.mp4,源视频文件

这里,我们要将data_src.mp4里面的钢铁侠脸部表情,覆盖到data_dst.mp4里面去

  1. 返回到faceswap目录下的,双击x)分解src视频成图片.bat,可以看到命令行窗口在分解视频

将视频分解完成之后,我们在workspace\data_src文件夹里面可以看到很多图片;

  1. 同样的,我们把目录视频分解成图片,双击y)分解dst视频成图片.bat,完成目录视频的分解

  2. 图片分解出来之后,需要提取头像,点击我们刚才启动的GUI窗口,选择左上角的Extract标签

Input Dir: 你要提取头像的图片目录,我们选择workspace\data_src这个文件夹

Output Dir: 提取到的头像保存目录,我们选择workspace\data_src\aligned这个文件夹

Detector: 提取的方法,我们选择all(如果太慢,就选hog)

其他的我们保持默认就行,选好了之后,就点击左下角的Extract,开始提取

4.src图片提取完头像之后,我们需要对dst图片提取头像,同样在Extract这个标签里面

将Input

人工智能 Python    2022-02-10 14:59:19    0    0    0