• 欢迎访问开心洋葱网站,在线教程,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站,欢迎加入开心洋葱 QQ群
  • 为方便开心洋葱网用户,开心洋葱官网已经开启复制功能!
  • 欢迎访问开心洋葱网站,手机也能访问哦~欢迎加入开心洋葱多维思维学习平台 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏开心洋葱吧~~~~~~~~~~~~~!
  • 由于近期流量激增,小站的ECS没能经的起亲们的访问,本站依然没有盈利,如果各位看如果觉着文字不错,还请看官给小站打个赏~~~~~~~~~~~~~!

Python爬虫系统化学习(4)

python 天问非攻 1352次浏览 0个评论

Python爬虫系统化学习(4)

在之前的学习过程中,我们学习了如何爬取页面,对页面进行解析并且提取我们需要的数据。

在通过解析得到我们想要的数据后,最重要的步骤就是保存数据。

一般的数据存储方式有两种:存储在文件或者数据库中。在本篇博客中我会细致的讲解从零基础到学会存储在txt或者csv文件,以及通过PHPstudy去保存数据。

Python文件存储

首先我们来写一组最简单的代码,实现的功能是打开C盘目录下的a.txt,并且写入”hello python“,然后关闭文件。代码如下:

content="hello python"
with open('C:\\a.txt',"a+") as f:
    f.write(content)
    f.close()

这里有个细节是C:\是两个反斜杠,这是因为转义的原因。通常地址的三种表现形式:

open('D:\\Data\\a.txt',"a+")
open(r'D:\Data\a.txt',"a+")
open('D:/Data/a.txt',a+)

一个重点是我们要知道文件的本质是句柄,他是文件的唯一标识符。我们每次打开一个文件,都会在系统中生成一个用数字表示的句柄,这串数字表示应用程序所代表的一系列内容。我们在记事本内写东西就是代表着我们对句柄所代表的内容进行输入。

我们可以查看下上述代码打开a.txt文件的句柄,在原有代码之下输入一下代码:

print(f)
#输出内容:<_io.TextIOWrapper name='D:\\a.txt' mode='a+' encoding='cp936'>
此后对f的操作就是对a.txt的操作

所以对文件的操作都是在句柄上进行的,常用的文件处理方法及属性列表如下

方法:

方法名 作用 使用方法(举例)
open 打开一个文件,创建一个file对象,相关的方法可以调用它进行读写 file=open(‘a.txt’,”a+”)
close 刷新缓冲区中任何没写入的信息,并且关闭文件,此后信息就不会写入 file.close()
write 将任何字符写入打开的文件,不仅仅是文字也可以是二进制 file.write(‘haha’)
read 从一个打开的文件中读取一个字符串。python的字符串是二进制数据,不仅仅是文字 len=file.read(10)[读取10个长度的内容,空格也计算在内]
tell 告诉文件的当前位置,下次读写会发生在文件开头的字节后 file.tell()
seek 改变当前文件的位置,第一个字母表示要移动的字节数,From表示开始移动字节的参考位置 file.seek(0,0)
readline 以行的形式去读,一行一行的读 data=f.readline()
readlines 把所有的行读出来 data=f.readlines()

一个注意点是句柄用完后一定要关闭,不然在大量文本情况下会大量消耗系统内存

    file.close()

但是使用with open 就会自动关闭这是要注意到的。

将字符文本保存到文件中,可读性是很重要的,以列的形式表示有助于我们阅读,假如我的对象有4个变量,那如何将这四个变量有序的存储在txt文本呢?

name=['wang','zhou','sudong']
num=['1','2','3']
house=['nanjing','shanghai','guangdong']
year=['19','20','21']
with open("D:/a.txt","a+") as f:
    for i in range(0,3):
        thing='\t'.join((name[i],num[i],house[i],year[i]))
        f.write(thing)
        f.write('\n')

通过’\t’.join就可以实现有序的保存

CSV文件存储

Python对CSV文件的存储及其简单,以行的形式读取CSV代码如下:

import csv
with open('a.csv',"r",encoding='utf-8') as fileread:
    csv_reader=csv.reader(fileread)
    for row in csv_reader:
        print(row)

csv以行的形式写文件:

import csv
out_put=['2','0','2','1']
with open('1.csv','a+',encoding='UTF-8',newline='') as csvwrite:
    w=csv.writer(csvwrite)
    w.writerow(out_put)

此外除了使用文件和csv之外我们还可以使用数据库进行保存。

由于是从零基础去学习爬虫的存储,所以数据库的安装是很有必要说一下的

这里我比较喜欢用小皮面板里的数据库,让我们来看看数据库如何安装以及数据库的基本操作。

首先在网址https://www.xp.cn下载小皮面板,打开小皮面板并在phpstudy_pro/Extension找到相应的Mysql目录并且进入,然后打开CMD控制台:

输入

mysql -u root -p
password:root

Python爬虫系统化学习(4)

连接到数据库

连接到数据库后我们需要了解下数据库的基本命令:

#显示数据库
show databases;
#创建数据库
CREATE DATABASE scraping
#使用数据库
USE scraping
#创建数据表
CREATE TABLE urls(
id INT NOT NULL AUTO_INCREMENT,
url VARCHAR(1000) NOT NULL,
content VARCHAR(4000) NOT NULL,
crated_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
PRIMARY KEY (id)
);
#查看数据表的结构
DESCRIPBE urls;
#插入数据
INSERT INTO urls (url,content) VALUES ("www.baidu.com","嘿嘿嘿");
#查询数据
SELECT * FROM urls WHERE id=1;
#查询部分数据
SELECT url,content FROM urls WHERE id=1;
#删除某些数据
DELETE FROM urls WHERE url="www.baidu.com"
#更新某些数据
UPDATE urls SET url="www.google.com",content="Google"  WHERE id=2;

通过Python操作Mysql数据库需要事先用PIP下载好pymysql

#coding:utf-8
import pymysql
#连接到数据
Dbcursor=pymysql.connect(host="127.0.0.1",user="root",password="root1234",database="scraping")
cursor=Dbcursor.cursor()
sql="""INSERT INTO urls (url,content) VALUES ('www.baidu.com','测试代码1')"""
try:
    cursor.execute(sql)
    Dbcursor.commit()
except:
    Dbcursor.rollback()
Dbcursor.close()

逻辑:通过连接到数据库然后通过cursor()方法获得数据库操作的游标,继而对数据库执行sql语句的操作。

实战:

#coding:utf-8
import requests
import re
import pymysql
from bs4 import BeautifulSoup
link="https://nj.ke.com/ershoufang/pg"
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:86.0) Gecko/20100101 Firefox/86.0","Host":
"nj.ke.com"}
db=pymysql.connect(host="127.0.0.1",user="root",password="root1234",database="house_selling")
cursor=db.cursor()
sql="""CREATE TABLE house(
              `id` INT NOT NULL AUTO_INCREMENT,
              `name` VARCHAR(1000) NOT NULL,
              `house_info` VARCHAR(1000) NOT NULL,
              `total_money` VARCHAR(1000) NOT NULL,
              `aver_money` VARCHAR(1000) NOT NULL,
              `address` VARCHAR(1000) NOT NULL,
              `created_time` TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
              PRIMARY KEY (id)
              );
    """ 
cursor.execute(sql)
for i in range(1,999):
    link_=link+str(i)+'/'
    r=requests.get(link_,headers=headers)
    soup=BeautifulSoup(r.text,"html.parser")
    houst_list=soup.find_all('li',class_='clear')
    for house in houst_list:
        name=house.find('div',class_='title').a.text.strip()
        houst_info=house.find('div',class_='houseInfo').text.strip()
        houst_info=re.sub('\s+','',houst_info)
        total_money=str(house.find('div',class_='totalPrice').span.text.strip())+''
        aver_money=str(house.find('div',class_='unitPrice').span.text.strip())
        adderess=house.find('div',class_='positionInfo').a.text.strip()
        print(name,houst_info,total_money,aver_money,adderess)
        sql="""INSERT INTO house (name,house_info,total_money,aver_money,address) values (%s,%s,%s,%s,%s)"""
        values=(name,houst_info,total_money,aver_money,adderess)
        cursor.execute(sql,values)
        #把数据库进行更新,如果缺少,代码就会报错
        db.commit()
cursor.close()
db.close()

通过查看数据库发现数据库已经写入,Python爬虫系统化学习(4)

本文总结:通过本篇文章,我们学到了通过Python进行文件处理,可以将文件写入txt,csv文本,甚至写入到数据库,其中最关键的就是写入到数据库里,通过将爬取到的数据库写入到数据库里,我们可以创造更多有价值的东西,包括可视化之类的。至此爬虫的三部分包括获取、解析、存储已经讲完了。但是后面多线程的爬虫、分布式爬虫的内容才是更有魅力的。


开心洋葱 , 版权所有丨如未注明 , 均为原创丨未经授权请勿修改 , 转载请注明Python爬虫系统化学习(4)
喜欢 (0)

您必须 登录 才能发表评论!

加载中……