使用Python爬虫将网页搜索结果写入MSSQL数据库

2025-12-13 0 788

使用Python爬虫将网页搜索结果写入MSSQL数据库

使用Python爬虫将网页搜索结果写入MSSQL数据库

如上图,某网站每天会公布城市的新建商品房可售、未售、签约情况,现在需要把这些数据获取下来,并写入数据库中。整个过程分为2大部分,第一部分是网页的解析,将目标信息获取,第二部分是数据库的连接,将数据存入数据库。

一、数据爬取

数据爬取还是老套路了,这个网页极其友好,没有什么动态加载或反爬机制等,所以直接用网页下载器requests+网页解析器BeautifulSoup+select语法即可。有一点需要注意的是,为了方便后面将数据写入数据库,在获取数据后,需要将数据整理成tuple格式。

import requests
import time
from bs4 import BeautifulSoup
import pandas as pd
import datetime
import pymssql

def doSth():
# 定义解析网页的函数
def get_html(url):
res = requests.get(url)
res.encoding = \’utf-8\’
soup = BeautifulSoup(res.text,\’lxml\’)
return soup

# 将数据爬取并打包成tuple格式
data_xj = []
data_ks = []
data_ws = []
time = datetime.date.today() – datetime.timedelta(days=1) #获取昨天的日期
yes_time_nyr = time.strftime(\’Y\’+\’%Y\’+\’M\’+\’%m\’)#月份格式
soure_xj = \’每日新建商品房签约信息\’+str(time)
soure_ks = \’每日新建商品房可售信息\’+str(time)
soure_ws = \’每日新建商品房未售信息\’+str(time)
http = \’http://www.gzcc.gov.cn/data/Category_177/Index.aspx\’
soup = get_html(http)

#插入每日新建商品房签约信息
items_xj = soup.select(\’table[class=\”resultTableD\”]\’)[2]
res_xj = items_xj.select(\’tr[bgcolor=\”#ffffff\”]\’)
for i in res_xj:
data_xj.append((yes_time_nyr,time,soure_xj,)+tuple(i.text.split())[0:1]+(\’住宅\’,) + tuple(i.text.split())[1:3])
data_xj.append((yes_time_nyr,time,soure_xj,)+tuple(i.text.split())[0:1]+(\’商业\’,) + tuple(i.text.split())[3:5])
data_xj.append((yes_time_nyr,time,soure_xj,)+tuple(i.text.split())[0:1]+(\’办公\’,) + tuple(i.text.split())[5:7])
data_xj.append((yes_time_nyr,time,soure_xj,)+tuple(i.text.split())[0:1]+(\’车位\’,) + tuple(i.text.split())[7:9])
#data.append(tuple(i.text.split())[:1] +(time,)+ tuple(i.text.split())[1:])#将list中的每个元素转换为数组

#每日新建商品房可售信息
items_ks = soup.select(\’table[class=\”resultTableD\”]\’)[0]
res_ks = items_ks.select(\’tr[bgcolor=\”#ffffff\”]\’)
for j in res_ks:
data_ks.append((yes_time_nyr,time,soure_ks,)+tuple(j.text.split())[0:1]+(\’住宅\’,) + tuple(j.text.split())[1:3])
data_ks.append((yes_time_nyr,time,soure_ks,)+tuple(j.text.split())[0:1]+(\’商业\’,) + tuple(j.text.split())[3:5])
data_ks.append((yes_time_nyr,time,soure_ks,)+tuple(j.text.split())[0:1]+(\’办公\’,) + tuple(j.text.split())[5:7])
data_ks.append((yes_time_nyr,time,soure_ks,)+tuple(j.text.split())[0:1]+(\’车位\’,) + tuple(j.text.split())[7:9])

#每日新建商品房未售信息
items_ws = soup.select(\’table[class=\”resultTableD\”]\’)[1]
res_ws = items_ws.select(\’tr[bgcolor=\”#ffffff\”]\’)
for k in res_ws:
data_ws.append((yes_time_nyr,time,soure_ws,)+tuple(k.text.split())[0:1]+(\’住宅\’,) + tuple(k.text.split())[1:3])
data_ws.append((yes_time_nyr,time,soure_ws,)+tuple(k.text.split())[0:1]+(\’商业\’,) + tuple(k.text.split())[3:5])
data_ws.append((yes_time_nyr,time,soure_ws,)+tuple(k.text.split())[0:1]+(\’办公\’,) + tuple(k.text.split())[5:7])
data_ws.append((yes_time_nyr,time,soure_ws,)+tuple(k.text.split())[0:1]+(\’车位\’,) + tuple(k.text.split())[7:9])

二、连接数据库并写入数据

连接数据库需要用到pymssql包,如果需要安装,打开命令行:

pip install pymssql

这个包是专门用来进行数据库交互操作的,操作步骤分2步:

1、创建链接:使用connect()创建连接并获取Connection对象

2、数据库交互:获取Connection对象的Cursor对象,然后使用Cursor对象的各种方法与数据库进行交互

3、关闭链接

#将数据写入数据库
#连接数据库
server = \”服务器名,如果是本地数据库IP用127.0.0.1\”
user = \”用户名\”
password = \”密码\”
database = \”数据库名\”
conn = pymssql.connect(server, user, password, database)
cursor = conn.cursor()
if not cursor:
raise(NameError,\”连接数据库失败\”)
else:
print(\’OK\’)
#写入数据
sql_xj = \”INSERT INTO table1 ([年月],[日期],[来源],[区域],[类型],[套数],[面积]) VALUES (%s,%s,%s,%s,%s,%d,%d)\”
cursor.executemany(sql_xj, data_xj)
sql_ks = \”INSERT INTO table2 ([年月],[日期],[来源],[区域],[类型],[套数],[面积]) VALUES (%s,%s,%s,%s,%s,%d,%d)\”
cursor.executemany(sql_ks, data_ks)
sql_ws = \”INSERT INTO table3 ([年月],[日期],[来源],[区域],[类型],[套数],[面积]) VALUES (%s,%s,%s,%s,%s,%d,%d)\”
cursor.executemany(sql_ws, data_ws)
# 如果没有指定autocommit属性为True的话就需要调用commit()方法
conn.commit()
print(time,\’写入数据库成功\’)
conn.close()#关闭数据库

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 编程相关 使用Python爬虫将网页搜索结果写入MSSQL数据库 https://www.zuozi.net/36402.html

常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务