硬件发展趋势调研——数据抓取及存储

背景

缘起:近来想要调研硬件领域过去几年的发展趋势,那些领域取得了较大的进步,哪些领域处于半停滞状态(发展缓慢)?Hackaday作为硬件领域最大的开源平台和社区,致力于发布世界各个角落的精彩Hack项目。因此,我们从Hackaday官网中获取开源项目,通过记录阅读量、点赞数以及学习人数等多个方面的数据,后续结合智能算法实现发展趋势的预测。

图1 Hackaday开源项目

研究目标

项目执行过程中主要存在:1.数据量大;2.网页卡顿问题。因此,为了提高项目推进的速度,我们采用爬虫程序,实现数据的提取及存储。其中,系统采用私有化部署,原生微服务架构,能够极为方便的对系统进行扩展,主要包含的功能模块有:1.数据抓取模块;2.数据存储模块;3.数据分析与数据挖掘模块(异常报警);4.数据可视化模块。

项目执行过程中所用的工具有:1.pycharm集成开发环境;2.PostgreSQL数据库;

图2 Hackaday开源网站的数据抓取及存储

程序源代码

将互联网看成为一张蜘蛛网,那么网络爬虫(Web Spider)就相当于网上的蜘蛛。网络爬虫作为一种很好的数据采集手段,能按照一定规则对互联网上的数据、脚本等信息进行抓取,具体所用的代码如下图所示:

import re   #正则表达式,进行文字匹配
import urllib.request,urllib.error    #制定URL
import psycopg2
from bs4 import BeautifulSoup
from lxml import etree

#项目链接
findLink=re.compile(r'<a class="item-link" href="(.*?)"')#?表示.*出现0次到1次

#项目名称
findTiTle=re.compile(r'<a href=.*>(.*?)</a>')
#<a href="/project/187684-eptaora" title="EPTAORA">EPTAORA</a>

def main():
    baseurl = "https://hackaday.io/projects?page="

    #爬取网页
    deleteOperate();
    #init_db()

    datalist=getData(baseurl)
    print(datalist)

def getData(baseurl):#爬取网页

    datalist=[]
    id=0
    for i in range(0,8):#调用获取网页函数10次
        url=baseurl+str((i+1)*1)
        html=askURL(url)#保存获取到的网页源码

        #逐一解析
        soup= BeautifulSoup(html, "html.parser")

        for item in soup.find_all("div","project-item"):  #查找符合要求的字符串,形成列表
            data=[] #
            item=str(item)
            #print(item)

            #提取项目链接
            link=re.findall(findLink,item)[0]#re库通过正则表达式查找指定字符串的第一个符合条件的
            links='https://hackaday.io'+link
            data.append(links)


            titles=re.findall(findTiTle,item)[0]#片名
            titles1 = titles.replace("'", "")
            data.append(titles1)    #

            datalist.append(data)#把处理好的信息放入datalist
            id = id + 1

            print(data)
            saveData(data,id,peopledata)

   # print(datalist)
    return datalist

def askURL(url):#得到指定的一个网页内容
    head = {  # 用户代理,表示告诉服务器我们是什么类型的机器、浏览器(告诉浏览器我们可以接收什么水平的信息)
        "User-Agent": "Mozilla / 5.0(Windows NT 10.0;WOW64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 52.0.3226.121Safari / 537.36"
    }

    request=urllib.request.Request(url,headers=head)
    html=""
    try:
        response=urllib.request.urlopen(request)
        html=response.read().decode("utf-8")
        #print(html)
    except urllib.error.URLError as e:
        if hasattr(e,"code"):
            print(e.code)
        if hasattr(e,"reason"):
            print(e.reason)
    return html

if __name__=="__main__":
    main()

学习记录

网页抓取的核心为:

1.合法、安全;2.系统稳健性:建立容错模式;3.PostgreSQL数据库操作(连接、添加数据、删除等);

遇到的问题

1.网站内容具有特殊字符,如何存储到PostgreSQL数据库;

本站文章资源均来源自网络,除非特别声明,否则均不代表站方观点,并仅供查阅,不作为任何参考依据!
如有侵权请及时跟我们联系,本站将及时删除!
如遇版权问题,请查看 本站版权声明
THE END
分享
二维码
海报
硬件发展趋势调研——数据抓取及存储
缘起:近来想要调研硬件领域过去几年的发展趋势,那些领域取得了较大的进步,哪些领域处于半停滞状态(发展缓慢)?Hackaday作为硬件领域最大的开源平台和社区,致...
<<上一篇
下一篇>>