|
|
|
|
移动端

基于Python实现的微信好友数据分析

今天这篇文章会基于 Python 对微信好友进行数据分析,这里选择的维度主要有:性别、头像、签名、位置,主要采用图表和词云两种形式来呈现结果,其中,对文本类信息会采用词频分析和情感分析两种方法。常言道:工欲善其事,必先利其器也。

作者:飞鸿踏雪来源:AI科技大本营|2018-02-26 08:44

技术沙龙 | 6月30日与多位专家探讨技术高速发展下如何应对运维新挑战!


最近微信迎来了一次重要的更新,允许用户对”发现”页面进行定制。不知道从什么时候开始,微信朋友圈变得越来越复杂,当越来越多的人选择”仅展示最近三天的朋友圈”,大概连微信官方都是一脸的无可奈何。逐步泛化的好友关系,让微信从熟人社交逐渐过渡到陌生人社交,而朋友圈里亦真亦幻的状态更新,仿佛在努力证明每一个个体的”有趣”。

有人选择在朋友圈里记录生活的点滴,有人选择在朋友圈里展示观点的异同,可归根到底,人们无时无刻不在窥探着别人的生活,唯独怕别人过多地了解自己的生活。人性中交织着的光明与黑暗,像一只浑身长满刺的刺猬,离得太远会感觉到寒冷,而靠得太近则害怕被刺扎到。朋友圈就像过年走亲戚,即便你心中有一万个不痛快,总是不愿意撕破脸,或屏蔽对方,或不给对方看,或仅展示最后三天,于是通讯录里的联系人越来越多,朋友圈越来越大,可再不会有能真正触动你内心的”小红点”出现,人类让一个产品变得越来越复杂,然后说它无法满足人类的需求,这大概是一开始就始料不及的吧!

引言

有人说,人性远比计算机编程更复杂,因为即使是人类迄今为止最伟大的发明——计算机,在面对人类的自然语言时同样会张惶失措 。人类有多少语言存在着模棱两可的含义,我认为语言是人类最大的误解,人类时常喜欢揣测语言背后隐藏的含义,好像在沟通时表达清晰的含义会让人类没有面子,更不用说网络上流行的猜测女朋友真实意图的案例。金庸先生的武侠小说《射雕英雄传》里,在信息闭塞的南宋时期,江湖上裘千丈的一句鬼话,就搅得整个武林天翻地覆。其实,一两句话说清楚不好吗?黄药师、全真七子、江南六怪间的种种纠葛,哪一场不是误会?一众儿武功震古烁今的武林高手,怎么没有丝毫的去伪存真的能力,语言造成了多少误会。

可即便人类的语言复杂得像一本无字天书,可人类还是从这些语言中寻觅到蛛丝马迹。古人有文王”拘而演周易”、东方朔测字卜卦,这种带有”迷信”色彩的原始崇拜,就如同今天人们迷信星座运势一般,都是人类在上千年的演变中不断对经验进行总结和训练的结果。如此说起来,我们的人工智能未尝不是一种更加科学化的”迷信”,因为数据和算法让我们在不断地相信,这一切都是真实地。生活在数字时代的我们,无疑是悲哀的,一面努力地在别人面前隐藏真实地自己,一面不无遗憾地感慨自己无处遁逃,每一根数字神经都紧紧地联系着你和我,你不能渴望任何一部数字设备具备真正的智能,可你生命里的每个瞬间,都在悄然间被数据地折射出来。

今天这篇文章会基于 Python 对微信好友进行数据分析,这里选择的维度主要有:性别、头像、签名、位置,主要采用图表和词云两种形式来呈现结果,其中,对文本类信息会采用词频分析和情感分析两种方法。常言道:工欲善其事,必先利其器也。在正式开始这篇文章前,简单介绍下本文中使用到的第三方模块:

* itchat:微信网页版接口封装Python版本,在本文中用以获取微信好友信息。

* jieba:结巴分词的 Python 版本,在本文中用以对文本信息进行分词处理。

* matplotlib: Python 中图表绘制模块,在本文中用以绘制柱形图和饼图

* snownlp:一个 Python 中的中文分词模块,在本文中用以对文本信息进行情感判断。

* PIL: Python 中的图像处理模块,在本文中用以对图片进行处理。

* numpy: Python中 的数值计算模块,在本文中配合 wordcloud 模块使用。

* wordcloud: Python 中的词云模块,在本文中用以绘制词云图片。

* TencentYoutuyun:腾讯优图提供的 Python 版本 SDK ,在本文中用以识别人脸及提取图片标签信息。

以上模块均可通过 pip 安装,关于各个模块使用的详细说明,请自行查阅各自文档。

数据分析

分析微信好友数据的前提是获得好友信息,通过使用 itchat 这个模块,这一切会变得非常简单,我们通过下面两行代码就可以实现:

  1. itchat.auto_login(hotReload = True 
  2. friends = itchat.get_friends(update = True

同平时登录网页版微信一样,我们使用手机扫描二维码就可以登录,这里返回的friends对象是一个集合,第一个元素是当前用户。所以,在下面的数据分析流程中,我们始终取friends[1:]作为原始输入数据,集合中的每一个元素都是一个字典结构,以我本人为例,可以注意到这里有Sex、City、Province、HeadImgUrl、Signature这四个字段,我们下面的分析就从这四个字段入手:

好友性别

分析好友性别,我们首先要获得所有好友的性别信息,这里我们将每一个好友信息的Sex字段提取出来,然后分别统计出Male、Female和Unkonw的数目,我们将这三个数值组装到一个列表中,即可使用matplotlib模块绘制出饼图来,其代码实现如下:

  1. def analyseSex(firends): 
  2.  
  3.     sexs = list(map(lambda x:x['Sex'],friends[1:])) 
  4.  
  5.     counts = list(map(lambda x:x[1],Counter(sexs).items())) 
  6.  
  7.     labels = ['Unknow','Male','Female'
  8.  
  9.     colors = ['red','yellowgreen','lightskyblue'
  10.  
  11.     plt.figure(figsize=(8,5), dpi=80) 
  12.  
  13.     plt.axes(aspect=1)  
  14.  
  15.     plt.pie(counts, #性别统计结果 
  16.  
  17.             labels=labels, #性别展示标签 
  18.  
  19.             colors=colors, #饼图区域配色 
  20.  
  21.             labeldistance = 1.1, #标签距离圆点距离 
  22.  
  23.             autopct = '%3.1f%%', #饼图区域文本格式 
  24.  
  25.             shadow = False, #饼图是否显示阴影 
  26.  
  27.             startangle = 90, #饼图起始角度 
  28.  
  29.             pctdistance = 0.6 #饼图区域文本距离圆点距离 
  30.  
  31.     ) 
  32.  
  33.     plt.legend(loc='upper right',) 
  34.  
  35.     plt.title(u'%s的微信好友性别组成' % friends[0]['NickName']) 
  36.  
  37.     plt.show() 

这里简单解释下这段代码,微信中性别字段的取值有Unkonw、Male和Female三种,其对应的数值分别为0、1、2。通过Collection模块中的Counter()对这三种不同的取值进行统计,其items()方法返回的是一个元组的集合,该元组的第一维元素表示键,即0、1、2,该元组的第二维元素表示数目,且该元组的集合是排序过的,即其键按照0、1、2 的顺序排列,所以通过map()方法就可以得到这三种不同取值的数目,我们将其传递给matplotlib绘制即可,这三种不同取值各自所占的百分比由matplotlib计算得出。下图是matplotlib绘制的好友性别分布图:

看到这个结果,我一点都不觉得意外,男女比例严重失衡,这虽然可以解释我单身的原因,可我不觉得通过调整男女比例就能解决问题,好多人认为自己单身是因为社交圈子狭小,那么是不是扩展了社交圈子就能摆脱单身呢?我觉得或许这样会增加脱单的概率,可幸运之神应该不会眷顾我,因为我的好运气早在我24岁以前就消耗完啦。在知乎上有一个热门的话题:现在的男性是否普遍不再对女性展开追求了?,其实哪里会有人喜欢孤独呢?无非是怕一次又一次的失望罢了。有的人并不是我的花儿,我只是恰好途径了她的绽放。曾经有人说我是一个多情的人,可她永远不会知道,我做出的每一个决定都炽热而悲壮。所谓”慧极必伤,情深不寿;谦谦君子,温润如玉”,世人苦五毒者大抵如此。

好友头像

分析好友头像,从两个方面来分析,第一,在这些好友头像中,使用人脸头像的好友比重有多大;第二,从这些好友头像中,可以提取出哪些有价值的关键字。这里需要根据HeadImgUrl字段下载头像到本地,然后通过腾讯优图提供的人脸识别相关的API接口,检测头像图片中是否存在人脸以及提取图片中的标签。其中,前者是分类汇总,我们使用饼图来呈现结果;后者是对文本进行分析,我们使用词云来呈现结果。关键代码如下 所示:

  1. def analyseHeadImage(frineds):  
  2.     # Init Path  
  3.     basePath = os.path.abspath('.' 
  4.     baseFolder = basePath + '\\HeadImages\\'  
  5.     if(os.path.exists(baseFolder) == False):  
  6.         os.makedirs(baseFolder)      
  7.     # Analyse Images  
  8.     faceApi = FaceAPI()  
  9.     use_face = 0  
  10.     not_use_face = 0  
  11.     image_tags = ''  
  12.     for index in range(1,len(friends)):  
  13.         friend = friends[index 
  14.         # Save HeadImages  
  15.         imgFile = baseFolder + '\\Image%s.jpg' % str(index 
  16.         imgData = itchat.get_head_img(userName = friend['UserName'])  
  17.         if(os.path.exists(imgFile) == False):  
  18.             with open(imgFile,'wb'as file:  
  19.                 file.write(imgData)           
  20.  
  21.         # Detect Faces  
  22.         time.sleep(1)  
  23.         result = faceApi.detectFace(imgFile)  
  24.         if result == True 
  25.             use_face += 1  
  26.         else 
  27.             not_use_face += 1           
  28.  
  29.         # Extract Tags  
  30.         result = faceApi.extractTags(imgFile)  
  31.         image_tags += ','.join(list(map(lambda x:x['tag_name'],result)))       
  32.  
  33.     labels = [u'使用人脸头像',u'不使用人脸头像' 
  34.     counts = [use_face,not_use_face]  
  35.     colors = ['red','yellowgreen','lightskyblue' 
  36.     plt.figure(figsize=(8,5), dpi=80)  
  37.     plt.axes(aspect=1)   
  38.     plt.pie(counts, #性别统计结果 
  39.             labels=labels, #性别展示标签  
  40.             colors=colors, #饼图区域配色  
  41.             labeldistance = 1.1, #标签距离圆点距离  
  42.             autopct = '%3.1f%%', #饼图区域文本格式  
  43.             shadow = False, #饼图是否显示阴影  
  44.             startangle = 90, #饼图起始角度  
  45.             pctdistance = 0.6 #饼图区域文本距离圆点距离  
  46.     ) 
  47.  
  48.     plt.legend(loc='upper right',)  
  49.     plt.title(u'%s的微信好友使用人脸头像情况' % friends[0]['NickName']) 
  50.     plt.show()       
  51.  
  52.     image_tags = image_tags.encode('iso8859-1').decode('utf-8' 
  53.     back_coloring = np.array(Image.open('face.jpg'))  
  54.     wordcloud = WordCloud(  
  55.         font_path='simfang.ttf' 
  56.         background_color="white" 
  57.         max_words=1200,  
  58.         mask=back_coloring,   
  59.         max_font_size=75,  
  60.         random_state=45,  
  61.         width=800,   
  62.         height=480,   
  63.         margin=15  
  64.     )      
  65.  
  66.     wordcloud.generate(image_tags)  
  67.     plt.imshow(wordcloud)  
  68.     plt.axis("off" 
  69.     plt.show() 

这里我们会在当前目录新建一个HeadImages目录,用以存储所有好友的头像,然后我们这里会用到一个名为FaceApi类,这个类由腾讯优图的SDK封装而来,这里分别调用了人脸检测和图像标签识别两个API接口,前者会统计”使用人脸头像”和”不使用人脸头像”的好友各自的数目,后者会累加每个头像中提取出来的标签。其分析结果如下图所示:

可以注意到,在所有微信好友中,约有接近1/4的微信好友使用了人脸头像, 而有接近3/4的微信好友没有人脸头像,这说明在所有微信好友中对”颜值 “有自信的人,仅仅占到好友总数的25%,或者说75%的微信好友行事风格偏低调为主,不喜欢用人脸头像做微信头像。这是否说明”好看的皮囊”并非是千篇一律,长得好看的人实在是少数中的少数。所以,当女生的妆容越来越向着”韩式半永久粗平眉”、”瓜子脸”和”大红唇”靠拢的时候,当男生的服饰越来越向着”大背头”、”高领毛衣”和”长款大衣”靠拢的时候,我们能不能真正得个性一次。生命中有太多被世俗绑架着的事情,既要和别人不一样 ,同时还要和大多数人一样,这是人生在世的无可奈何。考虑到腾讯优图并不能真正得识别”人脸”,我们这里对好友头像中的标签再次进行提取,来帮助我们了解微信好友的头像中有哪些 关键词,其分析结果如图所示:

通过词云,我们可以发现:在微信好友中的签名词云中,出现频率相对较高的关键字有:女孩、树木、房屋、文本、截图、卡通、合影、天空、大海。这说明在我的微信好友中,好友选择的微信头像主要有日常、旅游、风景、截图四个来源,好友选择的微信头像中风格以卡通为主,好友选择的微信头像中常见的要素有天空、大海、房屋、树木。通过观察所有好友头像,我发现在我的微信好友中,使用个人照片作为微信头像的有15人,使用网络图片作为微信头像的有53人,使用动漫图片作为微信头像的有25人,使用合照图片作为微信头像的有3人,使用孩童照片作为微信头像的有5人,使用风景图片作为微信头像的有13人,使用女孩照片作为微信头像的有18人,基本符合图像标签提取的分析结果。

好友签名

分析好友签名,签名是好友信息中最为丰富的文本信息,按照人类惯用的”贴标签”的方法论,签名可以分析出某一个人在某一段时间里状态,就像人开心了会笑、哀伤了会哭,哭和笑两种标签,分别表明了人开心和哀伤的状态。这里我们对签名做两种处理,第一种是使用用结巴分词进行分词后生成词云,目的是了解好友签名中的关键字有哪些,哪一个关键字出现的频率相对较高;第二种是使用SnowNLP分析好友签名中的感情倾向,即好友签名整体上是表现为正面的、负面的还是中立的,各自的比重是多少。这里提取Signature字段即可,其核心代码如下:

  1. def analyseSignature(friends): 
  2.     signatures = '' 
  3.     emotions = [] 
  4.     pattern = re.compile("1f\d.+"
  5.     for friend in friends: 
  6.         signature = friend['Signature'
  7.         if(signature != None): 
  8.             signature = signature.strip().replace('span''').replace('class''').replace('emoji'''
  9.             signature = re.sub(r'1f(\d.+)','',signature) 
  10.             if(len(signature)>0): 
  11.                 nlp = SnowNLP(signature) 
  12.                 emotions.append(nlp.sentiments) 
  13.                 signatures += ' '.join(jieba.analyse.extract_tags(signature,5)) 
  14.     with open('signatures.txt','wt',encoding='utf-8'as file: 
  15.          file.write(signatures)    
  16.  
  17.     # Sinature WordCloud 
  18.     back_coloring = np.array(Image.open('flower.jpg')) 
  19.     wordcloud = WordCloud( 
  20.         font_path='simfang.ttf'
  21.         background_color="white"
  22.         max_words=1200, 
  23.         mask=back_coloring,  
  24.         max_font_size=75, 
  25.         random_state=45, 
  26.         width=960,  
  27.         height=720,  
  28.         margin=15 
  29.     ) 
  30.  
  31.     wordcloud.generate(signatures) 
  32.     plt.imshow(wordcloud) 
  33.     plt.axis("off"
  34.     plt.show() 
  35.     wordcloud.to_file('signatures.jpg')   
  36.  
  37.     # Signature Emotional Judgment 
  38.     count_good = len(list(filter(lambda x:x>0.66,emotions))) 
  39.     count_normal = len(list(filter(lambda x:x>=0.33 and x<=0.66,emotions))) 
  40.     count_bad = len(list(filter(lambda x:x<0.33,emotions))) 
  41.     labels = [u'负面消极',u'中性',u'正面积极'
  42.     values = (count_bad,count_normal,count_good) 
  43.     plt.rcParams['font.sans-serif'] = ['simHei']  
  44.     plt.rcParams['axes.unicode_minus'] = False 
  45.     plt.xlabel(u'情感判断'
  46.     plt.ylabel(u'频数'
  47.     plt.xticks(range(3),labels) 
  48.     plt.legend(loc='upper right',) 
  49.     plt.bar(range(3), values, color = 'rgb'
  50.     plt.title(u'%s的微信好友签名信息情感分析' % friends[0]['NickName']) 
  51.     plt.show() 

通过词云,我们可以发现:在微信好友的签名信息中,出现频率相对较高的关键词有:努力、长大、美好、快乐、生活、幸福、人生、远方、时光、散步。果然我的微信好友都是温暖、正直的好青年啊! :smile:其实,签名这个设定,从某种程度上是在反映人的一种心态,人在年轻时不免”为赋新词强说愁”,等到你真正到了这个精神境界,突然发现年轻时图样图森破,或许这就是我们不愿意让别人了解过去的原因,因为伴随着人的成长,某一种瞬间的状态简直不忍直视,QQ空间陪伴了我们这代人的整个青春,令人印象深刻的”那年今日”功能,有时让我们感到回忆的温暖,有时让我们感到岁月的萧杀,”当时只道是寻常”的物是人非,”回首向来萧瑟处”的淡定从容,”今夕复何夕”的失落惆怅……都在这一行行签名里留下深深浅浅的印记。在知乎上有关于签名的话题讨论,对此感兴趣的朋友不妨找时间看看。:smile:

通过柱状图,我们可以发现:在微信好友的签名信息中,正面积极的情感判断约占到55.56%,中立的情感判断约占到32.10%,负面消极的情感判断约占到12.35%。这个结果和我们通过词云展示的结果基本吻合,这说明在微信好友的签名信息中,约有87.66%的签名信息,传达出来都是一种积极向上的态度。

朋友圈中基本上有两类用户,第一类用户使用朋友圈记录自己的生活,第二类用户使用朋友圈输出自己的观点。显然,对于第二类用户,它并不介意别人了解它的过去,它更在乎它从始至终输出的观点是否一致。所以,不管朋友圈里别人在或晒美食、或晒旅游、或秀恩爱、或晒宝宝、或煲鸡汤等等,在我看来这都是一种生活方式,精神层次和物质层次比你高的人群,觉得你朋友圈里的内容”无趣”,这是符合人类一贯的认知方式的。

在大多数情况下,反而是那些和你层次差不多的人群,对不熟悉的人或者事物妄加判断,如果你不喜欢我朋友圈里的内容,请直接屏蔽我就好,因为这样我们还可以做朋友;如果你因为喜欢A而在我这里和我说B不好,这就真的是三观不合啦。我相信没有完全兴趣匹配的两个人,即使是男女朋友或者情侣之间,总之人与人相处嘛,真诚和互相尊重是基本要求。

好友位置

分析好友位置,主要通过提取Province和City这两个字段。Python中的地图可视化主要通过Basemap模块,这个模块需要从国外网站下载地图信息,使用起来非常的不便。百度的ECharts在前端使用的比较多,虽然社区里提供了pyecharts项目,可我注意到因为政策的改变,目前Echarts不再支持导出地图的功能,所以地图的定制方面目前依然是一个问题,主流的技术方案是配置全国各省市的JSON数据,这里博主使用的是BDP个人版,这是一个零编程的方案,我们通过Python导出一个CSV文件,然后将其上传到BDP中,通过简单拖拽就可以制作可视化地图,简直不能再简单,这里我们仅仅展示生成CSV部分的代码:

  1. def analyseLocation(friends):  
  2.     headers = ['NickName','Province','City'] 
  3.     with open('location.csv','w',encoding='utf-8',newline='',) as csvFile:  
  4.         writer = csv.DictWriter(csvFile, headers)  
  5.         writer.writeheader()  
  6.         for friend in friends[1:]:  
  7.            row = {}  
  8.            row['NickName'] = friend['NickName' 
  9.            row['Province'] = friend['Province' 
  10.            row['City'] = friend['City' 
  11.            writer.writerow(row) 

下图是BDP中生成的微信好友地理分布图,可以发现:我的微信好友主要集中在宁夏和陕西两个省份。数字时代的神经牵动着每一个社交关系链的人,我们想要竭力去保护的那点隐私,在这些数据中一点点地折射出来。人类或许可以不断地伪装自己,可这些从数据背后抽离出来的规律和联系不会欺骗人类。数学曾经被人称为最没有用的学科,因为生活中并不需要神圣而纯粹的计算,在不同的学科知识里,经验公式永远比理论公式更为常用。可是此时此刻,你看,这世界就像一只滴滴答答转动着的时钟,每一分每一秒都是严丝合缝的。

本文小结

写这篇文章的时候,我一直不知道该如何下笔,因为微信是一个神奇的存在,它是一个国民级别的全民APP,所以,微信的产品设计一直都是一个有趣的现象,从最初底部Tab的数目、每个Tab的名称、”发现”页面的定制、小程序入口、朋友圈入口到朋友圈评论等等一系列的设计细节,都是值得我们透过人性和心理去研究的。即使是被人们封神的”张小龙”,在面对结构最为复杂的中国用户群体的时候,他的潇洒中依旧不免充满无奈,从对朋友圈的置之不理就可以看出,这是一个怎么做都不会让人满意的功能,任何一个生态在面对巨大的用户群体的时候,功能的增减就会变成一个难题,所谓”林子大了什么鸟都有”,知乎面对的是同样的问题,营销类公众号在不断消费社会话题的同时,引导着一批又一批粉丝的价值取向,人类总渴望着别人了解自己,可人类真的了解自己吗?这篇博客是我对数据分析的又一次尝试,主要从性别、头像、签名、位置四个维度,对微信好友进行了一次简单的数据分析,主要采用图表和词云两种形式来呈现结果。总而言之一句话,”数据可视化是手段而并非目的”,重要的不是我们在这里做了这些图出来,而是从这些图里反映出来的现象,我们能够得到什么本质上的启示,我一位朋友问我怎么什么都想抓取,为什么啊,因为我不懂人类啊!

原文链接:http://blog.csdn.net/qinyuanpei/article/details/79360703

【编辑推荐】

  1. 5个提升生产效率的Python开发和配置的小技巧
  2. 用Python实现每秒处理120万次HTTP请求
  3. 这几种语言最合适数据分析
  4. 什么是Cython?让Python有C语言的速度
  5. 制作QQ微信支付宝三合一收款码
【责任编辑:庞桂玉 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

读 书 +更多

数据挖掘:概念与技术

本书第1版曾被KDnuggets的读者评选为最受欢迎的数据挖掘专著,是一本可读性极佳的教材。它从数据库角度全面系统地介绍了数据挖掘的基本概念...

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊