课件编号18025729

4.2.3 文本数据处理 4.2.4 数据可视化 课件(共27张PPT)-2023—2024学年浙教版(2019)高中信息技术必修1

日期:2024-05-17 科目:信息技术 类型:高中课件 查看:55次 大小:5167534Byte 来源:二一课件通
预览图 1/9
必修,信息技术,高中,2019,教版,学年
  • cover
(课件网) 第四章 数据处理与应用 4.2 大数据处理 4.2.3 文本数据处理 4.2.4 数据可视化 学习目标 了解文本处理应用领域及一般处理过程。 了解中文分词常用算法及特征提取方式。 能使用常见分词系统(如:jieba分词)进行文本数据处理。 了解数据可视化的作用。 了解数据可视化相关工具及原理。 知识点一:文本数据处理 新课讲授 文本数据处理是大数据处理的重要分支之一,目的是从大规模的文本数据中提取出符合需要的、感兴趣的和隐藏的信息。目前,文本数据处理主要应用在搜索引擎、情报分析、自动摘要、自动校对、论文查重、文本分类、垃圾邮件过滤、机器翻译、自动应答等方面。 1.文本数据处理的一般过程 (1)中文分词(是中文文本信息处理的基础) ①基于词典的分词方法(字符匹配) ②基于统计的分词方法 ③基于规则的分词方法 ①基于词典的分词方法 也称作基于字符匹配的分词方法,即在分析句子时与词典中的词语进行对比,词典中出现的就划分为词。常见分词系统有jieba分词。 import jieba #引入jieba分词模块 text="文本数据处理的过程" #定义文本 seg_list1=jieba.cut(text,cut_all=True) #全模式分词 print("全模式分词:"+"/".join(seg_list1)) #文本/本数/数据/数据处理/处理/的/过程 seg_list2=jieba.cut(text) #默认是精确模式分词 print("默认模式分词:"+"/".join(seg_list2)) #文本/数据处理/的/过程 join():用于把序列中的所有元素放入一个字符串,元素是通过指定的分隔符进行分隔的。 cut_all=True全模式分词:把句子中所有可以成词的词语都扫描出来,速度非常快,但是不能解决歧义。 cut_all=False精确模式分词:试图将句子最精确地切开,适合文本分析。 ②基于统计的分词方法 依据上下文中相邻字出现的频率统计,同时出现的次数越高就越可能组成一个词。一般是将其与基于词典的分词方法结合使用。 ③基于规则的分词方法 通过让计算机模拟人的理解方式,根据大量的现有资料和规则进行学习,达到对文字进行分词的效果。这种分词方法目前还处于试验阶段。 (2)特征提取 特征项:在中文文本分析中可以采用字、词或短语作为表示文本的特征项。 特征词:相比较而言,词的切分难度小且更能表达文本的含义。目前,大多数中文文本分析中都采用词作为特征项,这种词称作特征词。通常可直接用分词算法和词频统计得出的结果作为特征词,但对于稍大一些的文本,提取出的特征词数量将非常大,其计算处理过程的效率非常低,计算结果的准确性也很难令人满意。 因此,必须找出最具代表性、最有效的文本特征,通常的办法是通过特征提取来减少特征词的数量,提高文本处理的速度和效率。 特征提取的方式: 根据专家的知识挑选有价值的特征; 用数学建模的方法构造评估函数自动选取特征(目前大多基于概率统计设计)。 2.文本数据分析与应用 在取得特征词后,需要根据项目的需求,确定解决问题的路径,选取合适的工具、设计算法抽取出文本中隐含的价值。 (1)标签云 用词频表现文本特征,将关键词按照一定的顺序和规律排列,如频度递减、字母顺序等,并以文字大小的形式代表词语的重要性。是文本可视化的一种方式,广泛应用于报纸、杂志等传统媒体和互联网。 (2)文本情感分析 通过计算机技术对文本的主观性、观点、情绪、极性进行挖掘和分析,对文本的情感倾向做出分类判断。根据分析的粒度不同,分为词语级、语句级、整篇文章级三类。主要应用于网络舆情监控、用户评论分析与决策、信息预测等众多领域。 (2)文本情感分析 通过计算机技术对文本的主观性、观点、情绪、极性进行挖掘和分析,对文本的情感倾向做出分类判断。主要应用于网络舆情监控、用户评论分析 ... ...

~~ 您好,已阅读到文档的结尾了 ~~