main.tex 22 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293
  1. \documentclass[a4paper,oneside,12pt]{book}
  2. \usepackage{BUPTthesisbachelor}
  3. \usepackage{setspace}
  4. \usepackage[final]{pdfpages}
  5. \usepackage{listings}
  6. \usepackage{xcolor}
  7. \usepackage{amssymb}
  8. \usepackage{bm}
  9. \usepackage{algorithm}
  10. \usepackage{algorithmicx}
  11. \usepackage{algpseudocode}
  12. \lstdefinestyle{sharpc}{language=[Sharp]C, frame=lrtb, rulecolor=\color{blue!80!black}}
  13. %%%%%%%%%%%%%%%%%%%%%%%%% Begin Documents %%%%%%%%%%%%%%%%%%%%%%%%%%
  14. \begin{document}
  15. \includepdf{docs/cover.pdf}
  16. \newpage
  17. \includepdf{docs/statement.pdf}
  18. \newpage
  19. \input{main.cfg} % Main items
  20. \include{abstract} % Abstract
  21. \frontmatter\tableofcontents % Content
  22. % 正文
  23. \newpage\mainmatter
  24. \fancypagestyle{plain}{\pagestyle{fancy}} % Add head to new chapter
  25. \pagestyle{fancy} % Head and foot
  26. %\let\cleardoublepagebak=\cleardoublepage
  27. %\let\cleardoublepage\relax % Make new chapter stay on old page
  28. %%%%%%%%%%%%%%%%%%%%%%%%%%%%% Main Area %%%%%%%%%%%%%%%%%%%%%%%%%%%%
  29. \chapter{引言}
  30. \section{研究背景及意义}
  31. \subsection{社交媒体发展现状}
  32. 社交媒体是一种供用户创建在线社群来分享信息、观点、个人信息和其它内容(如视频)的电子化交流平台,社交网络服务(social network service, SNS)和微博客(microblogging)都属于社交媒体的范畴\cite{webster_social_media},国外较为知名的有Facebook\footnote{http://www.facebook.com/}、Instagram\footnote{https://www.instagram.com/}、Twitter\footnote{http://www.twitter.com/}、LinkedIn\footnote{http://www.linkedin.com/}等,国内较为知名的有新浪微博\footnote{http://www.weibo.com/}。社交媒体营销公司We Are Social的《2018数字报告》\cite{digital_in_2018}显示,截至2018年1月,全球的活跃社交媒体用户已达到31.96亿,同比增长13\%,全人口渗透率达到42\%。其中,知名SNS服务商Facebook月活跃用户数高达21.67亿,微博客服务商Twitter月活跃用户数达到3.3亿,新浪微博月活跃用户数达到3.76亿。可以说,社交媒体已经成为了互联网用户的必需品之一。
  33. 在社交媒体的强覆盖下,新闻信息的传播渠道也悄然了发生变化。根据美国皮尤研究中心的2017年9月发布的调查结果\cite{pew_news_use_2017},67\%的美国民众会从社交媒体上获取新闻信息,其中高使用频率用户占20\%。在国内,中国互联网信息中心《2016年中国互联网新闻市场研究报告》\cite{internet_news_2016}也显示,社交媒体已逐渐成为新闻获取、评论、转发、跳转的重要渠道,在2016年下半年,曾经通过社交媒体获取过新闻资讯的用户比例高达90.7\%,在微信、微博等社交媒体参与新闻评论的比例分别为62.8\%和50.2\%。社交媒体正在成为网络上热门事件生成并发酵的源头,在形成传播影响力后带动传统媒体跟进报道,最终形成更大规模的舆论浪潮。
  34. 然而,社交媒体在改变用户获取新闻途径,加速信息传播分发的同时,也为虚假信息的传播提供了有利环境。2016年美国大选后,Facebook爆出“假新闻事件”\footnote{https://www.recode.net/2017/4/28/15476142/facebook-report-trump-clinton-russia-us-presidential-election},其被指控在Facebook平台上传播的假新闻严重影响了美国大选结果。2018年3月,《Science》发表了麻省理工学院学者针对真假新闻传播情况的研究\cite{false_news_spread_2018}。研究发现,在Twitter平台上,包含虚假新闻的推文更容易被转发,且更容易形成“病毒式传播”,真实消息传播至1500人的时间,比虚假消息长6倍。而在国内,新浪微博由于其发布方便、传播迅速、受众广泛且总量大的特点,成为了虚假信息传播的重灾区:《中国新媒体发展报告(2013)》\cite{唐绪军2013中国新媒体发展报告}显示,2012年的100件微博热点舆情案例中,有超过1/3出现谣言;《中国新媒体发展报告(2015)》\cite{唐绪军2015中国新媒体发展报告}对2014年传播较广、比较典型的92条假新闻进行了多维度分析,发现有59\%的虚假新闻首发于新浪微博。
  35. 此等信息的传播严重损害了有关公众人物的名誉权,降低了社交媒体服务商的商业美誉度,扰乱了网络空间秩序,冲击着网民的认知,极易对民众造成误导,带来诸多麻烦和经济损失,甚至会导致社会秩序的混乱。针对社交媒体谣言采取行动成为了有关部门、服务提供商和广大民众的共同选择。
  36. \section{国内外研究现状}
  37. 本节将与下文有关的关键知识点的研究现状进行概述。
  38. \subsection{文本的表示方法}
  39. 传统的文本挖掘通常会使用字符匹配、词典比对、知识库搜索等手段和工具,但它们难以起到学习并挖掘抽象的语义联系的作用,难以满足自然语言处理(Natural Language Processing, NLP)任务的需求。为了把文字内容纳入可计算、可度量的范围中来,学者对文字内容进行了编码,对每个词语进行向量化表示,以便作为机器学习任务的输入。其中最著名的是独热表示(One-Hot Represetation)和一种分布式表示模型——Word2Vec。
  40. \textbf{独热表示}
  41. 该方法首先需要统计表示范围内所有词的数量$N$,然后给这$N$个词分别编号为$1,2,\ldots,N$,最终使用一个仅第$k$维非0(通常为1)的$N$维向量来表示编号为$k$的词。例如,在词语空间$\Omega=\{\mbox{中国}, \mbox{首都}, \mbox{北京}\}$中,“中国”的独热编码为$[1,0,0]$,“首都”的独热编码为$[0,1,0]$,“北京”的独热编码为$[0,0,1]$。从计算机存储的角度上讲,其结构就是一个Hash表,再与最大熵、条件随机场(Conditional Random Field,CRF)、支持向量机(Support Vector Machine, SVM)等算法相配合,可以解决大多数自然语言处理的基础任务。
  42. 显然,这种表示方式的优势在于操作简单,表示简洁,但其缺陷不容忽视:首先需要表示的所有词数量越多,则表示向量就越长,在实际计算中存在严重的稀疏问题,无法像音频、图像等数据获取稠密表示,形成“维数灾难”(Curse of Dimensionality)\cite{Bengio2006A};更为关键的是,独热表示仅仅将词语离散符号化,不能表达词与词之间的关系,从而丢失了许多语义信息。
  43. 此外,这种表示方法也经常用于其它取值空间不大的非数值数据的表示上。
  44. \textbf{分布式表示——Word2Vec}
  45. 词的分布式表示(Distributed Representation)最早由“神经网络之父”Geoffrey Hinton于1986年提出\cite{Hinton1986Learning},其基本思想是通过训练将每个词表示为$K$维实值短向量(这里的“短”是相对于独热编码而言的),并通过词嵌入(Word Embedding)在向量空间中的距离来表征词语之间的语义相似度。其之所以被称为“分布式”表示,核心在于一个词的$K$个维度中,每一个都承载着一部分词语的抽象语义信息。然而,其在实际应用上算法复杂度过高,故一直没有被广泛地采用。
  46. 直到2013年,谷歌提出了著名的词嵌入学习模型Word2Vec\cite{mikolov2013distributed},解决了效率问题。自此词语的分布式表示几乎成为了所有自然语言处理任务的标准预处理方法。为了表达表格的用法,下面插入一个跟这段话没有关系的表格。
  47. \begin{bupttable}{基于浏览者行为的特征}{crowdwisdom}
  48. \begin{tabular}{l|l|l}
  49. \hline \textbf{特征} & \textbf{描述} & \textbf{形式与理论范围}\\
  50. \hline 点赞量 & 微博的点赞数量 & 数值,$\mathbb{N}$ \\
  51. \hline 评论量 & 微博的评论数量 & 数值,$\mathbb{N}$ \\
  52. \hline 转发量 & 微博的转发数量 & 数值,$\mathbb{N}$ \\
  53. \hline
  54. \end{tabular}
  55. \end{bupttable}
  56. \section{模型描述}
  57. \subsection{基于主成分分析}
  58. 在Weiling Chen\cite{Chen2016Behavior}和Yan Zhang\cite{Yan2017OneHot}的工作中,均使用了主成分分析(Principle Component Analysis, PCA)作为基本的数据降维方法。下面对主成分分析进行介绍。
  59. 主成分分析是一种简单的机器学习算法,其功能可以从两方面解释:一方面可以认为它提供了一种压缩数据的方式,另一方面也可以认为它是一种学习数据表示的无监督学习算法。\cite{Goodfellow2016DeepLearning}
  60. 通过PCA,我们可以得到一个恰当的超平面及一个投影矩阵,通过投影矩阵,样本点将被投影在这一超平面上,且满足最大可分性(投影后样本点的方差最大化),直观上讲,也就是能尽可能分开。
  61. 对中心化后的样本点集$\bm{X}=\{\bm{x}_1,\bm{x}_2,\ldots,\bm{x}_i,\ldots,\bm{x}_m\}$(有$\sum_{i=1}^{m}\bm{x}_i = 0$),考虑将其最大可分地投影到新坐标系\ $\bm{W}= \{\bm{w}_1,\bm{w}_2,\ldots,\bm{w}_i,\ldots,\bm{w}_d\} $,其中$\bm{w}_i$是标准正交基向量,满足$\|\bm{w}_i\|_2 = 1$, $\bm{w}_i^T\bm{w}_j = 0$($i \not= j$)。假设我们需要$d^\prime$($d^\prime < d$)个主成分,那么样本点$\bm{x}_i$在低维坐标系中的投影是$\bm{z}_i = (z_{i1};z_{i2};\ldots;z_{id^\prime})$,其中$z_{ij} = \bm{w}_j^\mathrm{T}\bm{x}_i$,是$\bm{x}_i$在低维坐标系下第$j$维的坐标。
  62. 对整个样本集,投影后样本点的方差是
  63. \begin{equation}
  64. \begin{aligned}
  65. & \frac{1}{m}\sum_{i=1}^m \bm{z}_i^\mathrm{T}\bm{z}_i \\
  66. = & \frac{1}{m}\sum_{i=1}^m (\bm{x}_i^\mathrm{T}\bm{W})^\mathrm{T}(\bm{x}_i^\mathrm{T}\bm{W}) \\
  67. = & \frac{1}{m}\sum_{i=1}^m \bm{W}^\mathrm{T}\bm{x}_i\bm{x}_i^\mathrm{T}\bm{W} \\
  68. = & \frac{1}{m} \bm{W}^\mathrm{T}\bm{X}\bm{X}^\mathrm{T}\bm{W} \\
  69. \end{aligned}
  70. \end{equation}
  71. 由于我们知道新坐标系$\bm{W}$的列向量是标准正交基向量,且样本点集$\bm{X}$已经过中心化,则PCA的优化目标可以写为
  72. \begin{equation}
  73. \label{PCA_goal}
  74. \begin{aligned}
  75. & \max_{\substack{\bm{W}}} & tr(\bm{W}^\mathrm{T}\bm{X}\bm{X}^ \mathrm{T}\bm{W}) \\
  76. & \operatorname{ s.t. } & \bm{W}^\mathrm{T}\bm{W} = \bm{I} \\
  77. \end{aligned}
  78. \end{equation}
  79. 由于$\bm{X}\bm{X}^ \mathrm{ T }$是协方差矩阵,那么只需对它做特征值分解,即
  80. \begin{equation}
  81. \label{PCA_eigenvalue}
  82. \bm{X}^ \mathrm{ T }\bm{X} = \bm{W}\bm{\Lambda}\bm{W}^ \mathrm{ T } \\
  83. \end{equation}
  84. 其中$\bm{\Lambda}=diag(\bm{\lambda})$,$\bm{\lambda} = \{\lambda_1,\lambda_2,\ldots,\lambda_m\}$。
  85. 具体地,考虑到它是半正定矩阵的二次型,存在最大值,可对式(\ref{PCA_goal})使用拉格朗日乘数法
  86. \begin{equation}
  87. \bm{X}\bm{X}^ \mathrm{ T }\bm{w}_i = \lambda_i \bm{w}_i \\
  88. \end{equation}
  89. 之后将求得的特征值降序排列,取前$d^\prime$个特征值对应的特征向量组成所需的投影矩阵$\bm{W}^\prime =(\bm{w}_1,\bm{w}_2,\ldots,\bm{w}_{d^\prime})$,即可得到PCA的解。PCA算法的描述如算法\ref{PCA_algorithm}所示。
  90. \begin{algorithm}
  91. \floatname{algorithm}{算法}
  92. \caption{主成分分析(PCA)}
  93. \label{PCA_algorithm}
  94. \renewcommand{\algorithmicrequire}{\textbf{输入:}}
  95. \renewcommand{\algorithmicensure}{\textbf{输出:}}
  96. \begin{algorithmic}[1]
  97. \Require 样本集$\bm{x}=\{\bm{x}_1,\bm{x}_2,\ldots,\bm{x}_i,\ldots,\bm{x}_m\}$,低维空间维数$d^\prime$
  98. \Ensure 投影矩阵 $\bm{W}^\prime =(\bm{w}_1,\bm{w}_2,\ldots,\bm{w}_{d^\prime})$
  99. \State 对所有样本中心化$\bm{x}_i \gets \bm{x}_i - \frac{1}{m}\sum_{i=1}^m \bm{x}_i$
  100. \State 计算样本的协方差$\bm{X}\bm{X}^ \mathrm{T}$
  101. \State 对协方差矩阵$\bm{X}\bm{X}^ \mathrm{T}$做特征值分解
  102. \State 取最大的$d^\prime$个特征值所对应的特征向量$\bm{w}_1,\bm{w}_2,\ldots,\bm{w}_{d^\prime}$
  103. \end{algorithmic}
  104. \end{algorithm}
  105. 论文\cite{Chen2016Behavior}认为,通过PCA保留一定的主成分,可以更好地把握历史微博的共性,使历史上的非谣言微博与谣言微博产生可度量的距离。
  106. 论文采取了排序的检测方式:如果待判别的微博在特征空间中距离非谣言微博数据的“重心”比任何非谣言微博都要远,即成为了离群点,则认为该微博是一条谣言。但考虑到实验过程中应尽量统一化比较手段,在本节中,我们采用了Yan Zhang论文\cite{Yan2017OneHot}中的阈值法来进行判别:在特征空间中,如果待判定微博没有阈值范围内的相邻点,则认为该微博是一条谣言。
  107. 记待判定微博$\bm{w}_0$的经典特征向量为$\bm{f}^{c}_{0}$,它的发布者在$\bm{w_0}$前发布的$k$条微博为$\bm{W} = \bm{w}_1,\bm{w}_2,\ldots,\bm{w}_k$,这$k$条微博对应的经典特征向量集为$\bm{F}^{c}_{W} = \{ \bm{f}^{c}_{1},\bm{f}^{c}_{2},\ldots,\bm{f}^{c}_{k} \}$。令$label = 1$代表谣言,$label = 0$代表非谣言。算法的具体流程如算法\ref{PCA_model}所示。
  108. \begin{algorithm}
  109. \floatname{algorithm}{算法}
  110. \caption{基于PCA的信息可信度评估}
  111. \label{PCA_model}
  112. \renewcommand{\algorithmicrequire}{\textbf{输入:}}
  113. \renewcommand{\algorithmicensure}{\textbf{输出:}}
  114. \begin{algorithmic}[1]
  115. \Require $\bm{f}^{c}_{0}$,$\bm{F}^{c}_{W}$,保留主成分数$n$
  116. \Ensure 标签$label\in \{0,1\}$
  117. \State 对所有特征向量应用PCA,保留前$n$个主成分$\bm{o}^{c}_{i} \gets PCA(\bm{f}^{c}_{i}, n)$($i = 0,1,\ldots,k$)
  118. \State 计算$\bm{F}^{c}_{W}$中各向量的平均距离$\mu$和标准差$\sigma$
  119. \State 计算阈值$thr = {\mu} / {\sigma}$
  120. \If {$\min_{1<j\le k} \|\bm{o}^{c}_{0} - \bm{o}^{c}_{j} \|_2 > thr$}
  121. \State $ label \gets 1 $
  122. \Else
  123. \State $ label \gets 0 $
  124. \EndIf
  125. \end{algorithmic}
  126. \end{algorithm}
  127. 在该工作中,取主成分数$n$为5,$k$为50。
  128. \subsection{基于欠完备自编码器}
  129. 在Mayu Sakurada的论文\cite{Sakurada2014Anomaly}中,学者使用了自编码器进行异常检测来进行非线性降维。考虑到,PCA和TSVD均停留在线性降维的范畴中,而社交媒体信息的可信度评估问题被认为是极为复杂的非线性问题,Yan Zhang在另一篇工作\cite{Yan2017Autoencoder}中,将历史信息中特征的提取方法由主成分分析变为了欠完备自编码器(undercomplete autoencoder, UAE),得到了基于欠完备自编码器的可信度评估模型。下面介绍自编码器的相关知识。
  130. 自编码器(autoencoder, AE)的概念最早源自Rumelhart等人于1986年发表在《Nature》上的文章《Learning representations by back-propagating errors》\cite{Rumerlhar1986Learning}。自编码器是神经网络的一种,经过训练后能尝试将输入复制到输出。\cite{Goodfellow2016DeepLearning}自编码器的结构如图\ref{autoencoder}所示。
  131. \buptfigure{pictures/autoencoder}{自编码器结构}{autoencoder}
  132. 自编码器内部有一个隐藏层(hidden layer)$\bm{h}$,可以产生用于表示输入数据的编码(code)。如果输入层(input layer)的输出数据为$\bm{x}$,输出层(output layer)的输出结果为$\hat{\bm{x}}$,那么输入层、隐藏层和输出层有如下函数关系:
  133. \begin{equation}
  134. \bm{h}=g_1(\bm{W}\bm{x}+\bm{b}_1)
  135. \end{equation}
  136. \begin{equation}
  137. \hat{\bm{x}}=g_2(\bm{V}\bm{h}+\bm{b}_2)
  138. \end{equation}
  139. 其中,$\bm{b}_1$和$\bm{b}_2$是偏置项,$g_1$和$g_2$分别是输入层到隐藏层和隐藏层到输出层间的激活函数(activation function),正是由于激活函数$f$和$g$的存在,层与层之间的映射才是非线性的。
  140. 由上可知,图\ref{autoencoder}表示的是一个由含有4个神经元的输入层、含有3个神经元的隐藏层和含有4个神经元的输出层组成的自编码器,$+1$代表偏置项。
  141. 自编码器分为多种,其中最经典的结构正如\ref{autoencoder}所示,其特点是隐藏层单元数小于输入输出层,Ian Goodfellow在《深度学习》\cite{Goodfellow2016DeepLearning}一书中将这种自编码器称为欠完备自编码器(undercomplete autoencoder)。欠完备自编码器的特点,使其可以\textbf{迫使}隐藏层用小于原始数据的维数来尽可能表示原数据,以期在输出层尽可能将原始数据重构。那么,隐藏层的表示实际上就是一种\textbf{有损压缩编码}的结果,那么由输入层到隐藏层的部分,就可以被看做一个有损的编码器(encoder),而隐藏层到输出层的部分,自然就是解码器(decoder)。
  142. 进一步,对于压缩表示这种任务,自编码器的损失函数理应表征输入与输出之间的差别,容易想到使用均方误差(Mean Square Error,MSE):
  143. \begin{equation}
  144. \begin{aligned}
  145. Loss &= MSE(\bm{X},\hat{\bm{X}}) \\
  146. &= \frac{1}{nm}\sum_{i=1}^{n} \sum_{j=1}^{m} (x_{ij} -\hat{x}_{ij})^2 \\
  147. \end{aligned}
  148. \end{equation}
  149. 其中,$\bm{X}=\{\bm{x}_1,\bm{x}_2,\ldots,\bm{x}_n\}$是输入数据,$\hat{\bm{X}}=\{\hat{\bm{x}}_1,\hat{\bm{x}}_2,\ldots,\hat{\bm{x}}_n\}$是输出数据,假设输入向量和输出向量都有m维,即$\bm{x}_i = (x_{i1},x_{i2},\ldots,x_{im})$,$\hat{\bm{x}}_i = (\hat{x}_{i1},\hat{x}_{i2},\ldots,\hat{x}_{im})$,$i = 1,2,\ldots,n$。
  150. 如果欠完备自编码器只针对一条原始数据进行编码表示,其应当尽可能拟合该数据的特征;而如果针对一批数据,其训练学习的结果应当是拟合所有数据中最有共性的部分,以期降低损失。基于这种认识,仿照基于PCA和基于TSVD方法的思路,我们就可以基于UAE的社交媒体信息可信度评估模型。其算法描述如\ref{UAE_model}所示(沿用基于PCA的评估算法中的符号)。
  151. \begin{algorithm}
  152. \floatname{algorithm}{算法}
  153. \caption{基于UAE的信息可信度评估}
  154. \label{UAE_model}
  155. \renewcommand{\algorithmicrequire}{\textbf{输入:}}
  156. \renewcommand{\algorithmicensure}{\textbf{输出:}}
  157. \begin{algorithmic}[1]
  158. \Require $\bm{f}^{c}_{0}$,$\bm{F}^{c}_{W}$
  159. \Ensure 标签$label\in \{0,1\}$
  160. \State 用$\bm{F}^{c}_{W}$中的经典特征向量,基于反向传播,训练自编码器网络
  161. \State 使$\bm{f}^{c}_{0}$通过训练好的网络,得到输入输出之间的方差损失$l_0$
  162. \State 使$\bm{F}^{c}_{W}$中的经典特征向量,通过训练好的网络,得到各自的损失,并求得其均值$\mu$和标准差$\sigma$
  163. \State 计算阈值$thr = {\mu} + {\sigma}$
  164. \If {$l_0 > thr$}
  165. \State $ label \gets 1 $
  166. \Else
  167. \State $ label \gets 0 $
  168. \EndIf
  169. \end{algorithmic}
  170. \end{algorithm}
  171. %%%%%%%%%%%%%%%%%%%%%%% Main Area ENDs Here %%%%%%%%%%%%%%%%%%%%%%%%
  172. %\let\cleardoublepage=\cleardoublepagebak
  173. % Reference
  174. \clearpage\phantomsection\addcontentsline{toc}{chapter}{参考文献}
  175. \bibliographystyle{buptbachelor}
  176. \refbodyfont{\bibliography{ref}}
  177. % Thanks to page
  178. \clearpage\phantomsection\addcontentsline{toc}{chapter}{致\qquad{}谢}
  179. \chapter*{致\qquad{}谢}
  180. \normalsize\thankwords
  181. % Appendix
  182. \chapter*{附\qquad{}录}
  183. \phantomsection\addcontentsline{toc}{chapter}{附\qquad{}录}
  184. \phantomsection
  185. \addcontentsline{toc}{section}{附录1\quad{}缩略语表}
  186. \section*{附录1\quad{}缩略语表}
  187. \begin{center}
  188. \begin{tabular}{ccc}
  189. \textbf{英文缩写} & \textbf{英文名称} & \textbf{中文} \\
  190. \hline
  191. AE & autoencoder & 自编码器\\
  192. CRF & conditional random field & 条件随机场\\
  193. LR & logistic regression & 逻辑回归\\
  194. LSTM & Long Short Term Memory & 长短时记忆单元 \\
  195. \end{tabular}
  196. \end{center}
  197. \phantomsection
  198. \addcontentsline{toc}{section}{附录2\quad{}数学符号}
  199. \section*{附录2\quad{}数学符号}
  200. \begin{center}
  201. \begin{tabular}{ccc}
  202. \multicolumn{2}{c}{\textbf{数和数组}} \\
  203. \\
  204. $a$ & 标量(整数或实数)\\
  205. $\bm{a}$ & 向量\\
  206. $dim()$ & 向量的维数\\
  207. $\bm{A}$ & 矩阵\\
  208. $\bm{A}^\mathrm{T}$ & 矩阵$\textbf{A}$的转置\\
  209. $\bm{I}$ & 单位矩阵(维度依据上下文而定) \\
  210. $diag(\bm{a})$ & 对角方阵,其中对角元素由向量$\bm{a}$确定 \\
  211. \end{tabular}
  212. \end{center}
  213. \newpage\backmatter
  214. % Translation
  215. \chapter*{外\quad{}文\quad{}译\quad{}文}
  216. \vspace{8mm}
  217. \thispagestyle{empty}
  218. \begin{center}
  219. \sihao\heiti{真假新闻的在线传播}
  220. \xiaosihao\songti{Soroush Vosoughi, Deb Roy, Sinan Aral}
  221. \xiaosihao\songti{麻省理工学院}
  222. \end{center}
  223. \songti{}
  224. 决策、合作、通信和市场领域的基础理论全都将对真实或准确度的概念化作为几乎一切人类努力的核心。然而,不论是真实信息还是虚假信息都会于在线媒体上迅速传播。定义什么是真、什么是假成了一种常见的政治策略,而不是基于一些各方同意的事实的争论。我们的经济也难免遭受虚假信息传播的影响。虚假流言会影响股价和大规模投资的动向,例如,在一条声称巴拉克·奥巴马在爆炸中受伤的推文发布后,股市市值蒸发了1300亿美元。的确,从自然灾害到恐怖袭击,我们对一切事情的反应都受到了扰乱。
  225. 新的社交网络技术在使信息的传播速度变快和规模变大的同时,也便利了不实信息(即不准确或有误导性的信息)的传播。然而,尽管我们对信息和新闻的获取越来越多地收到这些新技术的引导,但我们仍然对他们在虚假信息传播上的作用知之甚少。尽管媒体对假新闻传播的轶事分析给予了相当多的关注,但仍然几乎没有针对不实信息扩散或其发布源头的大规模实证调查。目前,虚假信息传播的研究仅仅局限于小的、局部的样本的分析上,而这些分析忽略了两个最重要的科学问题:真实信息和虚假信息的传播有什么不同?哪些人类判断中的因素可以解释这些不同?
  226. % Translated Article
  227. \thispagestyle{empty}
  228. \begin{center}
  229. \includepdf[pages=1, scale=0.95, pagecommand=\heiti\sanhao{外\quad{}文\quad{}原\quad{}文}]{docs/translation.pdf}
  230. \includepdf[pages=2-, scale=0.95, pagecommand={}]{docs/translation.pdf}
  231. \end{center}
  232. \end{document}