信息的定义

信息的定义?急用!!!!

1.前言
目前关于信息存在各种各样的定义,这其中尚未有完全得到公认的定义。中国科学院编写的《21世纪100个交叉科学难题》一书中已把“信息是什么”列入100个难题之中。究其原因,这些定义都具有一定的局限性,都要么陷入偏颇片面,好比盲人摸象,要么陷入空洞无物,不能够提供具有具体意义的内涵。本文试图分析这些定义,同时也指出它们的局限性,并且在此基础上给出信息的新度量指标,同时为融合信息论和人工智能等学科提供基础。

2.信息的定义及其分析
我们来分析目前流行的信息的定义,我们把它分为如下几类:

(1)抽象型的信息定义:

信息就是信息,既不是物质也不是能量 (Wiener,1948) 。

信息是一种场 (Eepr,1971) 。

信息是系统的复杂性 ( 张学文等 ) 。

信息不是物质,它是物质状态的映射 ( 张学文等 ) 。

信息是事物相互作用的表现形式。

信息是事物联系的普遍形式。

信息是与控制论系统相联系的一种功能现象 ( Укра u нчев ,1963) 。

信息是被反映的物质的属性 ( 刘长林, 1985) 。

信息是人与外界相互作用的过程中所交换的内容的名称 (Wiener,1948) 。

信息是作用于人类感觉器官的东西。

信息是选择的自由度 (Hartley,1928) 。

信息是通信传输的内容 (Wiener,1950) 。

信息是加工知识的原材料 (Brillouin,1956) 。

信息是控制的指令 (Wiener,1950) 。

信息就是消息。

信息就是信号。

信息就是数据。

信息就是情报。

信息就是知识。

信息是一种关系 (Longo,1975) 。

信息是物质的普遍属性。

信息是事物相互作用过程的表征。

信息是结构的表达。

信息是人脑对客观事物属性的能动反映。

信息是物质与意识的中介,是认识的中介。

信息是指人类共享的一切知识。

信息=数据+意义(Floridi,2005)

信息一般泛指我们所说的消息、情报、指令、数据、信号等有关周围环境的知识。

信息是我们适应外部世界并使这种适应为外部世界所感到的过程中同外部世界进行交换内容的名称。

信息,就是“意、文、义”三个范畴的总称 (邹晓辉) 。

信息是生活主体同外部客体之间有关情况的消息。

信息本身就是一种模式和组织形式。

信息,并不是指事物本身,而是指用来表明事物或通过事物发出的消息、情报、指令、数据、信号中所包含的东西。

信息是一种能创造价值和能交换的知识,是与资本、劳动共同构成的生产三要素之一。

信息是客观存在的东西。

信息既是主观与客观相互联系、作用的媒介,又是物质世界与精神世界相互作用、联系的桥梁。

信息是物质的普遍属性;它表述它所属的物质系统,在同任何其他物质系统全面相互作用(或联系)的过程中,以质、能波动的形式所呈现的结构、状态和历史。(黎鸣)

信息是标志间接存在的哲学范畴,它是物质(直接存在)存在方式和状态的自身显示。(邬焜)

信息是精确形式与明确内容和意义的必然对应关系(萧瑞宁,2005)。

洪昆辉也定义了信息的体系:本体论的信息是事物及现象的存在方式之一,它是通过一定的媒介对事物及状态的一种显示(映射、反映),它标志事物及现象的间接存在。认识论层次的信息是指通过特定媒介,主体对主客体相互关系存在的映射、显示。

钟义信还提出了一套完整性的信息定义体系,他说:为了得到清晰的认识,我们应当根据不同的条件区分不同的层次来给出信息的定义。最高的层次是普遍的层次,也是无条件约束的层次,我们把它叫做本体论层次。在这个层次上定义的信息是最广义的信息,它的适用最广。然后,如果引入一个条件来约束一下,则最高层次的定义就变为次高层次的定义,而次高层次的信息定义的适用范围就比最高层次定义的范围要窄;所引入的约束条件越多,定义的层次就越低,它所定义的信息的适用范围就越窄。这样,根据引入的条件的不同,就可以给出不同层次和不同适用范围的信息定义;这些不同的信息定义的系列,就构成了信息定义的体系。他提出了自己的信息定义体系:

本体论层次的信息,就是事物运动的状态和 ( 状态改变的 ) 方式。

认识论层次的信息,就是认识主体所感知或所表述的事物运动的状态和方式。

语法信息,就是主体所感知或所表述的事物运动状态和方式的形式化关系。

语义信息,就是认识主体所感知或所表述的事物运动状态和方式的逻辑含义。

语用信息,就是认识主体所感知或所表述的事物运动状态和方式相对于某种目的的效用。

……

上面的这类定义,明显具有很宽的包容性,但是缺乏具体的内容,这类的定义太泛泛,没有在多大程度上消除不确定性,而信息论中认为信息是消除的不确定性的东西,因而可以认为提供的信息量太少,也不便于信息的研究,本文也不对此类没有研究意义的定义进行评论。当然这些定义也没有考虑到下面我们要提出的信息的可靠性问题,把信息当作一种完全可靠的反映,而实际情况是信息往往不反映真实情况,与实际情况有偏离,甚至是颠倒。

(2)以差异、有序性和不确定性等类似的指标来定义的信息定义:

信息是事物之间的差异 (Longo,1975) 。

信息是集合的变异度 (Ashby,1956) 。

信息是用以消除随机不定性的东西 (Shannon,1948) 。

信息是物质和能量在时间和空间中分布的不均匀性 (Eepr,1971) 。

信息是收信者事先所不知道的报导。

信息是系统组织程度的度量 (Wiener,1948) 。

信息是被反映的变异度 ( У∧ cy ∧, 1968) 。

信息是负熵 (Brillouin,1956) 。

信息是有序性的度量 (Wiener,1948) 。

信息是使概率分布发生变动的东西 (特里比斯,Tribes etal, 1971) 。

信息是被反映的差异。

信息是事物组织性,有序性的表征。

信息是消息接受者预先不知道的报道。

信息是组织程度,能使物质系统有序性增强,减少破坏、混乱和噪音。

信息是有秩序的量度。

信息是能用来消除或减少信宿关于信源不确定的东西。

信息= 数据-知识(邹晓辉)。

信息是客体相对于主体的变化。

信息就是相对于任何存在的相对变化,而这种相对变化是可以被分别、识别、了别的。一般而言信息是以某种非决定性所表达的决定性(冯向军)。

李炳铁定义了一套信息体系:信息从本质方面的定义就是物质的变化,信息从度量方面定义就是物质的变化程度;信息从意义方面定义就是人脑的反映,是意识的表现,是信息的内容;信息从广义方面定义就是物质的态(状态、形态),是信息的形式;

信息指数据、消息中所包含的意义,它可以使消息中所描述的事件的不肯定性减少。

信息是事物现象示为 (事体、事件)属性标识的集合。(这里忽视了一个前提的存在,现象示为 (事体、事件)的属性标识本身就是不确定的,不固定的,可能还是无穷的,而本定义的前提是属性标识已经确定)。

这一类的定义具有可以度量,可以研究的优势,但是在笔者看来却天生具有很大的局限性。上面举出了历史上比较著名的关于信息的几乎所有的定义,可以看出,凡是这类反映差异,有序性和不确定性的定义中,都忽视了一个很重要,根本性的因素,那就是信息的可靠度和完备程度。而信息的价值之所以存在,是因为它具有一定的可靠性,同时信息越是完备,也越是为决策提供可靠的资源,而是否确定,则是次要的,人们一般情况下不会有意去追求信息的确定性,但是会有意追求信息的可靠性和完备性。目前的广义信息量,全信息量和统一信息理论都没有考虑到信息的可靠程度这一根本性的问题。

3.信息定义的局限性分析
仙农(Shannon,又译香农)的信息论一直是主流,其他的信息理论的提出者也没有在很大程度上否定它的利用熵的计算公式,因此我们直接对他的信息论进行分析。我们举一个例子:所有可能的消息(或者事件)看作一个集合{m1,m2,m3,m4,……,mn},设知道一个先验的条件甲,根据这个条件,可以得出事件mi的先验概率是p1(mi),它不是等概率分布,我们后来另外知道了一个条件乙,该条件下事件是等概率分布的。我们把消息及其对应的概率称为消息集合系统(或者称为带概率集合)。

先验的消息集合系统

条件乙确定的消息集合系统

注意这里的条件乙得出概率是独立得出的,条件甲和乙是相互独立的。它没有考虑先验概率(及其条件甲)的存在,则考虑条件甲和条件乙同时存在的时候,事件的概率应该是一个折衷。由于先验的概率是非等概率的,而条件乙下是等概率的。经过一个折衷运算以后,最终概率相对与先验概率的不确定性一定是增加了,根据信息论的算法,信息量不是增加反而是减少了。

根据一般人的感觉,应当说知道的条件越多,我们的信息越多。但是上面的例子却是一个反例。如果有一个信息,确定程度高,但是却反而不可靠,而另外一个针对同一问题的信息,不那么确定,但是却更加可靠。那么如果在确定性与可靠性之间,人们一般会选择哪个呢?显然人们大多数情况下愿意选择可靠度高的信息。这说明信息还需要有关于可靠度方面的度量指标,但是目前的信息论中关于信息的定义都直接用对不确定性的消除来定义信息,本身就把信息量作为唯一的一个指标了,其实事件的概率本身也是不确定的,否则不可能从小于1的值最后变成0或者1,这说明这个概率依然是不确定的,不可靠的。固然可靠度是一个难于度量的,难于定义的量。但是,笔者认为不确定性的度量同样不是能够简单就能度量的。之所以在通信中能够加以度量,是因为忽视了许多因素的存在。

再举一个例子:当获得消息“所有的事件都是等概率发生的”的时候,对这句话(所有的事件发生呈现什么样的概率分布)而言,它消除了不确定性。但是对于这里的指的所有事件发生而言,它们不可能是更加确定,如果已经存在所有事件发生先验概率,而且不是等概率分布的,则信息是更加不确定了,信息量不是增加而是减少;而如果是没有先验概率,或者先验概率是一个等概率分布,则信息已经到了不确定性的极限,概率分布不变,信息量不变。这个问题的产生是因为信息不是独立的,信息是相互衍生的,概率分布是可以传递的。再比如,在一次一密体制中,如果已知密文,并且已知密钥是等概率分布的这两个条件,我们可以得出明文是等概率分布的。对于我们确定密文,确定密钥的概率分布而言,这两个条件消除了不确定性,但是对于分析明文而言,不确定性不可能是增加,因而信息量不可能是增加。

仙农认为信息是消除不确定性的东西,这说明没有得到信息前信息是不确定的,得到信息以后依然可能是不确定的,而不确定的信息往往是不可靠的,它的可靠程度本身就是一个值得考虑的问题。如果都不可靠的,那么怎么证明哪个对哪个错呢?而且还存在这样的问题,更加可靠的信息和不那么可靠的信息是否可以比较信息量呢?我们如果不考虑准确可靠性,则可以随便就可以自己胡乱编造大量的与现实无关的信息,但是这样的不可靠的信息是没有意义的。

假如把信息的确定性当作唯一的指标,则可以随便制定某一事件的概率为1,其余事件的概率为0就可以了。或者我们把信息的确定性当作首要考虑的指标,其次考虑其可靠性,则我们也可以指定概率最大的事件概率为1,其余事件为0。如果如此,信息论就变得相当的简单了。显然现实中人们不是这样的。由此可见,可靠程度是信息的一个首要指标。既然可靠程度是一个指标,则如何让信息最可靠就是一个重要的目标。

众所周知,信息论适用范围非常狭隘,信息论使用在日常生活领域会漏洞百出。仙农自己也深知信息论的局限性,对信息论的滥用非常愤慨,并措辞严厉地指出人们过度夸大了信息论的重要性,超过了其实际价值,并且要求人们对它的理论的应用不要超出随机统计领域。曾和Shannon合著《通信的数学理论》一书的W.Weaver在该书中的一篇论文中就提出通信的三个水平:水平A——通信的技术问题,如Shannon理论研究的;水平B——考虑到语义问题;水平C——考虑到效用或价值问题。

为什么会如此呢?因为在通信中,只需要正确地得到被发送的消息,被发送的消息可以认为是绝对可靠的,同时也不需要考虑它衍生其他消息的过程,以及对语义的判断,对消息的利用等问题。

再考虑第一类信息定义,也往往把信息作为一种事实或者事物的反映,从而可以认为它们也认为信息是绝对正确和可靠的。对于其他的定义,则都没有提及关于信息的不可靠性。

以上的例子时候违背条件熵不增的结论,下面分析香农对条件熵的定义,已知条件(X,Y)∽p(x,y)。在文献[2]中,香农首先将条件熵H(X | Y)定义为:在不同的y的取值下的x的熵的(加权)平均

H(X|Y)= (1)

根据公式(1),可以得出H(X|Y)≤H(X)。

于是得出了条件熵不增加,只可能减少的结论,进而得出了信息是消除不确定性的东西。但是公式(1)并不与我们的例子想违背。因为再公式(1)中只是把不同的事件yj发生的情况下X的熵进行了简单的加权平均,只能说是条件熵的加权平均。可见,已知关于Y的条件后,X的熵只是在平均意义上不增加,单个条件熵并不是绝对意义上不增加。限于篇幅和主题,我们尚且不讨论仙农在此中出现一些其他问题。

4.新信息定义的提出
根据以上的分析,笔者在这里对信息的定义做一个修改,不能尽善尽美,但是能够消除目前定义的一些缺陷,一方面尽量防止概念的狭隘、片面性,另外一方面也避免概念过大,过于空洞而不能提供可以测度,可以理解的“信息”,笔者给出信息的定义如下:信息是在受限制的条件下(比如编码长度限制,分析计算能力限制,分辨率限制等)和考虑各种代价的情况下,尽力追求更高的准确性和可靠性的前提下,通过各种被认可的条件、因素、事实和知识等,以各种被认为精确的或者近似的算法,理论等技术手段或者是人工手段(思考等),采用在一定程度可信的方式直接或间接获得的(被信息处理者认为)对事物更加可靠认识的,可以消除、增加或者不改变不确定性的东西。

我们在上面的定义中,强调了过去被忽视的信息的相对性和不完全可靠性。理由如下:信息是相对的,它是相对于当时的被认可的条件(包括信息,知识,规律等)而言的,而这些被认可的条件的可靠性和完备性是相对的,因此它的可靠性,完备性也是相对的。由于采取的推算方法可能不是绝对正确、可信、科学和理性的,而且还可能掺杂人为主观因素,从而引入各种偏差,所以得到的信息并不与已知所有的条件(包括信息,知识,规律)应该得出的完全客观正确的信息一致的,这是相对性的另外一个方面;信息是可以进化的,更多的条件导致信息更加可靠和完备,信息不是静态的;在没有绝对可靠(正确)的信息的情况下,多个具有一定可靠程度的相关信息是相互协调和折衷的,有绝对可靠的信息存在时,其他的信息应当与它保持一致。注意笔者除了认为不确定性可以增加以外,还认为在可靠度或者准确性增加的情况下,不确定性不改变也是信息的增加。信息的更完备的定义是集可靠度和信息量两个指标于一体。当然在信息的判断中,除了采用客观的算法和信息处理工具进行分析以外,往往还需要人的直接判断,这种判断往往掺杂个人的主观偏见,失误和偏差等主观因素。客观的算法和处理工具也未必是完全准确的判断,而可能是近似的,考虑不周全的,估计性的判断,而且可能判断是不完备的,比如本来可以根据已知的信息衍生出新的信息,从而与其他的相关的信息进行折衷整合,但是如果没有考虑到衍生出该新的信息,则判断是不完备的。

在此还需要说明追求准确性、完备性和可靠性应该是信息论的目标,是前提,而不确定性的消除是一种瓜熟蒂落的自然结果,可以说是一种副产品,不过有时候也可能是不确定性增加或者不变。

在这里的定义中,我们还强调了信息的产生的方式,产生信息的基础,信息的处理方式。这为进行各种信息的获取,信息的处理,信息的融合,信息的运用奠定了一个基础。

5.相对信息论的信息产生模型
为了区别于以往的信息论(包括广义信息论、统一信息理论和全信息论)中存在不考虑信息的可靠性和完备性或者认为信息就是完全可靠完备的局限性,我们以相对信息论区别于其他的信息论。物理中物体运动的相对性是它的参照系,而这里信息的相对性针对的是我们认定的条件,包括那些信息的可靠的,那些信息是不可信的,它们的可靠程度如何等等。我们建立一个信息产生的模型:首先,信息处理者从各方收集信息,比如可以从不同的人或者资料来获取信息,这许多的信息需要进行相关的处理,处理者可以根据各种已知的知识,规律等等来进一步衍生新的信息,好比机械设备在获得一定的作用的时候,它会根据机械设备的机制来作用于其他的物体,从而衍生了新的作用。衍生的信息以及最初获得的各种信息之间本身还可能不一致,有些是相互补充的,有些则是不一致的, 因此需要整合和折衷,这好比机械设备产生的一些作用导致一些被作用的物体相互发生碰撞,产生反作用,或者由于力的作用在同一个物体上,力的作用不一致的时候,最终对物体的作用是这些力的综合。折衷整合的时候需要以我们认定的条件为基础,包括各个信息的可靠程度。

依据知识,规律等衍生信息

衍生的新信息

衍生的新信息

信息的折衷整合

信息的获得

信息的获得

信息的获得

图1 相对信息论的信息产生模型

6.结束语
本文列举了信息的定义,并且进行了分析,指出一类定义具有舍本逐末的缺陷,即不重视信息的可靠程度,却把信息所带来的不确定性消除作为唯一的内容,这不利于信息论在人工智能和社会信息科学等领域的应用,特别是社会信息科学问题相对其他的信息科学问题更加复杂,更加具有相对性、多元性、多重的不确定性和模糊性,因而更加具有相对性。这里提供的定义为信息论在非通信领域的应用提供了很好的基础,这样可以让信息论更加名副其实,因为目前的信息量大多数情况下是应用在通信领域,它仅仅是与信息相关的一个环节。本文的内容仅仅涉及到信息论的部分层面,仙农信息论还有许多缺陷,一些学者也有所研究,在此不赘述。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2008-09-03
信息是指以声音、语言、文字、图像、动画、气味等方式所表示的实际内容。
第2个回答  2012-09-10
信息是客观事物状态和运动特征的一种普遍形式,客观世界中大量地存在、产生和传递着以这些方式表示出来的各种各样的信息。
信息的目的是用来“消除不确定的因素”。
信息相关资料: 图片 信息(又称作讯息),又称资讯,是一种消息,通常以文字或声音、图象的形式来表现,是数据按有意义的关联排列的结果。信息由意义和符号组成。 文献是信息的一种,即通常讲到的文献信息。 信息就是指以声音、语言、文字、图像、动画、气味等方式所表示的实际内容
第3个回答  2008-09-03
information本回答被提问者采纳