从光子到神经元--光成像和视觉

从光子到神经元--光成像和视觉
作者: (美)菲利普·纳尔逊|责编:钱俊//孔晓慧|译者:舒咬根//黎明
出版社: 科学
原售价: 248.00
折扣价: 196.00
折扣购买: 从光子到神经元--光成像和视觉
ISBN: 9787030696397

作者简介

内容简介

前言:预备知识
  自然之美在于细节,
  但它同时展现出普遍性。
  理解两者才能充分理解自然。
  ——斯蒂芬 杰伊 古尔德(Stephen Jay Gould)
  本书正式内容将从第1章开始。本章将简要回顾概率论的一些概念,也顺带给出本书的部分符号定义。如果你对这些概念比较陌生,可以阅读本章结尾的参考文献。你也可以先试着推导一些下文列出的部分结果,其中许多结论可以依据提示通过简单几行推导而获得。
  后续章节会提供类似的简明背景介绍,以扩充这里引入的概念或者综述其他基础知识。
  0.1 导读:不确定性
  在日常生活中,我们为了优化某些东西而做出无数次决策,例如如何快速又安全地过马路。在科学研究中,我们尝试理解事物的运转机制,这不仅是因为我们对其本身有兴趣,也是为了其他更大的目标,例如寻找某种疾病的治疗方法。但无论是在生活还是科研中,我们都受到不确定性的困扰,即在看似完全相同的环境(或实验流程)条件下,重复完全相同的动作(或实验)却未必能得到相同的结果。
  这种不确定性可能是我们对有关事实不够了解而造成的,而这些事实原本可以被了解得更透彻。例如:
   当在有来车的情况下过马路的时候,司机的性格和当时的心理状态无疑会影响到我们行动的谨慎程度。
   患者的个人病史、家族病史及其基因型或许会显著影响其对特定治疗方案的反应。
  然而,在其他情况下,不确定性却反映了某种固有的随机性(或噪声):
   由于地球系统的高度复杂性,突发的阵风或其他天气现象无法预测。
   宇宙射线引起的基因突变也是不可预测的。
  在科学上,我们通常需要区分系统以及研究它的设备。相应地,不确定性也来自这两个方面:
   细胞分裂时,亲代细胞中的不同调控分子可能会被分配到任一个子代细胞,但其具体数量是不可预测的。
   由于测量仪器和测量程序的精度问题,每次重复测量(例如钟摆周期)都存在细微的误差。
  本章要建立一个概念框架来量化上述不确定性,并探讨从随机事件能导出什么结论。
  0.2 离散概率分布
  如前所述,任何物理系统多少都存在一些随机性,而且(几乎)所有测量仪器还会增加额外的随机性。但另一方面,自然界的确又存在着某些规律。为了找出这些规律,我们需要发展出一些工具来描述这种不确定性。
  即使在不确定的情况下,我们也并非完全无法做出预测。例如,当我们过马路时发现一米远处正好开来一辆高速汽车,此时过街肯定不是一个好主意。同理,如果我们对某个量感兴趣但尚未完成测量,那么对测量值的任何断言,我们都可以根据目前已有的部分信息赋予其一个置信度或概率。我们用位于0(命题为假)和1(命题为真)之间的数字来表示概率。
  0.2.1 概率分布展示了我们对不确定性的认知
  为了量化概率,下面考虑一个在日常生活中不太现实但在实验室中经常出现的情况。
   设想这样一个实验或测量,其可能结果是离散数,例如细胞中某种类型分子的数量。如果我们知道在细胞分裂之前这类分子有M个,且在整个分裂过程中这类分子既没有产生也没有湮灭,则在一个子代细胞中这类分子数将是0与M之间的整数。
   假设上述实验可以进行多次(“重复试验”),且每一次试验都精确复制了每一个相关因素。这种情况称为可重复实验。
   除了实验已经观察到的实际值外,还假设我们没有任何相关的先验信息。
  在这种情况下,统计每个结果被观察到的次数N(也称为结果的“频率”)是有意义的,并且可以给每个允许值赋予一个置信度
  (0.1)
  这个公式可能不是很现实(因为我们能做的观察次数有限),但是它原则上定义了的函数,即离散概率分布。值得注意的是:
  任何离散概率分布的值都是处于0与1之间的无量纲数。
  我们的测量就是“从分布P中抽样”。图0.1显示了用有限抽样数据制作直
  方图从而估计分布的一个例子。
  图0.1[数据总结。]离散概率分布的经验估计。(a)一个无偏硬币抛掷600次,统计相邻两次“正面向上”的间隔次数j。本图是各种结果出现频率的柱状图(或直方图)。本例中共有Ntot=289个间隔次数数据,没有观察到j>7的数据。(b)根据公式0.1,每个频率除以Ntot就是估算的概率分布。这个结果也能用柱状图表示。(c)将(b)的估计分布用半对数坐标表示,证明其大致呈指数形式。你将在习题0.3中解释这个经验事实。
  我们假定每次试验都给出一个确定结果,则所有N.的总和必须等于Ntot,即
  (0.2)
  我们将样本空间定义为所有允许结果的列表,将事件定义为样本空间的子集.,还能得到一个紧密相关的公式。例如,在玩牌游戏中,样本空间可以是从52张牌中每次抽5张的不同组合的集合,而其中的一个事件就是称为“满堂红”的子集Efh,我们也可以称Efh为“被抽到满堂红”的事件。一个有意义的问题是从洗好的标准扑克中抽出的5张牌有多大概率恰是满堂红。
  如果两个事件E1和E2的结果没有交集,我们称它们是“互斥的”,则方程0.1意味着
  (0.3)
  更一般地
  (0.4)
  在上述两个公式中,符号or表示两个事件的并集,结果表示为E1 or E2。符号and表示两个事件的交集,互斥事件的交集是空集(此时公式0.4还原为公式0.3)。
  因为每个结果要么属于E、要么不属于E,所以我们也有一个“减法规则”:
  (0.5)
  0.2.2 条件概率可以量化事件之间的相关程度
  多个事件或其组合也可以用概率来描述。例如,事件E表示个体患有某种疾病,而事件E′表示针对该疾病的特定测试结果呈阳性。如果测得E′为真,那么我们可以推测E的概率。为了精确地表达这种直觉,可以引入条件概率:
  (0.6)
  公式左边是“给定E′时E为真的概率”。重排公式有
  (0.7)
  如果E′为真无助于预测E,即P(E|E′)=P(E),我们就称两个事件是统计独立的,乘法规则可简化为
  (0.8)
  而统计不独立的事件被称为相关的。
  0.2.3 随机变量可以由其期望和方差来部分描述
  我们感兴趣的事件通常都涉及某个可测的数值变量,称为随机变量。如果这个数值总是整数(例如某类分子的数量),我们就得到离散分布。令表示变量.取特定值的事件,其发生概率可表示为,可进一步缩写成或。
  虽然分布是的函数,但我们通常可用两个量来近似反映它,即的期望,
  (0.9)
  及其方差
  (0.10)
  注意,尽管出现在公式中,但和var都不是变量的函数,这里出现的符号只是告诉我们正在讨论的是该变量的期望和方差,每个表达式本身都只是一个数字,这两个数值都取决于描述的分布。
  任何的函数都可以用来生成一个新的随机变量。如果f是的函数,在此我们将使用相同的字符f来表示对应的随机变量,该随机变量是通过对抽样再将它们输入函数f来定义的。我们可以拓展上面的定义
  (0.11)
  其他书籍使用符号E(f)或μf来代表“f的期望值”,与此处使用的同义。方程0.9表明这些符号是指该随机变量的无限多次重复测量的均值(平均值)。另外,分布的标准偏差定义为方差的平方根,而相对标准偏差则是标准偏差除以期望:
  (0.12)
  此处的期望值并非“某个有限次测量集合的均值”,后者称为样本均值,表示为f。样本均值本身也是一个随机变量:如果我们重复做有限次测量,就会得到不同的均值。相反地,期望仅仅是f自身分布的特性。
  期望的一个关键性质是线性:如果f和g是任意两个随机变量,而a和b是任意两个常数,则
  (0.13)
  方差没有简单的线性,例如,并且和的方差不一定是各个方差之和(见0.2.4节)。但是方差确实存在一个实用的等价形式:
  (0.14)
  0.2.4 联合分布
  有时我们测量的变量多于一个,因而得到一个联合分布:事件表示**个可观测随机变量取值为,E′s0表示同一试验中第二个可观测随机变量取值为s0。我们将作为联合事件发生的概率的缩写。我们将样本空间(可能的结果)划分成许多不重叠的子集(结果的类别),联合事件(E.0 and E′s0)中和s0的值覆盖所有的允许值。联合分布可用于计算和s0的某些函数的期望,我们不必对每个观察结果求和,只需对联合事件求和。比如求乘积的期望:
  (0.15)
  现在假设两个随机变量统计独立,则由方程0.8可以导出
  在这个公式中,是特定值的概率分布,与s值无关;Ps也类似。此时方程0.15所示的乘积的期望将变得更简单:
  (0.16)
  上式与方程0.14联合,可知
  (0.17)
  用同样的方法可求出。综上可得如下结论
  两个独立随机变量的和或差的方差等于各自方差的和。
  (0.18)
  衡量两个随机变量相关程度的一种度量称为协方差,其定义如下
  (0.19)
  方程0.16意味着如果和s统计独立,则协方差等于零。另一个有用的相关度量是无量纲的相关系数,定义为
  (0.20)
  虽然两个不相关的变量的相关系数等于零,但反之则不然。相关系数可以用来检验两个随机变量之间是否存在线性关系,但也不排除可能存在其他类型的相关性。