张涛周报2017.12.10

本周被教学严重耽误。上课三次,课程设计值班三次,监考两个晚上,研究生答辩半天,系里开会半天,为项目跑付款合同半天,…… 所以,只能利用零碎的时间做一些事情。 1. FPGA项目。这个项目目前已经进入到近乎玄学的阶段,各种测试上手之后仍然无法发现问题的所在。这段时间刘川和王明贤的投入明显增加,同时也看到了二位能力在逐渐增强。 2. 论文。本周主要读的内容是变分贝叶斯的原理,出人意料的是我居然读懂了大部分。但回去再读deepmind那篇论文仍然感觉吃力,仍需继续补充学习。 ...
Read More

张涛周报20171203

本周工作集中于两点: 1. FPGA项目继续。该项目目前调试时间不短了,中间也总结了不少东西,可为今后项目开展作为参考。 本周到北京出差两天,发现公司的状态与学校截然不同。怀疑自己是不是对在校生要求过于宽松了。 2. 读论文。由deepmind的那篇论文开始,发现读不懂的地方向前查找,目前查到了变分贝叶斯问题(已经放到本网站),精力有限,暂时没有太大进展。继续努力吧。 ...
Read More

变分贝叶斯算法理解与推导 Variational Bayes

原文地址: http://blog.huajh7.com/2013/03/06/variational-bayes/ 前言 上世纪90年代,变分推断在概率模型上得到迅速发展,在贝叶斯框架下一般的变分法由Attias的两篇文章给出。Matthew J.Beal的博士论文《Variational Algorithms for Approximate Bayesian Inference》中有比较充分地论述,作者将其应用于隐马尔科夫模型,混合因子分析,线性动力学,图模型等。变分贝叶斯是一类用于贝叶斯估计和机器学习领域中近似计算复杂(intractable)积分的技术。它主要应用于复杂的统计模型中,这种模型一般包括三类变量:观测变量(observed variables, data),未知参数(parameters)和潜变量(latent variables)。在贝叶斯推断中,参数和潜变量统称为不可观测变量(unobserved variables)。变分贝叶斯方法主要是两个目的: 近似不可观测变量的后验概率,以便通过这些变量作出统计推断。 对一个特定的模型,给出观测变量的边缘似然函数(或称为证据,evidence)的下界。主要用于模型的选择,认为模型的边缘似然值越高,则模型对数据拟合程度越好,该模型产生Data的概率也越高。 对于第一个目的,蒙特卡洛模拟,特别是用Gibbs取样的MCMC方法,可以近似计算复杂的后验分布,能很好地应用到贝叶斯统计推断。此方法通过大量的样本估计真实的后验,因而近似结果带有一定的随机性。与此不同的是,变分贝叶斯方法提供一种局部最优,但具有确定解的近似后验方法。 从某种角度看,变分贝叶斯可以看做是EM算法的扩展,因为它也是采用极大后验估计(MAP),即用单个最有可能的参数值来代替完全贝叶斯估计。另外,变分贝叶斯也通过一组相互依然(mutually dependent)的等式进行不断的迭代来获得最优解。 问题描述 重新考虑一个问题:1)有一组观测数据DD,并且已知模型的形式,求参数与潜变量(或不可观测变量)Z={Z1,...,Zn}Z={Z1,...,Zn} 的后验分布: P(Z|D)P(Z|D)。 正如上文所描述的后验概率的形式通常是很复杂(Intractable)的,对于一种算法如果不能在多项式时间内求解,往往不是我们所考虑的。因而我们想能不能在误差允许的范围内,用更简单、容易理解(tractable)的数学形式Q(Z)来近似P(Z|D)P(Z|D),即 P(Z|D)≈Q(Z)P(Z|D)≈Q(Z)。 由此引出如下两个问题: 假设存在这样的Q(Z)Q(Z),那么如何度量Q(Z)Q(Z)与P(Z|D)P(Z|D)之间的差异性 (dissimilarity). 如何得到简单的Q(Z)Q(Z)? 对于问题一,幸运的是,我们不需要重新定义一个度量指标。在信息论中,已经存在描述两个随机分布之间距离的度量,即相对熵,或者称为Kullback-Leibler散度。 对于问题二,显然我们可以自主决定Q(Z)Q(Z)的分布,只要它足够简单,且与P(Z|D)P(Z|D)接近。然而不可能每次都手工给出一个与P(Z|D)P(Z|D)接近且简单的Q(Z)Q(Z),其方法本身已经不具备可操作性。所以需要一种通用的形式帮助简化问题。那么数学形式复杂的原因是什么?在“模型的选择”部分,曾提到Occam’s razor,认为一个模型的参数个数越多,那么模型复杂的概率越大;此外,如果参数之间具有相互依赖关系(mutually dependent),那么通常很难对参数的边缘概率精确求解。 幸运的是,统计物理学界很早就关注了高维概率函数与它的简单形式,并发展了平均场理论。简单讲就是:系统中个体的局部相互作用可以产生宏观层面较为稳定的行为。于是我们可以作出后验条件独立(posterior independence)的假设。即,∀i,p(Z|D)=p(Zi|D)p(Z−i|D)∀i,p(Z|D)=p(Zi|D)p(Z−i|D) Kullback-Leibler散度 在统计学中,相对熵对应的是似然比的对数期望,相对熵 D(p||q)D(p||q) 度量当真实分布为 P而假定分布为Q时的无效性。 定义 两个概率密度函数为p(x)p(x)和q(x)q(x)之间的相对熵定义为 DKL(p||q)=∑xp(x)logp(x)q(x)DKL(p||q)=∑xp(x)log⁡p(x)q(x). KL散度有如下性质: DKL(p||q)≠DKL(q||p)DKL(p||q)≠DKL(q||p); DKL(p||q)≥0DKL(p||q)≥0 ,当且仅当p=qp=q时为零; 不满足三角不等式。 Q分布与P分布的KL散度为: DKL(Q||P)=∑ZQ(Z)logQ(Z)P(Z|D)=∑ZQ(Z)logQ(Z)P(Z,D)+logP(D) DKL(Q||P)=∑ZQ(Z)log⁡Q(Z)P(Z|D)=∑ZQ(Z)log⁡Q(Z)P(Z,D)+log⁡P(D) 或者 logP(D)=DKL(Q||P)−∑ZQ(Z)logQ(Z)P(Z,D)=DKL(Q||P)+L(Q). log⁡P(D)=DKL(Q||P)−∑ZQ(Z)log⁡Q(Z)P(Z,D)=DKL(Q||P)+L(Q). 由于对数证据logP(D)logP(D)被相应的Q所固定,为了使KL散度最小,则只要极大化L(Q)L(Q)。通过选择合适的Q,使L(Q)L(Q)便于计算和求极值。这样就可以得到后验P(Z|D)P(Z|D)的近似解析表达式和证据(log evidence)的下界L(Q)L(Q),又称为变分自由能(variational free energy): L(Q)=∑ZQ(Z)logP(Z,D)−∑ZQ(Z)logQ(Z)=EQ[logP(Z,D)]+H(Q) L(Q)=∑ZQ(Z)log⁡P(Z,D)−∑ZQ(Z)log⁡Q(Z)=EQ[log⁡P(Z,D)]+H(Q) vb1 平均场理论(Mean Field Method) 数学上说,平均场的适用范围只能是完全图,或者说系统结构是well-mixed,在这种情况下,系统中的任何一个个体以等可能接触其他个体。反观物理,平均场与其说是一种方法,不如说是一种思想。其实统计物理的研究目的就是期望对宏观的热力学现象给予合理的微观理论。物理学家坚信,即便不满足完全图的假设,但既然这种“局部”到“整体”的作用得以实现,那么个体之间的局部作用相较于“全局”的作用是可以忽略不计的。 根据平均场理论,变分分布Q(Z)可以通过参数和潜在变量的划分(partition)因式分解,比如将ZZ划分为Z1…ZMZ1…ZM Q(Z)=∏i=1Mq(Zi|D) Q(Z)=∏i=1Mq(Zi|D) 注意这里并非一个不可观测变量一个划分,而应该根据实际情况做决定。当然你也可以这么做,但是有时候,将几个潜变量放在一起会更容易处理。 平均场方法的合理性 在量子多体问题中,用一个(单体)有效场来代替电子所受到的其他电子的库仑相互作用。这个有效场包含所有其他电受到的其他电子的库仑相互作用。这个有效场包含了所有其他电子对该电子的相互作用。利用有效场取代电子之间的库仑相互作用之后,每一个电子在一个有效场中运动,电子与电子之间的运动是独立的(除了需要考虑泡利不相容原理),原来的多体问题转化为单体问题。 同样在变分分布Q(Z)这个系统中,我们也可以将每一个潜变量划分看成是一个单体,其他划分对其的影响都可以用一个看做是其自身的作用。采用的办法是迭代(Iterative VB(IVB) algorithm)。这是由于当变分自由能取得最大值的时候,划分ZiZi与它的互斥集Z−iZ−i(或者更进一步,马尔科夫毯(Markov blanket), mb(Zi))mb(Zi))具有一个简单的关系: Q(Zi)∝1Cexp⟨lnP(Zi,Z−i,D)⟩Q(Z−i)orQ(mb(Zi)) Q(Zi)∝1Cexp⁡⟨ln⁡P(Zi,Z−i,D)⟩Q(Z−i)orQ(mb(Zi)) (为保持文章的连贯性,此处先不证明,下文将详细说明) 于是,对于某个划分ZiZi,我们可以先保持其他划分Z−iZ−i不变,然后用以上关系式更新ZiZi。相同步骤应用于其他划分的更新,使得每个划分之间充分相互作用,最终达到稳定值。 具体更新边缘概率(VB-marginal)步骤如下: 初始化Q(0)(Zi)Q(0)(Zi),可随机取; 在第k步,计算Z−iZ−i的边缘密度Qk∝exp∫Z∗iQk−1logP(Zi,Z−i,D)dZiQk∝exp⁡∫Zi∗Qk−1log⁡P(Zi,Z−i,D)dZi 计算ZiZi的边缘密度Qk∝exp∫Z∗−iQklogP(Zi,Z−i,D)dZ−iQk∝exp⁡∫Z−i∗Qklog⁡P(Zi,Z−i,D)dZ−i 理论上Q∞Q∞将会收敛,则反复执行(2), (3)直到Q(Zi)Q(Zi),Q(Z−i)Q(Z−i)稳定,或稳定在某个小范围内。 最后,得 Q(Z)=Q(Zi|D)Q(Z−i|D)Q(Z)=Q(Zi|D)Q(Z−i|D) 平均场估计下边缘概率的无意义性 (VB-marginals) 注意到Q(Z)估计的是联合概率密度,而对于每一个Qi(Zi)Qi(Zi),其与真实的边缘概率密度Pi(Zi)Pi(Zi)的差别可能是很大的。不应该用Qi(Zi)Qi(Zi)来估计真实的边缘密度,比如在一个贝叶斯网络中,你不应该用它来推测某个节点的状态。而这其实是很糟糕的,相比于其他能够使用节点状态信息来进行局部推测的算法,变分贝叶斯方法更不利于调试。 比如一个标准的高斯联合分布P(μ,x)P(μ,x)和最优的平均场高斯估计Q(μ,x)Q(μ,x)。Q选择了在它自己作用域中的高斯分布,因而变得很窄。此时边缘密度Qx(x)Qx(x)变得非常小,完全与Px(x)Px(x)不同。 vb2 泛函的概念 上文已经提到我们要找到一个更加简单的函数D(Z)D(Z)来近似P(Z|D)P(Z|D),同时问题转化为求解证据logP(Z)logP(Z)的下界L(Q)L(Q),或者L(Q(Z))L(Q(Z))。应该注意到L(Q)L(Q)并非普通的函数,而是以整个函数为自变量的函数,这便是泛函。我们先介绍一下什么是泛函,以及泛函取得极值的必要条件。 泛函 设对于(某一函数集合内的)任意一个函数y(x)y(x),有另一个数J[y]J[y]与之对应,则称J[y]J[y]为y(x)y(x)的泛函。泛函可以看成是函数概念的推广。 这里的函数集合,即泛函的定义域,通常要求y(x)y(x) 满足一定的边界条件,并且具有连续的二阶导数.这样的y(x)y(x)称为可取函数。 泛函不同于复合函数, 例如g=g(f(x))g=g(f(x)); 对于后者,给定一个xx值,仍然是有一个gg值与之对应; 对于前者,则必须给出某一区间上的函数y(x)y(x),才能得到一个泛函值J[y]J[y]。(定义在同一区间上的)函数不同,泛函值当然不同, 为了强调泛函值J[y]J[y]与函数y(x)y(x)之间的依赖关系,常常又把函数y(x)y(x)称为变量函数。 泛函的形式多种多样,通常可以积分形式:J[y]=∫x1x0F(x,y,y′)dxJ[y]=∫x0x1F(x,y,y′)dx 泛函取极值的必要条件 泛函的极值 “当变量函数为y(x)y(x)时,泛函J[y]J[y]取极大值”的含义就是:对于极值函数y(x)y(x)及其“附近”的变量函数y(x)+δy(x)y(x)+δy(x),恒有J[y+δy]≤J[y]J[y+δy]≤J[y]; 所谓函数y(x)+δy(x)y(x)+δy(x)在另一个函数y(x)y(x)的“附近”,指的是: |δy(x)|<ε|δy(x)|<ε; 有时还要求|(δy)′(x)|<ε|(δy)′(x)|<ε. 这里的δy(x)δy(x)称为函数y(x)y(x)的变分。 Euler–Lagrange方程 可以仿造函数极值必要条件的导出办法,导出泛函取极值的必要条件,这里不做严格的证明,直接给出。 泛函J[y]J[y]取到极大值的必要条件是一级变分δJ[y]δJ[y]为0,其微分形式一般为二阶常微分方程,即Euler-Largange方程: ∂F∂y−ddx∂F∂y′=0 ∂F∂y−ddx∂F∂y′=0 泛函的条件极值 在约束条件 下求函数J[y]J[y]的极值,可以引入Largange乘子λλ,从而定义一个新的泛函, J~[y]=J[y]−λJ0[y]J~[y]=J[y]−λJ0[y]。仍将δyδy看成是独立的,则泛函J~[y]J~[y]在边界条件下取极值的必要条件就是, (∂∂y−ddx∂∂y′)(F−λG)=0 (∂∂y−ddx∂∂y′)(F−λG)=0 问题求解 对于L(Q(Z))=EQ(Z)[lnP(Z,D)]+H(Q(Z))L(Q(Z))=EQ(Z)[ln⁡P(Z,D)]+H(Q(Z)),将右式第一项定义为能量(Energy),第二项看做是信息熵(Shannon entropy)。我们只考虑自然对数的形式,因为对于任何底数的对数总是可以通过换底公式将其写成自然对数与一个常量的乘积形式。另外根据平均场假设可以得到如下积分形式, L(Q(Z))=∫(∏iQi(Zi))lnP(Z,D)dZ−∫(∏kQk(Zk))∑ilnQi(Zi)dZ L(Q(Z))=∫(∏iQi(Zi))ln⁡P(Z,D)dZ−∫(∏kQk(Zk))∑iln⁡Qi(Zi)dZ 其中Q(Z)=∏iQi(Zi)Q(Z)=∏iQi(Zi),且满足 ∀i.∫Qi(Zi)dZi=1∀i.∫Qi(Zi)dZi=1 考虑划分Z={Zi,Z−i}Z={Zi,Z−i},其中Z−i=Z∖ZiZ−i=Z∖Zi,先考虑能量项(Energy)(第一项), EQ(Z)[lnP(Z,D)]=∫(∏iQi(Zi))lnP(Z,D)dZ=∫Qi(Zi)dZi∫Q−i(Z−i)lnP(Z,D)dZ−i=∫Qi(Zi)⟨lnP(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)lnexp⟨lnP(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)lnQ∗i(Zi)dZi+lnC EQ(Z)[ln⁡P(Z,D)]=∫(∏iQi(Zi))ln⁡P(Z,D)dZ=∫Qi(Zi)dZi∫Q−i(Z−i)ln⁡P(Z,D)dZ−i=∫Qi(Zi)⟨ln⁡P(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)ln⁡exp⁡⟨ln⁡P(Z,D)⟩Q−i(Z−i)dZi=∫Qi(Zi)ln⁡Qi∗(Zi)dZi+ln⁡C 其中定义Q∗i(Zi)=1Cexp⟨lnP(Z,D)⟩Q−i(Z−i)Qi∗(Zi)=1Cexp⁡⟨ln⁡P(Z,D)⟩Q−i(Z−i),CC为的归一化常数。再考虑熵量(entropy)(第二项), H(Q(Z))=−∑i∫(∏kQk(Zk))lnQi(Zi)dZ=−∑i∫∫Qi(Zi)Q−i(Z−i)lnQi(ZidZidZ−i=−∑i⟨∫Qi(Zi)lnQi(Zi)dZi⟩Q−i(Z−i)=−∑i∫Qi(Zi)lnQi(Zi)dZi H(Q(Z))=−∑i∫(∏kQk(Zk))ln⁡Qi(Zi)dZ=−∑i∫∫Qi(Zi)Q−i(Z−i)ln⁡Qi(ZidZidZ−i=−∑i⟨∫Qi(Zi)ln⁡Qi(Zi)dZi⟩Q−i(Z−i)=−∑i∫Qi(Zi)ln⁡Qi(Zi)dZi 此时得到泛函, L(Q(Z))=∫Qi(Zi)lnQ∗i(Zi)dZi−∑i∫Qi(Zi)lnQi(Zi)dZi+lnC=(∫Qi(Zi)lnQ∗i(Zi)dZi−∫Qi(Zi)lnQi(Zi)dZi)−∑k≠i∫Qk(Zk)lnQk(Zk)dZk+lnC=∫Qi(Zi)lnQ∗i(Zi)Qi(Zi)dZi−∑k≠i∫Qk(Zk)lnQk(Zk)dZk+lnC=−DKL(Qi(Zi)||Q∗i(Zi))+H[Q−i(Z−i)]+lnC L(Q(Z))=∫Qi(Zi)ln⁡Qi∗(Zi)dZi−∑i∫Qi(Zi)ln⁡Qi(Zi)dZi+lnC=(∫Qi(Zi)ln⁡Qi∗(Zi)dZi−∫Qi(Zi)ln⁡Qi(Zi)dZi)−∑k≠i∫Qk(Zk)ln⁡Qk(Zk)dZk+lnC=∫Qi(Zi)ln⁡Qi∗(Zi)Qi(Zi)dZi−∑k≠i∫Qk(Zk)ln⁡Qk(Zk)dZk+ln⁡C=−DKL(Qi(Zi)||Qi∗(Zi))+H[Q−i(Z−i)]+ln⁡C 注意到L(Q(Z))L(Q(Z)) 并非只有一个等式,如果不可观测变量有M个划分。 那么将有M个方程。 为了使得L(Q(Z))L(Q(Z))达到最大值, 同时注意到约束条件, 根据泛函求条件极值的必要条件, 得, ∀i.∂∂Qi(Zi){−DKL[Qi(Zi)||Q∗i(Zi)]−λi(∫Qi(Zi)dZi−1)}:=0 ∀i.∂∂Qi(Zi){−DKL[Qi(Zi)||Qi∗(Zi)]−λi(∫Qi(Zi)dZi−1)}:=0 直接求解将得到Gibbs分布,略显复杂;实际上,注意到KL散度,我们可以直接得到KL散度等于0的时候,L(D)L(D)达到最大值,最终得到 Qi(Zi)=Q∗i(Zi)=1Cexp⟨lnP(Zi,Z−i,D)⟩Q−i(Z−i) Qi(Zi)=Qi∗(Zi)=1Cexp⁡⟨ln⁡P(Zi,Z−i,D)⟩Q−i(Z−i) C为归一化常数C=∫exp⟨ln(Zi,Z−i,D)⟩Q−i(Z−i)dZ−iC=∫exp⁡⟨ln⁡(Zi,Z−i,D)⟩Q−i(Z−i)dZ−i , Q(Zi)Q(Zi)为联合概率函数在除ZiZi本身外的其他划分下的对数期望。又可以写为 lnQi(Zi)=⟨lnP(Zi,Z−i,D)⟩Q−i(Z−i)+constln⁡Qi(Zi)=⟨ln⁡P(Zi,Z−i,D)⟩Q−i(Z−i)+const. 参考文献 [1] Smídl, Václav, and Anthony Quinn. The variational Bayes method in signal processing. Springer, 2006. [2] Beal, Matthew James. Variational algorithms for approximate Bayesian inference. Diss. University of London, 2003. [3] Fox, Charles W., and Stephen J. Roberts. “A tutorial on variational Bayesian inference.” Artificial Intelligence Review 38.2 (2012): 85-95. [4] Attias, Hagai. “Inferring parameters and structure of latent variable models by variational Bayes.” Proceedings of the Fifteenth conference on Uncertainty in artificial intelligence. Morgan Kaufmann Publishers Inc., 1999. [5] Attias, Hagai. “A variational Bayesian framework for graphical models.”Advances in neural information processing systems 12.1-2 (2000): 209-215. ...
Read More

张涛周报20171125

本周工作: 1. FPGA丢包测试。 由苗耀佳测试已经一周,仍然无果,目前在北京继续测试。目前为止,得到的教训就是:出来混早晚要还。如果早期进行测试,至少不会这么狼狈。 2. 帕金森流程整理 和张文清一起将大体流程梳理完毕,下一步开始写专利交底和进一步的论文书写。在此过程中发现很多基础知识欠缺,书到用时方恨少啊。 3. 论文阅读 终于有时间读deepmind的概念化论文了。大体思想部分读明白了,但实现过程没读懂。需要进一步查参考文献再读。 ...
Read More

张涛周报20171119

本周工作主要有两个: 1. FPGA项目调试。 本周调试可以分为两个阶段:本地调试和进场调试。 本地调试部分,暴露了一些沟通不足和检查不到位的情况。比如:在前几周因为RAM读时钟和读数据的时序问题反复讨论了不下两天,最终被解释为RAM的读并非时序过程才得以通过。本周,该问题再次来临。发现最原始的版本中对时序的理解是正确的。问题的根源不在于RAM,而在于整合的过程中时钟使用错误。本来应该接入150MHz时钟的地方只接入了50MHz,且双方并非同一时钟。其根源在于我对整体检查的疏忽。希望接下来的时间能够仔细检查一下。 暴露的第二个问题是对fifo间写入逻辑的理解。这个在于我没有交待清楚,出现了写慢读快的问题。交待之后应该可以顺利解决。 总之,为了避免下次再出现类似情况,应建立内部报告机制。在项目的重要节点处应该由执行者进行报告,可以一定程度上避免此类问题的再次发生。 进场调试部分也同样暴露了一些问题,其中最主要的仍然是沟通不到位。我大意的认为将硬件测试交由硬件组负责就可以了,但事实证明墨菲定律永远是正确的。由于事先沟通不足,导致需要当场写测试代码,最后测试的结果并不理想。责任在我,下一轮进场测试前必须进行内部测试,以确保问题在内部得以发现和解决。 2. 帕金森过程优化 本周和张文清一起对帕金森的流程进行了优化,将整个cnn过程用一个公式进行了简写,初步达到了预期形式。下一步将对语谱图部分进行分析,并进一步分析结果。我觉得肯定可以用一个更为简单的形式对整个诊断过程进行表达。用张文修先生的话说:过程应该是美的。 其他:为《计算机科学》审稿一篇,稿件内容过于陈旧,直接枪毙了。 ...
Read More

张涛周报20171113

本周主要任务有两个: 1. FPGA项目 本周FPGA项目仍在继续调试,经过苗耀嘉的调试,正向代码已通。 与54所沟通第一次测试时间和人员。本次测试为硬件测试,为软件联调争取了一些时间。 2. 帕金森语音流程 重新整理了帕金森语音分析流程,为后续专利与论文做了一些铺垫。 ...
Read More

张涛周报20171106

本周主要工作仍然是对FPGA进行调试,主要进展如下: 1. 在刘川的努力下,正向标签转换部分调试完成。该部分遇到的主要障碍为两个: 第一,关于ram读数据时的地址、数据与时钟三者的关系。在仿真中,数据要落后于地址一个时钟周期,因此若要读到地址为n的数据,需要等到n+1时钟才可以。而在实际中,发现要读到地址为n的数据,只需要n时钟即可。 显然,从时序电路的角度,仿真是对的。可实践又是检验真理唯一标准,因此出现了矛盾。这个矛盾在上一个项目也出现过,但是没有多想。为了避免再次出现该问题,和李林老师进行了探讨。最终的结论是:ram有时钟控制,看似是时序电路。但从地址与数据的关系上讲,ram是一个逻辑电路。所以不需要等到下一个周期就可以得到输出。仿真之所以与实际不同,是因为仿真也是把ram当成了时序电路处理的。 这个说法从使用角度看应该是对的。但我觉得仍然是程序的逻辑有问题。如果ram的仿真和实践真的那那么多,为什么网上没有人讨论这个问题?待过后稍稍放松一点,专门测试一下。 第二,关于使能被优化的问题。该问题其实不是问题,被优化的原因是和状态机重复,因此系统出于节省资源的角度,优化掉了一个信号,keep true之后自然就没问题了。这个后续要做的是:去掉keep true,看电路是否还能正常工作。如果还可以的话,今后就没必要对此进行纠结了。 2.在王明贤的努力下,控制通道模型初步建立,希望今天可以上板测试。 其它工作: 1. 投稿:生物医学工程学报投稿完成。 2. 刘梦奇论文看了一下框架,问题不大。交给刘梦奇继续完善。 3. 张文清论文感觉仍然不像是论文,需继续调整。 4. 拓扑坍缩论文由李和合进行了校对稿,已经寄回编辑部,估计离出版不远了。 ...
Read More

张涛周报20171030

本周主要工作: 1. 54项目调试,分为两个阶段: 1)局部仿真。本周前半段主要时间消耗在后仿的调试,问题的表现是输出出现了不定态。后期通过向白星请教学会了如何在后仿情况下查看端口输出,定位了问题所在。并于周四由刘川和王明贤调通了后仿。 2)整体联调。整体联调进度比想象的要慢,问题多方面,有些暂时不方便写出,待项目完成后总结。 2. 论文写作:帕金森的中文论文基本完成,进入投稿程序。本周内由蒋培培完成后续工作。 3. 会议:参加了人民医院与燕山大学的科研对接会,整体感觉一般,但激发了几个专利的想法,有兴趣的同学可以申请专利了。 ...
Read More

张涛周报20171015

本周工作重点开始临时发生转移,具体事务如下: 1. 审稿。为pattern recognition 和 计算机科学审稿两篇。 2. 受李金海邀请准备昆明会议的报告。周一开始构思,最终确定题目:属性拓扑与概念认知。计划从概念认知与概念格的区别角度入手进行分析。其重点在于:人类认识事物都是一个渐进式过程,或者是一个反复自我否定的过程。用马克思的话说就是:否定之否定。那么,如果每个人接触事物的顺序不同,必然会带来渐进式的过程或结果的不同。所以,面对相同的世界,每个人的世界观才会千差万别。 概念认知,应该承认这种渐进式带来的差异性。 承认这种差异性的好处在哪里?在于异质性。 就人类个体来说,成长于同一家庭的双胞胎其小时候的各种差别并不明显。而成长于不同家庭的双胞胎则会表现出差异。这充分说明接触事物对个体认知的影响。扩而广之,我们每个人面对的都是同一个世界,为什么大家对世界的看法不同?同一片天空,有人看到的是蓝色,有人则看到的是灰色。从客观角度来看,与各自接触世界的顺序和后天的引导关系密切。 对世界接触顺序不同,会带来不同的观念。这个直观的解释便是增量式概念树。在此可以提出一个新的“粒结构”——观念。不同的概念树结构会带来不同的概念组合,而不同的概念组合可能形成不同的“语义”,也就是会形成不同的“观念”。当然,具体该怎么描述还要下一步再分析。 至于后天的引导,则完全可以从“观念”出发,去修改概念树。注意,此处用了修改,而不是修剪。修剪仅在于减少,而修改可以增加。当一个人的概念形成后,可以通过后期的修改,改变其概念连接方式,或者说,改变其“粒结构”,从而对其“观念”进行改变。 这种“观念”的改变将比计算概念更有意义,因为其对应的将直接是人工智能中的伦理问题。现在科学家们都在讨论人工智能学会自我学习后会失控,而失控的原因在于其“叛逆期”的不可控性。回想人类,每个叛逆期的少年都是一个潜在的罪犯,我们无非是通过限制(给出足够多的约束条件)或引导(改变其观念)的方式将其引向社会学中的正途,从而让尽可能多的少年成功渡过叛逆期。如果我们可以将“观念”的观点植入计算机,是不是就可以改变人工智能的“叛逆”?如果是这样,与人类的教育学对应,是不是可以开发AI的教育学? 好了,脑洞开的有点大,拉回来。不同的概念树会对应不同的观念,而不同的观念则对应于对同一新事物所表现出的异质性,而异质性则是世界丰富多彩的本源(突然想起了beyond的《光辉岁月》)。从小的方面看,分类器组合不是也要求各子分类器越异质越好吗? 而所有的这一切的基础,属性拓扑已经给出了答案。随时间变化的记忆模型,随记忆而变化的增量式概念树,都已经具备了雏形(论文还需要快速跟进)。如果再解决了概念之间的“观念”问题,就会进入一个新的领域。 PS:从结构上看,如果将每个卷积核看做是概念,CNN与以上论断具有相似性。可惜现在人手不够,否则将有力推动整个课题组的研究广度与深度。 以上是一个大概的报告构思,用了三天时间,从周一到周四。但目前看昆明之行可能无法成行,先将想法记录于此吧。 3. 论文写作。中文论文初稿完成,交给蒋培培做格式调整工作。已经于今天发回给我,还未细看。计划下周调整之后投出。 4. FPGA:自从7月底完成自己的既定任务后一直处于停摆状态。为了整体进度再次将仿真任务拿下,同时调整人员分配,将刘川与王明贤放回自己手下工作。希望二位能快速成长,助我一臂之力。本周将标签转换部分写好了顶层代码,下周开始写激励,然后即将进入漫长的debug阶段。正是这个原因,使得昆明会议难以成行。 究其原因,这次FPGA项目进展十分迟缓,具体原因不想多分析。任务不明确是具体原因。希望这次明确下来后尽快结束战斗吧,这种持久战打得毫无意义。 ...
Read More