CN101398933B - 一种从图像中恢复三维几何信息的方法 - Google Patents

一种从图像中恢复三维几何信息的方法 Download PDF

Info

Publication number
CN101398933B
CN101398933B CN2008102243464A CN200810224346A CN101398933B CN 101398933 B CN101398933 B CN 101398933B CN 2008102243464 A CN2008102243464 A CN 2008102243464A CN 200810224346 A CN200810224346 A CN 200810224346A CN 101398933 B CN101398933 B CN 101398933B
Authority
CN
China
Prior art keywords
image
pixel
image block
layer
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008102243464A
Other languages
English (en)
Other versions
CN101398933A (zh
Inventor
马祥音
李仁举
查红彬
英向华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN2008102243464A priority Critical patent/CN101398933B/zh
Publication of CN101398933A publication Critical patent/CN101398933A/zh
Application granted granted Critical
Publication of CN101398933B publication Critical patent/CN101398933B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及一种从图像中恢复三维几何信息的方法。所述方法包括:获取大量场景图像及其对应的深度图作为训练库;划分所述图像为图像块,利用统计学习方法描述其对应于不同深度的概率并得到不同的参数值;对用于场景重建的图像对建立包含图像块层、像素层以及连接像素和对应图像块的边的图结构;利用统计学习所获的参数定义上述图结构的能量项;将所述能量项作为约束加入到传统立体匹配的描述像素和像素之间视差关系的图中;求解出两幅图像之间的视差图。

Description

一种从图像中恢复三维几何信息的方法
技术领域
本发明涉及计算机视觉领域,具体涉及一种从图像中恢复三维几何信息的方法。
背景技术
立体匹配一直是计算机视觉和摄影测量学中的重要问题。两幅图像在很接近的视角上分别记录了真实世界的场景,双目线索就是指物体投影在两个成像平面的不同位置,位置的差异随着物体深度的变化而相应变化。在过去的数十年里,大量的立体视觉系统被提出,使得该领域的研究出现了长足的进步。但是,由于问题本身的病态性,依旧没能得到完全的解决。
在现有的立体匹配方法中,基于图的方法是当中最流行的技术。它能得到和观察数据吻合的平滑视差图。比较典型的做法是利用图割法(graph cuts)来优化由数据项和平滑项构成的能量函数,其中数据项用来度量两幅图像对应像素之间的颜色一致性,平滑项则是为了保证视差图整体的平滑,在相邻的像素点被赋予不一样的视差时给予适当的惩罚。当然,为了能够处理遮挡问题,可以在颜色一致性约束和平滑约束之外,加入匹配的唯一性约束。另外,也有工作利用主图像上的颜色分块,将能量函数同时定义在像素层和颜色块层上。这样,像素层可以很好地度量颜色一致性以及进行遮挡检测,颜色块层上则可以更为合理地定义平滑约束。
另一方面,单幅图像中丰富的纹理、色彩、焦距和雾化等信息也可以提供重要的深度推断线索。有了足够丰富的先验知识,从单幅图像中获取场景的整体三维结构是可以实现的,但这是一个很难的问题。很多的单目线索不仅依赖于先验知识,还依赖于整体的上下文信息,因此不仅难以用启发式的约束,也很难从图像的局部出发来进行推测。要让机器视觉的能力接近这个目标,我们需要大量的训练数据,以及一个恰当的概率模型来描述。相对于立体视觉,该领域的研究工作要少得多。不过随着机器学习理论的发展,已经有很好的工作相继出现。比如斯坦福大学Saxena等人的使用监督学习方法利用多尺度的马尔科夫随机场(MRF)模型建立图像特征与深度信息之间、相邻位置以及不同尺度下深度值之间的关系的方法,还有卡耐基梅隆大学Hoiem等人的方法,利用图像所能提供的诸多有用线索:材质、位置、纹理梯度,阴影,消失点等来逐步地构建该图像的结构知识:从像素到超像素再到超像素簇,最后得到每个超像素的几何分类标记。
双目线索是基于物体投影在两幅图像中的位置差异,是场景几何的直接反应而与图像本身的具体内容无关。单目线索则相反,依赖于先验知识以及图像本身局部和整体的内容和结构。可以说这两种线索对于几何信息推断有着良好的互补性。
发明内容
本发明的目的是提供一种从图像当中恢复三维几何信息的方法,通过将主图像中的单目线索加入到传统的立体视觉系统中来提供额外的深度推断约束,将基于机器学习从单幅图像推测三维信息的方法和基于两幅图像的立体匹配方法整合到同一框架中,达到恢复三维几何信息的目的。
为了达到以上发明目的,本发明提供了一种从图像中恢复三维几何信息的方法,所述方法包括以下步骤:
S1:获取大量场景图像及其对应的深度图作为训练库;
S2:划分所述图像为图像块,利用统计学习方法以下式描述其对应于不同深度的概率并得到不同的参数值:
P L ( z | X ; θ , λ ) = 1 N L exp ( - Σ i = 1 M | z i - x i T θ r | λ 1 r - Σ i = 1 M Σ j ∈ N ( i ) | z i - z j | λ 2 r )
其中,Ni是图像块i的四连通邻域,M是深度图中深度值的总数目,xi是图像块i的特征向量,包括图像块及其邻域在三个不同尺度上滤波器返回值的绝对值和以及平方和,NL是归一化常数,θ、λ为参数,θr,λ1r,λ2r为图像第r行的参数;
S3:对用于场景重建的图像对建立包含图像块层、像素层以及连接像素和对应图像块的边的图结构;
S4:利用S2中统计学习获得的参数定义上述图结构的能量项;
S5:将所述能量项作为约束加入到传统立体匹配的描述像素和像素之间视差关系的图中;
S6:求解出两幅图像之间的视差图。
其中,所述步骤S1包括:
S1-1:获取场景的三维点云以及对应的彩色图片;
S1-2:转化所述三维点云为深度图;
S1-3:采集若干组彩色图片及深度图。
其中,所述步骤S4包括:定义图结构中图像块层的能量项、定义图结构中像素层的能量项、定义连接图像块层与像素层的边的不一致项以及定义全局的能量项。
其中,利用下式定义图像块层的能量项
E patch = Σ i = 1 M 1 | B · f / d - x i T θ r | λ 1 r + Σ i = 1 M 1 Σ j ∈ N 1 ( i ) | B · f / d i - B · f / d j | λ 2 r
其中,θr,λ1r,λ2r为S1中得到的参数,B为基线长度,f为焦距,di是图像块i的视差值,M1是左图像中图像块的总数目,N1(i)是图像块i的四邻域。
其中,利用下式定义像素层的能量项,给出两幅图像间对应像素点的颜色不一致性以及在相邻像素点在被赋予不一样的视差值时所给予的惩罚:
E pixel = Σ P = 1 M 2 dissimilarity ( d p ) + Σ p = 1 M 2 Σ q ∈ N 2 ( P ) γ 1 · | d p - d q |
其中,M2是左图像中像素的总数目,N2(p)是像素p的四邻域,dp和dq分别为像素p和q的视差,γ1为非负常数;
其中,利用下式定义所述连接像素和对应图像块的边上的不一致项,使得视差标记在图像块层与像素层之间传播,所述不一致项定义为:
E mismatch = Σ p = 1 M 2 Σ ( p , i ) γ 2 | d p - d i |
其中,Epixel为像素层的能量项,M2是左图像中像素的总数目,N2(p)是像素p的四邻域,dp和dq分别为像素p和q的视差,γ1为非负常数。
其中,利用下式定义全局的能量函数
Etotal=ω1·Epatch2Epixel+Emismatch
其中,Etotal为全局能量项,Epatch为图像块层的能量项,Epixel为像素层的能量项,Emismatch为不一致项,ω1以及ω2分别为两个权值。
利用本发明所提供的技术方案,可以有效约束立体图像对的匹配,大量减少匹配过程中的二义性错误,比如弱纹理区域的匹配误差,克服了由于成像过程中的大量信息丢失,所造成的基于单幅图像的重建结果准确度严重偏低,只能给出场景的粗略描述的缺陷。
附图说明
图1为本发明从图像中恢复三维几何信息的方法的流程图。
图2为本发明中将单目线索和立体线索统一到一起的图的结构。
图中:1、图像块层;2、像素层;3、连接两层的边。
具体实施方式
以下实施例用于说明本发明,但不用来限制本发明的范围。
本发明的技术方案简单描述为:首先,获取训练数据。用激光扫描仪以及标定好的相机来同时获取场景的图片及其对应深度图;然后对训练库中的每一幅图像抽取特征,用联合拉普拉斯马尔科夫随机场模型来描述图像特征对应于不同深度的概率以及相邻位置深度值之间的关系,模型参数通过对训练库的学习来获得。接着建立一个双层的图结构来结合高分辨率的双目线索和低分辨率的单目线索;利用上一步训练得到的参数来定义图像块层的能量项,并把它作为约束加入到传统的立体匹配描述像素和像素之间视差关系的图当中;最后用graph-cuts优化求解出两幅图像之间的视差图。
如图1所示,本发明所提供的从图像中恢复三维几何信息的方法包括:获取大量场景图像及其对应的深度图作为训练库;划分所述图像为图像块,利用统计学习方法描述其对应于不同深度的概率并得到不同的参数值;对用于场景重建的图像对建立包含图像块层、像素层以及连接像素和对应图像块的边的图结构;利用统计学习所获的参数定义上述图结构的能量项;将所述能量项作为约束加入到传统立体匹配的描述像素和像素之间视差关系的图中;求解出两幅图像之间的视差图。
该实施例采用室外的建筑物场景,这些图片中的弱纹理区域给立体匹配带来了很大的挑战。在激光扫描仪RIEGL LMS-210顶上固定安置了事先标定好的相机,用来同时获取高精度三维点云以及对应的彩色照片。之后,点云被转化为相对于照相机坐标的深度图。本实施例共采集了150组彩色图像+深度图,其分辨率分别为1504×1000和150×100。
在实际的环境中,相邻区域的深度在很大程度上相互联系。马尔科夫随机场作为机器学习中的常用模型,在很多需要同时用到局部特征以及上下文或全局信息的问题上得到成功的应用。这里,将图像划分为棋盘格式的图像块,给定图像块特征,其对应于不同深度的概率用联合拉普拉斯马尔科夫随机场模型来描述,模型公式如下:
P L ( z | X ; θ , λ ) = 1 N L exp ( - Σ i = 1 M | z i - x i T θ r | λ 1 r - Σ i = 1 M Σ j ∈ N ( i ) | z i - z j | λ 2 r )
其中N(i)是图像块i的四连通近邻,M是深度图中深度值的总数目,Xi是图像块i的特征向量,包括图像块及其邻域在三个不同尺度上17个滤波器(9个Law掩模、6个方向边缘滤波器和2个颜色滤波器)返回值的绝对值和以及平方和。NL是归一化常数,θ、λ就是该模型的参数,图像的每一行用一组不同的参数(θr,λ1r,λ2r)。在参数训练过程中,扫描仪获取的深度图即用作为模型中z的真值。
图2中给出了本发明中用于将单目线索和立体线索统一到一起的图的结构。我们可以看到,该图由三部分组成:图像块层、像素层以及将像素连接到对应图像块的边。为了清楚起见,图中连接两层的边只是示意性地给出了其中一部分。每一组成部分能量函数的基本构成以及视差值的标记会在下面分别详细给出。
图像块层。在这一层中,视差值被描述为图像特征的函数。我们选用了三种局部图像特征,纹理变化、纹理梯度和雾化值。首先,立体图像对中的主图像被分割成均一的矩形区域,并用17个滤波器在三个图像尺度上进行滤波,得到每一小块的特征向量。然后,每个图像块作为图结点,采用4连通的栅格邻域结构连接起来。利用上一步中训练得到的马尔科夫随机场模型参数,我们可以对应于模型公式中的两个组成部分来定义数据项和平滑项。但有一点需要注意,统计学习得到的概率模型推断的是深度而在这一阶段中我们需要得到的是视差图。幸运的是,对于极线校正之后的图像对,在已知图象间基线长度B以及焦距f的情况下,深度z可以很容易地由视差d导出:
z = B · f d
因此,数据项EDpatch和平滑项ESpatch定义如下:
ED patch = Σ i = 1 M 1 | B · f / d i - x i T θ r | λ 1 r
ES patch = Σ i = 1 M 1 Σ j ∈ N 1 ( i ) | B · f / d i - B · f / d j | λ 2 r
其中(θr,λ1r,λ2r)就是上一步训练得到的马尔科夫随机场模型的参数,di是图像块i的视差值,M1是左图像中图像块的总数目,N1(i)是图像块i的四邻域。这样,根据统计学习得到的先验知识,图像块层的能量函数给出了各个视差值标记对应于当前图像特征的合理度量。
像素层。这一层中的图结构以左图像中每个像素为结点,同样是4连通的栅格邻域结构。类似于图像块层,能量函数也同样由数据项EDpixel和平滑项ESpixel组成。在当前的标记下,它们分别给出了两幅图像间对应象素点的颜色不一致性度量以及在相邻象素点被赋予不一样的视差值时给予恰当的惩罚。
ED pixel = Σ p = 1 M 2 dissimilarity ( d p )
ES pixel = Σ p = 1 M 2 Σ q ∈ N 2 ( p ) γ 1 · | d p - d q |
其中M2是左图像中象素的总数目,N2(p)是象素p的四邻域,γ1是一个非负常数,其值大小直接影响平滑约束的力度。此外,还需要注意一个额外的标记,可以记为0,表示遮挡及无限远的深度(如天空区域)。当一个象素被赋予这个特殊标记值时,我们给予的是固定的惩罚。
连接像素和对应图像块的边。在图像块层和像素层之间插入边来连接像素和它对应的图像块,这样通过在这些边上定义一个不一致项就能将视差标记从图像块层传播到像素层,反之亦然。这样能保证在图像块和它包含的像素被赋予同样或相近的视差视时能量函数值较小。这样单目线索的推断就提供了新的约束来引导立体匹配。我们将此不一致项Emismatch定义为:
E mismatch = Σ p = 1 M 2 Σ ( p , i ) γ 2 | d p - d i |
这里惩罚系数γ2是一个非负常数。考虑到效率,不必要将所有的像素点连接到图像块。在实验中,在行和列方向均以3为步长来连接像素点。
视差标记。到现在为止,我们已经为图中的三个组成部分都分别定义了能量函数。为了达到视差标记的整体能量最小,用各个部分的加权和作为全局的能量函数:
Etotal=ω1·(EDpixel+ESpixel)+ω2·(EDpatch+ESpatch)+Emismatch`
前两项分别作用在像素层和图像块层上,最后一项作用在连接前两部分的边上。这里,ω1、ω2为两个权值,用来平衡三部分能量的作用。
要找出该能量函数的全局最优解,请参见Y.Boykov,O.Veksler,R.Zabih.“Fast approximate energy minimization via graph cuts”.IEEETrans.on Pattern Analysis and Machine Intelligence(PAMI),Vol23,No.11,pp.1222-1239,2001.中提出了的基于graph cuts的优化策略,该策略可以有效解决计算机视觉中的标记问题。
这样,就求得了最终的视差图。可以看到,依照该方法,可以将单目线索和双目线索统一到同一个框架下,同时对最终的视差图求解起到约束作用。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由其权利要求限定。

Claims (6)

1.一种从图像中恢复三维几何信息的方法,其特征在于,所述方法包括以下步骤:
S1:获取场景图像及其对应的深度图作为训练库;
S2:划分所述场景图像为图像块,利用统计学习方法以下式描述其对应于不同深度的概率并得到不同的参数值:
P L ( z | X ; θ , λ ) = 1 N L exp ( - Σ i = 1 M | z i - x i T θ r | λ 1 r - Σ i = 1 M Σ j ∈ N ( i ) | z i - z j | λ 2 r )
其中,N(i)是图像块i的四连通邻域,M是深度图中深度值的总数目,xi是图像块i的特征向量,包括图像块及其邻域在三个不同尺度上滤波器返回值的绝对值和以及平方和,NL是归一化常数,θ、λ为参数,θr,λ1r,λ2r为图像第r行的参数,Zi和Zj分别为对应于图像块i和j的深度值;
S3:对用于场景重建的图像对,建立包含图像块层、像素层以及连接像素层和对应图像块层的边的图结构;
S4:利用步骤S2中统计学习获得的参数定义上述图结构的能量项;
S5:将所述能量项作为约束加入到传统立体匹配的描述像素和像素之间视差关系的图中;
S6:求解出两幅图像之间的视差图;
其中,所述步骤S4包括以下步骤:
S4-1:定义图结构中图像块层的能量项;
S4-2:定义图结构中像素层的能量项;
S4-3:定义连接图像块层与像素层的边的不一致项以及定义全局的能量项。
2.如权利要求1所述的从图像中恢复三维几何信息的方法,其特征在于,所述步骤S1包括以下步骤:
S1-1:获取场景的三维点云以及对应的彩色图片;
S1-2:转化所述三维点云为深度图;
S1-3:采集若干组彩色图片及深度图。
3.如权利要求2所述的从图像中恢复三维几何信息的方法,其特征在于,利用下式定义图像块层的能量项:
E patch = Σ i = 1 M 1 | B · f / d i - x i T θ r | λ 1 r + Σ i = 1 M 1 Σ j ∈ N 1 ( i ) | B · f / d i - B · f / d j | λ 2 r
其中,θr,λ1r,λ2r为步骤S1中得到的参数,B为基线长度,f为焦距,di是图像块i的视差值,M1是左图像中图像块的总数目,N1(i)是图像块i的四邻域。
4.如权利要求2所述的从图像中恢复三维几何信息的方法,其特征在于,利用下式定义像素层的能量项,给出两幅图像间对应像素点的颜色不一致性以及在相邻像素点在被赋予不一样的视差值时所给予的惩罚:
E pixel = Σ P = 1 M 2 dissimilarity ( d p ) + Σ p = 1 M 2 Σ q ∈ N 2 ( P ) γ 1 · | d p - d q |
其中,Epixel为像素层的能量项,M2是左图像中像素的总数目,N2(p)是像素p的四邻域,dp和dq分别为像素p和q的视差,γ1为非负常数。
5.如权利要求2所述的从图像中恢复三维几何信息的方法,其特征在于,利用下式定义所述连接像素层和对应图像块层的边上的不一致项,使得视差标记在图像块层与像素层之间传播,所述不一致项定义为:
E mismatch = Σ p = 1 M 2 Σ ( p , i ) γ 2 | d p - d i |
其中,Emismatch为不一致项,M2是左图像中像素的总数目,dp和di分别为像素p和i的视差,γ2为非负常数。
6.如权利要求2所述的从图像中恢复三维几何信息的方法,其特征在于,所述步骤S4还包括利用下式定义全局的能量函数:
Etotal=ω1·Epatch2Epixel+Emismatch
其中,Etotal为全局能量项,Epatch为图像块层的能量项,Epixel为像素层的能量项,Emismatch为不一致项,ω1以及ω2分别为两个权值。
CN2008102243464A 2008-10-17 2008-10-17 一种从图像中恢复三维几何信息的方法 Expired - Fee Related CN101398933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008102243464A CN101398933B (zh) 2008-10-17 2008-10-17 一种从图像中恢复三维几何信息的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008102243464A CN101398933B (zh) 2008-10-17 2008-10-17 一种从图像中恢复三维几何信息的方法

Publications (2)

Publication Number Publication Date
CN101398933A CN101398933A (zh) 2009-04-01
CN101398933B true CN101398933B (zh) 2010-09-15

Family

ID=40517465

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008102243464A Expired - Fee Related CN101398933B (zh) 2008-10-17 2008-10-17 一种从图像中恢复三维几何信息的方法

Country Status (1)

Country Link
CN (1) CN101398933B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4966431B2 (ja) 2009-09-18 2012-07-04 株式会社東芝 画像処理装置
CN101840575B (zh) * 2010-04-30 2012-01-11 长春理工大学 一种将De Bruijn彩色结构光图像转化为赋权有向图模型和赋权有向图模型简化方法
CN101945299B (zh) * 2010-07-09 2013-10-09 清华大学 一种基于拍摄设备阵列的动态场景深度恢复方法
CN102387374B (zh) * 2010-08-30 2015-07-29 三星电子株式会社 用于获得高精度深度图的设备和方法
WO2013054240A1 (en) * 2011-10-10 2013-04-18 Koninklijke Philips Electronics N.V. Depth map processing
US9519061B2 (en) 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device
CN106056622B (zh) * 2016-08-17 2018-11-06 大连理工大学 一种基于Kinect相机的多视点深度视频复原方法
CN107886542B (zh) * 2017-12-10 2019-04-16 上海交通大学 一种视觉检测的目标恢复方法和系统
CN108596965B (zh) * 2018-03-16 2021-06-04 天津大学 一种光场图像深度估计方法
CN109859114B (zh) * 2018-12-27 2020-10-16 北京大学 基于局域平滑性和非局域相似性的三维点云修复方法
CN110211169B (zh) * 2019-06-06 2021-05-11 上海黑塞智能科技有限公司 基于多尺度超像素和相位相关的窄基线视差的重构方法

Also Published As

Publication number Publication date
CN101398933A (zh) 2009-04-01

Similar Documents

Publication Publication Date Title
CN101398933B (zh) 一种从图像中恢复三维几何信息的方法
CN107025685B (zh) 拓扑感知下的机载建筑屋顶点云建模方法
CN106826833A (zh) 基于3d立体感知技术的自主导航机器人系统
CN101383054B (zh) 一种基于图像与扫描数据的混合三维重建方法
CN110458957A (zh) 一种基于神经网络的图像三维模型构建方法及装置
CN103473806B (zh) 一种基于单幅图像的服装三维模型构建方法
CN100543775C (zh) 基于多目相机的三维人体运动跟踪的方法
CN108415032A (zh) 一种基于深度学习与激光雷达的点云语义地图构建方法
CN110443842A (zh) 基于视角融合的深度图预测方法
CN101777189A (zh) LiDAR三维立体环境下测图和质量检查方法
CN108038902A (zh) 一种面向深度相机的高精度三维重建方法和系统
CN109146937A (zh) 一种基于深度学习的电力巡检影像密集匹配方法
CN106600583A (zh) 基于端到端神经网络的视差图获取方法
CN110084304A (zh) 一种基于合成数据集的目标检测方法
CN104123747A (zh) 多方式触控三维建模方法和系统
CN104155765A (zh) 在拼接式集成成像显示器中校正三维图像的方法和设备
CN103279983A (zh) 中国唐朝风格古建筑的建模方法
CN108053437A (zh) 基于体态的三维模型获取方法及装置
CN105205453A (zh) 基于深度自编码器的人眼检测和定位方法
CN106485207A (zh) 一种基于双目视觉图像的指尖检测方法及系统
CN107330973A (zh) 一种基于多视角监督的单视角重建方法
CN103606188A (zh) 基于影像点云的地理信息按需采集方法
CN107909150A (zh) 基于逐块随机梯度下降法在线训练cnn的方法与系统
CN106409129A (zh) 路况绘制方法及装置
CN108375985A (zh) 一种土地三维规划设计平台及其设计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100915

Termination date: 20131017