CN100346356C - 信息处理装置及方法、以及导航装置 - Google Patents

信息处理装置及方法、以及导航装置 Download PDF

Info

Publication number
CN100346356C
CN100346356C CNB2005101146552A CN200510114655A CN100346356C CN 100346356 C CN100346356 C CN 100346356C CN B2005101146552 A CNB2005101146552 A CN B2005101146552A CN 200510114655 A CN200510114655 A CN 200510114655A CN 100346356 C CN100346356 C CN 100346356C
Authority
CN
China
Prior art keywords
aforementioned
summit
degree
depth
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2005101146552A
Other languages
English (en)
Other versions
CN1766932A (zh
Inventor
浦野泉
香田夏雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1766932A publication Critical patent/CN1766932A/zh
Application granted granted Critical
Publication of CN100346356C publication Critical patent/CN100346356C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Generation (AREA)

Abstract

信息处理装置及方法、程序以及导航装置,其能够提供一种对用户而言更易看的三维图像。三维对象输入部(111)读入三维对象(131);多边形检测部(121)从输入的场景图中检测多边形;顶点检测部(122)对在多边形检测部(121)中检测出的多边形的顶点进行检测;视线矢量位置关系检测部(123)求出在顶点检测部(122)中检测出的各顶点将视线矢量作为基准的相对位置,该视线矢量是表示立体空间中从视点到目标点的方向的矢量;顶点深度判定部(124)对各顶点离视点(151)的深度进行判定;顶点移动部(125)对顶点坐标进行校正,并移动顶点位置。本发明例如可应用于图像处理装置。

Description

信息处理装置及方法、以及导航装置
技术领域
本发明涉及一种信息处理装置及方法、程序以及导航装置,特别是,涉及例如可提供根据到视点位置的距离对视野角进行控制的三维图像的信息处理装置及方法、程序以及导航装置。
背景技术
以前,例如有将三维空间的立体投影到平面上等,将三维空间进行立体表现的二维立体图像(三维图像)。图1是表示使用立体三维空间中的坐标信息,生成这种三维图像的图像处理装置的结构例的图。
在图1中,图像处理装置1由三维对象输入部11及三维对象描绘部12构成。在图1中,长方形表示构成图像处理装置1的处理部,圆角长方形表示输入到这些处理部的数据或者从这些处理部输出的数据。
图像处理装置1是如下的图像处理装置,即作为输入,接受例如由顶点的坐标信息等构成的三维对象21,并根据该三维对象21,生成三维图像22,其中,三维对象21是表示三维空间中的立体(对象)的数据。
三维对象输入部11读入记述了立体构造的数据(三维对象21),将其记述内容变换为包含三维对象层的场景图,并将其提供给三维对象描绘部12。
三维对象描绘部12根据该场景图生成三维图像。三维对象描绘部12由多边形检测部13及多边形描绘部14构成。多边形检测部13从输入的场景图中检测多边形,并将其信息提供给多边形描绘部14。多边形描绘部14将提供的多边形的顶点投影到二维投影面上,并描绘三维图像22,将该三维图像22输出到图像处理装置1的外部。
根据这样的图像处理装置1的三维图像处理的具体处理流程如图2的流程图所示。即,在步骤S1中,三维对象输入部11读入由图像处理装置1的外部提供的三维对象21,将其变换为场景图,并将其提供给三维对象描绘部12的多边形检测部13。在步骤S2中,多边形检测部13执行用于从该场景图中检测多边形的多边形检测处理,并将其检测结果提供给多边形描绘部14。在步骤S3中,多边形描绘部14根据该检测结果,判定场景图中是否存在未处理的多边形。当判定为存在未处理的多边形时,多边形描绘部14使处理进入步骤S4,并根据场景图将该多边形描绘到二维投影面上。当步骤S4的处理结束时,多边形描绘部14使处理返回到步骤S2,对下一个多边形重复进行其后的处理。
即,三维对象描绘部12的多边形检测部13和多边形描绘部14重复进行步骤S2至步骤S4的处理,将包含在场景图中的所有多边形描绘到二维投影面上(描绘三维图像22)。并且,在步骤S3中,当判定为不存在未处理的多边形时,多边形描绘部14将描绘的三维图像22输出到图像处理装置1的外部,并结束三维图像处理。
有这样的方法,即利用描绘处理,生成从移动体当前位置看到的道路地图上的前方道路的三维图像,并使用该三维图像告知移动体当前位置(例如参照专利文献1)。图3的三维图像31是利用这样的方法生成的、例如所谓车辆导航系统等中利用的引导图像之一,是表现了汽车驾驶员视野的三维图像。该三维图像31是被描绘成近似于作为使用者的驾驶员实际看到的风景的图像,是用于可使驾驶员直观地(容易地)理解重叠在该图像上的道路引导图像的图像。
在这样的三维图像31中,为了表现远近感,物体与离视点的距离的增加成比例地被表现得小。即,在三维空间中,离视点的距离越远的物体描绘得越小,离视点越近的物体描绘得越大。
即,如图4A所示,当驾驶员(汽车)41以箭头方向在隔着端43A和端43B而排列成面对面的建筑物44-1至建筑物44-6之间的道路43上前进时,在三维图像31中,如图4B所示,存在于离驾驶员41远的位置上的物体表现得小,离驾驶员41越近表现得越大,因此,道路的端43A及43B的间隔也与离驾驶员41的距离成比例地变窄。另外,建筑物44-1至44-6,也与离驾驶员41的距离成比例地表现得小。
但是,在考虑了这样的透视画法的三维图像中,例如容易产生广角失真等失真(例如,参照专利文献2)。例如,当利用透视画法描绘了三维图像时,有图像周围部分(图像的端部分)被拉长(产生失真)的情况。为了抑制这样的失真,并正确进行根据透视画法的作图,图像处理装置1需要识别三维空间上的视点和物体的正确位置从而正确设定其位置关系,并在作图中利用该设定。例如,离视点近的对象物体的三维图像比离视点远的对象物体的三维图像更被强调远近感等、三维图像的深度感随视点和对象物体间的距离而变化,但是没有适当进行这样的设定时,在三维图像上的对象物体将失真。
专利文献1日本特公平6-90041号公报
专利文献2日本特开2000-122524号公报
发明内容
但是,当图像处理装置1正确设定视点和对象物的位置关系并进行三维图像化时,在生成的三维图像中,建筑物44-1至44-6的、相对于驾驶员41(视点)的角度,与到驾驶员41(视点)的距离无关,是固定的。
也就是说,例如,如图4B所示,在三维图像中,建筑物44-1朝向道路43(端43A)的面44-1-A、建筑物44-2朝向道路43(端43A)的面44-2-A、建筑物44-3朝向道路43(端43A)的面44-3-A、建筑物44-4朝向道路43(端43B)的面44-4-A、建筑物44-5朝向道路43(端43B)的面44-5-A、以及建筑物44-6朝向道路43(端43B)的面44-6-A各面中,面44-1-A至面44-3-A和面44-4-A至面44-6-A朝向互相不同,但是却被描绘成相对于驾驶员的角度、即相对于图4B下侧的角度互相相等。
在图4B的情况下,从图4B下侧的投影图是表示由驾驶员41(视点)看到的视野的三维图像。在该三维图像中,建筑物44-1至44-6的面44-1-A至面44-6-A,分别被描绘成范围44-1-B至范围44-6-B。也就是说,在该三维图像中,面44-1-A至面44-6-A的任何一个都是相对于图4B的下侧具有接近于90度的大角度的部分,因此,被投影的范围宽度随距离的变化相对较小。因此,在三维图像上,面44-1-A至面44-6-A各面,即使接近视点也表现为难以看到(描绘范围窄)。
与此相对,在实际视野的情况下,由于驾驶员41可以移动视线来对准近的建筑物(可朝向建筑物的方向),因此,对于近距离的物体,驾驶员41可得到比图4B的情况更多的信息。例如,在远位置(例如,建筑物44-1和建筑物44-4的位置)中,即使从驾驶员41的位置几乎看不见面44-1-A和面44-4-A,但靠近近的位置(例如,建筑物44-3至建筑物44-6的位置)时,驾驶员41可通过将视线移动到这些方向上,更详细地观察这些面(面44-1-A及44-4-A)。也就是说,驾驶员41可通过移动视线方向,使对物体的观察程度随离视点的距离而变化。
这样,通过必要地移动视点,驾驶员41可从近距离的物体得到更多的信息。也就是说,通常,在实际世界中,对于成为视点的驾驶员41,距离越近的位置的信息越重要,越远其重要度越低。
但是,如上所述,因为不产生失真地描绘三维图像31,所以有如下的问题,即图像处理装置1不能根据这样的重要度进行表现。也就是说,图像处理装置1有不能够根据离视点位置的距离而生成控制其视野角的三维图像的问题。
例如,如图4B所示,驾驶员41的视线方向被固定,因此,在普通监视器那样的比人的视野窄的画面中显示这样的三维图像31时,可能驾驶员41不能够得到实际视野那么多的近的物体信息。
另外,作为使用者的驾驶员41,在三维图像31中,不能如实际视野那样,对近距离的物体扩大视野(移动视线),因此,可能感觉表现在三维图像31上的视野窄。
并且,如上所述,在车辆导航系统的引导图像中利用了该三维图像31时,可能由于同样的理由,感觉作为使用者的驾驶员41实际看到的视野与三维图像31的视野范围不同,驾驶员41不能直观地将三维图像31与现实风景对应,不能容易地理解引导图像的内容。
另外,为了补偿这样的视野狭窄,有如下的方法,即应用如同使用了广角透镜时的效果,将广角度的视野图像压缩成通常视野进行表现。在使用这样的方法生成的广角图像中,虽然所有宽广的视野角信息被表现,但是图像也因此而失真。由此,对于广角图像,作为使用者的驾驶员41可能不能够容易地掌握该图像的内容。当用于车辆导航系统的引导图像(小画面)时,这个问题变得显著,驾驶员41不能够直观地将该广角图像与现实风景进行对应,可能会不能够容易地理解引导图像的内容。
如上所述,到此为止,在三维对象的描绘中,与深度无关而通过透视画法以固定的视野角进行描绘,因此,有如下的问题,即难以根据离视点的距离任意地对对象进行变形。另外,在像广角图像那样对对象进行变形时,图像将失真,其识别性将下降。
本发明是鉴于这样的状况而完成的,例如,通过不降低图像的识别性而使对象进行变形,并根据对象的位置关系等使所表现的信息量产生偏差,生成根据离视点位置的距离控制了其视野角的三维图像,从而提供对使用者来说更易看的三维图像。
本发明的信息处理装置,生成将三维空间投影到平面上的三维图像,具备:深度判定单元,对多边形的顶点离前述三维空间中的视点的深度进行判定,其中,该多边形构成用于生成前述三维图像的立体的表面;顶点移动单元,根据由前述深度判定单元判定的前述深度的程度,决定前述顶点位置的移动量,并使前述顶点只移动决定的前述移动量,前述顶点移动单元,对前述顶点的移动量,相互独立地决定纵方向的移动量和横方向的移动量,并使前述顶点分别对于纵方向和横方向只移动决定的移动量。
还可具备多边形描绘单元,该多边形描绘单元对将由前述顶点移动单元移动后的顶点构成的多边形投影到平面上的三维图像进行描绘。
还可具备视线矢量位置关系检测单元,该视线矢量位置关系检测单元对顶点相对于表示前述三维空间中的视野方向的视线矢量的相对位置进行检测,深度判定单元根据顶点相对于通过视线矢量位置关系检测单元检测出的视线矢量的相对位置,对顶点的深度进行判定。
前述视线矢量位置关系检测单元,可将顶点到视线矢量的距离、及顶点到垂直于视线矢量的横方向矢量的距离,作为前述相对位置进行检测。
前述深度判定单元,可使用预先确定的规定阈值对顶点的深度进行判定。
前述顶点移动单元,当由深度判定单元判定为顶点比成为阈值的点更靠深处时,不移动顶点,而当由深度判定单元判定为顶点比成为阈值的点更靠跟前时,使顶点只移动与该深度对应的距离。
还可具备:多边形检测单元,对构成生成前述三维图像的立体的表面的多边形进行检测;和顶点检测单元,对由多边形检测单元检测出的多边形的顶点进行检测,深度判定单元对由顶点检测单元检测出的顶点的深度进行判定。
本发明的信息处理方法,是生成将三维空间投影到平面上的三维图像的信息处理装置的信息处理方法,包含:深度判定步骤,对多边形的顶点离前述三维空间中的视点的深度进行判定,其中,该多边形构成用于生成前述三维图像的立体的表面;顶点移动步骤,根据由前述深度判定步骤的处理所判定的前述深度的程度,决定前述顶点位置的移动量,使前述顶点只移动决定的前述移动量,在前述顶点移动步骤中,对前述顶点的移动量,相互独立地决定纵方向的移动量和横方向的移动量,并使前述顶点分别对于纵方向和横方向只移动决定的移动量。
本发明的程序的特征在于,包含:深度判定步骤,对多边形的顶点离三维空间中的视点的深度进行判定,其中,该多边形构成用于生成三维图像的立体的表面;顶点移动步骤,根据由深度判定步骤的处理所判定的深度的程度,决定顶点位置的移动量,使顶点只移动决定的移动量。
本发明的导航装置,生成将三维空间投影到平面上的三维图像以进行路径引导,具备:深度判定单元,对多边形的顶点离前述三维空间中的视点的深度进行判定,其中,该多边形构成用于生成前述三维图像的立体的表面;顶点移动单元,根据由前述深度判定单元所判定的前述深度的程度,决定前述顶点位置的移动量,使前述顶点只移动决定的前述移动量,前述顶点移动单元,对前述顶点的移动量,相互独立地决定纵方向的移动量和横方向的移动量,并使前述顶点分别对于纵方向和横方向只移动决定的移动量。
在本发明的信息处理装置及方法、程序以及导航装置中,对多边形的顶点离三维空间中的视点的深度进行判定,并根据该判定的深度的程度,决定顶点位置的移动量,使顶点只移动决定的移动量,其中,该多边形构成用于生成三维图像的立体的表面。
根据本发明,例如,可通过根据离视点位置的距离来控制视野角,从而提供对使用者来说更易看的三维图像。
附图说明
图1是表示现有图像处理装置的结构例的图。
图2是说明现有三维图像处理的流程图。
图3是表示现有三维图像的例子的图。
图4A、图4B是表示现有三维图像特征的例子的图。
图5是表示应用了本发明的图像处理装置的结构例的框图。
图6是说明三维空间的例子的图。
图7是说明表示视线矢量和顶点的关系的信息的图。
图8是说明顶点移动情况的示意图。
图9是说明三维图像处理的流程图。
图10A、图10B是表示三维图像特征的例子的图。
图11是表示三维图像的例子的图。
图12是表示应用了本发明的车辆导航系统的结构例的图。
图13是说明导航处理的流程图。
图14是表示应用了本发明的个人计算机的例子的图。
符号说明
101:图像处理装置
111:三维对象输入部
112:三维对象描绘部
121:多边形检测部
122:顶点检测部
123:视线矢量位置关系检测部
124:顶点深度判定部
125:顶点移动部
126:多边形描绘部
131:三维对象
132:三维图像
151:视点
152:目标点
161:视线矢量
300:车辆导航系统
301:位置信息检测装置
302:地图数据库
303:图像处理装置
304:地图显示设备
400:个人计算机
具体实施方式
下面,说明本发明的实施方式,下面举例说明权利要求所述的构成要件与发明的实施方式中的具体例子的对应关系。该记载是为了确认支持权利要求所述发明的具体例子被记载在发明的实施方式中。因此,  虽然记载在发明的实施方式中,但是作为与构成要件对应的部分,即使有这里没有记载的具体例子,也不意味该具体例子不与该构成要件对应。相反,即使具体例子作为与构成要件对应的部分而记载于此,也不意味该具体例子不与该构成要件以外的构成要件对应。
并且,该记载不意味与记载在发明的实施方式中的具体例子对应的发明全部被记载在权利要求中。换句话说,该记载是与记载在发明的实施方式中的具体例子对应的发明,并不否定没有记载在该申请的权利要求中的发明的存在,即不否定将来分案申请、或通过补正追加的发明的存在。
在本发明中,提供了生成将三维空间投影到平面上的三维图像(例如,图5的三维图像)的信息处理装置(例如,图5的图像处理装置)。该信息处理装置具备:深度判定单元(例如,图5的顶点深度判定部),对多边形的顶点离三维空间中的视点(例如,图6的视点151)的深度进行判定,其中,该多边形构成用于生成三维图像的立体(例如,图5的三维对象)的表面;顶点移动单元(例如,图5的顶点移动部),根据由深度判定单元判定的深度的程度而决定顶点位置的移动量,使顶点只移动决定的移动量。
还可具备多边形描绘单元(例如,图5的多边形描绘部),该多边形描绘单元对将由利用前述顶点移动单元移动后的顶点而构成的多边形投影到平面上的三维图像进行描绘。
还具备视线矢量位置关系检测单元(例如,图5的视线矢量位置关系检测部),该视线矢量位置关系检测单元对顶点相对于表示前述三维空间中的视野方向的视线矢量(例如,图6的视线矢量)的相对位置进行检测,深度判定单元可根据顶点相对于由视线矢量位置关系检测单元检测出的视线矢量的相对位置,对顶点的深度进行判定。
前述视线矢量位置关系检测单元,可将顶点到视线矢量的距离(例如,图7的U)、及顶点到垂直于视线矢量的横方向矢量的距离(例如,图7的W)作为相对位置进行检测。
前述深度判定单元,可使用预先确定的规定阈值(例如,图6的目标点)对顶点的深度进行判定。
前述顶点移动单元,可在由深度判定单元判定为顶点比成为阈值的点更靠深处时(例如,图8的顶点174或者顶点175时),不移动顶点,而在由深度判定单元判定为顶点比成为阈值的点存在于更靠跟前处时(例如,图8的顶点171至顶点173的情况下),使顶点只移动与该深度对应的距离(例如,图9的步骤S38)。
还具备多边形检测单元(例如,图5的多边形检测部)和顶点检测单元(例如,图5的顶点检测部),多边形检测单元对构成生成前述三维图像的立体的表面多边形进行检测;顶点检测单元对由多边形检测单元检测出的多边形的顶点进行检测,深度判定单元可对由顶点检测单元检测出的顶点的深度进行判定。
前述顶点移动单元,可对顶点的移动量,相互独立地决定纵方向的移动量和横方向的移动量,并分别对于纵方向(例如,图6的矢量163的方向)和横方向(例如,图6的矢量162的方向),使顶点只移动决定的移动量。
在本发明中,提供了生成将三维空间投影到平面上的三维图像(例如,图5的三维图像)的信息处理装置(例如,图5的图像处理装置)的信息处理方法。该信息处理方法包含:深度判定步骤(例如,图9的步骤S37),对多边形的顶点离三维空间中的视点(例如,图6的视点151)的深度进行判定,其中,该多边形构成用于生成三维图像的立体(例如,图5的三维对象)的表面;顶点移动步骤(例如,图9的步骤S38),根据由深度判定步骤的处理所判定的深度的程度,决定顶点位置的移动量,使顶点只移动决定的移动量。
在本发明中,提供一种程序,该程序使计算机(例如,图5的图像处理装置)进行生成将三维空间投影到平面上的三维图像(例如,图5的三维图像)的处理。该程序包含:深度判定步骤(例如,图9的步骤S37),对多边形的顶点离三维空间中的视点(例如,图6的视点151)的深度进行判定,其中,该多边形构成用于生成三维图像的立体(例如,图5的三维对象)的表面;顶点移动步骤(例如,图9的步骤S38),根据由深度判定步骤的处理所判定的深度的程度,决定顶点位置的移动量,使顶点只移动决定的移动量。
在本发明中,提供了生成将三维空间投影到平面上的三维图像(例如,图12的输出图像)的导航装置(例如,图12的导航系统)。该导航装置具备:深度判定单元(例如,图5的顶点深度判定部),对多边形的顶点离三维空间中的视点(例如,图12的视野信息)的深度进行判定,其中,该多边形构成用于生成三维图像的立体(例如,图12的三维地图信息)的表面;顶点移动单元(例如,图5的顶点移动部),根据由深度判定单元判定的深度的程度,决定顶点位置的移动量,使顶点只移动决定的移动量。
下面,参照附图说明本发明的实施方式。
图5表示应用了本发明的图像处理装置的一个实施方式的结构例。
在图5中,图像处理装置101是如下的图像处理装置,即例如根据与三维空间的立体(对象)相关的信息,生成将该对象投影到平面上的三维图像。图像处理装置101由三维对象输入部111及三维对象描绘部112构成。此外,在图5中,长方形表示构成图像处理装置101的处理部,圆角长方形表示输入到这些处理部或者由这些处理部输出的数据。
图像处理装置101是如下的图像处理装置,即,将作为例如由顶点坐标信息等构成的、表示三维空间的立体(对象)的数据的三维对象131,作为输入接受,并根据该三维对象131,生成三维图像132。
三维对象输入部111读入记述了立体结构的数据(三维对象131),将其记述内容变换为包含三维对象层的场景图,并将其提供给三维对象描绘部112。
三维对象描绘部112根据该场景图,生成三维图像132。三维对象描绘部112由如下部分构成,即多边形检测部121、顶点检测部122、视线矢量位置关系检测部123、顶点深度判定部124、顶点移动部125及多边形描绘部126。
多边形检测部121从输入的场景图中检测多边形,并将其信息提供给顶点检测部122。顶点检测部122对在多边形检测部121中检测的多边形的顶点进行检测,并将其信息提供给视线矢量位置关系检测部123。视线矢量位置关系检测部123,通过求出在顶点检测部122中检测的各顶点的将视线矢量作为基准的相对位置,对各顶点和视线矢量的位置关系进行检测,其中上述视线矢量是表示立体空间中从视点到目标点的方向的矢量。
图6是用于说明视线矢量的示意图。如图6所示,为了决定对三维空间141进行投影的位置及方向(范围),在投影到平面上的三维空间141中设置有视点151和目标点152。视点151表示使用者位置,目标点152表示作为该使用者视野中心的位置和投影图像的深度(立体度)。即,三维图像是表示使用者在视点151处看目标点152方向时的视野的图像,到目标点152的距离表示该视野的深度。例如,图像处理装置101在生成表示使用者不看远处时的视野的三维图像时,将视点151和目标点152的距离设定得短,而生成表示使用者看远处时的视野的三维图像时,将视点151和目标点152的距离设定得长。
如图6所示,将从该视点151朝向目标点152的矢量设为视线矢量161,并将包含视点151且在垂直于视线矢量161的平面上相互垂直的矢量设为矢量162及矢量163。也就是说,视线矢量161表示以视点151为基准的目标点152的方向,矢量162及矢量163表示该视线矢量161的垂直方向。
图5的视线矢量位置关系检测部123,对各顶点相对于该视线矢量161的位置进行检测。也就是说,视线矢量位置关系检测部123,关于构成多边形的各顶点,如图7所示,算出到视线矢量161的距离U、和到垂直于视线矢量161的横方向矢量162的距离W。返回到图5,视线矢量位置关系检测部123,将这样检测出的各顶点的信息提供给顶点深度判定部124。
顶点深度判定部124根据由视线矢量位置关系检测部123提供的信息,对到各顶点的视点151的深度进行判定,例如,判定各顶点是否比目标点152更靠深处(远处),并将其判定结果和与顶点相关的信息提供给顶点移动部125。此外,成为该阈值的深度基准值可以是任意值,还可以不是目标点152的深度。例如,既可以是目标点152的深度的一半距离,也可以是目标点152的深度的两倍距离。
顶点移动部125根据顶点深度判定部124的判定结果,对顶点坐标进行校正,并移动顶点的位置。图8是说明利用顶点移动部125移动顶点位置的情况的图。
在图8中,从视点151看,顶点171至顶点173存在于比目标点152靠跟前处(在图8中虚线191的下侧)。因此,顶点移动部125,使这些顶点171至顶点173,以对应于深度(到目标点152的视线矢量方向的距离)的移动量,向垂直于视线矢量161的横方向矢量162的方向(图8中右方向)移动。例如,顶点移动部125决定移动量,使移动量与从视点151到目标点152的距离减去各顶点到垂直于视线矢量161的矢量162的距离W后的值的平方成比例。在图8中,四边形181至四边形183,分别表示黑圆点所表示的顶点171至顶点173的移动后的点。
另外,在图8中,从视点151看,顶点174及顶点175比目标点152更靠深处(在图8中虚线191的上侧)。因此,顶点移动部125不移动这些顶点174及顶点175。
并且,在图8中,从视点151看,顶点201至顶点203与顶点171至顶点173相同,比目标点152更靠跟前处(在图8中虚线191的下侧)。但是,顶点201至顶点203隔着视线矢量161位于顶点171至顶点173的相对侧(在图8中,视线矢量161的左侧)。因此,顶点移动部125,使这些顶点201至顶点203,以与深度(到目标点152的视线矢量方向的距离)对应的移动量,向垂直于视线矢量161的横方向矢量162的反方向(图8中左方向)移动。在图8中,四边形211至213,分别表示黑圆点所表示的顶点201至顶点203的移动后的点。
此外,顶点的移动距离的决定方法,只要是根据离视点151的深度的方法,哪种方法都可以。例如,既可以进行控制,使到视点151的深度越远的顶点越增加移动距离,也可以移动比目标点152更靠深处的顶点。
顶点移动部125这样移动顶点时,将与该移动后的顶点相关的信息提供给多边形描绘部126。多边形描绘部126将提供的多边形顶点(移动后的顶点)投影到二维投影面上,描绘三维图像132,并将该三维图像132输出到图像处理装置101的外部。
此外,在上面只对顶点的横方向(矢量162的方向或者其反方向)的移动进行了说明,但是图像处理装置101也可以与上述的横方向时同样地在纵方向(矢量163的方向或者其反方向)上移动顶点(对坐标进行校正)。其中,由于顶点的横方向移动和纵方向移动相互独立,因此,图像处理装置101可相互独立地设定顶点的横方向移动量的决定方法和纵方向移动量的决定方法。也就是说,图像处理装置101,例如,可使某个顶点的横方向移动量与深度的平方成比例,使纵方向移动量与深度成正比例。这样,图像处理装置101可任意地设定顶点的纵方向移动量和横方向移动量。当然,图像处理装置101也可以只向纵方向或者横方向其中一方移动顶点。
此外,移动方向(校正的方向)不限于纵方向及横方向,相对于视线矢量,也可以是倾斜方向、旋转方向、深度方向等任意方向。另外,当然也可以组合各方向的校正而使用。
由此,图像处理装置101,为使三维图像不产生使用者难以识别程度的无用的失真,对投影图像中的立体的顶点的位置进行适当的校正,从而可生成使用者更容易看清的图像。
参照图9的流程图,说明根据这样的图像处理装置101的三维图像处理的具体处理流程。
当开始了三维图像处理时,在步骤S31中,三维对象输入部111,读入由图像处理装置1的外部提供的三维对象131,将记述在其文件中的内容变换为包含三维对象层的场景图,并将该场景图提供给三维对象描绘部112的多边形检测部121。多边形检测部121,在步骤S32中,执行用于从该场景图中检测多边形的多边形检测处理,并将其检测结果提供给顶点检测部122。
顶点检测部122,在步骤S33中,根据多边形检测部121的检测结果,判定是否存在未处理的多边形。当判定为存在未进行后述的与顶点相关的处理的多边形时,顶点检测部122使处理进入步骤S34,检测构成该多边形的顶点(多边形的顶点),并将其提供给视线矢量位置关系检测部123。
视线矢量位置关系检测部123,在步骤S35中,判定顶点检测部122检测出的顶点中是否存在未处理的顶点,当判定为存在未进行后述的与顶点移动相关的处理的未处理的顶点时,使处理进入步骤S36,检测顶点相对于视线矢量161的相对位置(图7的U及W),并将与该相对位置相关的信息提供给顶点深度判定部124。
顶点深度判定部124,在步骤S37中,根据由视线矢量位置关系检测部123提供的信息,进行其顶点深度是否比目标点152远等、与顶点深度相关的判定,并将其判定结果、和与坐标等顶点相关的信息提供给顶点移动部125。顶点移动部125,在步骤S38中,根据提供的判定结果校正顶点坐标,并移动顶点。当移动顶点时,顶点移动部125将与其移动后的顶点相关的信息提供给多边形描绘部126后,使处理返回到步骤S35,并重复进行之后的处理。即,三维对象描绘部112的各部分重复进行步骤S35至步骤S38的处理,对顶点检测部122检测出的所有顶点进行与移动相关的处理。
并且,在步骤S35中,当判定为不存在未处理的顶点时,视线矢量位置关系检测部123使处理进入步骤S39。在步骤S39中,多边形描绘部126,根据由顶点移动部125所提供的信息,使用移动后的顶点,描绘这些顶点所构成的多边形。当描绘多边形时,多边形描绘部126使处理返回到步骤S32,对下面的多边形,重复进行之后的处理。也就是说,三维对象描绘部112的各部分,重复进行步骤S32至步骤S39的处理,直到对三维空间的所有立体的多边形进行检测并处理为止。
并且,在步骤S33中,当判定为不存在未处理的多边形时,顶点检测部122向多边形描绘部126输出描绘了的三维图像,并结束三维图像处理。
如上,通过执行三维图像处理,图像处理装置101可适当地对投影图像中的立体的顶点的位置进行校正,并生成使用者更易看的三维图像。
也就是说,如图10A所示,当使用者241(汽车)向箭头242的方向(图中上方向)观看(将视线朝向该方向)隔着端243A和端243B而排列成面对面的建筑物244-1至建筑物244-6之间的道路243时,在三维图像中,如图10B所示,存在于离使用者241远的位置上的建筑物244-1及建筑物244-4表现得小,而存在于离使用者241近的位置上的建筑物244-3至建筑物244-6表现得大。另外,在图10A中,相互面对面的建筑物244-1至建筑物244-6的道路243侧的面244-1-A至244-6-A,在三维图像中,进行校正使其向使用者241方向展开。即,如图10B所示,面244-1-A至面244-6-A的各面的、对图10B的下侧投影时的描绘范围244-1-B至244-6-B,根据从各面到使用者241的距离而发生大的变化。
也就是说,如上所述,三维空间中的各多边形的顶点的移动量根据到视点的距离而不同,因此,如图10B所示,从使用者241来看,位于远处的面244-1-A和面244-4-A相对于图10B下侧的角度校正量较少,但是从使用者241来看位于近处的面244-3-A和面244-6-A相对于图10B下侧的角度校正量较大。因此,面244-1-A至面244-6-A各面的描绘范围244-1-B至244-6-B,按照描绘范围244-3-B及描绘范围244-6-B、描绘范围244-2-B及描绘范围244-5-B、描绘范围244-1-B及描绘范围244-4-B的顺序变宽。也就是说,在三维图像中,作为易看的图像,按照面244-3-A及面244-6-A、面244-2-A及面244-5-A、面244-1-A及面244-4-A的顺序进行描绘(以展开的状态进行描绘)。
形成如图11所示的具体的图像。图11的图像251是表示与图3的图像31相同视野的三维图像的图,是将图3的图像31所描绘的立体的顶点移动后而描绘的图像。因此,在图11中,图像251在跟前的高楼和远处的高楼间方向发生变化,越是近处的高楼,越是将隔着道路而面对面的侧面描绘成让使用者易看。另外,该图像251与对于附近对象的视野变宽的实际使用者的视野特性类似,因此,使用者可直观地容易地把握图像的内容。
也就是说,如上的三维图像生成方法能够应用于各领域,例如,也可以用于车辆导航系统。
图12是表示应用了本发明的车辆导航系统的结构例的框图。在图12中,长方形表示构成车辆导航系统300的装置,圆角长方形表示输入到各装置或者从各装置输出的数据。
如图12所示,车辆导航系统300是对驾驶汽车的驾驶员进行道路引导和现在所在地通知的系统,由如下部分构成,即位置信息检测装置301、地图数据库302、图像处理装置303及地图显示设备304。
位置信息检测装置301,例如,接受由使用者等输入的路线指定311,并且利用地图数据库302取得现在所在地信息312,使用这些信息检测当前位置,并由该当前位置生成视野信息313,将其提供给图像处理装置303。
图像处理装置303是进行与图像处理装置101相同的图像处理的装置,可以移动描绘的立体的顶点,进行将图像变形为最佳形状的处理。图像处理装置303,当通过位置信息检测装置301取得视野信息时,由地图数据库302取得三维地图信息314,并根据这些信息生成三维图像的输出图像315,将其提供给地图显示设备304。
地图显示设备304根据输出图像315,将用于显示地图的地图显示输出316输出到车辆导航系统300的外部。
由此,车辆导航系统300,可以使用立体顶点被校正后的图像进行道路引导和现在所在地显示。由此,使用者用更接近实际视野的三维图像进行道路引导和现在所在地显示,因此,可直观地(更容易地)掌握该图像的内容。
参照图13的流程图,说明根据这样的车辆导航系统300的导航处理的具体流程。
当开始了导航处理时,位置信息检测装置301,在步骤S51中对当前位置及行驶方向进行检测,在步骤S52中生成视野信息,并将其提供给图像处理装置303。图像处理装置303,在步骤S53中,根据由位置信息检测装置301提供的视野信息,通过地图数据库302取得作为以三维表示的地图信息的三维地图信息314。
取得三维地图信息314的图像处理装置303,在步骤S54中执行三维图像处理。该三维图像处理是将参照图9的流程图进行说明的三维图像处理作为子流程而执行的处理,其处理内容与图9的流程图相同,因此,省略其说明。
在步骤S54中,执行三维图像处理,输出图像315被生成并被输出时,由显示器等构成的地图显示设备304取得该输出图像315,并在步骤S55中,根据该输出图像等,生成输出用图像,并在步骤S56中显示输出用图像。
当显示输出用图像时,地图显示设备304使处理进入步骤S57,判定是否结束导航处理,并继续导航处理,当判定为未结束时,使处理返回到步骤S51,并重复进行之后的处理。并且,在步骤S57中,当判定为结束导航处理时,地图显示设备304使处理进入步骤S58,并在进行结束处理后,结束导航处理。
如上所述,通过使包含移动顶点的校正处理的图像处理应用于车辆导航处理,车辆导航系统300可以使用立体顶点被校正后的图像,进行道路引导和现在所在地显示。由此,使用者可更详细地掌握更近的物体所表示的信息。另外,该图像构成为更接近实际视野的三维图像,因此,可直观地(更容易地)掌握该图像的内容。
也就是说,在现有的透视画法中,以广角显示对象时,随着接近图像的上下端部而产生失真,但是将本发明的图像处理方法实施于三维对象时,可得到如下效果,即车辆导航系统300可以用宽的视野角无失真地显示对象,并可提供使用者能够容易识别的图像。
另外,将该方法实施于三维对象时,有如下的效果,即,车辆导航系统300虽然较小地显示离目标点远的对象,但是较大地显示离目标点近的对象。
上述的一系列处理,可由硬件执行,也可由软件执行。此时,例如图5的图像处理装置101,也可以构成为如图14所示的个人计算机。
在图14中,个人计算机400的CPU(Central ProcessingUnit:中央处理单元)401,根据存储在ROM(Read OnlyMemory:只读存储器)402中的程序、或者从存储部413加载到RAM(Random Access Memory:随机存取存储器)403的程序,执行各种处理。另外,在RAM403中还适当存储有CPU401执行各种处理所需的数据等。
CPU401、ROM402及RAM403通过总线404相互连接着。另外,该总线404上还连接有输入输出接口410。
在输入输出接口410上连接有如下设备:由键盘、鼠标等构成的输入部411;由CRT、LCD等构成的显示器;以及由扬声器等构成的输出部412;由硬盘等构成的存储部413;由调制解调器等构成的通信部414。通信部414进行经由包含因特网的网络的通信处理。
另外,在输入输出接口410上根据需要连接有驱动器415,并适当安装有磁盘、光盘、光磁盘、或者半导体存储器等可移动介质421,从它们读出的计算机程序,根据需要安装在存储部413中。
当由软件执行上述一系列的处理时,从网络或存储介质安装构成该软件的程序。
该存储介质,例如,如图14所示,不仅可由可移动介质421构成,而且可由以预先编入装置主体中的状态分发给用户的、存储有程序的ROM402、存储部413包含的硬盘等构成。上述可移动介质421由如下构成:与装置主体分离,为了向使用者提供程序进行分发的、存储有程序的磁盘(包含软盘)、光盘(包含CD-ROM(Compact Disk-Read Only Memory:光盘只读存储器),DVD(Digital Versatile Disk:数字通用盘))、光磁盘(包含MD(Mini-Disk:迷你盘)(注册商标))、或者半导体存储器等。
此外,在本说明书中,对存储在存储介质中的程序进行记述的步骤,不仅包含沿着被记述的顺序按时间序列进行的处理,而且包含即使不是必须按时间序列进行处理,而是并行或者个别执行的处理。
另外,在本说明书中,系统表示由多个装置构成的装置全体。

Claims (9)

1.一种信息处理装置,生成将三维空间投影到平面上的三维图像,其特征在于,具备:
深度判定单元,对多边形的顶点离前述三维空间中的视点的深度进行判定,其中,该多边形构成用于生成前述三维图像的立体的表面;
顶点移动单元,根据由前述深度判定单元判定的前述深度的程度,决定前述顶点位置的移动量,并使前述顶点只移动决定的前述移动量,
前述顶点移动单元,对前述顶点的移动量,相互独立地决定纵方向的移动量和横方向的移动量,并使前述顶点分别对于纵方向和横方向只移动决定的移动量。
2.根据权利要求1所述的信息处理装置,其特征在于,
还具备多边形描绘单元,该多边形描绘单元对将由通过前述顶点移动单元移动后的前述顶点构成的多边形投影到前述平面上的三维图像进行描绘。
3.根据权利要求1所述的信息处理装置,其特征在于,
还具备视线矢量位置关系检测单元,该视线矢量位置关系检测单元对前述顶点相对于表示前述三维空间中的视野方向的视线矢量的相对位置进行检测,
前述深度判定单元,根据通过前述视线矢量位置关系检测单元检测出的前述顶点相对于前述视线矢量的相对位置,对前述顶点的深度进行判定。
4.根据权利要求3所述的信息处理装置,其特征在于,
前述视线矢量位置关系检测单元,将前述顶点到前述视线矢量的距离、及前述顶点到垂直于前述视线矢量的横方向矢量的距离,作为前述相对位置进行检测。
5.根据权利要求1所述的信息处理装置,其特征在于,
前述深度判定单元,使用预先确定的规定阈值对前述顶点的深度进行判定。
6.根据权利要求5所述的信息处理装置,其特征在于,
前述顶点移动单元,当由前述深度判定单元判定为前述顶点比成为前述阈值的点更靠深处时,不移动前述顶点,而当由前述深度判定单元判定为前述顶点比成为前述阈值的点更靠跟前处时,使前述顶点只移动与该深度对应的距离。
7.根据权利要求1所述的信息处理装置,其特征在于,还具备:
多边形检测单元,对构成生成前述三维图像的立体的表面的多边形进行检测;和
顶点检测单元,对由前述多边形检测单元检测出的前述多边形的顶点进行检测,
前述深度判定单元,对由前述顶点检测单元检测出的顶点的深度进行判定。
8.一种信息处理方法,是生成将三维空间投影到平面上的三维图像的信息处理装置的信息处理方法,其特征在于,包含:
深度判定步骤,对多边形的顶点离前述三维空间中的视点的深度进行判定,其中,该多边形构成用于生成前述三维图像的立体的表面;
顶点移动步骤,根据由前述深度判定步骤的处理所判定的前述深度的程度,决定前述顶点位置的移动量,使前述顶点只移动决定的前述移动量,
在前述顶点移动步骤中,对前述顶点的移动量,相互独立地决定纵方向的移动量和横方向的移动量,并使前述顶点分别对于纵方向和横方向只移动决定的移动量。
9.一种导航装置,生成将三维空间投影到平面上的三维图像以进行路径引导,其特征在于,具备:
深度判定单元,对多边形的顶点离前述三维空间中的视点的深度进行判定,其中,该多边形构成用于生成前述三维图像的立体的表面;
顶点移动单元,根据由前述深度判定单元所判定的前述深度的程度,决定前述顶点位置的移动量,使前述顶点只移动决定的前述移动量,
前述顶点移动单元,对前述顶点的移动量,相互独立地决定纵方向的移动量和横方向的移动量,并使前述顶点分别对于纵方向和横方向只移动决定的移动量。
CNB2005101146552A 2004-10-25 2005-10-25 信息处理装置及方法、以及导航装置 Expired - Fee Related CN100346356C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004309460 2004-10-25
JP2004309460A JP4487188B2 (ja) 2004-10-25 2004-10-25 情報処理装置および方法、プログラム、並びにナビゲーション装置

Publications (2)

Publication Number Publication Date
CN1766932A CN1766932A (zh) 2006-05-03
CN100346356C true CN100346356C (zh) 2007-10-31

Family

ID=35484095

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2005101146552A Expired - Fee Related CN100346356C (zh) 2004-10-25 2005-10-25 信息处理装置及方法、以及导航装置

Country Status (5)

Country Link
US (1) US7420558B2 (zh)
EP (1) EP1650712A3 (zh)
JP (1) JP4487188B2 (zh)
KR (1) KR101216693B1 (zh)
CN (1) CN100346356C (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4487188B2 (ja) * 2004-10-25 2010-06-23 ソニー株式会社 情報処理装置および方法、プログラム、並びにナビゲーション装置
US7590487B2 (en) * 2006-08-10 2009-09-15 Alpine Electronics, Inc. Method and apparatus of displaying three-dimensional arrival screen for navigation system
JP4858197B2 (ja) 2007-01-31 2012-01-18 ソニー株式会社 情報処理装置、画像表示装置、情報処理システム、情報処理方法およびプログラム
JP4251218B2 (ja) 2007-01-31 2009-04-08 ソニー株式会社 情報処理装置、画像表示装置、情報処理システム、および、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラム
WO2009042896A1 (en) 2007-09-26 2009-04-02 Aq Media, Inc. Audio-visual navigation and communication dynamic memory architectures
US8209121B1 (en) * 2007-10-10 2012-06-26 Google Inc. Registration of location data to street maps using hidden markov models, and application thereof
US7675513B2 (en) * 2008-03-14 2010-03-09 Evans & Sutherland Computer Corp. System and method for displaying stereo images
US8868338B1 (en) 2008-11-13 2014-10-21 Google Inc. System and method for displaying transitions between map views
US8294766B2 (en) * 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US9454847B2 (en) * 2009-02-24 2016-09-27 Google Inc. System and method of indicating transition between street level images
US9477368B1 (en) * 2009-03-31 2016-10-25 Google Inc. System and method of indicating the distance or the surface of an image of a geographical object
US8442764B2 (en) * 2009-05-29 2013-05-14 Schulze & Webb Ltd. 3-D map display
JP2011047866A (ja) * 2009-08-28 2011-03-10 Kddi Corp 表示方法および表示システム
WO2012020558A1 (ja) * 2010-08-10 2012-02-16 株式会社ニコン 画像処理装置、画像処理方法、表示装置、表示方法およびプログラム
DE102010034139A1 (de) * 2010-08-12 2012-02-16 Valeo Schalter Und Sensoren Gmbh Verfahren zur Unterstützung eines Parkvorgangs eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
CN102054280B (zh) * 2010-11-29 2013-06-12 广东威创视讯科技股份有限公司 快速生成矢量图的方法及装置
JP6087185B2 (ja) * 2013-03-25 2017-03-01 株式会社ジオ技術研究所 3次元地図表示システム
FR3019361B1 (fr) * 2014-03-28 2017-05-19 Airbus Helicopters Procede de detection et de visualisation des obstacles artificiels d'un aeronef a voilure tournante
KR101668802B1 (ko) * 2014-09-03 2016-11-09 신동윤 원거리 식별 이미지 생성 장치 및 그 동작 방법
WO2017002209A1 (ja) * 2015-06-30 2017-01-05 三菱電機株式会社 表示制御装置及び表示制御方法及び表示制御プログラム
CN108292469B (zh) * 2015-12-09 2021-02-05 笠原一 位置信息确定方法、装置以及计算机存储介质
KR102087494B1 (ko) * 2018-03-15 2020-03-10 정상문 모바일 실시간 시뮬레이션 게임에서 객체를 표시하는 방법
US10652514B2 (en) * 2018-07-19 2020-05-12 Facebook, Inc. Rendering 360 depth content
CN109191890A (zh) * 2018-08-10 2019-01-11 重庆唯哲科技有限公司 基于深度读取的车库辅助驾驶方法及辅助系统
CN111723716B (zh) * 2020-06-11 2024-03-08 深圳地平线机器人科技有限公司 确定目标对象朝向的方法、装置、系统、介质及电子设备

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1164903A (zh) * 1995-08-31 1997-11-12 世嘉企业股份有限公司 图像处理方法、图像处理装置及模拟体验装置
EP0890924A2 (en) * 1997-07-07 1999-01-13 International Business Machines Corporation Method and system for graphically displaying and navigating through an interactive workspace
CN1287646A (zh) * 1998-10-27 2001-03-14 索尼计算机娱乐公司 用于处理图像的记录媒体,设备和方法
JP2001133271A (ja) * 1999-11-08 2001-05-18 Alpine Electronics Inc 車載用ナビゲーション装置
JP2001143099A (ja) * 1999-11-18 2001-05-25 Namco Ltd 画像生成システム及び情報記憶媒体
US20010010517A1 (en) * 1995-11-09 2001-08-02 Ichiro Iimura Perspective projection calculation devices and methods
CN1321956A (zh) * 2000-03-31 2001-11-14 三菱电机株式会社 向顶点数据加算偏移值后绘制多边形的三维图象绘制装置及其方法
JP2002257562A (ja) * 2001-03-02 2002-09-11 Kenwood Corp ナビゲーション装置
US6618049B1 (en) * 1999-11-30 2003-09-09 Silicon Graphics, Inc. Method and apparatus for preparing a perspective view of an approximately spherical surface portion
CN1445733A (zh) * 2002-03-14 2003-10-01 松下电器产业株式会社 显示地图的装置和方法
US20030189569A1 (en) * 1999-04-09 2003-10-09 Sony Computer Entertainment Inc. Method and apparatus for performing perspective transformation
JP2003302897A (ja) * 2002-04-12 2003-10-24 Matsushita Electric Ind Co Ltd 地図表示装置
US6710774B1 (en) * 1999-05-12 2004-03-23 Denso Corporation Map display device

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3621214A (en) * 1968-11-13 1971-11-16 Gordon W Romney Electronically generated perspective images
JPH0690041B2 (ja) * 1989-06-26 1994-11-14 本田技研工業株式会社 移動体の現在位置表示装置
US5751927A (en) * 1991-03-26 1998-05-12 Wason; Thomas D. Method and apparatus for producing three dimensional displays on a two dimensional surface
JP2759934B2 (ja) 1992-09-07 1998-05-28 澁谷工業株式会社 ガスレーザ装置におけるダスト除去装置
EP1426910A3 (en) * 1996-04-16 2006-11-02 Xanavi Informatics Corporation Map display device, navigation device and map display method
JP3375258B2 (ja) * 1996-11-07 2003-02-10 株式会社日立製作所 地図表示方法及び装置並びにその装置を備えたナビゲーション装置
JPH10198822A (ja) * 1997-01-10 1998-07-31 Sharp Corp 画像合成装置
JP3116019B2 (ja) * 1997-06-30 2000-12-11 一成 江良 三次元画像データ作成方法および三次元カラー画像表示方法
JPH11238144A (ja) * 1998-02-20 1999-08-31 Nippon Columbia Co Ltd 画像変換装置及び画像変換方法及び画像変換プログラムが記録された記録媒体
US6061066A (en) * 1998-03-23 2000-05-09 Nvidia Corporation Method and apparatus for creating perspective correct graphical images
US6191794B1 (en) * 1998-04-08 2001-02-20 Nvidia Corporation Method and apparatus for scaling texture maps for graphical images
JP2000122524A (ja) 1998-10-09 2000-04-28 Yoyogi Live Animation:Kk 遠近法作図習熟器
US6346938B1 (en) * 1999-04-27 2002-02-12 Harris Corporation Computer-resident mechanism for manipulating, navigating through and mensurating displayed image of three-dimensional geometric model
US6198488B1 (en) * 1999-12-06 2001-03-06 Nvidia Transform, lighting and rasterization system embodied on a single semiconductor platform
JP3718472B2 (ja) * 1999-12-06 2005-11-24 富士通株式会社 画像表示方法および装置
JP3367523B2 (ja) * 2000-03-14 2003-01-14 アイシン・エィ・ダブリュ株式会社 道路地図表示装置
EP1134554B1 (en) * 2000-03-17 2009-02-18 Panasonic Corporation Map display device and navigation device
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
US6628284B1 (en) * 2000-09-07 2003-09-30 International Business Machines Corporation Method and apparatus for processing graphics perspective transformations
US6943789B2 (en) * 2001-03-16 2005-09-13 Mitsubishi Electric Research Labs, Inc Conversion of adaptively sampled distance fields to triangles
JP4763947B2 (ja) * 2001-09-30 2011-08-31 株式会社三共 遊技機
US20040165776A1 (en) * 2002-09-20 2004-08-26 Albert-Jan Brouwer Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures
KR100520707B1 (ko) * 2003-10-20 2005-10-17 엘지전자 주식회사 3차원 지도에서의 다중레벨 텍스트데이터 표시방법
JP4487188B2 (ja) * 2004-10-25 2010-06-23 ソニー株式会社 情報処理装置および方法、プログラム、並びにナビゲーション装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1164903A (zh) * 1995-08-31 1997-11-12 世嘉企业股份有限公司 图像处理方法、图像处理装置及模拟体验装置
US20010010517A1 (en) * 1995-11-09 2001-08-02 Ichiro Iimura Perspective projection calculation devices and methods
EP0890924A2 (en) * 1997-07-07 1999-01-13 International Business Machines Corporation Method and system for graphically displaying and navigating through an interactive workspace
CN1287646A (zh) * 1998-10-27 2001-03-14 索尼计算机娱乐公司 用于处理图像的记录媒体,设备和方法
US20030189569A1 (en) * 1999-04-09 2003-10-09 Sony Computer Entertainment Inc. Method and apparatus for performing perspective transformation
US6710774B1 (en) * 1999-05-12 2004-03-23 Denso Corporation Map display device
JP2001133271A (ja) * 1999-11-08 2001-05-18 Alpine Electronics Inc 車載用ナビゲーション装置
JP2001143099A (ja) * 1999-11-18 2001-05-25 Namco Ltd 画像生成システム及び情報記憶媒体
US6618049B1 (en) * 1999-11-30 2003-09-09 Silicon Graphics, Inc. Method and apparatus for preparing a perspective view of an approximately spherical surface portion
CN1321956A (zh) * 2000-03-31 2001-11-14 三菱电机株式会社 向顶点数据加算偏移值后绘制多边形的三维图象绘制装置及其方法
JP2002257562A (ja) * 2001-03-02 2002-09-11 Kenwood Corp ナビゲーション装置
CN1445733A (zh) * 2002-03-14 2003-10-01 松下电器产业株式会社 显示地图的装置和方法
JP2003302897A (ja) * 2002-04-12 2003-10-24 Matsushita Electric Ind Co Ltd 地図表示装置

Also Published As

Publication number Publication date
US20060087507A1 (en) 2006-04-27
JP2006120057A (ja) 2006-05-11
KR20060052131A (ko) 2006-05-19
US7420558B2 (en) 2008-09-02
EP1650712A3 (en) 2011-08-17
KR101216693B1 (ko) 2012-12-28
EP1650712A2 (en) 2006-04-26
CN1766932A (zh) 2006-05-03
JP4487188B2 (ja) 2010-06-23

Similar Documents

Publication Publication Date Title
CN100346356C (zh) 信息处理装置及方法、以及导航装置
US10096268B2 (en) System and device for welding training
EP3427232B1 (en) Image processing method, display device, and inspection system
CN1162681C (zh) 三维物体识别方法及使用该方法的零件抓取系统
CN1831479A (zh) 驾驶辅助系统
CN100338433C (zh) 激光扫描器与机器人的相对位置的标定方法
CN1788188A (zh) 拍摄图像显示方法
CN101065969A (zh) 摄像机的校正方法及摄像机的校正装置
CN105354820A (zh) 调整虚拟现实图像的方法及装置
JP2007147422A (ja) 計測システム、画像処理装置及び方法
CN104065903B (zh) 投影装置及投影方法
US20130335532A1 (en) Image processing apparatus, image processing method, and program
US9946146B2 (en) Control apparatus configured to control projection of an image based on position information, projection information, and shape information, corresponding control method and corresponding storage medium
CN106027887B (zh) 针对旋镜云台的枪球联动控制的方法、装置及电子设备
CN1665313A (zh) 产生图像的装置和方法
EP1686534A3 (en) Omnidirectional visual system, image processing method, control program, and readable recording medium
JP2009214265A (ja) ロボット教示装置
CN105704475A (zh) 一种曲面二维屏幕的三维立体显示处理方法和装置
CN1559054A (zh) 图像产生装置和计算机程序
CN104596445A (zh) 轴偏离检测装置、投影仪装置以及轴偏离检测方法
JP5322050B2 (ja) マーカの3次元位置計測方法及びシステム
CN110816355B (zh) 车辆充电方法、设备及计算机可读存储介质
CN1559056A (zh) 图象产生装置及其方法,以及计算机程序
WO2019189381A1 (ja) 移動体、制御装置、および制御プログラム
CN1320509C (zh) 图像显示方法及图像显示装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20071031

Termination date: 20151025

EXPY Termination of patent right or utility model