CN101578602A - 图像显示系统、显示设备和显示方法 - Google Patents
图像显示系统、显示设备和显示方法 Download PDFInfo
- Publication number
- CN101578602A CN101578602A CNA2007800451131A CN200780045113A CN101578602A CN 101578602 A CN101578602 A CN 101578602A CN A2007800451131 A CNA2007800451131 A CN A2007800451131A CN 200780045113 A CN200780045113 A CN 200780045113A CN 101578602 A CN101578602 A CN 101578602A
- Authority
- CN
- China
- Prior art keywords
- image
- display device
- view data
- imaging
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 15
- 238000003384 imaging method Methods 0.000 claims description 309
- 238000004891 communication Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 45
- 230000005540 biological transmission Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 11
- 238000012856 packing Methods 0.000 claims description 10
- 241001465754 Metazoa Species 0.000 claims description 6
- 230000005055 memory storage Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 230000000295 complement effect Effects 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 241001640034 Heteropterys Species 0.000 description 2
- 101150013240 bpt gene Proteins 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000938605 Crocodylia Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 210000000103 occipital bone Anatomy 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 150000002926 oxygen Chemical class 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/487—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/782—Television signal recording using magnetic recording on tape
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
用户在地图图像上指定一个位置,使得用户可看到在该位置拍摄的图像。设置移动装置上的图像拾取装置(图像拾取显示装置1或图像拾取装置30)将图像拾取数据与包括图像拾取点的位置信息的附加数据一起发送至服务器设备,从而服务器设备可存储它们。使用显示装置(图像拾取显示装置1或显示装置40)在地图图像上指定位置。显示装置将位置指定信息发送至服务器设备,使得服务器设备根据位置指定信息搜索图像数据,并将对应于位置指定信息的图像数据发送至显示装置。显示装置显示接收到的该图像数据。
Description
技术领域
本发明涉及图像显示系统、显示设备和显示方法。具体地讲,本发明涉及用于基于在显示设备的部分处的地图图像上的位置指定,显示由外部成像设备拍摄的图像的技术。
日本专利申请公开No.2005-341604描述了数据通信系统的例子。
日本专利申请公开No.2005-337863中描述了使用由摄影机拍摄的图像来更新汽车导航系统掌握的立体地图的技术。
JP-T-2004-538681,JP-T-2004-537193和JP-T-2004-538679中公开了扩展已被播出并记录到WWW(万维网)以供享用的节目的尝试。
背景技术
然而,在过去,还没有提出允许用户在地图图像上指定任意位置,以看到该位置的图像的技术。
因此,本发明试图允许用户在地图图像上指定位置,以看到在该位置实际拍摄的图像。
发明内容
根据本发明的图像显示系统包括显示设备、放置在可移动体上的用于摄影的成像设备、和服务器设备,并且显示设备和成像设备中的每一个都能够与服务器设备通信。成像设备包括:用于摄影的成像装置;用于检测位置信息的位置检测装置;以及用于执行发送控制处理的控制装置,使由成像装置通过摄影获得的图像数据、和至少包括当通过摄影获得图像数据时由位置检测装置检测的位置信息的附加数据被发送至服务器设备。服务器设备包括:用于存储图像数据和从成像设备发送的附加数据的存储装置;以及用于执行搜索/发送控制处理的控制装置,该处理即为:基于从显示设备发送的位置指定信息搜索存储在存储装置中的图像数据,并使找到的图像数据被读取并发送至显示设备。显示设备包括:用于执行图像显示的显示装置;以及用于执行以下处理的控制装置:使显示装置显示地图图像的地图显示处理,基于地图图像上的输入而设定位置指定信息的位置指定处理,将位置指定信息发送至服务器设备以请求图像数据的图像请求发送处理,和响应于图像请求发送处理而接收从服务器设备发送的图像数据并使显示装置基于接收到的图像数据执行显示操作的显示处理。
其上放置有成像设备的可移动体可以是人、除人以外的动物、在地面上移动的装置、在海面上移动的装置、在海面下移动的装置、在空中移动的装置和在地球的大气层外移动的装置中的一个。
此外,成像设备还可以包括用于检测当前日期和时间的日期/时间检测装置,其中:成像设备的控制装置允许附加数据包括当通过摄影获得图像数据时由日期/时间检测装置检测的日期/时间信息;显示设备的控制装置执行设定用于指定日期和时间的日期/时间指定信息的日期/时间处理,并且在图像请求发送处理中将日期/时间指定信息与位置指定信息一起发送至服务器设备;以及在搜索/发送控制处理中,服务器设备的控制装置基于从显示设备发送的位置指定信息和日期/时间指定信息,搜索存储在存储装置中的图像数据。
根据本发明的显示设备包括:执行图像显示的显示装置;与外部服务器设备执行数据通信的通信装置;以及执行下述处理的控制装置:使得显示装置显示地图图像的地图显示处理,基于地图图像上的输入而设定位置指定信息的位置指定处理,将位置指定信息经由通信装置发送至服务器设备以请求图像数据的图像请求发送处理,和使通信装置响应于图像请求发送处理而接收从服务器设备发送的图像数据并使得显示装置基于接收到的图像数据执行显示操作的显示处理。
此外,在位置指定处理中,控制装置可使用为地图图像指定的点的纬度和经度的信息作为位置指定信息。
此外,控制装置还可执行设定用于指定日期和时间的日期/时间指定信息的日期/时间指定处理,并且在图像请求发送处理中,执行将日期/时间指定信息与位置指定信息一起发送至服务器设备的处理。
此外,显示装置可被配置为设置在用户眼睛的前方以执行图像显示。
显示设备还可包括用于摄影的成像装置和用于检测位置信息的位置检测装置,其中控制装置还能够执行发送控制处理,使由成像装置通过摄影获得的图像数据、和附加数据经由通信装置发送至服务器设备,所述附加数据至少包括当通过摄影获得图像数据时由位置检测装置检测的位置信息。
根据本发明的显示方法包括:使得显示地图图像的地图显示处理步骤;基于地图图像上的输入而设定位置指定信息的位置指定处理步骤;将位置指定信息发送至外部服务器设备以请求图像数据的图像请求发送处理步骤;以及响应于图像请求发送处理而接收从服务器设备发送的图像数据并基于接收到的图像数据执行显示操作的显示步骤。
根据上述本发明,显示设备的用户通过在地图图像上指定位置,能够看到在指定位置由成像设备实际拍摄的图像。
这样的外部成像设备的例子包括:由另一个人佩戴的成像设备;附着于机动车、火车等上的成像设备;以及放置在动物、鸟等上的成像设备。由这些成像设备通过摄影获得的多个图像数据(视频和静止图像)与包括关于摄影点的位置信息的附加数据一起被发送至服务器设备,并存储在服务器设备中。因此,由大量成像设备在各个地方通过摄影获得的多个图像数据与位置信息一起在服务器设备中累积。
因此,如果在显示设备处指定位置,并且位置指定信息被发送至服务器设备,则服务器设备能够基于位置指定信息搜索图像数据。服务器设备搜索对应于位置指定信息的图像数据,并将其发送至显示设备。显示设备显示接收到的图像数据。其结果是,显示设备的用户可看到在指定点拍摄的景象作为显示的图像。
请注意,本发明中的地图图像的例子不仅包括示出了地面上的道路、地理特征、建筑物、自然物体等的“地图”的图像,还包括当指定具体位置时使用的各种图形的图像,诸如海洋图表、海下地形图、航空图表和空间图表。
根据本发明,显示设备的用户通过在地图图像上指定位置,能够看到在指定位置由成像设备实际拍摄的图像。因此,本发明提供了满足用户的多种需求的系统和设备,诸如观看和享用可在地图上指定的某个地点的景象的需求、和了解可在地图上指定的某个地点的状态的需求。此外,在地图图像上指定位置,并看到在该位置拍摄的图像的能力允许用户了解:例如,指定位置的环境,其地理特征、附近建筑物或自然物体的视图、道路宽度或车道数量、基于日期和时间变化的状态等。因此,对所谓的导航系统的应用使得可以提供提供服务的扩展信息。
附图说明
图1是示出了根据本发明的一个实施例的成像/显示设备的示例性外观的图;
图2是示出了根据本发明的一个实施例的成像设备和显示设备的示例性外观的图;
图3是示出了根据本发明的一个实施例的示例性系统配置的图;
图4是根据本发明的一个实施例的成像/显示设备的框图;
图5是根据本发明的一个实施例的成像设备的框图;
图6是根据本发明的一个实施例的显示设备的框图;
图7是根据本发明的一个实施例的成像设备和显示设备的框图;
图8是根据本发明的一个实施例的服务器设备的框图;
图9是示出了根据本发明的一个实施例的示例性系统操作的图;
图10是示出了根据本发明的一个实施例的点图像数据库的图;
图11是根据本发明的一个实施例的示例性系统操作的流程图;
图12是在本发明的一个实施例中当通过使用地图图像指定时使用的图像的图。
图13是在本发明的一个实施例中要显示的指定点的拍摄图像的图。
具体实施方式
在下文中,描述根据本发明的优选实施例的图像显示系统、显示设备和显示方法。根据优选实施例的成像/显示设备1或显示设备40对应于在所附权利要求中所述的显示设备,并且在优选的实施例中,执行根据本发明的显示方法作为成像/显示设备1或显示设备40的程序。同时,根据优选实施例的成像/显示设备1或成像设备30对应于如所附权利要求所述的成像设备。因此,根据优选实施例的成像/显示设备1能够兼作所附权利要求所述的显示设备和成像设备。
以下述顺序进行如下描述。
[1.成像/显示设备、成像设备和显示设备的示例性外观]
[2.系统配置]
[3.成像/显示设备、成像设备、显示设备和服务器设备的示例性结构]
[4.示例性系统操作]
[5.实施例、示例性变型例和示例性扩展例的效果]
[1.成像/显示设备、成像设备和显示设备的示例性外观]
图1示出了成像/显示设备1的示例性外观。该成像/显示设备1可作为眼镜形状的显示摄影机由用户佩戴。
成像/显示设备1具有佩戴单元,该佩戴单元具有例如从两个太阳穴区域到枕骨区域绕头部的中间延伸的框架结构,用户佩戴时,佩戴单元如图所示放置在耳朵上方。
成像/显示设备1具有为左和右眼设计的一对显示面板部2a和2b,并且当成像/显示设备1以图1所示的方式由用户佩戴时,显示面板部2a和2b放置在用户的眼睛的前方(即普通眼镜的镜片所在的位置)。例如液晶面板被用作显示面板部2a和2b,显示面板部2a和2b能够通过透射率控制进入看穿状态(see-through state),即如图所示的透明或半透明状态。显示面板部2a和2b进入看穿状态能够允许用户一直佩戴成像/显示设备1,如他或她佩戴眼镜一样,不干扰他或她的日常生活。
此外,成像/显示设备1具有设置为面向前方的图像拾取透镜3a,从而当用户佩戴成像/显示设备1时对在用户所看的方向上的景象进行成像。
此外,成像/显示设备1具有在图像拾取透镜3a拍摄图像的方向上提供照明的发光部4a。发光部4a是由例如发光二极管(LED)形成的。
此外,成像/显示设备1具有当成像/显示设备1由用户佩戴时可被插入用户的右和左耳孔的一对耳机扬声器。请注意,图中仅示出了左耳机扬声器5a。
此外,成像/显示设备1具有用于收集外部声音的传声器6a和6b。传声器6a和6b分别设置在用于右眼的显示面板部2的右侧、和用于左眼的显示面板部2的左侧。
请注意,图1仅示出了一个例子,并且使用户能佩戴成像/显示设备的各种结构都是可能的。总体来讲,佩戴单元的要求是其呈眼镜的形状或头戴类型的形状,从而显示面板部2a和2b设置在例如用户的眼睛的前方,并靠近用户的眼睛,并且图像拾取透镜3a拍摄图像的方向是用户的眼睛所指的方向,即向前的方向。还请注意,尽管该对显示面板部2a和2b可设置用于上述双眼,但是可仅设置一个显示部用于一个眼睛。
还请注意,图像拾取透镜3a拍摄图像的方向不必与用户的眼睛所指的方向重合。例如,图像拾取透镜3a可从旁边或后面成像。
还请注意,成像/显示设备1不必具有左和右立体扬声器5a,但可仅具有被插入一个耳孔的一个耳机扬声器5a。还请注意,耳机的数量可以是一。也就是说,成像/显示设备1可仅具有耳机6a和6b中的一个。还请注意,成像/显示设备1不必具有任何传声器或耳机扬声器。
还请注意成像/显示设备1不必具有任何发光部4a。
尽管成像/显示设备1的佩戴单元已被描述为眼镜的形状或头部安装类型的形状,但是使用户佩戴成像/显示设备的佩戴单元可以是任何类型,诸如头戴式受话器(headphone)型、领圈型、耳后型等。此外,成像/显示设备可通过诸如夹子的固定装置固定于普通眼镜、面罩、头戴式受话器等,使得成像/显示设备可由用户佩戴。还请注意,成像/显示设备不必佩戴在用户的头上。
图1所示的成像/显示设备1是由用户佩戴的装置,并且其中用于成像的元件和用于监视图像的显示面板部2a和2b被集成为一个单元。然而,存在由用户佩戴的装置的其它例子,诸如图2的(a)中所示的成像设备30、和图2的(b)中所示的显示设备40。
图2的(a)中所示的成像设备30使用预定的佩戴框架佩戴在用户的一个太阳穴区域上。成像设备30具有设置为面向前方的图像拾取透镜3a和发光部4a,以便在用户佩戴成像设备30的同时对用户所看的方向上的景象成像。此外,成像设备30具有用于收集外部声音的传声器6a。
也就是说,成像设备30是不具有显示能力,但具有在其由用户佩戴同时对在用户的视场内的景象成像的能力的装置。此外,与上述成像/显示设备1的情况一样,成像设备30可具有多种形状、用于佩戴的结构、和元件。
图2的(b)中所示的显示设备40是手表形状的显示设备。显示设备40具有在显示设备40使用腕带佩戴在用户的手腕上的同时,用户可看到的显示面板部2a。
尽管图2的(b)中所示的显示设备40假设呈手表的形状,但是要由用户佩戴或携带的显示设备40可具有各种形状和用于佩戴或携带的结构。显示设备40可以是例如可由用户携带的小的便携装置。此外,显示设备40可以是由用户佩戴的眼镜形状的装置(即与图1所示的成像/显示设备1相似的装置,除非该装置不具有成像能力)。
尽管要由用户携带的显示设备40可以是专用于显示以便监视的装置,但是具有显示能力的其它类型的装置,诸如移动电话、便携游戏机和个人数字助理(PDA),也可充当根据本实施例的显示设备40。
此外,除了可由用户佩戴或携带的这样的装置,也可采用固定显示设备、计算机设备、电视接收机、车上显示监视器等作为根据本实施例的显示设备40。
尽管图2的(a)和(b)所示的成像设备30和显示设备40可彼此独立地使用,但是成像设备30和显示设备40都可由用户佩戴,并作为成像/显示设备组合使用。在该情况下,成像设备30和显示设备40可与彼此执行数据通信,使得显示设备40显示由成像设备30拍摄的图像,以便监视或显示例如从外部装置发送的图像。
假设在本实施例中,由人类用户使用成像/显示设备1和显示设备40,并且成像设备30放置在包括人的各种可移动体上并在该处被使用。尽管图2的(a)中示出的成像设备30被设想为由人来佩戴,以便对该人的视场内的景象成像,但是存在放置在除了人以外的可移动体上的各种其它成像设备30。
除了人以外的可移动体的例子包括除人以外的动物、在地面上移动的装置、在海面上移动的装置、在海面下移动的装置、在空中移动的装置和在地球的大气层外移动的装置。
除人以外的动物的例子包括鸟、哺乳动物、爬行动物、两栖动物、鱼、昆虫和各种其它生物。
在地面上移动的装置的例子包括:诸如轿车、卡车、公共汽车、出租车和摩托车的机动车;诸如自行车、黄包车和玩具车的人力车。其它例子包括诸如火车和蒸汽机车的轨道车辆。其它例子包括在游乐园等的娱乐车、和在工厂和其它场所使用的商业用途的车辆。在地面上移动的装置不限于人可以在其上乘坐的可移动体。例如,为商业或娱乐用途设计的各种类型的机器人、和诸如无线电控制玩具的玩具也是在地面上移动的装置的例子。
在海面上移动的装置的例子包括诸如船、艇、个人船只、冲浪板、划艇、救生圈和筏子的各种船只。
在海面下移动的装置的例子包括潜水艇、自动水下车辆、和诸如水中呼吸器的潜水设备。
在空中移动的装置的例子包括:诸如飞机、直升飞机、滑翔机、降落伞、气球和风筝的各种飞行器。
在地球的大气层外移动的装置的例子包括火箭、空间探测器和卫星。
应该理解,存在各种其它的可移动体的具体例子。用于放置成像设备30的形状和结构取决于其上放置成像设备30的可移动体。
[2.系统配置]
在实施例中,成像/显示设备1或显示设备40的用户可在被显示的地图图像上指定位置,以观看由另一个成像/显示设备1或成像设备30在该位置拍摄的图像。换句话说,图像/显示设备1或显示设备40的用户在看地图的同时,能够用他或她的成像/显示设备1或显示设备40观看在地图上实际示出的位置处的景象的图像。图3示出了用于实现该目的的示例性系统配置。
请注意,假设“地图图像”的例子不仅包括上述地面地图,还包括海洋图表、水下地图和航空图表。
图3示出了其中成像/显示设备1、显示设备40、成像设备30和服务器设备70经由网络60彼此通信的系统的配置。
网络60的例子包括诸如因特网的广域网和诸如局域网(LAN)的小区域网络。
此处假设用户A、B和C佩戴着例如图1所示的成像/显示设备1。此处还假设用户D佩戴着例如图2的(b)所示的显示设备40,用户E佩戴着图2的(a)所示的成像设备30。
还假设用户F佩戴着图2的(a)所示的成像设备30和图2的(b)所示的显示设备40,成像设备30和显示设备40组合充当成像/显示设备。
还假设安装在可移动体G和H上的成像设备30是安装在可移动体(除人以外的可移动体)上,并具有放置在其上的合适的形式的成像设备,所述可移动体是诸如机动车、轨道车辆或飞行器的物体。
在该情况下,由用户E佩戴的成像设备30和安装在可移动体G和H上的成像设备30中的每一个都恒定地、有规律地或在任意时间,将通过拍摄图像获得的图像数据和至少包括表示在拍摄图像时的速度的速度信息的附加数据经由网络60上传至服务器设备70。
由用户A、B和C佩戴的成像/显示设备1中的每一个还能够恒定地、有规律地或在任意时间,将通过拍摄图像而获得的图像数据和至少包括表示成像时的速度的速度信息的附加数据经由网络60上传至服务器设备70。
服务器设备70在下面描述的点图像数据库中登记和存储成像/显示设备1和成像设备30。
同时,响应用户在地图图像上指定点,由用户A、B和C佩戴的成像/显示设备1和由用户D和F使用的显示设备40中的每一个经由网络60访问服务器设备70,并将表示所指定的速度的点指定信息发送给服务器设备70,以请求图像。
基于点指定信息,服务器设备70搜索点图像数据库,以提取由成像设备或成像/显示设备拍摄的图像的图像数据,所述成像设备或成像/显示设备以由点指定信息指示的指定速度移动。然后,服务器设备70将提取图像数据发送至成像/显示设备1或显示设备40。
成像/显示设备1或显示设备40接收从服务器设备70发送的图像数据,并显示接收的图像数据。
以上述方式,用户A、B、C、D和F能够观看在地图上指定的位置处实际拍摄的景象。
[3.成像/显示设备、成像设备、显示设备和服务器设备的示例性结构]
现在,将在下面参照图4至8描述成像/显示设备1、成像设备30、显示设备40和服务器设备70的示例性结构。
首先,将参照图4在下面描述成像/显示设备1的示例性结构。
系统控制器10是由微型计算机形成的,并控制成像/显示设备1的整体操作,微型计算机包括例如中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)、非易失性存储部和接口部。基于内部ROM等中保持的程序,系统控制器10执行各种计算处理,并经由总线13与成像/显示设备1中的每一个部分交换控制信号等,以使得成像/显示设备1中的每一个部分执行必要的操作。
成像/显示设备1包括成像部3,作为对在用户所看的方向上的景象成像的部件。
成像部3包括成像光学系统、成像装置部和成像信号处理部。
成像部3中的成像光学系统设有:由图1所示的图像拾取透镜3a形成的透镜系统、光阑、变焦透镜、聚焦透镜等;允许透镜系统执行聚焦操作、变焦操作的驱动系统;等等。
成像部3中的成像装置部设有固态成像装置阵列,其检测由成像光学系统获得的用于成像的光,并对所检测的光进行光电转换以产生成像信号。固态成像装置阵列是例如CCD(电荷耦合器件)传感器阵列或CMOS(互补型金属氧化物半导体)传感器阵列。
成像部3中的成像信号处理部包括对由固态成像装置获得的信号进行增益控制和波形整形的样本保持/AGC(自动增益控制)电路、和视频A/D转换器,并获得数字形式的拾取图像数据。成像信号处理部还对拾取的图像数据执行白色平衡处理、亮度处理、色信号处理、模糊校正处理等。
由包括上述的成像光学系统、成像装置部和成像信号处理部的成像部3执行成像,从而通过成像获得图像数据。
系统控制器10执行:对成像部3中打开和关闭成像操作的控制、对成像光学系统中的变焦透镜和聚焦透镜的驱动控制、对成像装置部中的灵敏度和帧速率的控制、对每一个处理的参数的设定和对在成像信号处理部中执行的处理的设定等。
可将通过由成像部3执行成像操作而获得的拾取的图像数据经由图像处理部15供应至显示部2、存储部25或通信部26。
在系统控制器10的控制下,图像处理部15执行将拾取图像数据转换为预定图像数据格式的处理,和允许图像数据显示在显示部2上以供监视的必要信号处理。用于允许图像数据显示在显示部2上以供监视的信号处理的例子包括:亮度水平控制;色校正;对比度控制;清晰度(轮廓增强)控制;分画面处理;合成字符图像处理;产生放大或缩小的图像;以及应用诸如马赛克图像、回色图像(brightness-reversed image)、软聚焦(soft focus)、突出显示部分图像和改变图像的整体颜色氛围的图像效果。
图像处理部15还执行在成像部3、显示部2、存储部25和通信部26之间传送图像数据的处理。具体地讲,图像处理部15执行从成像部3将拾取图像数据供应至显示部2、存储部25或通信部26的处理;将从存储部25读取的图像数据供应至显示部2的处理;以及将由通信部26接收的图像数据供应至显示部2的处理。
成像/显示设备1包括显示部2,作为将显示呈现给用户的元件。显示部2设有由液晶面板形成的上述显示面板部2a和2b、以及用于驱动显示面板部2a和2b使其显示的显示器驱动部。
显示器驱动部由像素驱动电路形成,所述像素驱动电路允许从图像处理部15供应的图像信号显示在显示面板部2a和2b上,所述显示面板部2a和2b被形成为例如液晶显示器。也就是说,显示驱动部基于视频信号,向在显示面板部2a和2b中排列成矩阵的像素以显示的预定水平/垂直驱动定时施加驱动信号。该处理的结果是,由成像部3拍摄的图像、从存储部25读取的图像数据的图像、或由通信部26接收的图像数据的图像显示在显示面板部2a和2b上。
此外,显示驱动部能够控制显示面板部2a和2b中的像素中的每一个的透射率,以允许像素进入看穿状态(即透明或半透明状态)。
系统控制器10执行:对显示部2中的显示操作的开/关(看穿)控制、与要显示的图像数据相关的处理参数的指定、屏幕区设定控制、产生字符的指令等。
成像/显示设备1还包括音频输入部6、音频处理部16和音频输出部5。
音频输入部6包括图1所示的传声器6a和6b、用于放大由传声器6a和6b获得的音频信号的传声器放大器部、和A/D转换器,并输出音频数据。
在音频输入部6获得的音频数据被供应至音频处理部16。
在系统控制器10的控制下,音频处理部16控制音频数据的传送。具体地讲,音频处理部16将在音频输入部6获得的音频数据供应至音频输出部5、存储部25或通信部26。音频处理部16还将从存储部25读取的音频数据或由通信部26接收的音频数据供应至音频输出部5。
在系统控制器10的控制下,音频处理部16还执行诸如音量控制、音调控制或音效的施加的处理。
音频输出部5包括图1所示的一对耳机扬声器5a、耳机扬声器5a的放大器电路和D/A转换器。
也就是说,从音频处理部16供应的音频数据被D/A转换器转换为模拟音频信号,模拟音频信号被放大器电路放大并经由耳机扬声器5a作为声音输出。因此,用户能够听到外部声音、基于从存储部25读取的音频数据的音频、或基于由通信部26接收的音频数据的音频。
请注意,音频输出部5可使用所谓的骨传导扬声器。
存储部25是用于将图像数据(和音频数据)记录到预定存储介质,或从预定存储介质读取图像数据(和音频数据)的单元。例如,存储部25是由硬盘驱动器(HDD)形成的。不必说,作为存储介质,可采用各种类型的存储介质,诸如像闪存的固态存储器、包含固态存储器的存储卡、光盘、磁光盘和全息图存储器。对存储部25的要求是要能够根据所采用的存储介质记录和读取。
在系统控制器10的控制下,存储部25在存储介质上记录通过成像获得的图像数据(和音频数据),或在存储介质上记录由通信部26接收的图像数据(和音频数据)。具体地讲,存储部25对经由图像处理部15供应的图像数据、和经由音频处理部16供应的音频数据、或由通信部26接收的图像数据和音频数据编码,从而它们可以记录在存储介质上,然后将编码数据记录在存储介质上。
此外,在系统控制器10的控制下,存储部25也能够读取所记录的图像数据和音频数据。读取的图像数据经由图像处理部15供应至显示部2,而读取的音频数据经由音频处理部16供应至音频输出部5。也可以将读取图像/音频数据作为要被发送至外部装置的数据供应至通信部26。
通信部26经由图3所示的网络60向外部装置,尤其是服务器设备70发送数据或从其接收数据。
通信部26可被配置为例如,根据诸如无线LAN、蓝牙等的系统,通过近程无线通信对网络访问点执行网络通信。
由成像部3获得的拾取图像数据经由图像处理部15被供应至通信部26。此外,由音频输入部6获得的音频数据经由音频处理部16供应至通信部26。通信部26能够对图像数据和音频数据编码以用于通信,调制编码数据以供无线电发送,并将调制数据发送至外部装置。也就是说,通信部26能够将通过成像和声音收集当前在成像/显示设备1中获得的图像数据和音频数据发送至外部装置(例如服务器设备70)。
此外,通信部26还能够编码从存储部25读取的图像数据和音频数据以用于通信,调制编码数据以用于无线电发送,并将调制数据发送至外部装置。
请注意,例如,在通过成像和声音收集当前在成像/显示设备1中获得的图像/音频数据被发送至服务器设备70时,系统控制器10产生附加数据,并使得通信部26编码附加数据和将其与图像/音频数据一起发送。附加数据包括图像数据的管理信息、由下述位置检测部12检测的当前位置信息、和通过由日期/时间计算部28计算而获得当前日期/时间信息。
另一个可能的操作是一旦在存储部25中存储了通过成像和声音收集而获得的图像/音频数据,就在随后的时间从存储部25读取存储的图像/音频数据,并将所读取的图像/音频数据经由通信部26发送至服务器设备70。在该操作的情况下,当在存储部25中存储图像/音频数据时,系统控制器10产生包括上述多个信息的附加数据,并使存储部25将附加数据与图像/音频数据一起记录。当从存储部25读取记录的图像/音频数据,并将其发送至服务器设备70时,一起记录的附加数据也被发送至服务器设备70。
当系统控制器10通过执行上述处理将图像/音频数据发送至服务器设备70时,表示通过拍摄图像而获得的图像数据的位置的位置信息、和表示当获得图像/音频数据时的日期和时间的日期/时间信息也被发送至服务器设备70。
此外,通信部26接收从外部装置(服务器设备70)发送的图像/音频数据,解调所接收的图像/音频数据,并将解调的图像/音频数据供应至图像处理部15和音频处理部16。在该情况下,接收的图像和音频分别经由显示部2和音频输出部5被输出。
不必说,由通信部26接收的图像/音频数据可以被供应至存储部25,并记录在存储介质上。
成像/显示设备1还包括照明部4和照明控制部14。照明部4是由图1和图2所示的发光部4a、和使发光部4a(例如LED)发射光的照明电路形成的。基于从系统控制器10发出的指令,照明控制部14使照明部4执行发光操作。
因为照明部4中的发光部4a以图1所示的方式固定到成像/显示设备1,所以照明部4在图像拾取透镜3a拍摄图像的方向上提供照明。
成像/显示设备1还包括用于用户操作的操作输入部11。
操作输入部11可包括诸如按键、刻度盘(dial)等的操作单元,并且被配置为检测诸如键操作的用户操作。可供替换地,操作输入部11可被配置为检测用户的有意行为。
在操作输入部11包括操作单元的情况下,操作单元可包括用于上电/断电操作、成像相关操作(例如,变焦操作、与信号处理相关的操作等)、显示相关操作(例如,选择显示内容、控制显示器的操作等)、和用于指定在下面描述的外部装置的操作的操作单元。
在操作输入部11被配置为检测用户行为的情况下,操作输入部11可设有加速度传感器、角速度传感器、振动传感器、压力传感器等。
例如,可用加速度传感器、振动传感器等检测用户从侧面轻敲成像/显示设备1的行为。因此,系统控制器10可确定例如当横向加速度已超过预定值时进行用户操作。此外,可使用加速度传感器、角速度传感器等检测用户是否从右侧或从左侧轻敲成像/显示设备1的侧面(对应于眼镜的侧部),并且系统控制器10可将用户的这些行为中的每一个视为预定操作。
此外,可用加速度传感器、角速度传感器等检测用户的转动或摇动他或她的头的行为。系统控制器10可将用户的这些行为中的每一个视为用户操作。
此外,例如,可在成像/显示设备1的左和右侧(对应于眼镜的侧部)的每一个上设置压力传感器。然后,当用户用手指按压成像/显示设备1的右侧时,系统控制器10可确定用户已执行远距变焦的操作,并且当用户用手指按压成像/显示设备1的左侧时,系统控制器10确定用户已执行广角变焦的操作。
此外,操作输入部11可设有用于检测关于用户的生物信息的生物传感器。在该情况下,可将检测的生物信息识别为操作输入。生物信息的例子包括:脉冲率、心率、心电图信息、肌电信息、呼吸信息(例如,呼吸速率、呼吸深度、换气量等)、出汗、GSR(皮肤电反应)、血压、血液中的饱和氧浓度、皮肤表面温度、脑电波(例如,α波、β波、θ波、和Δ波的信息)、血流变化和眼睛状态。
然后,系统控制器10可识别由生物传感器检测的信息作为由用户输入的操作。用户的有意行为的一个例子是眼睛的运动(例如,用户的眼睛所指的方向、眨眼等的变化)。例如,当检测到用户眨眼三次的行为时,系统控制器10可将该行为视为具体操作输入。此外,也可能基于检测的生物信息检测例如用户戴上或摘下成像/显示设备1,或具体用户已戴上成像/显示设备1。因此,例如,系统控制器10可响应这样的行为接通或断开成像/显示设备1的电源。
操作输入部11向系统控制器10供应通过用作上述操作单元的加速度传感器、角速度传感器、振动传感器、压力传感器、生物传感器等获取的信息。系统控制器10基于所供应的信息检测用户操作。
成像/显示设备1还包括位置检测部12。位置检测部12是例如GPS接收机部。GPS接收机部从全球定位系统(GPS)卫星接收无线电波,并将当前位置的纬度和经度的信息输出至系统控制器10。
当图像/音频数据和附加数据被发送至服务器设备70时,由该位置检测部12检测的成像时的位置信息包括在附加数据中。
请注意,位置检测部12可使用Wi-Fi(无线保真)、或由移动电话公司提供的位置信息服务、或这样的服务与GPS的组合。
此外,可检测步行速度(或在安装在机动车等上的装置的情况下是车辆速度等),以校正检测的位置。
日期/时间计算部28计算当前的日期和时间(年、月、日、小时、分钟、秒)。系统控制器10能够基于由日期/时间计算部28计算的值识别当前的日期和时间。
当图像/音频数据和附加数据被发送至服务器设备70时,该附加数据包括由日期/时间计算部28检测的日期/时间信息(指示当通过成像获得正被发送的图像数据时的日期和时间)。
成像/显示设备1能够在显示部2上显示地图图像。为了显示地图图像,成像/显示设备1还包括地图数据库29。例如,在存储部25由HDD等形成的情况下,地图数据库29可存储在HDD等的部分区中。
地图数据库29是包含用于产生与位置信息、诸如点的名称的附加信息、搜索信息等相对应的地图图像的信息,作为用于在所谓的导航系统中显示地图的信息的数据库。
系统控制器10能够使用地图数据库29执行搜索和显示合适的地图的处理。
现在将参照图5在下面描述成像设备30的结构。请注意,在图5中,在图4中具有其对应部分的元件被赋予与其对应部分在图4中的附图标记相同的附图标记,并省略对其的描述。图5中示出的成像设备30与图4中示出的成像/显示设备1不同之处在于:成像设备30不包括用于输出图像的显示部2、用于输出音频的音频输出部5或用于显示地图的地图数据库29。
也就是说,尽管成像设备30如图2所示由用户佩戴或放置在上述的各个可移动体上,但是成像设备30能够通过成像部3成像,并将拾取的图像数据经由通信部26发送至外部装置或在存储部25中记录拾取的图像数据。
系统控制器10控制成像操作、通信操作、记录操作等。
现在将参照图6在下面描述显示设备40的示例性结构。请注意,在图6中,在图4中具有其对应部分的元件被赋予与其对应部分在图4中的附图标记相同的附图标记,并省略对其的描述。图6所示的显示设备40与图4中示出的成像/显示设备1不同之处在于:显示设备40不包括用于成像的成像部3、或用于音频输入的音频输入部6。此外,显示设备40不设有照明部4或照明控制部14,其有助于成像。
因为显示设备40没有被设计为将图像/音频数据发送至服务器设备70,所以显示设备40不必设有位置检测部12或日期/时间计算部28,位置检测部12或日期/时间计算部28用于产生当发送时包括在附加数据中的位置信息或日期/时间信息。
不必说,系统控制器10不需要具有执行用于控制图像/音频数据到服务器设备70的发送的处理的能力。
显示设备40是以图2的(b)所建议的方式由用户佩戴,或由用户携带,或由用户安装在房子、机动车等中的装置。显示设备40经由通信部26接收从外部装置发送的图像/音频数据。然后,显示设备40经由显示部2和音频输出部5将接收的图像/音频数据输出,或将接收的图像/音频数据记录在存储部25中。
系统控制器10控制通信操作、显示操作、音频输出操作、记录操作等。
在显示设备固定地安装在房子等中的情况下,通信部26可被配置为经由有线连接执行网络通信。
图2的(a)和(b)所示的成像设备30和显示设备40可都由相同的用户使用,如图3所示的用户F那样,从而成像设备30和显示设备40组合以实现与成像/显示设备1的功能相似的功能。
在该情况下,成像设备30和显示设备40可具有如图7所示的配置。
在图7的示例性配置中,除了成像设备30没有设有显示部2而设有发送部27以外,成像设备30基本上具有与图4所示的成像/显示设备1的结构相同的结构。
发送部27将从图像处理部15供应的图像数据编码作为被显示用于监视的图像数据,从而图像数据可被发送至显示设备40。然后,发送部27将编码图像数据发送至显示设备40。
显示设备40包括接收部41、显示控制部42和显示部2。
接收部41与成像设备30中的发送部21执行数据通信。接收部41接收从成像设备30发送的图像数据,并解码接收的图像数据。
由接收部41解码的图像数据被供应至显示控制部42。显示控制部42执行信号处理、画面分割、字符合成等,用于呈现涉及图像数据的显示以产生用于显示的图像信号,并将产生的图像信号供应至显示部2,该显示部2具有诸如液晶显示器的显示面板部2a。
根据用于显示的图像信号,显示部2将基于视频信号的驱动信号以用于显示的预定水平/垂直驱动定时施加到在显示面板部2a中排列成矩阵的像素。
当成像设备30和显示设备40具有上述配置时,像图3中的用户F一样佩戴成像设备30和显示设备40的用户,能够以与使用成像/显示设备1的方式相似的方式使用两个设备。
现在,将参照图8在下面描述服务器设备70的示例性结构。
服务器设备70包括服务器控制部72、网络存储部71和通信部73。
网络存储部71由HDD等形成,并存储下面描述的点图像数据库。如参照图12在下面描述的,点图像数据库是其中累积有经由网络60从成像设备30或成像/显示设备1接收的图像/音频数据和附加数据的数据库。
通信部73经由网络60与成像/显示设备1、成像设备30和显示设备40中的每一个的通信部26执行数据通信。
服务器控制部72执行服务器设备70所必需的操作控制。具体地讲,服务器控制部72控制在成像/显示设备1、成像设备30和显示设备40之间执行的通信操作,在网络存储部71中存储图像/音频数据的处理,搜索处理等。
尽管已在上面描述了成像/显示设备1、成像设备30、显示设备40和服务器设备70的结构,但是应该理解,这些结构中的每一个都不仅仅是例子。不必说,可以根据所实现的实际系统操作或功能,以多种方式添加或省略元件。应该理解,成像设备30、成像/显示设备1和显示设备40的适当的结构基于安装(放置)有成像设备30或成像/显示设备1的可移动体的类型,或基于显示设备30的形式(例如,手表形状、便携类型、固定类型等)。
[4.示例性系统操作]
下文中,将描述根据本实施例的示例性系统操作。
将在下面的说明部分中使用称谓“设备A”和“设备B”。
称谓“设备A”是指图3所示的成像/显示设备1或显示设备40。称谓“设备B”是指图3所示的成像/显示设备1或成像设备30。
换句话说,“设备A”是指由用户使用、并接收和显示来自服务器设备70的在另一个可移动体处拍摄的图像的装置,并且对应于所附权利要求中所述的“显示设备”。
另一方面,“设备B”是指将图像发送至服务器设备70,并由人、动物、车辆或之前所述的其它可移动体佩戴或安装在其上的装置,并对应于所附权利要求中所述的“成像设备”。
图9示出了用作设备A的成像/显示设备1和显示设备40、服务器设备70、和用作设备B的成像/显示设备1和成像设备30。
用作设备B的成像设备30和成像/显示设备1执行将通过成像获得的图像数据(和音频数据)发送至服务器设备70的处理。
例如,用作设备B的成像设备30和成像/显示设备1可持续地对所拍摄的图像数据(和音频数据)成像并将其发送至服务器设备70。在仅在指定时间执行成像的情况下,用作设备B的成像设备30和成像/显示设备1可在每一次执行成像时,将拾取的图像数据(和音频数据)发送至服务器设备70。例如,可规律地执行图像数据的成像和发送。在由用户佩戴设备B的情况下,可基于用户操作执行图像数据的成像和发送。此外,服务器设备70可将用于成像的请求与表示指定位置的位置信息一起发送至设备B。在该情况下,当设备B的系统控制器10确定设备B的当前位置对应于位置信息所指示的指定位置时,系统控制器10可自动地拍摄通过成像获得的图像数据,并将其发送至服务器设备70。
如之前所述,当将图像/视频数据发送至服务器设备70时,用作设备B的成像设备30和成像/显示设备1还发送附加数据。
附加数据包括涉及所发送的图像/音频数据的图像管理信息、表示通过成像获得图像数据的位置的位置信息、和表示当通过成像获得图像数据时的日期和时间的日期/时间信息。
服务器设备70将从成像/显示设备1和成像设备30中的每一个发送的图像数据(和音频数据)和附加数据,存储在网络存储部71的点图像数据库中。
也就是说,基于经由通信部73从设备B接收图像数据(和音频数据)和附加数据,服务器控制部72执行在网络存储部71的点图像数据库中登记接收的数据的处理。
图10示意性地示出了点图像数据库中记录的内容。
在点图像数据库中,从用作设备B的成像/显示设备1和成像设备30中的每一个发送的图像数据被分割和登记为条目#1,#2等。图像数据的分割可基于图像数据的大小、再现时间等。例如,可确定最大数据量、最大再现时间等。在图像数据作为连续视频从设备B发送的情况下,可在表示通过摄影获得图像数据的位置的位置信息变化的点处将连续视频分割为不同条目。例如,可基于从设备B发送图像数据的形式、或发送的持续时间、或根据点图像数据库的管理信息的便利、或由服务器设备70提供的图像提供服务的便利,适当地确定图像数据被分割为不同条目的方式。
参照图10、尽管图像数据(和音频数据)VD1,VD2,VD3等被记录为条目,但是位置信息P1,P2,P3等、日期/时间信息Date1,Date2,Date3等、和图像管理信息C1,C2,C3等都被记录为分别与图像数据VD1,VD2,VD3等相关联。
位置信息、日期/时间信息和图像管理信息是与图像数据一起从设备B发送的附加数据。
例如,关于条目#1,位置信息P1是表示拍摄图像数据VD1的图像的位置的位置信息,并且是例如该位置的纬度和经度的信息。
日期/时间信息Date1是表示当拍摄图像数据VD1的图像时的日期和时间(年、月、日、小时、分钟、秒)的信息。
图像管理信息C1是图像数据VD1的管理信息,并且包括例如图像类型(例如,视频或静止图像)、数据量、压缩算法、设备B的识别信息、和诸如拍摄图像数据VD1的图像的位置的名称的信息的成像位置相关信息。请注意,可基于成像时的当前位置信息,从用作设备B的成像/显示设备1或成像设备30中的地图数据库29检索成像位置相关信息,然后设备B的系统控制器10可将检索的成像位置相关信息添加至要发送至服务器设备70的附加数据。可供替换地,服务器设备70可设有地图数据库,并基于位置信息P1从地图数据库75检索成像位置相关信息。
如上所述,如图9所示,用作设备B的成像/显示设备1和成像设备30中的每一个都将图像数据和附加数据发送至服务器设备70。其结果是,在多个地点、以各个速度拍摄的图像的图像数据被累积在图10所示的点图像数据库中。
作为在服务器设备70中累积在各个地点、以各个速度拍摄的图像的结果是,服务器设备70能够将图像提供服务提供给设备A的用户。也就是说,服务器设备70能够响应来自设备A的图像请求,读取在点图像数据库中累积的图像数据,并将读取的图像数据发送至设备A。
现在将在下面描述示例性操作:其中,用作设备A的成像/显示设备1或显示设备40与服务器设备70通信,并获取来自服务器设备70的图像数据以显示所获取的图像数据。换句话说,该示例性操作是设备A的用户享用由服务器设备70提供的图像提供服务的操作。
可将图11所示的设备A的程序认为是由成像/显示设备1或显示设备40的系统控制器10执行的控制程序,而服务器设备70的程序可被认为是由服务器控制部72执行的控制程序。
在设备A的部分,首先在步骤F100,使用地图图像执行位置指定处理。例如,设备A的系统控制器10使用地图数据库29中的数据执行地图显示。还根据用户操作执行在地图上搜索指定区、滚动显示等。这使得用户能够在显示部2上看到指定区域或区的地图图像。
例如,响应用户指定地点名称或比例尺,或执行滚动操作,系统控制器10改变所显示的区或比例尺,以使某个区的地图图像如图12的(a)所示被显示。
系统控制器10使指针PT如图12(b)所示显示在地图图像上,并允许指针PT根据用户操作在地图图像上移动。也就是说,通过将指针PT移动至地图图像上的所需位置并执行预定操作,用户能够在地图图像上指定特定位置。
不必说,请注意,指针PT的使用不是必需的。例如,可将触摸面板操作特征添加至显示部2,从而用户可通过用手指在地图图像上触摸该位置来指定所需位置。
响应用户以这样的方式执行在地图图像上指定某个点的操作,系统控制器10产生位置指定信息。换句话说,其产生包括由用户在地图上指定的点的纬度和经度的值的位置指定信息。
在步骤F100中产生位置指定信息之后,设备A的系统控制器10在步骤F101访问服务器设备70。换句话说,设备A的系统控制器10建立与服务器设备70的通信连接。此时,设备A的系统控制器将图像请求的信息和位置指定信息发送至服务器设备70。
在步骤F300,服务器设备70的服务器控制部72建立与设备A的通信连接,并接收图像请求和位置指定信息。
然后,在步骤F301,服务器控制部72识别要读取的图像数据。具体地讲,基于接收的位置指定信息,服务器控制部72搜索网络存储部71中的点图像数据库,以提取其位置信息与位置指定信息相匹配的条目。
可供替换地,可提取其位置信息在预定范围内的条目,所述预定范围可认为在由位置指定信息指定的纬度和经度的位置附近。
然后,服务器控制部72将提取的条目的图像数据识别为要读取的图像数据。
还请注意,可找到多个条目。在该情况下,可参照日期/时间信息,使得其日期/时间信息指示最近的日期和时间的条目的图像数据被选择作为要读取的图像数据。可供替换地,可确定顺序地读取找到的所有条目。
还请注意,可以不找到与位置指定信息相匹配的条目。也就是说,在设备B没有上传由位置指定信息指示的位置处(或附近)拍摄的图像的图像数据的情况下。
尽管图11未示出,但是在这样的情况下,服务器控制部72通知设备A没有找到与位置指定信息相匹配的图像数据,因此不可能提供图像。响应于此,设备A通知用户不可能提供图像,并结束其程序。
在搜索点图像数据库并识别要读取的条目(即,图像数据)之后,服务器控制部72在步骤F302使被识别为要读取的图像的图像数据从网络存储部71被读取,并使读取的图像数据和音频数据经由通信部73发送至设备A。
在步骤F102,设备A接收和显示从服务器设备70发送的图像数据。也就是说,设备A的系统控制器10使由通信部26接收和解调的图像数据(和音频数据)被供应至图像处理部15和音频处理部16,并使图像数据显示在显示部2上,使音频数据经由音频输出部5被输出。
在步骤F103中,设备A的系统控制器10监视是否已从服务器设备70发送通信终止请求。
在步骤F104中,设备A的系统控制器10确定是否应终止图像的显示。例如,当用户已使用操作输入部11执行终止图像显示的操作时,设备A的系统控制器10确定应终止图像的显示。此外,当图像数据的接收和显示继续了预定的时间段时,图像的显示可自动地终止。
设备A的系统控制器10继续显示在步骤F102接收的图像数据(并输出音频数据),直到在步骤F103中确定已接收通信终止请求或在步骤F104中确定应终止图像的显示。
在步骤F303中,服务器设备70监视是否已完成要读取的条目的图像数据的读取。在步骤F304中,服务器设备70监视是否已从设备A接收通信终止请求。服务器设备70继续读取并发送图像数据(和音频数据)直到确定任何一个这样的情况。
因此,在该时间段期间,设备A的用户能够观看由设备B在过去拍摄的实际景象的图像,所述设备B位于由用户使用地图图像指定的位置或位置附近,并且以指定速度移动。
如果在步骤F104中确定应基于用户操作或另一个终止条件终止图像的显示,则设备A的系统控制器10进入步骤F105,并使得通信终止请求经由通信部26发送至服务器设备70,然后进入步骤F106。基于接收通信终止请求,服务器设备70从步骤F304进入F306。
如果确定已完成要读取的条目的读取和发送,则服务器控制部72从步骤F303进入F305,并使通信终止请求经由通信部73被发送至设备A。基于接收通信终止请求,设备A的系统控制器10从步骤F103进入F106。
然后,在步骤F106中,设备A的系统控制器10执行终止与服务器设备70的通信连接的处理。在步骤F306中,服务器设备70的服务器控制部72终止与设备A的通信和用于设备A的服务器处理。因此,结束了系统操作。
根据上述程序,通过在地图图像上任意地指定的某个位置,设备A的用户能够利用用户佩戴或携带的设备A观看由设备B在该位置处摄影的景象。
图13示出了可由设备A的用户看到的示例性图像。
例如,如果设备A的用户在地图上指定某个道路上的点,则如图13的(a)和(b)所示,用户可看到利用设备B在过去在该点处拍摄的图像。这样的图像是例如在指定点处,由附着于机动车上的成像设备30或由驾驶员佩戴的成像设备30或成像/显示设备1拍摄的图像。
参照图13的(c),例如,如果设备A的用户在地图上指定了某个铁轨上的一个点,则用户可看到由诸如附着于轨道车辆上的成像设备30的设备B在过去在该点处拍摄的图像,或由火车驾驶员佩戴的成像设备30或成像/显示设备1拍摄的图像。
参照图13的(d),例如,如果设备A的用户在地图上指定了某个胜地(resort)中的一个点,则用户可看到由设备B拍摄的图像,设备B是诸如由过去出现在该点的人佩戴的成像设备30或成像/显示设备1的设备。
如上述例子,例如,通过在地图上指定一个点,设备A的用户可看到在该点处实际拍摄的图像。
尽管在上述说明部分中假设设备A的用户仅在地图图像上指定位置,但是用户也可以允许另外地指定日期和时间,如图11的步骤F100中另外描述的那样。
如上所述,在步骤F100,系统控制器10根据用户在显示地图图像的同时指定位置的操作产生位置指定信息。此时,系统控制器10可另外地让用户例如使用菜单或通过输入数值指定并输入日期和时间。
例如,可允许用户指定和输入具体年、月、日、具体时间等,或指定和输入某日期范围(例如,从某月的某日到某月的某日)或某时间范围(例如,从某小时到另一个小时)。此外,可允许用户基于输入的日期和时间选择搜索条件。这样的条件的例子包括:“包括指定日期/时间”、“在指定日期/时间范围内”、“在指定日期/时间之前”和“在指定日期/时间之后”。于是,系统控制器10将指定日期/时间、或指定日期/时间和搜索条件的组合设定为日期/时间指定信息。
在该情况下,当在步骤F101中访问服务器设备70时,设备A的系统控制器10发送日期/时间指定信息以及位置指定信息。在步骤F300,服务器控制部72接收日期/时间指定信息以及位置指定信息。
然后,在步骤F301,服务器控制部72使用位置指定信息和日期/时间指定信息搜索点图像数据库。
具体地讲,服务器控制部72提取其在点图像数据库中的位置信息与位置指定信息相匹配(或接近)的条目,并从其中进一步提取其在点图像数据库中的日期/时间信息与日期/时间指定信息相匹配的条目。
通过以上述方式执行搜索,服务器控制部72提取与用户指定的位置和成像日期/时间相匹配的条目,并将该条目的图像数据识别为要读取的图像。
如上所述,通过指定日期/时间,设备A的用户能够选择性地观看在指定日期/时间拍摄的图像。
例如,设备A的用户能够任意地选择和观看在某时间段、在某个点拍摄的景象;在近期的过去、在某个点拍摄的景象;在某时间之前、在某个点拍摄的景象;在某一天、在某个点拍摄的景象;在某个时间、在某个点拍摄的景象;在晚上、在某个点拍摄的景象;等等。
因此,用户能够观看以任意移动速度、在任意地点拍摄的许多个景象。
[5.实施例、示例性变型例和示例性扩展例的效果]
上面已描述了实施例。通过在地图图像上指定位置,对应于设备A的成像/显示设备1或显示设备40的用户能够看到由成像设备30在指定位置处实际拍摄的图像。因此,实现了满足用户的各种需求的系统和设备。这样的需求的例子包括:看到并享用可在地图上指定的某个地点的景象的需求,以及了解可在地图上指定的某个地点的情况的需求。
此外,在地图图像上指定位置,并看到在该位置拍摄的图像的能力允许用户了解:例如,指定位置的环境,其地形特征、附近建筑物或自然物体的视图、道路宽度或车道数量、基于日期和时间变化的状态等。因此,对所谓的导航系统的应用使得可以提供扩展信息提供服务。
此外,可使用日期/时间指定信息来选择提供的图像数据。其允许用户通过指定不同的日期/时间条件来观看不同的图像。
例如,其使得可能通过对其指定来观看在某个建筑物在建造之前的该地点的景象,作为在早于某时间段的时间、在某地点拍摄的图像。
因为用作设备B的成像/显示设备1或成像设备30可放置在包括人的可移动体上,所以不需要提供诸如所谓的固定摄影机的固定装备。
放置在可移动体上的成像/显示设备1或成像设备30在各个地点上移动的同时自然地拍摄图像。因此,容易收集在各个地点实际拍摄的图像,并添加在点图像数据库中登记的图像。
尽管已在上面描述了根据本发明的图像显示系统、显示设备和显示方法的实施例,但是应该理解,本发明不限于上述实施例,而存在各种变型例和扩展例。
存在用作设备A的成像/显示设备1和显示设备40的各种可能的结构和程序,所述设备A对应于根据本发明的显示设备。此外,存在用作设备B的成像/显示设备1和成像设备30的各种可能的结构和程序,所述设备B对应于所附权利要求中所述的成像设备。此外,存在服务器设备70的各种可能的结构和程序。
此外,例如,不仅可执行正常的成像,还可以执行各种成像操作,以获得设备B中的图像,从而将上传的数据发送至服务器设备70。此外,可从服务器设备70发送各种成像操作的请求。这样的各种成像操作的例子包括:远距成像;广角成像;涉及在远距极值和广角极值之间的范围内放大和缩小的成像;用于放大的图像的成像;用于缩小的图像的成像;具有变化的帧速率的成像(例如,具有高帧速率的成像、具有低帧速率的成像等);具有增加的亮度的成像;具有减小的亮度的成像;具有变化的对比度的成像;具有变化的清晰度的成像;具有增加的成像灵敏度的成像;具有增加的红外线成像灵敏度的成像;具有增加的紫外线成像灵敏度的成像;去除了特定波长范围的成像;涉及应用诸如拾取的图像数据的马赛克图像、回色处理、软聚焦处理、突出显示部分图像、或改变图像的整体颜色氛围的图像效果的成像;和用于静止图像的成像。
此外,当设备A从服务器设备70请求图像时,可这样设置使得不仅可请求在点图像数据库中登记的图像的正常重复图像,还可请求其特殊再现图像。
例如,有可能请求发送仅对应于一个帧的静止图像、作为视频存储一条的图像数据,并且可请求以减慢的速度或加快的速度播放图像数据。
具体地讲,因为在点图像数据库中登记的图像数据是由附着于可移动体上的设备B拍摄的图像数据,所以其通常是在可移动体以某速度移动的同时拍摄的图像数据。因此,服务器设备70可以改变的速度再现这样的图像数据,以将其发送至设备A,从而设备A的用户可人为地看到当以高速度移动时可看到的景象的图像、当以慢速度移动时可看到的景象的图像。
此外,在设备A中,从服务器设备70发送的图像数据可与位置信息一起存储在存储部25中。也就是说,系统控制器10在存储部25中存储接收的图像数据,以与位置信息(例如,在图11的步骤F100设定的点指定信息)相关联。
其结果是,用户可通过在随后的时间在地图上指定同一点来再现存储在存储部25中的图像数据。
此外,可允许设备A的用户指定从某个点的运动方向。
在该情况下,在设备B中,位置检测部12也检测运动的方向,并将运动的方向发送至服务器设备70,并包括在附加数据中。服务器设备70将接收的数据与运动方向信息一起登记在点图像数据库中。
因此,通过指定运动的方向作为附加搜索条件,设备A的用户能够请求服务器设备70选择由沿指定的运动方向移动的设备B拍摄的图像的图像数据。
例如,在沿南北方向延伸的某道路上看到的景象,基于对景象成像的设备B是向北还是向南移动而不同。当设备A的用户指定运动的方向作为附加搜索条件时,将检索与用户指定的运动方向相匹配的图像数据,并将其提供至设备A。
在上述例子中,已假设在地面地图图像上执行位置指定。然而,可通过海洋图表、海下地形图、航空图表和空间图表等来指定某个位置。
例如,服务器设备70可在点图像数据库中登记在船只、潜水艇、飞行器、卫星等处拍摄的图像的图像数据、以及其位置信息等。在该情况下,服务器设备70能够通过海洋图表等,基于指定搜索合适的图像,并将找到的图像提供给设备A。应该理解,涉及海下、空中、太空中的位置等的位置信息不仅可包括纬度和经度的信息,还可包括高度或深度的信息。
例如,用户可使用太空图表指定卫星的轨道上的某地点,以观看卫星在该点或该点附近拍摄的图像。
此外,在根据上述实施例的示例性操作中,设备A侧具有地图数据库29,以执行地图显示。然而,服务器设备70可设有地图数据库,服务器设备70可发送基于地图数据库的地图图像以允许其显示在设备A上。
例如,设备A的用户进入具体地点名称、地址等,并将地点名称、地址等作为位置指定信息发送至服务器设备70。然后,服务器设备70产生应基于地点名称等显示的地图图像数据,并将其发送至设备A以被显示。
这样消除了在设备A侧提供地图数据库29的需要。换句话说,即使成像/显示设备1或显示设备40没有配备地图数据库29时,也可以完成根据本发明的操作。
在上述实施例中假设图像数据和音频数据都从设备B被上传至服务器设备70,并从服务器设备70提供至设备A。然而,请注意,在本发明的另一个实施例中可以仅提供图像数据。
还请注意,本发明可以应用于仅处理音频数据的系统。
Claims (16)
1.一种图像显示系统,包括显示设备、放置在可移动体上的用于摄影的成像设备、和服务器设备,所述显示设备和所述成像设备中的每一个都能够与所述服务器设备通信,
所述成像设备包括:
成像装置,用于摄影,
位置检测装置,用于检测位置信息,以及
控制装置,用于执行发送控制处理,以使由成像装置通过摄影获得的图像数据、和附加数据发送至所述服务器设备,所述附加数据至少包括当通过摄影获得图像数据时由位置检测装置检测的位置信息;
所述服务器设备包括:
存储装置,用于存储从所述成像设备发送的图像数据和附加数据,以及
控制装置,用于执行搜索/发送控制处理:即,基于从所述显示设备发送的位置指定信息搜索存储在存储装置中的图像数据,并使找到的图像数据被读取和发送至所述显示设备;以及
所述显示设备包括:
显示装置,用于执行图像显示,以及
控制装置,用于执行以下处理:使显示装置显示地图图像的地图显示处理;基于地图图像上的输入而设定位置指定信息的位置指定处理;将位置指定信息发送至所述服务器设备以请求图像数据的图像请求发送处理;和响应于图像请求发送处理而接收从所述服务器设备发送的图像数据并使显示装置基于接收到的图像数据执行显示操作的显示处理。
2.根据权利要求1所述的图像显示系统,其中可移动体是人、除人以外的动物、在地面上移动的装置、在海面上移动的装置、在海面下移动的装置、在空中移动的装置和在地球的大气层外移动的装置中的一个。
3.根据权利要求1所述的图像显示系统,其中:
所述成像设备还包括用于检测当前日期和时间、以及产生指示检测到的当前日期和时间的日期/时间信息的日期/时间检测装置,并且所述成像设备的控制装置允许附加数据包括当拍摄图像数据时由日期/时间检测装置产生的日期/时间信息;
所述显示设备的控制装置执行设定用于指定日期和时间的日期/时间指定信息的日期/时间指定处理,并且在图像请求发送处理中将点指定信息和日期/时间指定信息发送至所述服务器设备;以及
在搜索/发送控制处理中,所述服务器设备的控制装置基于从所述显示设备发送的点指定信息和日期/时间指定信息,搜索存储在存储装置中的图像数据。
4.根据权利要求1所述的图像显示系统,其中:
所述服务器设备包括用于发送指定位置信息的摄影请求数据的发送装置;以及
如果所述成像设备的当前位置被确定为与由摄影请求数据指定的位置重合,则所述成像设备的控制装置使成像装置摄影。
5.根据权利要求1所述的图像显示系统,其中,如果所述成像设备的当前位置被确定为与由摄影请求数据指定的位置重合,则所述成像设备的控制装置使由成像装置通过摄影获得的图像数据、和附加数据发送至所述服务器设备,所述附加数据至少包括当通过摄影获得图像数据时由位置检测装置检测的位置信息。
6.根据权利要求1所述的图像显示系统,其中,在从所述服务器设备接收到多个图像数据的情况下,所述显示设备的控制装置使显示装置按照该多个图像数据被上传至所述服务器设备的顺序显示该多个图像数据。
7.根据权利要求3所述的图像显示系统,其中,在从所述服务器设备接收到多个图像数据的情况下,所述显示设备的控制装置使显示装置基于该多个图像数据的日期/时间信息显示该多个图像数据。
8.一种显示设备,包括:
用于执行图像显示的显示装置;
用于与外部服务器设备执行数据通信的通信装置;以及
用于执行以下处理的控制装置:使所述显示装置显示地图图像的地图显示处理;基于地图图像上的输入而设定位置指定信息的位置指定处理;将位置指定信息经由所述通信装置发送至服务器设备以请求图像数据的图像请求发送处理;和响应于图像请求发送处理而接收从服务器设备发送的图像数据并使所述显示装置基于接收到的图像数据执行显示操作的显示处理。
9.根据权利要求8的显示设备,其中,在位置指定处理中,所述控制装置设定为地图图像指定的点的纬度和经度的信息作为位置指定信息。
10.根据权利要求8的显示设备,其中,所述控制装置还执行设定用于指定日期和时间的日期/时间指定信息的日期/时间指定处理,并且在图像请求发送处理中执行将点指定信息和日期/时间指定信息发送至服务器设备的处理。
11.根据权利要求8的显示设备,其中,所述显示装置被配置为设置在用户眼睛的前方以执行图像显示。
12.根据权利要求8的显示设备,还包括用于摄影的成像装置、和用于检测位置信息的位置检测装置,其中,
所述控制装置还能够执行发送控制处理:即,使由所述成像装置通过摄影获得的图像数据、和附加数据经由所述通信装置发送至服务器设备,所述附加数据至少包括当通过摄影获得图像数据时由所述位置检测装置检测的位置信息。
13.一种显示方法,包括:
使得显示地图图像的地图显示处理步骤;
基于地图图像上的输入而设定位置指定信息的位置指定处理步骤;
将位置指定信息发送至外部服务器设备以请求图像数据的图像请求发送处理步骤;以及
响应于图像请求发送处理而接收从服务器设备发送的图像数据并基于接收到的图像数据执行显示操作的显示步骤。
14.根据权利要求13所述的显示方法,其中:
图像数据与作为附加数据的日期/时间信息一起存储在服务器设备中,在服务器设备中,该日期/时间信息指示当通过摄影获得图像数据时的日期/时间;以及
所述图像请求发送处理步骤将指定的日期/时间指定信息与位置指定信息一起发送至服务器设备。
15.根据权利要求13所述的显示方法,其中,在接收到多个图像数据的情况下,所述显示步骤按照该多个图像数据被上传至服务器设备的顺序显示该多个图像数据。
16.根据权利要求13所述的显示方法,其中,在接收到多个图像数据的情况下,所述显示步骤基于该多个图像数据的日期/时间信息显示该多个图像数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP330832/2006 | 2006-12-07 | ||
JP2006330832A JP5176311B2 (ja) | 2006-12-07 | 2006-12-07 | 画像表示システム、表示装置、表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101578602A true CN101578602A (zh) | 2009-11-11 |
Family
ID=39491896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007800451131A Pending CN101578602A (zh) | 2006-12-07 | 2007-11-05 | 图像显示系统、显示设备和显示方法 |
Country Status (10)
Country | Link |
---|---|
US (3) | US8473544B2 (zh) |
EP (1) | EP2090989B1 (zh) |
JP (1) | JP5176311B2 (zh) |
KR (1) | KR101329419B1 (zh) |
CN (1) | CN101578602A (zh) |
BR (1) | BRPI0719940B1 (zh) |
CA (1) | CA2670744C (zh) |
MY (1) | MY151947A (zh) |
TW (1) | TW200837713A (zh) |
WO (1) | WO2008068990A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102033918A (zh) * | 2010-12-07 | 2011-04-27 | 武汉若鱼网络科技有限公司 | 基于时间位置信息搜索目标用户的方法及系统 |
CN102693677A (zh) * | 2011-01-05 | 2012-09-26 | 索尼公司 | 信息处理设备、信息显示方法及计算机程序 |
CN103312958A (zh) * | 2012-03-05 | 2013-09-18 | 索尼公司 | 客户机终端、服务器以及程序 |
CN103946734A (zh) * | 2011-09-21 | 2014-07-23 | 谷歌公司 | 叠加有对于外部设备的控制和指令的可穿戴计算机 |
CN104094589A (zh) * | 2012-02-06 | 2014-10-08 | 索尼公司 | 图像捕捉控制器、图像处理器、控制图像捕捉的方法以及图像处理方法 |
CN104219411A (zh) * | 2013-05-31 | 2014-12-17 | 京瓷办公信息系统株式会社 | 图像形成系统 |
CN104767816A (zh) * | 2015-04-15 | 2015-07-08 | 百度在线网络技术(北京)有限公司 | 拍摄信息采集方法、装置和终端 |
CN104808956A (zh) * | 2014-01-23 | 2015-07-29 | 富士通株式会社 | 用于控制显示的系统和方法 |
CN108924451A (zh) * | 2017-05-09 | 2018-11-30 | 高德信息技术有限公司 | 一种图像获取方法及装置 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5017989B2 (ja) | 2006-09-27 | 2012-09-05 | ソニー株式会社 | 撮像装置、撮像方法 |
JP2008096868A (ja) | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP5092357B2 (ja) * | 2006-11-07 | 2012-12-05 | ソニー株式会社 | 撮像表示装置、撮像表示方法 |
JP5023663B2 (ja) * | 2006-11-07 | 2012-09-12 | ソニー株式会社 | 撮像装置、撮像方法 |
JP4367663B2 (ja) * | 2007-04-10 | 2009-11-18 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
JP4506795B2 (ja) | 2007-08-06 | 2010-07-21 | ソニー株式会社 | 生体運動情報表示処理装置、生体運動情報処理システム |
KR101518829B1 (ko) * | 2008-06-17 | 2015-05-11 | 삼성전자주식회사 | 위치 정보를 포함하는 동영상 녹화 및 재생 방법 및 장치 |
JP5369974B2 (ja) * | 2009-08-04 | 2013-12-18 | 株式会社リコー | 撮像装置及び画像共有システム |
TWI423112B (zh) * | 2009-12-09 | 2014-01-11 | Ind Tech Res Inst | 可攜式虛擬輸入操作裝置與其操作方法 |
US9514089B1 (en) | 2010-03-31 | 2016-12-06 | EMC IP Holding Company LLC | Mobile device network data synchronization |
US9152650B1 (en) | 2010-03-31 | 2015-10-06 | Emc Corporation | Mobile device data recovery |
US8694597B1 (en) * | 2010-03-31 | 2014-04-08 | Emc Corporation | Mobile device group-based data sharing |
US8638364B2 (en) | 2010-09-23 | 2014-01-28 | Sony Computer Entertainment Inc. | User interface system and method using thermal imaging |
US8786698B2 (en) | 2010-09-23 | 2014-07-22 | Sony Computer Entertainment Inc. | Blow tracking user interface system and method |
JP5677002B2 (ja) * | 2010-09-28 | 2015-02-25 | キヤノン株式会社 | 映像制御装置、及び映像制御方法 |
US8621000B2 (en) * | 2011-03-23 | 2013-12-31 | Verizon Patent And Licensing Inc. | Region of interest streaming |
JP2012203128A (ja) * | 2011-03-24 | 2012-10-22 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US9217867B2 (en) | 2011-03-24 | 2015-12-22 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
US8818706B1 (en) | 2011-05-17 | 2014-08-26 | Google Inc. | Indoor localization and mapping |
US8164599B1 (en) | 2011-06-01 | 2012-04-24 | Google Inc. | Systems and methods for collecting and providing map images |
JP5860634B2 (ja) * | 2011-08-23 | 2016-02-16 | 任天堂株式会社 | 情報処理システム、情報処理方法、サーバプログラム、サーバ装置、および、サーバシステム |
TWI482108B (zh) * | 2011-12-29 | 2015-04-21 | Univ Nat Taiwan | To bring virtual social networks into real-life social systems and methods |
KR20130080186A (ko) * | 2012-01-04 | 2013-07-12 | 삼성전자주식회사 | 위치 정보 태깅을 위한 방법 및 장치 |
JP5891843B2 (ja) * | 2012-02-24 | 2016-03-23 | ソニー株式会社 | クライアント端末、サーバ、およびプログラム |
US9170113B2 (en) | 2012-02-24 | 2015-10-27 | Google Inc. | System and method for mapping an indoor environment |
US9756138B2 (en) * | 2013-04-08 | 2017-09-05 | Here Global B.V. | Desktop application synchronization to process data captured on a mobile device |
FR3006455A1 (fr) * | 2013-05-31 | 2014-12-05 | Optinvent | Systeme de vision oculaire avec guide optique positionnable dans deux positions |
KR101580617B1 (ko) | 2014-06-05 | 2015-12-28 | 오병오 | 빛의 조사구간 선택이 용이한 실외용 엘이디등기구 |
DE102014213058A1 (de) * | 2014-07-04 | 2016-01-07 | Siemens Aktiengesellschaft | Verfahren zur Ausgabe von Fahrzeuginformation |
JP6070652B2 (ja) * | 2014-07-28 | 2017-02-01 | ヤマハ株式会社 | リファレンス表示装置およびプログラム |
JP2015212828A (ja) * | 2015-06-17 | 2015-11-26 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
WO2017073775A1 (ja) * | 2015-10-30 | 2017-05-04 | 誠 大島 | 自動撮像装置、および装着型撮像装置 |
US10733456B2 (en) | 2015-12-21 | 2020-08-04 | A9.Com, Inc. | Sharing video footage from audio/video recording and communication devices |
US10447963B2 (en) | 2015-12-21 | 2019-10-15 | Amazon Technologies, Inc. | Sharing video footage from audio/video recording and communication devices |
CN110851643A (zh) * | 2019-10-28 | 2020-02-28 | 维沃移动通信有限公司 | 一种信息显示方法及电子设备 |
US20210398322A1 (en) * | 2020-06-17 | 2021-12-23 | Palantir Technologies Inc. | Approaches for compressing and distributing image data |
WO2023084810A1 (ja) * | 2021-11-10 | 2023-05-19 | 日本電信電話株式会社 | 情報処理装置、情報処理方法、及び、情報処理プログラム |
WO2024085353A1 (ko) * | 2022-10-20 | 2024-04-25 | 삼성전자주식회사 | 위치에 기반하여 카메라를 제어하여 위치에 대응하는 미디어를 획득하기 위한 전자 장치 및 그 방법 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6853293B2 (en) * | 1993-05-28 | 2005-02-08 | Symbol Technologies, Inc. | Wearable communication system |
JP3793773B2 (ja) | 1994-06-20 | 2006-07-05 | 株式会社東芝 | 無線通信方法、無線通信基地局および無線端末 |
US7084903B2 (en) * | 1998-05-18 | 2006-08-01 | International Business Machines Corporation | Image capturing system and method for automatically watermarking recorded parameters for providing digital image verification |
US7107539B2 (en) | 1998-12-18 | 2006-09-12 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US6791580B1 (en) * | 1998-12-18 | 2004-09-14 | Tangis Corporation | Supplying notifications related to supply and consumption of user context data |
JP2001034615A (ja) * | 1999-07-16 | 2001-02-09 | Nippon Telegr & Teleph Corp <Ntt> | 作業支援システム及び作業支援方法 |
JP2001050759A (ja) * | 1999-08-06 | 2001-02-23 | Nissan Motor Co Ltd | ナビゲーション装置 |
JP2001290820A (ja) * | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | 映像収集装置、映像検索装置および映像収集検索システム |
US20020010734A1 (en) * | 2000-02-03 | 2002-01-24 | Ebersole John Franklin | Internetworked augmented reality system and method |
GB0028804D0 (en) * | 2000-11-25 | 2001-01-10 | Hewlett Packard Co | Voice communication concerning a local entity |
TWI256250B (en) | 2001-05-10 | 2006-06-01 | Ibm | System and method for enhancing recorded radio or television programs with information on the world wide web |
TW540235B (en) | 2001-05-10 | 2003-07-01 | Ibm | System and method for enhancing broadcast programs with information on the world wide web |
TWI220036B (en) | 2001-05-10 | 2004-08-01 | Ibm | System and method for enhancing broadcast or recorded radio or television programs with information on the world wide web |
US20030014212A1 (en) * | 2001-07-12 | 2003-01-16 | Ralston Stuart E. | Augmented vision system using wireless communications |
US6717737B1 (en) * | 2001-12-21 | 2004-04-06 | Kyle Haglund | Mobile imaging system |
EP1324274A3 (en) | 2001-12-28 | 2005-11-02 | Matsushita Electric Industrial Co., Ltd. | Vehicle information recording system |
JP2003244691A (ja) | 2002-02-20 | 2003-08-29 | Matsushita Electric Ind Co Ltd | 記憶支援システム |
JP3789842B2 (ja) | 2002-03-28 | 2006-06-28 | エヌ・ティ・ティ・コムウェア株式会社 | コンテンツのセキュリティ機能付き管理方法およびセキュリティ機能付きコンテンツ管理装置 |
JP2003288357A (ja) * | 2002-03-28 | 2003-10-10 | Toshiba Corp | 情報共有システムと情報共有方法 |
JP4181372B2 (ja) * | 2002-09-27 | 2008-11-12 | 富士フイルム株式会社 | 表示装置、画像情報管理端末、画像情報管理システム、および画像表示方法 |
JP4508596B2 (ja) * | 2002-11-06 | 2010-07-21 | キヤノン株式会社 | 通信装置、画像記憶装置およびそれらの制御方法 |
TWI235588B (en) * | 2003-01-30 | 2005-07-01 | Casio Computer Co Ltd | Wrist-worn communications apparatus |
US20040174443A1 (en) * | 2003-03-07 | 2004-09-09 | Simske Steven J. | System and method for storing of records in a database |
WO2004107012A1 (ja) * | 2003-05-30 | 2004-12-09 | Vixen Co., Ltd. | 天体の自動導入装置 |
JP4192731B2 (ja) * | 2003-09-09 | 2008-12-10 | ソニー株式会社 | 案内情報提供装置及びプログラム |
US20050060299A1 (en) * | 2003-09-17 | 2005-03-17 | George Filley | Location-referenced photograph repository |
JP3944160B2 (ja) * | 2003-12-25 | 2007-07-11 | キヤノン株式会社 | 撮像装置、情報処理装置、それらの制御方法及びプログラム |
JP2005252732A (ja) * | 2004-03-04 | 2005-09-15 | Olympus Corp | 撮像装置 |
JP4459717B2 (ja) | 2004-05-26 | 2010-04-28 | 富士フイルム株式会社 | 地図更新システム |
US20060187317A1 (en) * | 2005-02-24 | 2006-08-24 | Memory Matrix, Inc. | Systems and methods for processing images with positional data |
US20060197781A1 (en) * | 2005-03-03 | 2006-09-07 | Arutunian Ethan B | System and method utilizing enhanced imagery and associated overlays |
US7848765B2 (en) * | 2005-05-27 | 2010-12-07 | Where, Inc. | Location-based services |
US20070135136A1 (en) * | 2005-07-07 | 2007-06-14 | Marc Ische | Method and apparatus for providing location information |
US20070032945A1 (en) * | 2005-08-02 | 2007-02-08 | Jason Kaufman | System and method for providing location related information to a network user |
US7920854B2 (en) * | 2005-09-19 | 2011-04-05 | Silverbrook Research Pty Ltd | Printing a map using a mobile device |
US20070083329A1 (en) * | 2005-10-07 | 2007-04-12 | Wansoo Im | Location-based interactive web-based multi-user community site |
JP4371127B2 (ja) | 2006-07-14 | 2009-11-25 | ソニー株式会社 | 再生装置、再生方法、プログラム |
US20080082264A1 (en) * | 2006-09-11 | 2008-04-03 | Broadcom Corporation, A California Corporation | GPS route creation, photograph association, and data collection |
JP5092357B2 (ja) * | 2006-11-07 | 2012-12-05 | ソニー株式会社 | 撮像表示装置、撮像表示方法 |
JP5023663B2 (ja) * | 2006-11-07 | 2012-09-12 | ソニー株式会社 | 撮像装置、撮像方法 |
US9665597B2 (en) * | 2006-12-05 | 2017-05-30 | Qualcomm Incorporated | Method and system for processing images using time and location filters |
JP4961984B2 (ja) * | 2006-12-07 | 2012-06-27 | ソニー株式会社 | 画像表示システム、表示装置、表示方法 |
JP4367663B2 (ja) * | 2007-04-10 | 2009-11-18 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
-
2006
- 2006-12-07 JP JP2006330832A patent/JP5176311B2/ja not_active Expired - Fee Related
-
2007
- 2007-11-05 BR BRPI0719940A patent/BRPI0719940B1/pt not_active IP Right Cessation
- 2007-11-05 MY MYPI20091860 patent/MY151947A/en unknown
- 2007-11-05 CA CA2670744A patent/CA2670744C/en not_active Expired - Fee Related
- 2007-11-05 EP EP07831223.8A patent/EP2090989B1/en not_active Not-in-force
- 2007-11-05 TW TW096141749A patent/TW200837713A/zh not_active IP Right Cessation
- 2007-11-05 CN CNA2007800451131A patent/CN101578602A/zh active Pending
- 2007-11-05 KR KR1020097011531A patent/KR101329419B1/ko active IP Right Grant
- 2007-11-05 US US12/312,615 patent/US8473544B2/en not_active Expired - Fee Related
- 2007-11-05 WO PCT/JP2007/071491 patent/WO2008068990A1/ja active Application Filing
-
2013
- 2013-05-28 US US13/903,302 patent/US8949324B2/en not_active Expired - Fee Related
-
2014
- 2014-10-09 US US14/511,059 patent/US20150022427A1/en not_active Abandoned
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102033918B (zh) * | 2010-12-07 | 2012-11-21 | 武汉若鱼网络科技有限公司 | 基于时间位置信息搜索目标用户的方法及系统 |
CN102033918A (zh) * | 2010-12-07 | 2011-04-27 | 武汉若鱼网络科技有限公司 | 基于时间位置信息搜索目标用户的方法及系统 |
CN102693677A (zh) * | 2011-01-05 | 2012-09-26 | 索尼公司 | 信息处理设备、信息显示方法及计算机程序 |
US9678654B2 (en) | 2011-09-21 | 2017-06-13 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
CN103946734A (zh) * | 2011-09-21 | 2014-07-23 | 谷歌公司 | 叠加有对于外部设备的控制和指令的可穿戴计算机 |
CN104094589A (zh) * | 2012-02-06 | 2014-10-08 | 索尼公司 | 图像捕捉控制器、图像处理器、控制图像捕捉的方法以及图像处理方法 |
CN104094589B (zh) * | 2012-02-06 | 2017-08-29 | 索尼公司 | 图像捕捉控制器、图像处理器、控制图像捕捉的方法以及图像处理方法 |
CN103312958A (zh) * | 2012-03-05 | 2013-09-18 | 索尼公司 | 客户机终端、服务器以及程序 |
CN103312958B (zh) * | 2012-03-05 | 2018-11-02 | 索尼公司 | 客户机终端、服务器以及程序 |
CN104219411A (zh) * | 2013-05-31 | 2014-12-17 | 京瓷办公信息系统株式会社 | 图像形成系统 |
CN104219411B (zh) * | 2013-05-31 | 2017-09-05 | 京瓷办公信息系统株式会社 | 图像形成系统 |
CN104808956A (zh) * | 2014-01-23 | 2015-07-29 | 富士通株式会社 | 用于控制显示的系统和方法 |
CN104767816A (zh) * | 2015-04-15 | 2015-07-08 | 百度在线网络技术(北京)有限公司 | 拍摄信息采集方法、装置和终端 |
CN108924451A (zh) * | 2017-05-09 | 2018-11-30 | 高德信息技术有限公司 | 一种图像获取方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
BRPI0719940A2 (pt) | 2014-03-11 |
CA2670744A1 (en) | 2008-06-12 |
KR20090086092A (ko) | 2009-08-10 |
US8473544B2 (en) | 2013-06-25 |
MY151947A (en) | 2014-07-31 |
US8949324B2 (en) | 2015-02-03 |
TWI379284B (zh) | 2012-12-11 |
BRPI0719940B1 (pt) | 2018-11-27 |
US20130335352A1 (en) | 2013-12-19 |
WO2008068990A1 (ja) | 2008-06-12 |
US20150022427A1 (en) | 2015-01-22 |
JP5176311B2 (ja) | 2013-04-03 |
EP2090989B1 (en) | 2016-01-27 |
EP2090989A4 (en) | 2011-11-02 |
TW200837713A (en) | 2008-09-16 |
US20100063997A1 (en) | 2010-03-11 |
CA2670744C (en) | 2017-10-31 |
EP2090989A1 (en) | 2009-08-19 |
JP2008147864A (ja) | 2008-06-26 |
KR101329419B1 (ko) | 2013-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101578602A (zh) | 图像显示系统、显示设备和显示方法 | |
CN101207804B (zh) | 图像显示系统、显示装置和显示方法 | |
US10187612B2 (en) | Display apparatus for displaying image data received from an image pickup apparatus attached to a moving body specified by specification information | |
CN101512632B (zh) | 显示设备和显示方法 | |
JP6094190B2 (ja) | 情報処理装置および記録媒体 | |
JP2013141272A (ja) | 表示装置、表示方法、画像表示システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20091111 |