KR20090086092A - 화상 표시 시스템, 표시 장치, 표시 방법 - Google Patents

화상 표시 시스템, 표시 장치, 표시 방법 Download PDF

Info

Publication number
KR20090086092A
KR20090086092A KR1020097011531A KR20097011531A KR20090086092A KR 20090086092 A KR20090086092 A KR 20090086092A KR 1020097011531 A KR1020097011531 A KR 1020097011531A KR 20097011531 A KR20097011531 A KR 20097011531A KR 20090086092 A KR20090086092 A KR 20090086092A
Authority
KR
South Korea
Prior art keywords
image
display
imaging
image data
information
Prior art date
Application number
KR1020097011531A
Other languages
English (en)
Other versions
KR101329419B1 (ko
Inventor
요이찌로 사꼬
게이지 기무라
마사아끼 쯔루따
마사미찌 아스까이
다이지 이또
노조무 오자끼
아끼노부 스기노
히데히꼬 세끼자와
요네따로 도쯔까
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20090086092A publication Critical patent/KR20090086092A/ko
Application granted granted Critical
Publication of KR101329419B1 publication Critical patent/KR101329419B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

유저가 지도 화상 상에서 위치를 지정함으로써, 그 위치에서 촬상된 화상을 볼 수 있도록 한다. 이동체에 장착된 촬상 장치(촬상 표시 장치(1) 또는 촬상 장치(30))는, 촬상 화상 데이터를 촬상 지점의 위치 정보를 포함하는 부가 데이터와 함께 서버 장치에 송신하고, 서버 장치에서 저장되도록 한다. 즉 서버 장치에서는 다수의 촬상 장치가 각지에서 촬상한 화상 데이터를 위치 정보와 함께 축적하도록 한다. 표시 장치(촬상 표시 장치(1) 또는 표시 장치(40))의 유저는, 지도 화상 상에서 위치를 지정한다. 그리고 표시 장치는 위치 지정 정보를 서버 장치에 송신함으로써, 서버 장치는 위치 지정 정보에 기초하여 화상 데이터를 검색하고, 위치 지정 정보에 대응하는 화상 데이터를 표시 장치에 송신한다. 표시 장치에서는 수신한 화상 데이터를 표시한다.
Figure P1020097011531
촬상 표시 장치, 표시 장치, 유저, 화상 데이터, 위치 지정 정보

Description

화상 표시 시스템, 표시 장치, 표시 방법{IMAGE DISPLAY SYSTEM, DISPLAY DEVICE AND DISPLAY METHOD}
본 발명은, 화상 표시 시스템, 표시 장치, 표시 방법에 관한 것으로,특히 표시 장치측에서의 지도 화상 상에서의 위치 지정에 기초하여, 외부의 촬상 장치에 의해 촬상된 화상 표시를 행하는 기술에 관한 것이다.
일본 특허 공개 제2005-341604호 공보에는 데이터 통신 시스템의 일례가 설명되어 있다.
일본 특허 공개 제2005-337863호 공보에는 카메라에 의해 촬상된 화상을 이용하여, 카 내비게이션 시스템이 갖는 입체 지도를 갱신하는 기술이 개시되어 있다.
일본 특허 공표 제2004-538681호 공보, 일본 특허 공표 제2004-537193호 공보, 일본 특허 공표 제2004-538679호 공보에는, 방송 완료·기록 완료의 프로그램을 WWW(World Wide Web) 상에서 확장하여 즐기는 시도가 개시되어 있다.
그러나 종래에는, 지도 화상에 대하여 유저가 임의로 위치를 지정하고, 그 위치의 화상을 볼 수 있도록 하는 기술은 제안되어 있지 않다.
따라서 본 발명은, 유저가 지도 화상 상에서, 임의의 위치를 지정함으로써, 그 위치에서 실제로 촬상된 화상을 볼 수 있도록 하는 것을 목적으로 한다.
<발명의 개시>
본 발명의 화상 표시 시스템은, 표시 장치와, 이동체에 장착되어 화상 촬상을 행하는 촬상 장치와, 서버 장치를 갖고 이루어지며, 상기 표시 장치와 상기 촬상 장치는, 각각 상기 서버 장치와 통신 가능하게 되어 있다. 그리고 상기 촬상 장치는, 화상 촬상을 행하는 촬상 수단과, 위치 정보를 검출하는 위치 검출 수단과, 상기 촬상 수단의 촬상에 의해 얻어진 화상 데이터와 적어도 그 화상 데이터의 촬상 시에 상기 위치 검출 수단에 의해 검출된 위치 정보를 포함하는 부가 데이터를 상기 서버 장치에 대하여 송신시키는 송신 제어 처리를 행하는 제어 수단을 구비한다. 상기 서버 장치는, 상기 촬상 장치로부터 송신되어 오는 상기 화상 데이터 및 상기 부가 데이터를 저장하는 저장 수단과, 상기 표시 장치로부터 송신되어 오는 위치 지정 정보에 기초하여, 상기 저장 수단에 저장된 화상 데이터의 검색을 행하고, 검색된 화상 데이터를 재생하여 상기 표시 장치에 송신시키는 검색 송신 제어 처리를 행하는 제어 수단을 구비한다. 상기 표시 장치는, 화상 표시를 행하는 표시 수단과, 상기 표시 수단에 지도 화상을 표시시키는 지도 표시 처리, 상기 지도 화상에 대한 입력에 기초하여 위치 지정 정보를 설정하는 위치 지정 처리, 상기 서버 장치에 상기 위치 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리, 상기 화상 요구 송신 처리에 따라서 상기 서버 장치로부터 송신되어 오는 화상 데이터를 수신하고 수신한 화상 데이터에 기초하는 표시 동작을 상기 표시 수단에 실행시키는 표시 처리를 행하는 제어 수단을 구비한다.
상기 촬상 장치가 장착되는 상기 이동체는, 사람, 또는 사람 이외의 생물, 또는 지상 이동 기기, 또는 해상 이동 기기, 또는 해중 이동 기기, 또는 항공 이동 기기, 또는 우주 이동 기기 중 어느 하나이다.
 또한 상기 촬상 장치는, 현재 일시를 검출하는 일시 검출 수단을 더 구비하고,상기 촬상 장치의 제어 수단은, 상기 부가 데이터에, 화상 데이터의 촬상 시에 상기 일시 검출 수단에 의해 검출된 일시 정보를 포함하도록 하고, 상기 표시 장치의 제어 수단은, 일시를 지정하는 일시 지정 정보를 설정하는 일시 지정 처리를 행함과 함께,상기 화상 요구 송신 처리에서는, 상기 위치 지정 정보와 함께 상기 일시 지정 정보를 상기 서버 장치에 송신하고, 상기 서버 장치의 제어 수단은, 상기 검색 송신 제어 처리 시에, 상기 표시 장치로부터 송신되어 오는 위치 지정 정보와 일시 지정 정보에 기초하여, 상기 저장 수단에 저장된 화상 데이터의 검색을 행한다.
본 발명의 표시 장치는, 화상 표시를 행하는 표시 수단과, 외부의 서버 장치와의 사이에서 데이터 통신을 행하는 통신 수단과, 상기 표시 수단에 지도 화상을 표시시키는 지도 표시 처리, 상기 지도 화상에 대한 입력에 기초하여 위치 지정 정보를 설정하는 위치 지정 처리, 상기 통신 수단에 의해 상기 서버 장치에 상기 위치 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리, 상기 화상 요구 송신 처리에 따라서 상기 서버 장치로부터 송신되어 오는 화상 데이터를 상기 통신 수단에 의해 수신시키고 수신한 화상 데이터에 기초하는 표시 동작을 상기 표시 수단에 실행시키는 표시 처리를 행하는 제어 수단을 구비한다.
또한 상기 제어 수단은, 상기 위치 지정 처리에서,상기 지도 화상에 대하여 지정 입력된 지점의 위도·경도의 정보를, 상기 위치 지정 정보로 한다.
또한 상기 제어 수단은, 일시를 지정하는 일시 지정 정보를 설정하는 일시 지정 처리를 더 행함과 함께,상기 화상 요구 송신 처리에서는, 상기 위치 지정 정보와 함께 상기 일시 지정 정보를 상기 서버 장치에 송신하는 처리를 행한다.
또한 상기 표시 수단은, 사용자의 눈의 전방에 위치하도록 배치되어 화상 표시를 행하는 구조로 된다.
또한 화상 촬상을 행하는 촬상 수단과, 위치 정보를 검출하는 위치 검출 수단을 더 구비하고, 상기 제어 수단은, 상기 촬상 수단의 촬상에 의해 얻어진 화상 데이터와, 적어도, 그 화상 데이터의 촬상 시에 상기 위치 검출 수단에 의해 검출된 위치 정보를 포함하는 부가 데이터를, 상기 통신 수단으로부터 상기 서버 장치에 대하여 송신시키는 송신 제어 처리도 실행 가능하게 된다.
본 발명의 표시 방법은, 지도 화상을 표시시키는 지도 표시 처리 스텝과, 상기 지도 화상에 대한 입력에 기초하여 위치 지정 정보를 설정하는 위치 지정 처리 스텝과, 외부의 서버 장치에 상기 위치 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리 스텝과, 상기 화상 요구 송신 처리에 따라서 상기 서버 장치로부터 송신되어 오는 화상 데이터를 수신하고, 수신한 화상 데이터에 기초하는 표시를 행하는 표시 스텝을 구비한다.
이상의 본 발명에서는, 표시 장치의 사용자(유저)는, 지도 화상 상에서 위치를 지정함으로써, 그 지정한 위치에서 실제로 촬상 장치에 의해 촬상된 화상을 볼 수 있다.
예를 들면, 외부의 촬상 장치로서, 타인이 장착하고 있는 촬상 장치나, 자동차, 전철 등에 부착된 촬상 장치, 나아가서는 동물이나 새 등에 장착된 촬상 장치 등을 생각한다. 그리고 이들 촬상 장치에 의해 촬상된 화상 데이터(동화상이나 정지 화상)가, 촬상 지점의 위치 정보를 포함하는 부가 데이터와 함께 서버 장치에 송신되어, 서버 장치에서 저장된다. 따라서 서버 장치에서는 다수의 촬상 장치가 각지에서 촬상한 화상 데이터가, 위치 정보와 함께 축적되어 가게 된다.
이와 같이 해 두면, 표시 장치측에서 위치를 지정하여 위치 지정 정보를 서버 장치에 송신함으로써, 서버 장치는 위치 지정 정보에 기초하여 화상 데이터를 검색할 수 있다. 서버 장치는 위치 지정 정보에 대응하는 화상 데이터를 검색하고, 그것을 표시 장치에 송신한다. 표시 장치에서는 수신한 화상 데이터를 표시한다. 그렇게 하면 표시 장치의 유저는, 표시 화상으로서, 지정한 지점에서 촬상된 광경을 볼 수 있다.
또한,본 발명에서 말하는 지도 화상이란, 단순히 지상에서의 길, 지형, 건물, 자연물 등을 표시한 「지도」의 화상뿐만 아니라, 해양도, 해중 지형도, 항공도, 우주도 등, 임의의 특정한 장소를 지정할 수 있는 각종 도면의 화상을 포함하는 것으로 한다.
본 발명에 의하면, 표시 장치의 유저는, 지도 화상 상에서 위치를 지정함으로써, 그 지정한 위치에서 실제로 촬상 장치에 의해 촬상된 화상을 볼 수 있다. 이것에 의해 본 발명은, 지도상에서 지정할 수 있는 임의의 장소의 광경을 보고 즐 기고자 하는 경우, 지도상에서 지정할 수 있는 임의의 장소의 상황을 알고자 하는 경우 등, 유저의 다양한 니즈에 대응할 수 있는 시스템 및 장치로 된다. 또한,지도 화상 상에서 위치를 지정하여, 그 위치의 촬상 화상을 볼 수 있다고 하는 것은, 지정한 위치의 상황으로서, 예를 들면 지형, 주위의 건물이나 자연물의 풍경, 도로의 폭이나 차선 수, 일시에 따른 모습 등을 알 수 있는 것이기 때문에,소위 내비게이션 시스템으로서 확장적인 정보 제공을 행하는 것도 가능하게 된다.
도 1은, 본 발명의 실시 형태의 촬상 표시 장치의 외관예의 설명도.
도 2는, 실시 형태의 촬상 장치, 표시 장치의 외관예의 설명도.
도 3은, 실시 형태의 시스템 구성예의 설명도.
도 4는, 실시 형태의 촬상 표시 장치의 블록도.
도 5는, 실시 형태의 촬상 장치의 블록도.
도 6은, 실시 형태의 표시 장치의 블록도.
도 7은, 실시 형태의 촬상 장치 및 표시 장치의 블록도.
도 8은, 실시 형태의 서버 장치의 블록도.
도 9는, 실시 형태의 시스템 동작예의 설명도.
도 10은, 실시 형태의 지점 화상 데이터베이스의 설명도.
도 11은, 실시 형태의 시스템 동작예의 플로우차트.
도 12는, 실시 형태에서의 지도 화상을 이용한 지정 시의 화상의 설명도.
도 13은, 실시 형태에서 표시되는 지정 지점의 촬상 화상의 설명도.
<발명을 실시하기 위한 최량의 형태>
이하, 본 발명의 화상 표시 시스템, 표시 장치, 표시 방법의 실시 형태를 설명한다. 실시 형태에서는,촬상 표시 장치(1) 또는 표시 장치(40)가, 본 발명 청구항에서 말하는 표시 장치에 해당하고, 촬상 표시 장치(1) 또는 표시 장치(40)의 처리로서 본 발명의 표시 방법이 실행된다. 또한 촬상 표시 장치(1) 또는 촬상 장치(30)가, 본 발명 청구항에서 말하는 촬상 장치에 해당한다. 또한,따라서 실시 형태의 촬상 표시 장치(1)는, 본 발명 청구항에서 말하는 표시 장치, 촬상 장치의 쌍방으로서 기능할 수 있는 것이다.
설명은 다음 순서로 행한다.
[1. 촬상 표시 장치, 촬상 장치, 표시 장치의 외관예]
[2. 시스템 형태]
[3. 촬상 표시 장치, 촬상 장치, 표시 장치, 서버 장치의 구성예]
[4. 시스템 동작예]
[5. 실시 형태의 효과 및 변형예, 확장예]
[1. 촬상 표시 장치, 촬상 장치, 표시 장치의 외관예]
도 1에 실시 형태의 촬상 표시 장치(1)의 외관예를 나타낸다. 이 촬상 표시 장치(1)는 안경형 디스플레이 카메라로서 유저가 장착할 수 있는 것으로 하고 있다.
촬상 표시 장치(1)는, 예를 들면 양 측두부로부터 후두부에 걸쳐 반주회하는 프레임의 구조의 장착 유닛을 갖고, 도면과 같이 양 귓바퀴에 걸쳐짐으로써 유저에 게 장착된다.
그리고 이 촬상 표시 장치(1)는, 도 1과 같은 장착 상태에서, 유저의 양눈의 직전, 즉 통상의 안경에서의 렌즈가 위치하는 장소에, 좌안용과 우안용의 한쌍의 표시 패널부(2a, 2b)가 배치되는 구성으로 되어 있다. 이 표시 패널부(2a, 2b)에는, 예를 들면 액정 패널이 이용되며, 투과율을 제어함으로써, 도면과 같은 스루 상태, 즉 투명 또는 반투명의 상태로 할 수 있다. 표시 패널부(2a, 2b)가 스루 상태로 됨으로써, 안경과 같이 유저가 상시 장착하고 있어도, 통상의 생활에는 지장이 없다.
또한 유저가 장착한 상태에서, 유저의 시계 방향을 피사체 방향으로서 촬상하도록, 전방을 향하여 촬상 렌즈(3a)가 배치되어 있다.
또한 촬상 렌즈(3a)에 의한 촬상 방향에 대하여 조명을 행하는 발광부(4a)가, 예를 들면 LED(Light Emitting Diode) 등에 의해 설치된다.
또한,도면에서는 좌측 귀만 나타내고 있지만, 장착 상태에서 유저의 우측 귓구멍 및 좌측 귓구멍에 삽입할 수 있는 한 쌍의 이어폰 스피커(5a)가 설치된다.
또한 우안용의 표시부(2)의 우측과, 좌안용의 표시부(2)의 좌측에, 외부 음성을 집음하는 마이크로폰(6a, 6b)이 배치된다.
또한 도 1은 일례이며, 촬상 표시 장치(1)를 유저가 장착하기 위한 구조는 다양하게 생각된다. 일반적으로 안경형, 혹은 두부 장착형으로 되는 장착 유닛으로 형성되면 되고, 그 상태에서 예를 들면 유저의 눈의 전방에 근접하여 표시 패널부(2a, 2b)가 설치되고, 또한 촬상 렌즈(3a)에 의한 촬상 방향이 유저의 시계 방 향, 즉 유저의 전방으로 되도록 되어 있으면 된다. 또한 표시 패널부(2a, 2b)로서 양 눈에 대응하여 표시부가 한 쌍 설치되는 구성 외에,한쪽 눈에 대응하여 1개 표시부가 설치되는 구성이어도 된다.
또한 촬상 렌즈(3a)에 의한 촬상 방향이, 유저의 후방, 측방 등, 시계 방향 이외의 방향으로 되어 있어도 된다.
또한 이어폰 스피커(5a)는, 좌우 스테레오 스피커로 하지 않고, 한쪽 귀에만 장착하기 위해 1개 설치되는 것만이어도 된다. 또한 마이크로폰도, 마이크로폰(6a, 6b) 중 한쪽이어도 된다. 또한, 촬상 표시 장치(1)로서 마이크로폰이나 이어폰 스피커를 구비하지 않는 구성도 생각된다.
또한 발광부(4a)를 설치하지 않는 구성도 생각된다.
촬상 표시 장치(1)로서 안경형 혹은 두부 장착형의 장착 유닛을 갖는 예를 나타내었지만, 예를 들면 헤드폰형, 넥 밴드 타입, 귀걸이식 등, 어떠한 장착 유닛으로 유저에게 장착되는 것이어도 된다. 또한, 예를 들면 통상의 안경이나 바이저, 혹은 헤드폰 등에, 클립 등의 부착구로 부착함으로써 유저에게 장착시키는 형태이어도 된다. 또한 반드시 유저의 머리부에 장착되는 것은 아니어도 된다.
그런데 도 1의 촬상 표시 장치(1)는, 촬상을 위한 구성 부분과 화상을 모니터할 수 있는 표시 패널부(2a, 2b)가 일체로 형성되어 유저에게 장착되는 기기로 한 예이지만, 유저가 장착하는 기기로서는, 도 2의 (a), (b)에 도시한 바와 같은 촬상 장치(30)나 표시 장치(40)도 생각된다.
도 2의 (a)의 촬상 장치(30)는, 소정의 장착 프레임에 의해 유저의 측두부에 장착된다. 그리고 장착 상태에서 유저의 시계 방향을 피사체 방향으로서 촬상하도록, 전방을 향하여 촬상 렌즈(3a) 및 발광부(4a)가 배치되어 있다. 또한,외부 음성을 집음하는 마이크로폰(6a)이 설치되어 있다.
즉 이 촬상 장치(30)는, 표시 기능은 갖지 않지만, 유저에게 장착된 상태에서 유저의 시계 광경의 촬상을 행하는 장치로 된다. 또한,이와 같은 촬상 장치(30)에 대해서도, 상기 촬상 표시 장치(1)와 동일하게, 형상, 장착 구조, 구성 요소 등은 다양하게 생각된다.
도 2의 (b)의 표시 장치(40)는, 손목 시계형의 표시 장치로 한 예이며, 리스트 밴드에 의해 유저의 손목에 장착된 상태에서, 유저가 시인할 수 있는 표시 패널부(2a)가 형성된 것이다.
또한,여기서는 손목 시계형의 표시 장치(40)를 나타내고 있지만, 유저가 장착 또는 소지하는 표시 장치(40)로서 다양한 형상이나 장착 구조가 상정된다. 표시 장치(40)로서는 예를 들면 휴대용의 소형 기기로서 유저가 소지할 수 있는 것이어도 된다. 또한,도 1과 같은 안경형의 형상으로 유저가 장착할 수 있는 표시 장치(40)(도 1의 촬상 표시 장치(1)로부터 촬상 기능을 없앤 장치)도 생각된다.
또한 유저가 휴대할 수 있는 표시 장치(40)를 생각한 경우, 모니터링 표시만의 전용 장치뿐만 아니라, 휴대 전화기, 휴대 게임기, PDA(Personal Digital Assistant) 등의 표시 기능을 갖는 기기도, 본 예의 표시 장치(40)로 될 수 있다.
또한,유저가 장착 또는 휴대하는 기기 이외에, 거치형의 표시 장치, 컴퓨터 장치, 텔레비전 수상기, 차재용 디스플레이 모니터 기기 등도, 본 예의 표시 장 치(40)로서 채용할 수 있다.
또한 도 2의 (a), (b)의 촬상 장치(30), 표시 장치(40)는, 각각을 개별로 사용하여도 되지만, 유저가, 이 촬상 장치(30), 표시 장치(40)의 양방을 장착하고, 2개의 기기에 의해, 촬상 표시 장치로서 사용하는 형태도 상정된다. 예를 들면 촬상 장치(30), 표시 장치(40)가 데이터 통신을 행하여,표시 장치(40)에 의해 촬상 장치(30)에서의 촬상 화상의 모니터링이나, 외부 기기로부터 송신되어 온 화상 표시를 행하도록 하는 경우이다.
그런데 본 예에서는,촬상 표시 장치(1), 표시 장치(40)는 유저(사람)가 사용하는 것을 상정하지만, 촬상 장치(30)에 대해서는, 사람에 한정되지 않고 각종 이동체에 장착되어 이용되는 것이 상정되어 있고, 이동체란 사람을 비롯하여 다양하게 생각된다. 상기 도 2의 (a)와 같은 촬상 장치(30)는 사람이 장착하여, 사람의 시계 광경을 촬상하는 것으로 된 예이지만, 사람 이외의 이동체에 장착되는 촬상 장치(30)도 다양하게 생각된다.
사람 이외의 이동체란, 사람 이외의 생물, 또는 지상 이동 기기, 또는 해상 이동 기기, 또는 해중 이동 기기, 또는 항공 이동 기기, 또는 우주 이동 기기 등이다.
사람 이외의 생물로서는, 조류, 포유류, 파충류, 양서류, 어류, 곤충류 그 밖의 각종 생물이다.
지상 이동 기기로서는, 승용차, 트랙, 버스, 택시, 오토바이 등의 자동 차량이나, 자전거, 인력거, 장난감 차 등 인력으로 이동하는 차량이 있다. 또한,전 철, 증기 기관차 등의 철도 차량도 상정된다. 또한 유원지 등에서의 탈것, 공장 그 밖의 시설에서의 업무용의 탈것도 상정된다. 또한,사람이 타는 이동체가 아닌 것도 있다. 예를 들면 업무용이나 장난감으로서의 각종 로봇, 소위 라디오 컨트롤 등의 장난감 등도 생각된다.
해상 이동 기기로서는, 각종 선박, 수상 오토바이, 서프 보드, 노로 젓는 보트, 튜브, 뗏목 등이 상정된다.
해중 이동 기기로서는, 잠수함, 잠수 로봇, 아쿠아렁 등의 잠수 기구 등이 상정된다.
항공 이동 기기로서는, 각종 항공기, 헬리콥터, 글라이더, 패러슈트, 기구, 연 등이 상정된다.
우주 이동 기기로서는, 로켓, 우주 탐사기, 인공 위성 등이 상정된다.
이동체로서의 구체예는 더욱 다양하게 생각되지만, 촬상 장치(30)는, 각각 장착되는 이동체에 따른 형상이나 장착 구조로 하면 된다.
[2. 시스템 형태]
실시 형태에서는, 촬상 표시 장치(1) 또는 표시 장치(40)의 유저는, 표시된 지도 화상에서 위치를 지정함으로써, 다른 촬상 표시 장치(1) 또는 촬상 장치(30)에 의해, 그 위치에서 촬상된 화상을 볼 수 있다. 즉 촬상 표시 장치(1) 또는 표시 장치(40)의 유저는, 지도를 보고 있을 때에, 실제로 지도상에서 나타낸 장소의 광경의 화상을, 자신의 촬상 표시 장치(1) 또는 표시 장치(40)에서 볼 수 있다. 이를 위한 시스템 형태의 예를 도 3에 나타낸다.
또한 「지도 화상」이란, 전술한 바와 같이 지상의 지도뿐만 아니라, 해양도, 해중도, 항공도 등도 포함하는 것으로 한다.
도 3에는, 촬상 표시 장치(1), 표시 장치(40), 촬상 장치(30), 서버 장치 (70)가 네트워크(60)를 통해서 통신하는 시스템 형태를 나타내고 있다.
또한,네트워크(60)로서는 인터넷 등의 광역 네트워크가 생각되지만, 물론 LAN(Local Area Network) 그 밖의 협대역 네트워크도 상정된다.
여기에서는, 유저 A, B, C는, 예를 들면 도 1과 같은 촬상 표시 장치(1)를 장착하고 있는 것으로 한다. 또한 유저 D는 예를 들면 도 2의 (b)와 같은 표시 장치(40)를 장착하고, 유저 E는 도 2의 (a)와 같은 촬상 장치(30)를 장착하고 있는 것으로 한다.
또한 유저 F는, 도 2의 (a)의 촬상 장치(30)와 도 2의 (b)의 표시 장치(40)를 함께 장착하고, 2개의 기기에 의해 촬상 표시 장치로서 기능하도록 하고 있는 것으로 한다.
또한,이동체 G, 이동체 H에 탑재된 촬상 장치(30)란, 주어진 형상으로 자동차, 철도 차량, 항공기 그 밖의 이동체(사람 이외의 이동체)에 장착된 촬상 장치인 것으로 한다.
이 경우, 유저 E가 장착하는 촬상 장치(30)나, 이동체 G, H에 탑재된 촬상 장치(30)는, 상시, 혹은 정기적, 혹은 임의의 타이밍에서, 네트워크(60)를 통한 통신에 의해 서버 장치(70)에 대하여 촬상한 화상 데이터 및 적어도 촬상 장소의 위치 정보를 포함하는 부가 데이터를 업로드한다.
또한 유저 A, B, C가 장착하고 있는 촬상 표시 장치(1)도, 상시, 혹은 정기적, 혹은 임의의 타이밍에서, 네트워크(60)를 통한 통신에 의해 서버 장치(70)에 대하여 촬상한 화상 데이터 및 적어도 촬상 장소의 위치 정보를 포함하는 부가 데이터를 업로드할 수 있다.
서버 장치(70)는, 촬상 표시 장치(1) 또는 촬상 장치(30)를 후술하는 지점 화상 데이터베이스에 등록하여 저장한다.
한편,유저 A, B, C가 장착하고 있는 촬상 표시 장치(1)나, 유저 D, F가 사용하는 표시 장치(40)는, 유저가 지도 화상 상에서 위치를 지정하는 것에 따라서, 네트워크(60)를 통한 통신으로 서버 장치(70)에 액세스하여, 위치 지정 정보를 송신하여 화상 요구를 행한다.
서버 장치(70)는 위치 지정 정보에 기초하여 지점 화상 데이터베이스를 검색하고, 위치 지정 정보에 의해 지정된 위치에서 촬상된 화상 데이터를 추출한다. 그리고 그 화상 데이터를, 촬상 표시 장치(1) 또는 표시 장치(40)에 송신한다.
촬상 표시 장치(1) 또는 표시 장치(40)에서는, 서버 장치(70)로부터 송신되어 오는 화상 데이터를 수신하고, 그것을 표시한다.
이것에 의해 유저 A, B, C, D, F는, 지도상에서 지정한 위치에서 실제로 촬상된 광경을 볼 수 있다.
[3. 촬상 표시 장치, 촬상 장치, 표시 장치, 서버 장치의 구성예]
촬상 표시 장치(1), 촬상 장치(30), 표시 장치(40), 서버 장치(70)의 각 구성예를 도 4∼도 8에서 설명한다.
우선 도 4에, 촬상 표시 장치(1)의 구성예를 나타낸다.
시스템 컨트롤러(10)는, 예를 들면 CPU(Central Processing Unit), ROM(Read Only Memory), RAM(Random Access Memory), 불휘발성 메모리부, 인터페이스부를 구비한 마이크로컴퓨터에 의해 구성되고, 촬상 표시 장치(1)의 전체를 제어하는 제어부로 된다. 이 시스템 컨트롤러(10)는 내부의 ROM 등에 유지한 프로그램에 기초하여, 각종 연산 처리나 버스(13)를 통한 각 부와 제어 신호 등의 주고받기를 행하여, 각 부에 원하는 동작을 실행시킨다.
촬상 표시 장치(1) 내에서는, 유저의 시계 방향의 광경의 촬상을 위한 구성으로서, 촬상부(3)가 설치된다.
촬상부(3)는, 촬상 광학계, 촬상 소자부, 촬상 신호 처리부를 갖는다.
촬상부(3)에서의 촬상 광학계에서는, 도 1에 도시한 촬상 렌즈(3a)나, 조리개, 줌 렌즈, 포커스 렌즈 등을 구비하여 구성되는 렌즈계나, 렌즈계에 대하여 포커스 동작이나 줌 동작을 행하게 하기 위한 구동계 등이 구비된다.
또한 촬상부(3)에서의 촬상 소자부에서는, 촬상 광학계에서 얻어지는 촬상 광을 검출하고, 광전 변환을 행함으로써 촬상 신호를 생성하는 고체 촬상 소자 어레이가 설치된다. 고체 촬상 소자 어레이는, 예를 들면 CCD(Charge Coupled Device) 센서 어레이나, CMOS(Complementary Metal Oxide Semiconductor) 센서 어레이로 된다.
또한 촬상부(3)에서의 촬상 신호 처리부에서는, 고체 촬상 소자에 의해 얻어지는 신호에 대한 게인 조정이나 파형 정형을 행하는 샘플 홀드/AGC(Automatic  Gain Control) 회로나, 비디오 A/D 컨버터를 구비하고,디지털 데이터로서의 촬상 화상 데이터를 얻는다. 또한 촬상 화상 데이터에 대하여 화이트 밸런스 처리, 휘도 처리, 색 신호 처리, 흔들림 보정 처리 등을 행한다.
이들 촬상 광학계, 촬상 소자부, 촬상 신호 처리부를 갖는 촬상부(3)에 의해, 촬상이 행해지고, 촬상에 의한 화상 데이터가 얻어진다.
시스템 컨트롤러(10)는, 이 촬상부(3)에서의 촬상 동작의 온/오프 제어, 촬상 광학계의 줌 렌즈, 포커스 렌즈의 구동 제어, 촬상 소자부의 감도나 프레임 레이트 제어, 촬상 신호 처리부의 각 처리의 파라미터나 실행 처리의 설정 등을 행한다.
이 촬상부(3)의 촬상 동작에 의해 얻어진 촬상 화상 데이터는, 화상 처리부(15)를 통해서 표시부(2), 스토리지부(25), 통신부(26)에 공급할 수 있다.
화상 처리부(15)는, 시스템 컨트롤러(10)의 제어에 따라서, 촬상 화상 데이터를 소정의 화상 데이터 포맷으로 변환하는 처리나, 표시부(2)에서 모니터 표시시키기 위한 주어진 신호 처리를 행한다. 표시부(2)에서 모니터 표시시키기 위한 신호 처리란, 예를 들면 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 샤프니스(윤곽 강조) 조정, 화면 분할 처리, 캐릭터 화상의 합성 처리, 확대 또는 축소 화상의 생성, 모자이크 화상/휘도 반전 화상/소프트 포커스/화상 내의 일부의 강조 표시/화상 전체의 색의 분위기의 가변 등의 화상 이펙트 처리 등이다.
또한 화상 처리부(15)는, 촬상부(3), 표시부(2), 스토리지부(25), 통신부 (26)와의 사이의 화상 데이터의 전송 처리도 행한다. 즉, 촬상부(3)로부터의 촬상 화상 데이터를 표시부(2), 스토리지부(25), 통신부(26)에 공급하는 처리나, 스토리지부(25)에서 재생된 화상 데이터를 표시부(2)에 공급하는 처리나, 통신부(26)에 의해 수신한 화상 데이터를 표시부(2)에 공급하는 처리도 행한다.
촬상 표시 장치(1)에서 유저에 대하여 표시를 행하는 구성으로서는, 표시부(2)가 설치된다. 이 표시부(2)는, 전술한 액정 패널 등에 의한 표시 패널부(2a, 2b)와, 표시 패널부(2a, 2b)를 표시 구동하는 표시 구동부가 설치된다.
표시 구동부는, 화상 처리부(15)로부터 공급되는 화상 신호를, 예를 들면 액정 디스플레이로 되는 표시 패널부(2a, 2b)에서 표시시키기 위한 화소 구동 회로로 구성되어 있다. 즉 표시 패널부(2a, 2b)에서 매트릭스 형상으로 배치되어 있는 각 화소에 대하여, 각각 소정의 수평/수직 구동 타이밍에서 영상 신호에 기초하는 구동 신호를 인가하고, 표시를 실행시킨다. 이 처리에 의해, 촬상부(3)에서의 촬상 모니터로서의 표시나, 스토리지부(25)에서 재생된 재생 화상의 표시, 또한 통신부(26)에 의해 수신된 수신 화상의 표시가, 표시 패널부(2a, 2b)에서 행해진다.
또한 표시 구동부는, 표시 패널부(2a, 2b)의 각 화소의 투과율을 제어하여, 스루 상태(투명 또는 반투명의 상태)로 할 수도 있다.
시스템 컨트롤러(10)는, 이 표시부(2)에서의 표시 동작의 온/오프(스루) 제어, 표시하는 화상 데이터에 대한 처리 파라미터의 지시, 화면 영역 설정 제어, 캐릭터 발생 지시 등을 행한다.
또한 촬상 표시 장치(1)에는, 음성 입력부(6), 음성 처리부(16), 음성 출력부(5)가 설치된다.
음성 입력부(6)는, 도 1에 도시한 마이크로폰(6a, 6b)과, 그 마이크로폰(6a, 6b)에 의해 얻어진 음성 신호를 증폭 처리하는 마이크 앰프부나 A/D 변환기를 갖고,음성 데이터를 출력한다.
음성 입력부(6)에서 얻어진 음성 데이터는 음성 처리부(16)에 공급된다.
음성 처리부(16)는, 시스템 컨트롤러(10)의 제어에 따라서, 음성 데이터의 전송을 제어한다. 즉 음성 입력부(6)에서 얻어진 음성 데이터를, 음성 출력부(5), 스토리지부(25), 통신부(26)에 공급한다. 혹은, 스토리지부(25)에서 재생된 음성 데이터나, 통신부(26)에 의해 수신된 음성 데이터를 음성 출력부(5)에 공급한다.
또한 음성 처리부(16)는, 시스템 컨트롤러(10)의 제어에 기초하여, 음량 조정, 음질 조정, 음향 이펙트 등의 처리를 행한다.
음성 출력부(5)는, 도 1에 도시한 한 쌍의 이어폰 스피커(5a)와, 그 이어폰 스피커(5a)에 대한 앰프 회로나 D/A 변환기를 갖는다.
즉 음성 처리부로부터 공급된 음성 데이터는 D/A 변환기에 의해 아날로그 음성 신호로 변환되고, 앰프 회로에 의해 증폭되어 이어폰 스피커(5a)로부터 음성으로서 출력된다. 이것에 의해 유저는 외부 음성을 듣거나, 스토리지부(25)에서 재생된 음성 데이터나 통신부(26)에 의해 수신한 음성 데이터에 의한 음성을 들을 수 있다.
또한 음성 출력부(5)는, 소위 골전도 스피커를 이용한 구성으로 되어도 된다.
스토리지부(25)는, 소정의 기록 매체에 대하여 화상 데이터(및 음성 데이터) 의 기록 재생을 행하는 부위로 된다. 예를 들면 HDD(Hard Disk Drive)로서 실현된다. 물론 기록 매체로서는, 플래시 메모리 등의 고체 메모리, 고체 메모리를 내장한 메모리 카드, 광 디스크, 광 자기 디스크, 홀로그램 메모리 등 각종의 것이 생각되고, 스토리지부(25)로서는 채용하는 기록 매체에 따라서 기록 재생을 실행할 수 있는 구성으로 되면 된다.
이 스토리지부(25)는, 시스템 컨트롤러(10)의 제어에 기초하여, 촬상에 의해 얻어지는 화상 데이터(및 음성 데이터)나, 통신부(6)에 의해 수신된 화상 데이터(및 음성 데이터)를 기록 매체에 기록한다. 즉, 화상 처리부(15)를 통해서 공급되는 화상 데이터나 음성 처리부(16)를 통해서 공급되는 음성 데이터, 혹은 통신부(26)에 의해 수신된 화상 데이터나 음성 데이터에 대하여, 기록 매체에의 기록을 위한 인코드 처리를 행하고, 기록 매체에 기록한다.
또한 스토리지부(25)는 시스템 컨트롤러(10)의 제어에 따라서, 기록한 화상 데이터, 음성 데이터를 재생할 수 있다. 재생한 화상 데이터는 화상 처리부(15)를 통해서 표시부(2)에 공급되고, 음성 데이터는 음성 처리부(16)를 통해서 음성 출력부(5)에 공급된다. 또한 재생한 화상 데이터/음성 데이터는, 외부 기기에 송신하는 데이터로서 통신부(26)에 공급할 수도 있다.
통신부(26)는 도 3의 네트워크(60)를 통해서 외부 기기, 특히 서버 장치 (70)와의 사이에서의 데이터의 송수신을 행한다.
이 통신부(26)는, 무선 LAN, 블루투스 등의 방식으로, 예를 들면 네트워크 액세스 포인트에 대한 근거리 무선 통신을 통해서 네트워크 통신을 행하는 구성으 로 하는 것이 생각된다.
통신부(26)에 대해서는, 촬상부(3)에 의해 얻어진 촬상 화상 데이터가 화상 처리부(15)를 통해서 공급된다. 또한 음성 입력부(6)에 의해 얻어진 음성 데이터가 음성 처리부(16)를 통해서 공급된다. 통신부(26)는, 이 화상 데이터 및 음성 데이터에 대하여 통신용의 인코드 처리를 행하고, 무선 송신을 위한 변조를 행하여 외부 기기에 송신할 수 있다. 즉 이 촬상 표시 장치(1)에서 현재 촬상 및 집음되어 있는 화상 데이터/음성 데이터를, 외부 기기(서버 장치(70))에 송신할 수 있다.
또한,스토리지부(25)에서 재생된 화상 데이터 및 음성 데이터에 대하여 통신용의 인코드 처리를 행하고, 무선 송신을 위한 변조를 행하여 외부 기기에 송신할 수도 있다.
또한,이 촬상 표시 장치(1)에서 현재 촬상 및 집음되어 있는 화상 데이터/음성 데이터를 예를 들면 서버 장치(70)에 송신할 때에는, 시스템 컨트롤러(10)는 부가 데이터를 생성하고, 화상 데이터/음성 데이터와 함께 통신부(26)에서 인코드시켜 송신시킨다. 부가 데이터는, 화상 데이터의 관리 정보나, 후술하는 위치 검출부(12)에 의해 검출되는 현재 위치 정보나, 일시 계수부(28)에 의해 계수되어 있는 현재 일시 정보를 포함하는 것으로 한다.
또한,촬상 및 집음되어 있는 화상 데이터/음성 데이터를 스토리지부(25)에 일단 기억하고, 후의 시점에서 스토리지부(25)로부터 읽어내어, 통신부(26)로부터 서버 장치(70)에 송신한다고 하는 동작도 생각되지만, 그 경우, 시스템 컨트롤러(10)는, 화상 데이터/음성 데이터를 스토리지부(25)에 기억할 때에, 상기한 내용 을 포함하는 부가 데이터를 생성하고, 함께 스토리지부(25)에 기록시킨다. 기록한 화상 데이터/음성 데이터를 스토리지부(25)로부터 읽어내어 서버 장치(70)에 송신할 때에는, 함께 기록되어 있는 부가 데이터도, 송신되게 된다.
시스템 컨트롤러(10)가, 이와 같은 처리를 행함으로써, 서버 장치(70)에 대하여 화상 데이터/음성 데이터를 송신할 때에는, 그 화상 데이터/음성 데이터에 관한 촬상 시점의 위치 정보와, 일시 정보도, 서버 장치(70)에 송신되게 된다.
또한 통신부(26)는 외부 기기(서버 장치(70))로부터 송신되어 온 화상 데이터/음성 데이터를 수신하고, 복조하여 화상 처리부(15) 및 음성 처리부(16)에 공급한다. 이 경우, 표시부(2)와 음성 출력부(5)에 의해, 수신한 화상 및 음성의 출력이 행해진다.
물론, 통신부(26)에 의해 수신한 화상 데이터/음성 데이터를 스토리지부(25)에 공급하여 기록 매체에 기록하는 것도 가능하다.
또한 촬상 표시 장치(1)에는 조명부(4)와 조명 제어부(14)가 설치된다. 조명부(4)는, 도 1, 도 2에 도시한 발광부(4a)와 그 발광부(4a)(예를 들면 LED)를 발광시키는 발광 회로로 이루어진다. 조명 제어부(14)는, 시스템 컨트롤러(10)의 지시에 기초하여, 조명부(4)에 발광 동작을 실행시킨다.
조명부(4)에서의 발광부(4a)가 도 1 또는 도 2에 도시한 바와 같이 부착되어 있음으로써, 조명부(4)는 촬상 렌즈(3a)에 의한 피사체 방향에 대한 조명 동작을 행하게 된다.
이 촬상 표시 장치(1)에서는, 유저의 조작을 위해 조작 입력부(11)가 설치된 다.
조작 입력부(11)는, 예를 들면 키, 다이얼 등의 조작자를 갖도록 하고, 키 조작 등으로서의 유저의 조작을 검지하는 구성으로 하여도 되며, 혹은 유저의 의식적인 거동을 검지하는 구성으로 하여도 된다.
조작자를 설정하는 경우, 예를 들면, 전원 온/오프 조작, 촬상계의 조작(예를 들면 줌 등의 조작이나, 신호 처리의 지시 조작), 표시 관련 조작(예를 들면 표시 내용의 선택이나 표시 조정 조작), 또한 후술하는 외부 장치의 지정을 위한 조작에 이용하는 조작자가 형성되면 된다.
또한 유저의 거동을 검지하는 구성으로 하는 경우에는, 가속도 센서, 각속도 센서, 진동 센서, 압력 센서 등을 설치하는 것이 생각된다.
예를 들면 유저가 촬상 표시 장치(1)를 측면측으로부터 톡톡 가볍게 두드린다고 하는 것을, 가속도 센서, 진동 센서 등으로 검지하고, 예를 들면 가로 방향의 가속도가 일정값을 초과하였을 때에 시스템 컨트롤러(10)가 유저의 조작으로서 인식하도록 할 수 있다. 또한,가속도 센서나 각속도 센서에 의해 유저가 우측으로부터 측부(안경다리에 상당하는 부분)를 두드렸는지, 좌측으로부터 측부를 두드렸는지를 검출할 수 있도록 하면, 그들을, 각각 소정의 조작으로서 판별할 수도 있다.
또한 유저가 머리를 돌리거나, 목을 흔들거나 하는 것을 가속도 센서나 각속도 센서로 검지하고, 이를 시스템 컨트롤러(10)가 유저의 조작으로서 인식할 수 있다.
또한,촬상 표시 장치(1)의 좌우의 측부(안경다리에 상당하는 부분) 등에 압력 센서를 배치하고, 우측부를 유저가 손가락으로 눌렀을 때에는 망원 방향의 줌 조작, 좌측부를 유저가 손가락으로 눌렀을 때에는 광각 방향의 줌 조작 등으로 할 수도 있다.
또한, 생체 센서로서의 구성을 구비하도록 하고, 유저의 생체 정보를 검출하여, 조작 입력으로 인식하도록 하여도 된다. 생체 정보란, 맥박수, 심박수, 심전도 정보, 근전, 호흡 정보(예를 들면 호흡의 속도, 깊이, 환기량 등), 발한, GSR(피부 전기 반응), 혈압, 혈중 산소 포화 농도, 피부 표면 온도, 뇌파(예를 들면 α파, β파, θ파, δ파의 정보), 혈류 변화, 눈의 상태 등이다.
그리고 시스템 컨트롤러(10)는 생체 센서의 검출 정보를, 유저의 조작 입력으로서 인식하도록 하여도 된다. 예를 들면 유저의 의식적인 거동으로서 눈의 움직임(시선 방향의 변화나 깜빡거림)이 생각되지만, 유저가 3회 깜빡거림을 한 것을 검지하면, 그것을 특정한 조작 입력으로 판단하는 것 등이다. 또한, 상기 생체 정보의 검지에 의해 유저가 촬상 표시 장치(1)를 장착한 것이나 떼어낸 것, 혹은 특정한 유저가 장착한 것 등도 검출 가능하며, 시스템 컨트롤러(10)가 그 검출에 따라서 전원 온/오프 등을 행하도록 하여도 된다.
조작 입력부(11)는, 이와 같이 조작자, 가속도 센서, 각속도 센서, 진동 센서, 압력 센서, 생체 센서 등으로서 얻어지는 정보를 시스템 컨트롤러(10)에 공급하고, 시스템 컨트롤러(10)는 이들 정보에 의해 유저의 조작을 검지한다.
또한 촬상 표시 장치(1)는 위치 검출부(12)를 구비한다. 위치 검출부(12)는 예를 들면 GPS 수신부로 된다. GPS 수신부는, GPS(Global Positioning System)의 위성으로부터의 전파를 수신하고, 현재 위치로서의 위도·경도의 정보를 시스템 컨트롤러(10)에 출력한다.
서버 장치(70)에 대하여 화상 데이터/음성 데이터 및 부가 데이터의 송신을 행할 때에는, 이 위치 검출부(12)에 의해 검출된 촬상시의 위치 정보가, 부가 데이터에 포함되게 된다.
또한,위치 검출부(12)로서는, WiFi(Wireless Fidelity)나 휴대 전화 회사가 제공하는 위치 정보 서비스를 이용하는 것으로 하여도 되고, 그들이나 GPS를 조합하여 이용하여도 된다.
또한,보행 속도(자동차 등에 탑재되는 장치의 경우에는 차속 등)를 검출함으로써, 검출 위치를 보정할 수 있도록 하는 것도 생각된다.
일시 계수부(28)는, 현재 일시(연월일시 분초)를 계수한다. 시스템 컨트롤러(10)는 일시 계수부(28)에서의 계수값에 의해 현재 일시를 인식할 수 있다.
서버 장치(70)에 대하여 화상 데이터/음성 데이터 및 부가 데이터의 송신을 행할 때에는, 이 일시 계수부(28)에 의해 검출된 촬상시의 일시 정보가, 부가 데이터에 포함되게 된다.
촬상 표시 장치(1)는, 표시부(2)에서 지도 화상을 표시할 수 있다. 이 지도 화상의 표시를 위해 지도 데이터베이스(29)가 구비된다. 또한,지도 데이터베이스(29)는, 예를 들면 스토리지부(25)가 HDD 등으로 되는 경우에, 그 일부 영역에 저장되는 것으로 하여도 된다.
지도 데이터베이스(29)는, 소위 내비게이션 시스템과 마찬가지로 지도 표시를 행하기 위한 정보로서, 위치 정보에 대응한 지도 화상 생성 정보나 각 지점의 명칭 등의 부가적인 정보, 검색 정보 등이 데이터베이스화된 것이다.
시스템 컨트롤러(10)는, 지도 데이터베이스(29)를 이용한 지도 검색 및 지도 표시 처리를 실행할 수 있다.
다음으로 촬상 장치(30)의 구성을 도 5에 나타낸다. 또한 도 4와 동일 부분은 동일 부호를 붙여서 중복 설명을 피한다. 도 5의 촬상 장치(30)는, 도 4의 촬상 표시 장치(1)에서의 화상 및 음성의 출력계인 표시부(2), 음성 출력부(5)와, 지도 표시를 위한 정보로 되는 지도 데이터베이스(29)를 없앤 구성이다.
즉 이 촬상 장치(30)는, 도 2와 같이 유저에게 장착되거나, 전술한 바와 같이 각종 이동체에 장착된 상태에서, 촬상부(3)에 의해 촬상을 행하고, 촬상 화상 데이터를 통신부(26)로부터 외부 장치로 송신하거나, 스토리지부(25)에서 기록할 수 있다.
시스템 컨트롤러(10)는 촬상 동작, 통신 동작, 기록 동작 등의 제어를 행한다.
표시 장치(40)의 구성예는 도 6과 같이 된다. 여기에서도 도 4와 동일 부분은 동일 부호를 붙여서 중복 설명을 피한다. 도 6의 표시 장치(40)는, 도 4의 촬상 표시 장치(1)에서의 화상 촬상 및 음성 입력의 기능을 위한 촬상부(3), 음성 입력부(6)를 없앤 구성이다. 또한 촬상을 위한 보조로 되는 조명부(4), 조명 제어부(14)도 설치되지 않는다.
또한 표시 장치(40)는 서버 장치(70)에 대하여 화상 데이터/음성 데이터를 송신하는 기기로는 되지 않기 때문에, 송신 시의 부가 데이터에 포함하는 위치 정보, 일시 정보를 생성하기 위해서라고 하는 의미에서는, 위치 검출부(12)나 일시 계수부(28)가 설치되지 않아도 된다.
당연히 시스템 컨트롤러(10)는, 화상 데이터/음성 데이터의 서버 장치(70)에의 송신 제어 처리를 실행하는 기능을 갖지 않아도 된다.
이 표시 장치(40)는, 도 2의 (b)와 같은 형태로 유저에게 장착되거나, 혹은 유저가 소지하거나, 혹은 유저가 가정이나 자동차 등에 설치하는 기기로서 소유하는 기기이며, 외부 장치로부터 송신되어 오는 화상 데이터/음성 데이터를 통신부(26)에 의해 수신한다. 그리고 수신한 화상 데이터/음성 데이터를 표시부(2), 음성 출력부(5)로부터 출력하거나, 스토리지부(25)에서 기록한다.
시스템 컨트롤러(10)는 통신 동작, 표시 동작, 음성 출력 동작, 기록 동작 등의 제어를 행한다.
또한 가정 등에 고정적으로 설치하는 형태의 표시 장치를 생각한 경우, 통신부(26)는 유선 접속에 의해 네트워크 통신을 행하는 구성으로 되어도 된다.
그런데,도 3의 유저 F가 소지하는 기기로서 설명한 바와 같이, 도 2의 (a), (b)와 같은 촬상 장치(30)와 표시 장치(40)의 양방을 이용하여 촬상 표시 장치(1)와 동등한 기능을 갖도록 하여도 된다.
그 경우, 촬상 장치(30)와 표시 장치(40)로서 도 7과 같은 구성예가 생각된다.
이 도 7의 예에서는, 촬상 장치(30)에서, 도 4의 촬상 표시 장치(1)와 거의 마찬가지의 구성을 구비하도록 한다. 다만 촬상 장치(30)에서 표시부(2)는 설치되지 않고, 대신에 송신부(27)가 설치된다.
송신부(27)는, 화상 처리부(15)로부터 표시 모니터용으로서 공급되는 화상 데이터에 대하여, 표시 장치(40)에의 송신을 위한 인코드 처리를 행한다. 그리고 인코드한 화상 데이터를 표시 장치(40)에 송신한다.
또한 표시 장치(40)에는, 수신부(41), 표시 제어부(42), 표시부(2)가 설치된다.
수신부(41)는, 촬상 장치(30)의 송신부(21)와의 사이에서 데이터 통신을 행한다. 그리고 촬상 장치(30)로부터 송신되어 오는 화상 데이터를 수신하고, 디코드 처리를 행한다.
수신부(41)에 의해 디코드된 화상 데이터는, 표시 제어부(42)에 공급된다. 표시 제어부(42)는, 화상 데이터에 대하여 표시를 위한 신호 처리나 화면 분할, 캐릭터 합성 등의 처리를 행하여 표시용의 화상 신호를 생성하고, 예를 들면 액정 디스플레이로 되는 표시 패널부(2a)를 갖는 표시부(2)에 공급한다.
표시부(2)에서는, 표시용의 화상 신호에 따라서, 매트릭스 형상으로 배치되어 있는 표시 패널부(2a)의 각 화소에 대하여, 각각 소정의 수평/수직 구동 타이밍에서 영상 신호에 기초하는 구동 신호를 인가하고, 표시를 실행시킨다.
이와 같이 구성함으로써, 예를 들면 도 3의 유저 F와 같이 촬상 장치(30)와 표시 장치(40)를 장착한 유저가, 이들을 촬상 표시 장치(1)와 마찬가지로 사용할 수 있다.
다음으로 도 8에 서버 장치(70)의 구성예를 나타낸다.
서버 장치(70)는, 서버 제어부(72), 네트워크 스토리지부(71), 통신부(73)를 구비한다.
네트워크 스토리지부(71)는, 예를 들면 HDD 등에 의해 실현되고, 후술하는 지점 화상 데이터베이스를 저장한다. 후에 도 10에서 설명하지만, 지점 화상 데이터베이스란, 촬상 장치(30) 또는 촬상 표시 장치(1)로부터 네트워크(60)를 통해서 송신되어 오는 화상 데이터/음성 데이터 및 부가 데이터를 축적한 데이터베이스이다.
통신부(73)는, 촬상 표시 장치(1), 촬상 장치(30), 표시 장치(40)의 통신부(26)와의 사이에서, 네트워크(60)를 통한 데이터 통신을 행한다.
서버 제어부(72)는, 서버 장치(70)로서의 필요한 동작 제어를 행한다. 구체적으로는 촬상 표시 장치(1), 촬상 장치(30), 표시 장치(40)와의 사이의 통신 동작이나, 화상 데이터/음성 데이터의 네트워크 스토리지부(71)에의 저장 처리, 검색 처리 등을 행한다.
이상, 촬상 표시 장치(1), 촬상 장치(30), 표시 장치(40), 서버 장치(70)의 구성을 설명하였지만, 이들은 각각 일례에 지나지 않는다. 실제로 실시되는 시스템 동작예나 기능에 따라서 각종 구성 요소의 추가나 삭제는 당연히 생각된다. 또한 촬상 장치(30), 촬상 표시 장치(1)가 탑재(장착)되는 이동체 별이나, 표시 장치(30)의 형태(예를 들면 손목 시계형, 휴대형, 거치형 등) 별에 따라서, 각각 적 절한 구성이 생각되는 것은 물론이다.
[4. 시스템 동작예]
이하, 본 실시 형태로서 행해지는 시스템 동작예에 대하여 설명해 간다.
또한,이하의 설명에서는, 「장치 A」「장치 B」라고 하는 명칭을 이용한다.
장치 A란, 도 3에서의 촬상 표시 장치(1) 또는 표시 장치(40)를 말한다. 또한 장치 B란, 도 3에서의 촬상 표시 장치(1) 또는 촬상 장치(30)를 말한다.
즉 장치 A는, 임의의 유저가 사용하여, 다른 이동체에 의해 촬상된 화상을 서버 장치(70)로부터 수신하여 표시하는 측의 기기이며, 본 발명 청구항에서 말하는「표시 장치」에 해당하는 기기이다.
한편 장치 B는, 서버 장치(70)에 대하여 화상을 업로드하는 측의 기기이며, 사람, 생물, 차량, 그 밖의 전술한 이동체에 장착/탑재되는 기기로서, 본 발명 청구항에서 말하는「촬상 장치」에 해당하는 기기이다.
도 9는 장치 A로서의 촬상 표시 장치(1), 표시 장치(40)와, 서버 장치(70)와, 장치 B로서의 촬상 표시 장치(1), 촬상 장치(30)를 나타내고 있다.
장치 B로서의 촬상 장치(30), 촬상 표시 장치(1)는, 촬상한 화상 데이터(및 음성 데이터)를 서버 장치(70)에 송신하는 처리를 행한다.
예를 들면 상시 촬상을 행하여,촬상 화상 데이터(및 음성 데이터)를 서버 장치(70)에 송신하는 것으로 하여도 되며, 혹은 시한적으로 촬상을 행할 때에는, 그 촬상 실행 시에는 항상 촬상 화상 데이터(및 음성 데이터)를 서버 장치(70)에 송신하는 것으로 하여도 된다. 시한적으로 촬상/송신을 행하는 경우로서는, 예를 들면 정기적으로 촬상/송신을 행하도록 하거나, 장치 B가 유저가 장착하는 기기인 경우에는 유저 조작에 기초하여 촬상/송신을 행하도록 하는 것이 생각된다. 또한,서버 장치(70)가 위치 정보를 지정하여 촬상 의뢰 데이터를 송신해 둠으로써, 장치 B의 시스템 컨트롤러(10)가, 현재 위치가 의뢰된 위치인 것으로 판별하였을 때에, 자동적으로 촬상/송신을 행하도록 하는 것도 생각된다.
또한 전술한 바와 같이, 장치 B로서의 촬상 장치(30), 촬상 표시 장치(1)는, 화상 데이터/음성 데이터를 서버 장치(70)에 송신할 때에는, 부가 데이터도 가하여 송신한다.
부가 데이터란, 송신하는 화상 데이터/음성 데이터에 대한 화상 관리 정보와, 촬상 장소의 위치 정보와, 촬상시의 일시 정보를 포함하는 것으로 된다.
서버 장치(70)는, 촬상 표시 장치(1), 촬상 장치(30)의 각각으로부터 송신되어 오는 화상 데이터(및 음성 데이터)나 부가 데이터를, 네트워크 스토리지부(71)에서 지점 화상 데이터베이스에 축적한다.
즉 서버 제어부(72)는, 통신부(73)에 의해 장치 B로부터의 화상 데이터(및 음성 데이터)와 부가 데이터를 수신하는 것에 따라서, 그 수신한 데이터를 네트워크 스토리지부(71)에서의 지점 화상 데이터베이스에 등록하는 처리를 행한다.
도 10에, 지점 화상 데이터베이스의 기록 내용을 모식적으로 나타낸다.
지점 화상 데이터베이스에는, 장치 B로서의 각각의 촬상 표시 장치(1)나 촬상 장치(30)로부터 송신되어 오는 화상이, 소정 단위로 1개의 엔트리 #1, #2, …로서 등록된다. 소정 단위란 화상 데이터 사이즈, 재생 시간 등에 따라서 상한이 정 해지는 단위이어도 되며, 장치 B로부터 화상 데이터가 계속적인 동화상으로서 송신되어 오는 경우, 촬상 위치로서의 위치 정보가 변화하는 포인트로 1개의 단위가 설정되어도 된다. 어떠한 단위로 1개의 엔트리로서의 화상 데이터를 구획할지는, 장치 B로부터의 화상 송신 양태, 송신 계속 시간, 지점 화상 데이터베이스의 관리 정보의 사정, 서버 장치(70)의 화상 제공 서비스의 사정 등에 따라서 적절히 정해지면 된다.
도 10에 도시한 바와 같이, 각 엔트리로서, 화상 데이터(음성 데이터도 포함함) VD1, VD2, VD3, …이 기록되어 가지만, 이들 화상 데이터에 각각 대응하여, 위치 정보 P1, P2, P3, …, 일시 정보 Date1, Date2, Date3, …, 화상 관리 정보 C1, C2, C3, …이 기록된다.
위치 정보, 일시 정보, 화상 관리 정보는, 화상 데이터와 함께 부가 데이터로서 장치 B로부터 송신되어 온 정보이다.
따라서 예를 들면 엔트리 #1에 대하여 말하면, 위치 정보 P1은, 화상 데이터 VD1을 촬상한 장소로서의 위치 정보이며, 예를 들면 위도, 경도의 정보이다.
또한 일시 정보 Date1은, 화상 데이터 VD1을 촬상한 시점의 연월일시 분초의 정보이다.
화상 관리 정보 C1은, 화상 데이터 VD1의 관리 정보이며, 예를 들면 화상 종별(동화상/정지 화상별 등), 데이터 사이즈, 압축 방식, 장치 B의 식별 정보, 촬상 지점의 명칭 정보 등의 촬상 위치 관련 정보이다. 또한 촬상 위치 관련 정보는, 장치 B로서의 촬상 표시 장치(1) 또는 촬상 장치(30)에서의 지도 데이터베이스(29) 로부터, 촬상시의 현재 위치 정보에 기초하여 검색하고, 장치 B의 시스템 컨트롤러(10)가, 이것을 부가 데이터로서 가하여 서버 장치(70)에 송신하여도 되고, 서버 장치(70)가 지도 데이터베이스를 구비하고,위치 정보 P1로부터 지도 데이터베이스를 검색하여 취득하도록 하여도 된다.
도 9와 같이 장치 B로서의 촬상 표시 장치(1) 또는 촬상 장치(30)가, 화상 데이터와 부가 데이터를 송신하는 동작을 행함으로써, 이 도 10과 같은 지점 화상 데이터베이스에, 각 지점의 화상 데이터가 축적되어 가게 된다.
이와 같이 각 지점의 촬상 화상이 서버 장치(70)에서 축적되어 감으로써, 서버 장치(70)는 장치 A의 유저에 대하여, 화상 제공 서비스를 행하는 것이 가능하게 된다. 즉 장치 A로부터의 화상 요구에 따라서, 지점 화상 데이터베이스에 축적된 화상 데이터를 재생하고, 그 재생 화상 데이터를 장치 A에 송신할 수 있다.
이하, 장치 A로서의 촬상 표시 장치(1) 또는 표시 장치(40)가, 서버 장치(70)와의 사이에서 통신을 행하고, 서버 장치(70)로부터의 화상 데이터를 취득하여 표시하는 동작예를 설명한다. 즉 장치 A의 유저가 서버 장치(70)에 의한 화상 제공 서비스를 향수할 때의 동작예이다.
도 11에 도시한 장치 A의 처리는, 촬상 표시 장치(1) 또는 표시 장치(40)의 시스템 컨트롤러(10)의 제어 처리이며, 서버 장치(70)의 처리는 서버 제어부(72)의 제어 처리라고 생각할 수 있다.
장치 A측에서는, 우선 스텝 F100으로서 지도 화상을 이용한 위치 지정 처리를 행한다. 예를 들면 장치 A의 시스템 컨트롤러(10)는, 지도 데이터베이스(29)의 데이터를 이용하여 지도 표시를 행한다. 또한 유저의 조작에 따라서 지도상의 임의의 지역의 검색이나 스크롤 표시 등도 행한다. 이것에 의해,유저가 특정한 지방, 지역의 지도 화상을 표시부(2)에서 볼 수 있도록 한다.
예를 들면 유저가 지명이나 축척을 지정하거나, 스크롤 조작을 행하는 것에 따라서, 시스템 컨트롤러(10)는 표시되는 지역이나 축척을 변화시킴으로써, 예를 들면 도 12의 (a)와 같이 임의의 지구의 지도 화상을 표시시킨다.
시스템 컨트롤러(10)는, 이와 같은 지도 화상 상에서는 예를 들면 도 12의 (b)와 같이 포인터 PT를 표시시키고, 포인터 PT가 유저 조작에 기초하여 지도 화상 상에서 이동되도록 한다. 즉 유저는, 포인터 PT를 지도 화상 상의 임의의 위치로 이동시켜서, 소정의 조작을 행함으로써, 지도 화상 상의 특정한 위치를 지정할 수 있다.
또한,물론 포인터 PT에 의한 것이 아니라, 예를 들면 표시부(2)에 터치 패널 조작 기능을 부가하고, 지도 화상에 대하여 유저가 손가락으로 터치한 위치가 지정 위치로 되도록 할 수도 있다.
이들과 같이 하여, 유저가 지도 화상 상에서 임의의 지점을 지정하는 조작을 행하는 것에 따라서, 시스템 컨트롤러(10)는 위치 지정 정보를 생성한다. 즉 지도상에서 유저가 지정한 포인트의 위도, 경도의 값을 포함하는 위치 지정 정보를 생성한다.
장치 A의 시스템 컨트롤러(10)는, 스텝 F100에서 위치 지정 정보를 생성하면, 다음으로 스텝 F101에서, 서버 장치(70)에 액세스한다. 즉 서버 장치(70)와의 사이에서 통신 접속 상태를 확립한다. 그리고 이 때, 화상 요구의 정보와, 위치 지정 정보를 서버 장치(70)에 송신한다.
서버 장치(70)의 서버 제어부(72)는, 스텝 F300에서, 장치 A와의 통신 접속을 확립하고, 화상 요구와 위치 지정 정보를 접수한다.
그리고 스텝 F301에서 재생 화상을 특정한다. 즉 수신한 위치 지정 정보에 기초하여 네트워크 스토리지부(71)의 지점 화상 데이터베이스를 검색한다. 그리고 지점 화상 데이터베이스에서의 위치 정보가, 위치 지정 정보에 일치하는 엔트리를 추출한다.
또는 위치 지정 정보에 의해 지정된 위도·경도의 위치로부터 근변이라고 간주할 수 있는 소정 범위 내로서의 위치 정보를 갖는 엔트리를 추출하여도 된다.
그리고 추출한 엔트리의 화상 데이터를 재생 화상으로서 특정한다.
또한,복수의 엔트리가 검색된 경우에는, 일시 정보를 참조하여, 최신의 일시 엔트리의 화상 데이터를 재생 화상으로서 선택하여도 되고, 모든 엔트리를 순서대로 재생하는 재생 화상으로서 결정하여도 된다.
또한,위치 지정 정보에 기초하는 검색에서, 1개의 엔트리도 추출되지 않은 경우도 있다. 즉 위치 지정 정보에 의해 나타내어지는 위치(혹은 근변 위치)에 관하여, 지금까지 장치 B에 의한 화상 데이터의 업로드가 되어 있지 않은 경우이다.
그와 같은 경우에는, 도 11에서는 도시되어 있지 않지만, 서버 제어부(72)는 장치 A에 대하여 해당하는 화상 데이터가 존재하지 않아, 화상 제공 불능이라고 하는 통지를 행하게 된다. 이에 따라서 장치 A측에서는, 화상 제공 불능이라고 하는 취지를 유저에게 제시하여 처리를 끝낸다.
서버 제어부(72)는, 지점 화상 데이터베이스의 검색을 행하여 재생하는 엔트리(화상 데이터)를 특정하면, 계속해서 스텝 F302에서, 재생 화상으로서 특정한 화상 데이터를, 네트워크 스토리지부(71)로부터 재생시키고, 재생된 화상 데이터 및 음성 데이터를, 통신부(73)로부터 장치 A에 대하여 송신시킨다.
장치 A측에서는 스텝 102에서, 서버 장치(70)부터 송신되어 오는 화상 데이터의 수신 및 표시를 실행한다. 즉 장치 A의 시스템 컨트롤러(10)는, 통신부(26)에 의해 수신 및 복조되는 화상 데이터(및 음성 데이터)를, 화상 처리부(15) 및 음성 처리부(16)에 공급시키고, 표시부(2)에서의 표시 출력과 음성 출력부(5)에서의 음성 출력을 실행시킨다.
장치 A의 시스템 컨트롤러(10)는 스텝 F103에서 서버 장치로부터 통신 해제 요구가 송신되어 온 것인지의 여부를 감시한다.
또한 스텝 F104에서 화상 표시의 종료하였는지의 여부를 판단한다. 예를 들면 유저가 조작 입력부(11)에 의해 표시 종료의 조작을 행하면, 종료라고 판단한다. 혹은, 수신 및 표시를 소정 시간 행하면 자동적으로 종료로 하는 처리도 생각된다.
스텝 F103에서 통신 해제 요구의 수신이 확인되거나, 혹은 스텝 F104에서 표시 종료라고 판단될 때까지, 스텝 F102에서 수신한 데이터의 표시 출력(및 음성 출력)을 계속적으로 실행한다.
또한 서버 장치(70)에서는, 스텝 F303에서, 재생하고 있는 엔트리의 화상 데 이터의 재생이 종료하였는지의 여부를 감시하고, 또한 스텝 F304에서 장치 A로부터의 통신 해제 요구가 있는지의 여부를 감시하고 있으며, 이들 상황이 검지될 때까지는, 화상 재생 및 화상 데이터(및 음성 데이터)의 송신을 계속한다.
따라서 그동안, 장치 A의 유저는, 자신이 지도 화상 상에서 지정한 위치에서, 과거에 장치 B에 의해 촬상된 실제 광경의 화상을 볼 수 있다.
장치 A의 시스템 컨트롤러(10)는, 스텝 F104에서, 유저 조작 혹은 다른 종료 조건에 의해 표시 종료라고 판단하면, 스텝 F105로 진행하고, 통신부(26)로부터 서버 장치(70)에 대하여 통신 해제 요구를 송신시켜, 스텝 F106으로 진행한다. 서버 장치(70)는, 통신 해제 요구를 수신하면, 스텝 F304로부터 F306으로 진행한다.
또는, 서버 제어부(72)는, 재생 대상으로 된 엔트리의 재생 및 송신을 완료하였다고 판단하면, 스텝 F303으로부터 F305로 진행하고, 통신부(73)로부터 장치 A에 대하여 통신 해제 요구를 송신시킨다. 장치 A의 시스템 컨트롤러(10)는, 통신 해제 요구를 수신하면, 스텝 F103으로부터 F106으로 진행한다.
그리고 장치 A의 시스템 컨트롤러(10)는 스텝 F106에서 서버 장치(70)와의 사이의 통신 접속 해제 처리를 행한다. 또한 서버 장치(70)의 서버 제어부(72)는 스텝 F306에서 장치 A와의 통신 및 서버 처리를 종료시킨다. 이상으로 시스템 동작을 끝낸다.
이상의 처리에 의해, 장치 A의 유저는, 지도 화상 상에서, 임의로 어떤 위치를 지정함으로써, 그 위치에서 장치 B에 의해 촬상된 광경을, 자신이 장착 또는 소지하고 있는 장치 A에서 볼 수 있다.
장치 A의 유저가 볼 수 있는 화상의 예를 도 13에 나타낸다.
예를 들면 장치 A의 유저가, 지도상에서 임의의 도로의 지점을 지정하면, 도 13의 (a), (b)와 같이, 그 지점에서 과거에 장치 B에서 촬상된 화상을 볼 수 있다. 예를 들면 자동차에 부착된 촬상 장치(30)나, 운전수가 장착하고 있던 촬상 장치(30) 또는 촬상 표시 장치(1)에 의해, 그 지정 지점에서 촬상되어 있던 화상이다.
또한 예를 들면 장치 A의 유저가, 지도상에서 임의의 철도 노선상의 지점을 지정하면, 도 13의 (c)와 같이, 그 지점에서 과거에 철도 차량에 장착된 촬상 장치(30), 혹은 철도 운전 기사가 장착하고 있던 촬상 장치(30) 또는 촬상 표시 장치(1)로서의 장치 B에서 촬상된 화상을 볼 수 있다.
또한 예를 들면 장치 A의 유저가, 지도상에서 임의의 리조트지의 지점을 지정하면, 도 13의 (d)와 같이, 과거에 그 지점에 있던 인물이 장착하고 있던 촬상 장치(30) 또는 촬상 표시 장치(1)로서의 장치 B에서 촬상된 화상을 볼 수 있다.
예를 들면 이상의 예와 같이, 장치 A의 유저는, 지도상의 지점을 지정함으로써, 그 지점에서 실제로 촬상된 화상을 볼 수 있다.
또한,상기한 설명에서는, 장치 A의 유저는 지도 화상 상에서 위치만을 지정하는 것으로 하였지만, 도 11의 스텝 F100에 부기하고 있는 바와 같이, 일시 지정도 행할 수 있도록 하여도 된다.
예를 들면 스텝 F100의 시점에서, 시스템 컨트롤러(10)는 전술한 바와 같이 지도 화상을 표시시킨 상태에서의 유저의 위치 지정 조작에 따라서, 지정 위치 정 보를 생성하지만, 이 때에, 유저에게, 메뉴 형식 혹은 수치 입력 형식으로, 일시를 지정하는 입력도 실행시키도록 한다.
예를 들면 특정하게 연월일, 특정한 시각 등을 지정 입력시키도록 하거나, 임의의 날짜 범위(예를 들면 몇월 며칠부터 몇월 며칠까지)나 시각 범위(예를 들면 언제부터 언제까지)를 지정 입력시키도록 한다. 또한 입력한 일시에 기초한 검색 조건을 선택시키도록 하여도 된다. 검색 조건으로서, 「지정한 일시를 포함함」「지정의 일시 범위 내」「지정 일시 이전」「지정 일시 이후」등으로 한다. 그리고 지정 일시,또는 지정 일시와 검색 조건을, 일시 지정 정보로서 설정한다.
장치 A의 시스템 컨트롤러(10)는, 스텝 F101에서 서버 액세스를 행할 때에는, 시스템 컨트롤러(10)는 위치 지정 정보와 함께, 일시 지정 정보도 송신한다. 서버 제어부(72)는, 스텝 F300에서, 위치 지정 정보와 함께 일시 지정 정보를 접수한다.
그리고 서버 제어부(72)는 스텝 F301에서는, 위치 지정 정보와 일시 지정 정보의 양방을 이용하여, 지점 화상 데이터베이스의 검색을 행한다.
즉, 지점 화상 데이터베이스에서의 위치 정보가, 위치 지정 정보에 일치(또는 근변)로 되는 엔트리를 추출하고, 또한,지점 화상 데이터베이스에서의 일시 정보가, 일시 지정 정보의 조건에 합치하는 엔트리를 찾아 들어간다.
이와 같은 검색에 의해, 위치 및 촬상 일시가 유저의 지정에 합치한 엔트리를 추출하고, 그 엔트리의 화상 데이터를 재생 화상으로서 특정한다.
이와 같이 일시 지정을 행하도록 함으로써, 장치 A의 유저는, 보고자 하는 화상을 시기적으로 선정하여 볼 수 있다.
예를 들면 어떤 지점의 어떤 시기의 광경, 어떤 지점의 최근의 광경, 어떤 지점의 어떤 시기보다 전의 광경, 어떤 지점의 특정한 해의 광경, 어떤 지점의 특정한 시각의 광경, 어떤 지점의 밤의 광경, … 등을, 임의로 선택하여 볼 수 있다.
이것에 의해,임의의 어떤 지점의 광경으로서, 보다 다양한 광경을 볼 수 있다.
[5. 실시 형태의 효과 및 변형예, 확장예]
이상, 실시 형태를 설명하여 왔지만, 상기한 장치 A에 상당하는 촬상 표시 장치(1) 또는 표시 장치(40)의 유저는, 지도 화상 상에서 위치를 지정함으로써, 그 지정한 위치에서 실제로 촬상 장치(30)에 의해 촬상된 화상을 볼 수 있다. 이것에 의해 지도상에서 지정할 수 있는 임의의 장소의 광경을 보고 즐기고자 하는 경우, 지도상에서 지정할 수 있는 임의의 장소의 상황을 알고자 하는 경우 등, 유저의 다양한 니즈에 대응할 수 있는 시스템 및 장치를 실현할 수 있다.
또한,지도 화상 상에서 위치를 지정하여, 그 위치의 촬상 화상을 볼 수 있다고 하는 것은, 지정한 위치의 상황으로서, 예를 들면 지형, 주위의 건물이나 자연물의 풍경, 도로의 폭이나 차선 수, 일시에 따른 모습 등을 알 수 있는 것이기 때문에,소위 내비게이션 시스템에 적용하여 확장적인 정보 제공을 행하는 것도 가능하게 된다.
또한,일시 지정 정보에 의해 제공을 받는 화상 데이터를 선정함으로써, 일시적인 조건에 의해 서로 다른 화상을 볼 수도 있다.
예를 들면 임의의 장소에서 임의의 시기보다 이전의 촬상 화상으로서, 임의의 장소에서 임의의 건물이 건설되기 전의 광경을 지정하여 보는 것 등도 가능하게 된다.
또한 장치 B로 되는 촬상 표시 장치(1) 또는 촬상 장치(30)는, 사람을 포함한 이동체에 장착되는 것으로 함으로써, 소위 정점 카메라와 같은 고정적인 설비를 설치하는 것이 불필요하다.
그리고 이동체에 장착된 촬상 표시 장치(1) 또는 촬상 장치(30)는, 당연히, 다양한 지점을 이동하면서 촬상하기 때문에, 다양한 지점에서의 실제 촬상 화상을 모아 지점 화상 데이터베이스의 등록 화상을 충실하게 해가는 것이 용이하다고 하는 이점도 있다.
또한,본 발명의 화상 표시 시스템, 표시 장치, 표시 방법의 실시 형태를 설명하여 왔지만, 상기 실시 형태의 예에 한하지 않고 다양한 변형예나 확장예가 생각된다.
본 발명의 표시 장치에 해당하는 장치 A로서의 촬상 표시 장치(1) 또는 표시 장치(40)의 구성예나 처리예, 또한 본 발명 청구항에서 말하는 촬상 장치에 해당하는 장치 B로서의 촬상 표시 장치(1) 또는 촬상 장치(30)의 구성예나 처리예, 나아가 서버 장치(70)의 구성예나 처리예는, 각각 다양하게 생각된다.
예를 들면 장치 B측에서, 통상의 촬상뿐만 아니라, 다양한 촬상 동작으로 촬상을 행하여 서버 장치(70)에 업로드 송신하거나, 혹은 서버 장치(70)가 다양한 촬상 동작을 요구할 수 있도록 하여도 된다. 예를 들면, 망원 촬상, 광각 촬상, 망 원으로부터 광각까지의 사이의 줌인 혹은 줌아웃을 행하면서의 촬상, 화상 확대 촬상, 화상 축소 촬상, 프레임 레이트의 가변 촬상(고프레임 레이트에서의 촬상이나 저프레임 레이트에서의 촬상 등), 고휘도 촬상, 저휘도 촬상, 콘트라스트 가변 촬상, 샤프니스 가변 촬상, 촬상 감도 상승 상태의 촬상, 적외선 촬상 감도 상승 상태의 촬상, 자외선 촬상 감도 상승 상태의 촬상, 특정 파장 대역을 커트한 촬상, 촬상 화상 데이터에 대한 모자이크 처리/휘도 반전 처리/소프트 포커스 처리/화상 내의 일부의 강조 처리/화상 전체의 색의 분위기의 가변 처리 등의 화상 이펙트를 가한 촬상, 정지 화상 촬상 등이다.
또한,장치 A로부터 서버 장치(70)에 화상을 요구할 때에, 지점 화상 데이터베이스에 등록된 화상의 통상 재생 화상으로 하는 외에, 특수 재생 화상을 요구할 수 있도록 하여도 된다.
예를 들면 동화상으로서 저장되어 있는 임의의 화상 데이터에 대하여, 1 프레임분만의 정지 화상을 송신하도록 요구할 수 있도록 하거나, 혹은 슬로우 재생, 고속 재생 등으로서의 화상 데이터를 요구할 수 있도록 하여도 된다.
특히 이동체에 장착된 장치 B에 의해 촬상된 화상 데이터이기 때문에,지점 화상 데이터베이스에 등록된 화상 데이터는, 임의의 속도로 이동하면서 촬상한 화상 데이터인 경우도 많다. 따라서, 서버 장치(70)가 그와 같은 화상 데이터에 대하여 변속 재생시키고, 그것을 장치 A에 송신함으로써, 장치 A의 유저는, 고속으로 이동하였을 때의 광경의 화상이나, 천천히 이동하였을 때의 광경의 화상 등을 의사적으로 볼 수 있다.
또한 장치 A측에서는, 서버 장치(70)로부터 송신되어 온 화상 데이터를, 위치 정보와 함께 스토리지부(25)에 기록하여도 된다. 즉 시스템 컨트롤러(10)는 스토리지부(25)에, 수신한 화상 데이터를, 위치 정보(예를 들면 도 11의 스텝 F100에서 설정한 위치 지정 정보)에 대응시켜 기록해 둔다.
이와 같이 해 둠으로써, 이후에는, 지도상에서 동일한 지점을 지정하면, 스토리지부(25)에 저장되어 있는 화상 데이터를 리플레이시켜 볼 수도 있게 된다.
또한 장치 A측에서, 임의의 지점으로부터의 이동 방향을 지정할 수 있게 하여도 된다.
장치 B에서는, 위치 검출부(12)에서 이동 방향도 검출하고, 부가 데이터에 포함시켜 서버 장치(70)에 송신하도록 한다. 서버 장치(70)에서는, 지점 화상 데이터베이스에, 이동 방향의 정보도 부가하여 등록한다.
그렇게 하면,장치 A측에서 이동 방향도 검색 조건으로서 지정하면, 유저가 보고자 하는 이동 방향의 상태에서 촬상된 화상 데이터를 선택하도록 서버 장치(70)에 요구 가능하게 된다.
예를 들면 남북으로 연결되는 임의의 도로의 광경으로서, 남으로부터 북으로 이동하면서 촬상된 광경과, 북으로부터 남으로 이동하면서 촬상된 광경은 서로 다르지만,이들 이동 방향을 지정 조건에 가함으로써, 장치 A의 유저가 보고자 하는 이동 방향의 조건에서 화상 데이터가 검색되고, 장치 A에 제공되도록 할 수 있다.
또한 상기 예에서는, 지상의 지도 화상에서 위치 지정을 행하는 것으로 하였지만, 해양도, 해중 지형도, 항공도, 우주도 등으로부터 임의의 위치를 지정하는 것도 가능하다.
예를 들면 서버 장치(70)에서는, 선박, 잠수함, 항공기, 위성 등에서 촬상된 화상 데이터를, 그 위치 정보 등과 함께 지점 화상 데이터베이스에 등록하도록 해 두면, 이들 해양도 등에 의한 지정에 기초하여, 화상을 검색하고, 장치 A에 제공할 수 있다. 물론 바다 속, 하늘, 우주 등의 위치 정보로서는, 위도, 경도뿐만 아니라 고도, 심도의 정보도 가하여도 된다.
예를 들면 우주도에 의해 위성 궤도상의 임의의 장소를 지정하면,그 지점 또는 근변에서 인공위성에서 촬상된 화상을 볼 수 있도록 하는 등이다.
또한,실시 형태의 동작예에서는, 장치 A측에서 지도 데이터베이스(29)를 구비하여 지도 표시를 행하도록 하였지만, 서버 장치(70)가 지도 데이터베이스를 구비하고,서버 장치(70)가 지도 데이터베이스에 기초하여 지도 화상을 송신하여 장치 A측에서 표시하도록 하여도 된다.
예를 들면 장치 A의 유저가, 특정한 지명이나 주소를 입력하고, 그 지명이나 주소 등을 위치 지정 정보로서 서버 장치(70)에 송신한다. 서버 장치(70)는, 지명 등으로부터 표시시킬 지도 화상 데이터를 생성하고, 장치 A에 송신하여 표시시킨다.
이와 같이 하면, 장치 A측에서 지도 데이터베이스(29)를 구비할 필요를 없앨 수도 있다. 환원하면, 지도 데이터베이스(29)를 장비하지 않은 촬상 표시 장치(1) 또는 표시 장치(40)에서, 본 발명의 동작을 실현할 수도 있다.
또한,화상 데이터와 음성 데이터를 장치 B로부터 서버 장치(70)에 업로드하 고, 서버 장치(70)로부터 장치 A에 제공되는 것으로 하였지만, 화상 데이터만을 대상으로 하는 예도 생각된다.
혹은 본 발명을, 음성 데이터만을 대상으로 하는 시스템으로서 적용할 수도 있다.

Claims (16)

  1. 표시 장치와, 이동체에 장착되어 화상 촬상을 행하는 촬상 장치와, 서버 장치를 갖고 이루어지며, 상기 표시 장치와 상기 촬상 장치는, 각각 상기 서버 장치와 통신 가능하게 되는 화상 표시 시스템으로서,
    상기 촬상 장치는,
    화상 촬상을 행하는 촬상 수단과,
    위치 정보를 검출하는 위치 검출 수단과,
    상기 촬상 수단의 촬상에 의해 얻어진 화상 데이터와, 적어도, 그 화상 데이터의 촬상 시에 상기 위치 검출 수단에 의해 검출된 위치 정보를 포함하는 부가 데이터를, 상기 서버 장치에 대하여 송신시키는 송신 제어 처리를 행하는 제어 수단
    을 구비하고,
    상기 서버 장치는,
    상기 촬상 장치로부터 송신되어 오는 상기 화상 데이터 및 상기 부가 데이터를 저장하는 저장 수단과,
    상기 표시 장치로부터 송신되어 오는 위치 지정 정보에 기초하여, 상기 저장 수단에 저장된 화상 데이터의 검색을 행하고, 검색된 화상 데이터를 재생하여 상기 표시 장치에 송신시키는 검색 송신 제어 처리를 행하는 제어 수단
    을 구비하고,
    상기 표시 장치는,
    화상 표시를 행하는 표시 수단과,
    상기 표시 수단에 지도 화상을 표시시키는 지도 표시 처리, 상기 지도 화상에 대한 입력에 기초하여 위치 지정 정보를 설정하는 위치 지정 처리, 상기 서버 장치에 상기 위치 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리, 상기 화상 요구 송신 처리에 따라서 상기 서버 장치로부터 송신되어 오는 화상 데이터를 수신하고 수신한 화상 데이터에 기초하는 표시 동작을 상기 표시 수단에 실행시키는 표시 처리를 행하는 제어 수단
    을 구비한 것을 특징으로 하는 화상 표시 시스템.
  2. 제1항에 있어서,
    상기 이동체는, 사람, 또는 사람 이외의 생물, 또는 지상 이동 기기, 또는 해상 이동 기기, 또는 해중 이동 기기, 또는 항공 이동 기기, 또는 우주 이동 기기 중 어느 하나인 것을 특징으로 하는 화상 표시 시스템.
  3. 제1항에 있어서,
    상기 촬상 장치는, 현재 일시를 검출하는 일시 검출 수단을 더 구비하고,상기 촬상 장치의 제어 수단은, 상기 부가 데이터에, 화상 데이터의 촬상 시에 상기 일시 검출 수단에 의해 검출된 일시 정보를 포함하도록 하고,
    상기 표시 장치의 제어 수단은, 일시를 지정하는 일시 지정 정보를 설정하는 일시 지정 처리를 행함과 함께,상기 화상 요구 송신 처리에서는, 상기 위치 지정 정보와 함께 상기 일시 지정 정보를 상기 서버 장치에 송신하고,
    상기 서버 장치의 제어 수단은, 상기 검색 송신 제어 처리 시에, 상기 표시 장치로부터 송신되어 오는 위치 지정 정보와 일시 지정 정보에 기초하여, 상기 저장 수단에 저장된 화상 데이터의 검색을 행하는 것을 특징으로 하는 화상 표시 시스템.
  4. 제1항에 있어서,
    상기 서버 장치는, 위치 정보를 지정한 촬상 의뢰 데이터를 송신하는 송신 수단을 구비하고,
    상기 촬상 장치의 제어 수단은, 그 촬상 장치의 현재 위치가, 상기 촬상 의뢰 데이터에 의해 지정된 위치인 것으로 판별된 경우, 상기 촬상 수단에서의 촬상을 실행시키는 것을 특징으로 하는 화상 표시 시스템.
  5. 제1항에 있어서,
    상기 촬상 장치의 제어 수단은, 그 촬상 장치의 현재 위치가, 상기 촬상 의뢰 데이터에 의해 지정된 위치인 것으로 판별된 경우, 상기 촬상 수단의 촬상에 의해 얻어진 화상 데이터와, 적어도, 그 화상 데이터의 촬상 시에 상기 위치 검출 수단에 의해 검출된 위치 정보를 포함하는 부가 데이터를, 상기 서버 장치에 대하여 송신시키는 것을 특징으로 하는 화상 표시 시스템.
  6. 제1항에 있어서,
    상기 표시 수단의 제어 수단은, 상기 서버 장치로부터 복수의 화상 데이터를 수신한 경우에는, 그 복수의 화상 데이터가 상기 서버 장치에 업로드된 순서에 따라서 그 복수의 화상 데이터를 상기 표시 수단에 표시시키는 것을 특징으로 하는 화상 표시 시스템.
  7. 제3항에 있어서,
    상기 표시 수단의 제어 수단은, 상기 서버 장치로부터 복수의 화상 데이터를 수신한 경우에는, 그 복수의 화상 데이터가 갖는 일시 정보에 기초하여 그 복수의 화상 데이터를 상기 표시 수단에 표시시키는 것을 특징으로 하는 화상 표시 시스템.
  8. 화상 표시를 행하는 표시 수단과,
    외부의 서버 장치와의 사이에서 데이터 통신을 행하는 통신 수단과,
    상기 표시 수단에 지도 화상을 표시시키는 지도 표시 처리, 상기 지도 화상에 대한 입력에 기초하여 위치 지정 정보를 설정하는 위치 지정 처리, 상기 통신 수단에 의해 상기 서버 장치에 상기 위치 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리, 상기 화상 요구 송신 처리에 따라서 상기 서버 장치로부터 송신되어 오는 화상 데이터를 상기 통신 수단에 의해 수신시키고 수신한 화상 데이터에 기초하는 표시 동작을 상기 표시 수단에 실행시키는 표시 처리를 행하 는 제어 수단
    을 구비한 것을 특징으로 하는 표시 장치.
  9. 제8항에 있어서,
    상기 제어 수단은, 상기 위치 지정 처리에서,상기 지도 화상에 대하여 지정 입력된 지점의 위도·경도의 정보를, 상기 위치 지정 정보로 하는 것을 특징으로 하는 표시 장치.
  10. 제8항에 있어서,
    상기 제어 수단은, 일시를 지정하는 일시 지정 정보를 설정하는 일시 지정 처리를 더 행함과 함께,상기 화상 요구 송신 처리에서는, 상기 위치 지정 정보와 함께 상기 일시 지정 정보를 상기 서버 장치에 송신하는 처리를 행하는 것을 특징으로 하는 표시 장치.
  11. 제8항에 있어서,
    상기 표시 수단은, 사용자의 눈의 전방에 위치하도록 배치되어 화상 표시를 행하는 구조로 되는 것을 특징으로 하는 표시 장치.
  12. 제8항에 있어서,
    화상 촬상을 행하는 촬상 수단과, 위치 정보를 검출하는 위치 검출 수단을 더 구비하고,
    상기 제어 수단은, 상기 촬상 수단의 촬상에 의해 얻어진 화상 데이터와, 적어도, 그 화상 데이터의 촬상 시에 상기 위치 검출 수단에 의해 검출된 위치 정보를 포함하는 부가 데이터를, 상기 통신 수단으로부터 상기 서버 장치에 대하여 송신시키는 송신 제어 처리도 실행 가능으로 되는 것을 특징으로 하는 표시 장치.
  13. 지도 화상을 표시시키는 지도 표시 처리 스텝과,
    상기 지도 화상에 대한 입력에 기초하여 위치 지정 정보를 설정하는 위치 지정 처리 스텝과,
    외부의 서버 장치에 상기 위치 지정 정보를 송신하여 화상 데이터를 요구하는 화상 요구 송신 처리 스텝과,
    상기 화상 요구 송신 처리에 따라서 상기 서버 장치로부터 송신되어 오는 화상 데이터를 수신하고, 수신한 화상 데이터에 기초하는 표시를 행하는 표시 스텝
    을 구비한 것을 특징으로 하는 표시 방법.
  14. 제13항에 있어서,
    상기 화상 데이터는, 상기 서버 장치에 그 화상 데이터가 촬상된 일시를 나타내는 일시 정보를 부가 데이터로서 상기 서버 장치에 저장되어 있으며,
    상기 화상 요구 송신 처리 스텝은, 상기 위치 지정 정보와 함께 지정된 일시 지정 정보를 상기 서버 장치에 송신하는 것을 특징으로 하는 표시 방법.
  15. 제13항에 있어서,
    상기 표시 스텝은, 복수의 화상 데이터를 수신한 경우에는, 그 복수의 화상 데이터가 상기 서버 장치에 업로드된 순서에 따라서 그 복수의 화상 데이터를 표시하는 것을 특징으로 하는 표시 방법.
  16. 제13항에 있어서,
    상기 표시 스텝은, 복수의 화상 데이터를 수신한 경우에는, 그 복수의 화상 데이터가 갖는 일시 정보에 기초하여 그 복수의 화상 데이터를 표시하는 것을 특징으로 하는 표시 방법.
KR1020097011531A 2006-12-07 2007-11-05 화상 표시 시스템, 표시 장치, 표시 방법 KR101329419B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006330832A JP5176311B2 (ja) 2006-12-07 2006-12-07 画像表示システム、表示装置、表示方法
JPJP-P-2006-330832 2006-12-07
PCT/JP2007/071491 WO2008068990A1 (ja) 2006-12-07 2007-11-05 画像表示システム、表示装置、表示方法

Publications (2)

Publication Number Publication Date
KR20090086092A true KR20090086092A (ko) 2009-08-10
KR101329419B1 KR101329419B1 (ko) 2013-11-14

Family

ID=39491896

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097011531A KR101329419B1 (ko) 2006-12-07 2007-11-05 화상 표시 시스템, 표시 장치, 표시 방법

Country Status (10)

Country Link
US (3) US8473544B2 (ko)
EP (1) EP2090989B1 (ko)
JP (1) JP5176311B2 (ko)
KR (1) KR101329419B1 (ko)
CN (1) CN101578602A (ko)
BR (1) BRPI0719940B1 (ko)
CA (1) CA2670744C (ko)
MY (1) MY151947A (ko)
TW (1) TW200837713A (ko)
WO (1) WO2008068990A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150140176A (ko) 2014-06-05 2015-12-15 오병오 빛의 조사구간 선택이 용이한 실외용 엘이디등기구
KR20180111808A (ko) * 2015-12-21 2018-10-11 아마존 테크놀로지스, 인크. 오디오/비디오 레코딩 및 통신 디바이스들로부터의 비디오 영상의 공유
US11335097B1 (en) 2015-12-21 2022-05-17 Amazon Technologies, Inc. Sharing video footage from audio/video recording and communication devices
WO2024085353A1 (ko) * 2022-10-20 2024-04-25 삼성전자주식회사 위치에 기반하여 카메라를 제어하여 위치에 대응하는 미디어를 획득하기 위한 전자 장치 및 그 방법

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5092357B2 (ja) * 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5023663B2 (ja) * 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
KR101518829B1 (ko) * 2008-06-17 2015-05-11 삼성전자주식회사 위치 정보를 포함하는 동영상 녹화 및 재생 방법 및 장치
JP5369974B2 (ja) * 2009-08-04 2013-12-18 株式会社リコー 撮像装置及び画像共有システム
TWI423112B (zh) * 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
US9514089B1 (en) 2010-03-31 2016-12-06 EMC IP Holding Company LLC Mobile device network data synchronization
US9152650B1 (en) 2010-03-31 2015-10-06 Emc Corporation Mobile device data recovery
US8694597B1 (en) * 2010-03-31 2014-04-08 Emc Corporation Mobile device group-based data sharing
US8786698B2 (en) 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method
US8638364B2 (en) 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
JP5677002B2 (ja) * 2010-09-28 2015-02-25 キヤノン株式会社 映像制御装置、及び映像制御方法
CN102033918B (zh) * 2010-12-07 2012-11-21 武汉若鱼网络科技有限公司 基于时间位置信息搜索目标用户的方法及系统
JP2012142825A (ja) * 2011-01-05 2012-07-26 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
US8621000B2 (en) * 2011-03-23 2013-12-31 Verizon Patent And Licensing Inc. Region of interest streaming
US9217867B2 (en) 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
JP2012203128A (ja) * 2011-03-24 2012-10-22 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US8818706B1 (en) 2011-05-17 2014-08-26 Google Inc. Indoor localization and mapping
US8164599B1 (en) 2011-06-01 2012-04-24 Google Inc. Systems and methods for collecting and providing map images
JP5860634B2 (ja) * 2011-08-23 2016-02-16 任天堂株式会社 情報処理システム、情報処理方法、サーバプログラム、サーバ装置、および、サーバシステム
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
TWI482108B (zh) * 2011-12-29 2015-04-21 Univ Nat Taiwan To bring virtual social networks into real-life social systems and methods
KR20130080186A (ko) * 2012-01-04 2013-07-12 삼성전자주식회사 위치 정보 태깅을 위한 방법 및 장치
JP5962674B2 (ja) * 2012-02-06 2016-08-03 ソニー株式会社 撮像制御装置、画像処理装置、撮像制御方法及び画像処理方法
US9170113B2 (en) 2012-02-24 2015-10-27 Google Inc. System and method for mapping an indoor environment
JP5891843B2 (ja) * 2012-02-24 2016-03-23 ソニー株式会社 クライアント端末、サーバ、およびプログラム
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
US9756138B2 (en) * 2013-04-08 2017-09-05 Here Global B.V. Desktop application synchronization to process data captured on a mobile device
FR3006455A1 (fr) * 2013-05-31 2014-12-05 Optinvent Systeme de vision oculaire avec guide optique positionnable dans deux positions
JP5836319B2 (ja) * 2013-05-31 2015-12-24 京セラドキュメントソリューションズ株式会社 画像形成システム
JP6299234B2 (ja) * 2014-01-23 2018-03-28 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
DE102014213058A1 (de) * 2014-07-04 2016-01-07 Siemens Aktiengesellschaft Verfahren zur Ausgabe von Fahrzeuginformation
JP6070652B2 (ja) * 2014-07-28 2017-02-01 ヤマハ株式会社 リファレンス表示装置およびプログラム
CN104767816A (zh) * 2015-04-15 2015-07-08 百度在线网络技术(北京)有限公司 拍摄信息采集方法、装置和终端
JP2015212828A (ja) * 2015-06-17 2015-11-26 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2017073775A1 (ja) * 2015-10-30 2017-05-04 誠 大島 自動撮像装置、および装着型撮像装置
CN108924451A (zh) * 2017-05-09 2018-11-30 高德信息技术有限公司 一种图像获取方法及装置
CN110851643A (zh) * 2019-10-28 2020-02-28 维沃移动通信有限公司 一种信息显示方法及电子设备
US20210398322A1 (en) * 2020-06-17 2021-12-23 Palantir Technologies Inc. Approaches for compressing and distributing image data
WO2023084810A1 (ja) * 2021-11-10 2023-05-19 日本電信電話株式会社 情報処理装置、情報処理方法、及び、情報処理プログラム

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6853293B2 (en) * 1993-05-28 2005-02-08 Symbol Technologies, Inc. Wearable communication system
JP3793773B2 (ja) 1994-06-20 2006-07-05 株式会社東芝 無線通信方法、無線通信基地局および無線端末
US7084903B2 (en) * 1998-05-18 2006-08-01 International Business Machines Corporation Image capturing system and method for automatically watermarking recorded parameters for providing digital image verification
US6791580B1 (en) * 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
JP2001034615A (ja) * 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 作業支援システム及び作業支援方法
JP2001050759A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd ナビゲーション装置
JP2001290820A (ja) 2000-01-31 2001-10-19 Mitsubishi Electric Corp 映像収集装置、映像検索装置および映像収集検索システム
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
GB0028804D0 (en) * 2000-11-25 2001-01-10 Hewlett Packard Co Voice communication concerning a local entity
TW540235B (en) 2001-05-10 2003-07-01 Ibm System and method for enhancing broadcast programs with information on the world wide web
TWI220036B (en) 2001-05-10 2004-08-01 Ibm System and method for enhancing broadcast or recorded radio or television programs with information on the world wide web
TWI256250B (en) 2001-05-10 2006-06-01 Ibm System and method for enhancing recorded radio or television programs with information on the world wide web
US20030014212A1 (en) * 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
US6717737B1 (en) * 2001-12-21 2004-04-06 Kyle Haglund Mobile imaging system
EP1324274A3 (en) 2001-12-28 2005-11-02 Matsushita Electric Industrial Co., Ltd. Vehicle information recording system
JP2003244691A (ja) 2002-02-20 2003-08-29 Matsushita Electric Ind Co Ltd 記憶支援システム
JP2003288357A (ja) * 2002-03-28 2003-10-10 Toshiba Corp 情報共有システムと情報共有方法
JP3789842B2 (ja) 2002-03-28 2006-06-28 エヌ・ティ・ティ・コムウェア株式会社 コンテンツのセキュリティ機能付き管理方法およびセキュリティ機能付きコンテンツ管理装置
JP4181372B2 (ja) * 2002-09-27 2008-11-12 富士フイルム株式会社 表示装置、画像情報管理端末、画像情報管理システム、および画像表示方法
JP4508596B2 (ja) * 2002-11-06 2010-07-21 キヤノン株式会社 通信装置、画像記憶装置およびそれらの制御方法
TWI235588B (en) * 2003-01-30 2005-07-01 Casio Computer Co Ltd Wrist-worn communications apparatus
US20040174443A1 (en) * 2003-03-07 2004-09-09 Simske Steven J. System and method for storing of records in a database
WO2004107012A1 (ja) * 2003-05-30 2004-12-09 Vixen Co., Ltd. 天体の自動導入装置
JP4192731B2 (ja) * 2003-09-09 2008-12-10 ソニー株式会社 案内情報提供装置及びプログラム
US20050060299A1 (en) * 2003-09-17 2005-03-17 George Filley Location-referenced photograph repository
JP3944160B2 (ja) * 2003-12-25 2007-07-11 キヤノン株式会社 撮像装置、情報処理装置、それらの制御方法及びプログラム
JP2005252732A (ja) * 2004-03-04 2005-09-15 Olympus Corp 撮像装置
JP4459717B2 (ja) 2004-05-26 2010-04-28 富士フイルム株式会社 地図更新システム
US20060187317A1 (en) * 2005-02-24 2006-08-24 Memory Matrix, Inc. Systems and methods for processing images with positional data
US20060197781A1 (en) * 2005-03-03 2006-09-07 Arutunian Ethan B System and method utilizing enhanced imagery and associated overlays
US7848765B2 (en) * 2005-05-27 2010-12-07 Where, Inc. Location-based services
JP2009500967A (ja) * 2005-07-07 2009-01-08 クゥアルコム・インコーポレイテッド ロケーション情報を提供するための方法および装置
US20070032945A1 (en) * 2005-08-02 2007-02-08 Jason Kaufman System and method for providing location related information to a network user
US7920854B2 (en) * 2005-09-19 2011-04-05 Silverbrook Research Pty Ltd Printing a map using a mobile device
US20070083329A1 (en) * 2005-10-07 2007-04-12 Wansoo Im Location-based interactive web-based multi-user community site
JP4371127B2 (ja) 2006-07-14 2009-11-25 ソニー株式会社 再生装置、再生方法、プログラム
US20080082264A1 (en) * 2006-09-11 2008-04-03 Broadcom Corporation, A California Corporation GPS route creation, photograph association, and data collection
JP5092357B2 (ja) 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5023663B2 (ja) 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
US9665597B2 (en) * 2006-12-05 2017-05-30 Qualcomm Incorporated Method and system for processing images using time and location filters
JP4961984B2 (ja) 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
JP4367663B2 (ja) 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150140176A (ko) 2014-06-05 2015-12-15 오병오 빛의 조사구간 선택이 용이한 실외용 엘이디등기구
KR20180111808A (ko) * 2015-12-21 2018-10-11 아마존 테크놀로지스, 인크. 오디오/비디오 레코딩 및 통신 디바이스들로부터의 비디오 영상의 공유
US11165987B2 (en) 2015-12-21 2021-11-02 Amazon Technologies, Inc. Sharing video footage from audio/video recording and communication devices
US11335097B1 (en) 2015-12-21 2022-05-17 Amazon Technologies, Inc. Sharing video footage from audio/video recording and communication devices
WO2024085353A1 (ko) * 2022-10-20 2024-04-25 삼성전자주식회사 위치에 기반하여 카메라를 제어하여 위치에 대응하는 미디어를 획득하기 위한 전자 장치 및 그 방법

Also Published As

Publication number Publication date
US20150022427A1 (en) 2015-01-22
BRPI0719940B1 (pt) 2018-11-27
KR101329419B1 (ko) 2013-11-14
US8949324B2 (en) 2015-02-03
MY151947A (en) 2014-07-31
EP2090989B1 (en) 2016-01-27
US20100063997A1 (en) 2010-03-11
TW200837713A (en) 2008-09-16
CA2670744C (en) 2017-10-31
US8473544B2 (en) 2013-06-25
US20130335352A1 (en) 2013-12-19
WO2008068990A1 (ja) 2008-06-12
JP2008147864A (ja) 2008-06-26
JP5176311B2 (ja) 2013-04-03
EP2090989A1 (en) 2009-08-19
CA2670744A1 (en) 2008-06-12
BRPI0719940A2 (pt) 2014-03-11
TWI379284B (ko) 2012-12-11
EP2090989A4 (en) 2011-11-02
CN101578602A (zh) 2009-11-11

Similar Documents

Publication Publication Date Title
KR101329419B1 (ko) 화상 표시 시스템, 표시 장치, 표시 방법
EP1956600B1 (en) Image display system, display apparatus, and display method
US10187612B2 (en) Display apparatus for displaying image data received from an image pickup apparatus attached to a moving body specified by specification information
JP5630513B2 (ja) 表示装置、表示方法、画像表示システム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161028

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171027

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181029

Year of fee payment: 6