WO2008068990A1 - 画像表示システム、表示装置、表示方法 - Google Patents

画像表示システム、表示装置、表示方法 Download PDF

Info

Publication number
WO2008068990A1
WO2008068990A1 PCT/JP2007/071491 JP2007071491W WO2008068990A1 WO 2008068990 A1 WO2008068990 A1 WO 2008068990A1 JP 2007071491 W JP2007071491 W JP 2007071491W WO 2008068990 A1 WO2008068990 A1 WO 2008068990A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
imaging
image data
server device
Prior art date
Application number
PCT/JP2007/071491
Other languages
English (en)
French (fr)
Inventor
Yoichiro Sako
Keiji Kimura
Masaaki Tsuruta
Masamichi Asukai
Taiji Ito
Nozomu Ozaki
Akinobu Sugino
Hidehiko Sekizawa
Yonetaro Totsuka
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020097011531A priority Critical patent/KR101329419B1/ko
Priority to EP07831223.8A priority patent/EP2090989B1/en
Priority to CA2670744A priority patent/CA2670744C/en
Priority to BRPI0719940A priority patent/BRPI0719940B1/pt
Priority to US12/312,615 priority patent/US8473544B2/en
Publication of WO2008068990A1 publication Critical patent/WO2008068990A1/ja
Priority to US13/903,302 priority patent/US8949324B2/en
Priority to US14/511,059 priority patent/US20150022427A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape

Definitions

  • Image display system display device, and display method
  • the present invention relates to an image display system, a display device, and a display method, and in particular, based on a position designation on a map image on the display device side! /, An image display captured by an external imaging device. It relates to the technology to be performed.
  • Japanese Patent Application Laid-Open No. 2005-341604 describes an example of a data communication system.
  • Japanese Patent Laid-Open No. 2005-337863 discloses a technique for updating a three-dimensional map of a carna vision system using an image captured by a camera.
  • No. 79 discloses an attempt to expand and enjoy broadcast / recorded programs on the stomach W (World Wide Web).
  • an object of the present invention is to allow a user to see an image actually captured at a certain position by designating a certain position on a map image.
  • the image display system of the present invention includes a display device, an image pickup device that is mounted on a moving body and picks up an image, and a server device.
  • the display device and the image pickup device are respectively provided. It is possible to communicate with the server device.
  • the image pickup apparatus includes an image pickup unit that picks up an image, a position detection unit that detects position information, image data obtained by the image pickup by the image pickup unit, and at least the position detection unit at the time of shooting the image data.
  • the server device stores the image data and the additional data transmitted from the imaging device, and the storage device stores the image data and the additional data based on the position designation information transmitted from the display device.
  • the display device includes: display means for displaying an image; map display processing for displaying a map image on the display means; position specifying processing for setting position specifying information based on an input to the map image; An image request transmission process for requesting image data by transmitting designation information, and a display operation based on the received image data received from the server apparatus in response to the image request transmission process. And a control means for performing display processing to be executed.
  • the moving body to which the imaging device is attached is a person, a living organism other than a person, a ground mobile device, a marine mobile device, a marine mobile device, an aeronautical mobile device, or a space mobile device. Either.
  • the imaging apparatus further includes date and time detection means for detecting the current date and time, and the control means of the imaging apparatus detects the additional data detected by the date and time detection means when imaging image data.
  • the control means of the display device performs date and time designation processing for setting date and time designation information for designating the date and time. In the image request transmission process, the date and time designation information is included with the position designation information.
  • the server device control means stores the information in the storage device based on the position designation information and date / time designation information transmitted from the display device during the search transmission control process. Search for image data.
  • the display device of the present invention includes a display unit that displays an image, a communication unit that performs data communication with an external server device, a map display process that displays a map image on the display unit, Location designation processing for setting location designation information based on input to a map image, Image request transmission processing for requesting image data by transmitting the location designation information to the server device by the communication means, and image request transmission processing And control means for performing display processing for receiving the image data transmitted from the server device by the communication means and causing the display means to perform a display operation based on the received image data.
  • control means uses the latitude / longitude information of the point specified and input to the map image in the position specifying process as the position specifying information.
  • control means further performs a date and time designation process for setting date and time designation information for designating a date and time, and in the image request transmission process, the date and time designation information together with the position designation information is sent to the server device. Process to send.
  • the display means is arranged to display an image by being disposed in front of the user's eyes.
  • the image processing apparatus further includes an imaging unit that captures an image and a position detection unit that detects position information.
  • the control unit captures image data obtained by imaging of the imaging unit, and at least captures the image data. At this time, it is also possible to execute a transmission control process in which additional data including the position information detected by the position detecting means is transmitted from the communication means to the server device.
  • the display method of the present invention includes a map display processing step for displaying a map image, a location specification processing step for setting location specification information based on an input to the map image, and the location specification on an external server device.
  • An image request transmission processing step for transmitting information and requesting image data, and a display for receiving image data transmitted from the server device in response to the image request transmission processing and performing display based on the received image data Steps.
  • the user (user) of the display device designates the position on the map image, so that the image actually taken by the imaging device at the designated position! Can be seen.
  • an imaging device worn by another person, an imaging device attached to a car, a train, or the like, an imaging device attached to an animal, a bird, or the like is considered.
  • image data (moving image or still image) captured by these image capturing apparatuses is transmitted to the server apparatus together with additional data including the position information of the image capturing point, and stored in the server apparatus! Therefore, in the server device, image data captured by various image capturing devices at various locations is accumulated together with the position information.
  • the server device can search for image data based on the position designation information by designating the position on the display device side and transmitting the position designation information to the server device.
  • the server device searches for image data corresponding to the position designation information and sends it to the display device. I believe.
  • the display device displays the received image data. Then, the user of the display device can see a scene captured at the designated point as the display image.
  • map image referred to in the present invention is simply an image of a "map" representing roads, topography, buildings, natural objects, etc. on the ground, ocean maps, underwater topographic maps, aerial maps, space. It is assumed that images of various figures that can designate a specific place such as a figure are included.
  • the user of the display device can specify the position on the map image to see the image actually captured by the imaging device at the specified position! it can.
  • the present invention can respond to various needs of the user, such as when he / she wants to see and enjoy a scene of a certain place which can be designated on the map, knows the situation of the certain place which can be designated on the map! System and apparatus.
  • being able to specify a position on a map image and view a captured image of that position means that the specified position status includes, for example, terrain, surrounding buildings and scenery of natural objects, road width and lanes. Since it is possible to know the situation according to the number and time of day, it is also possible to provide expanded information as a so-called navigation system.
  • FIG. 1 is an explanatory diagram of an external appearance example of an imaging display device according to an embodiment of the present invention.
  • FIG. 2 is an explanatory diagram of an appearance example of the imaging device and the display device according to the embodiment.
  • FIG. 3 is an explanatory diagram of a system configuration example according to the embodiment.
  • FIG. 4 is a block diagram of the imaging display device of the embodiment.
  • FIG. 5 is a block diagram of the imaging apparatus according to the embodiment.
  • FIG. 6 is a block diagram of a display device according to an embodiment.
  • FIG. 7 is a block diagram of an imaging device and a display device according to the embodiment.
  • FIG. 8 is a block diagram of the server device according to the embodiment.
  • FIG. 9 is an explanatory diagram of an example of system operation according to the embodiment.
  • FIG. 10 is an explanatory diagram of a point image database according to the embodiment.
  • FIG. 11 is a flowchart of an example of system operation according to the embodiment.
  • FIG. 12 is an explanatory diagram of an image at the time of designation using a map image in the embodiment.
  • FIG. 13 is an explanatory diagram of a captured image of a designated point displayed in the embodiment.
  • the imaging display device 1 or the display device 40 corresponds to a display device as claimed in the present invention, and the display method of the present invention is executed as the processing of the imaging display device 1 or the display device 40.
  • the imaging display device 1 or the imaging device 30 corresponds to the imaging device referred to in the claims of the present invention. Therefore, the imaging display device 1 of the embodiment can function as both the V display device and the imaging device in the claims of the present invention.
  • imaging display device imaging device, display device, server device
  • FIG. 1 shows an example of the appearance of the imaging display device 1 of the embodiment.
  • the imaging display device 1 can be worn by a user as a glasses-type display camera.
  • the imaging display device 1 has a mounting unit having a frame structure that, for example, makes a half turn around the head from both sides to the back of the head, and is mounted on the user by being placed on the binaural shell as shown in the figure.
  • the imaging display device 1 is a pair of left-eye and right-eye pairs in front of the user's eyes, that is, at a position where a lens in normal glasses is located.
  • the display panel portions 2a and 2b are arranged.
  • a liquid crystal panel is used for the display panel portions 2a and 2b.
  • the imaging lens 3a is arranged facing forward so that imaging is performed with the user's field of view as the subject direction.
  • the light emitting unit 4a that performs illumination in the imaging direction of the imaging lens 3a is provided by, for example, an LED (Light Emitting Diode).
  • a pair of earphone speakers 5a that can be inserted into the right ear hole and the left ear hole of the user when worn are provided.
  • Microphones 6a and 6b for collecting external sound are arranged on the right side of the display unit 2 for the right eye and on the left side of the display unit 2 for the left eye.
  • FIG. 1 is an example, and various structures for the user to wear the imaging display device 1 can be considered.
  • the display panel portions 2a and 2b are provided in the vicinity of the front of the user's eyes, and the imaging lens 3a is used. It suffices if the imaging direction is the user's field of view, that is, the front of the user.
  • the display panels 2a and 2b are provided with a pair of display units corresponding to both eyes, a configuration in which one display unit is provided corresponding to one eye may be used.
  • the imaging direction of the imaging lens 3a may be a direction other than the viewing direction, such as the rear or side of the user.
  • the earphone speaker 5a may not be a left and right stereo speaker, but only one earphone speaker 5a may be provided to be attached only to one ear.
  • the microphone may be one of the microphones 6a and 6b. Furthermore, a configuration in which the microphone and the earphone speaker are not provided as the imaging display device 1 is also conceivable.
  • imaging display device 1 has a spectacle-type or head-mounted type mounting unit is shown.
  • a headphone type, a neckband type, an ear hook type, or any other mounting unit may be worn by the user. Further, for example, it may be configured to be attached to the user by attaching to a normal eyeglass, visor, headphones, or the like with an attachment such as a clip. Moreover, it does not necessarily have to be worn on the user's head.
  • the imaging display device 1 of FIG. 1 is an example in which the components for imaging and the display panel portions 2a and 2b that can monitor an image are formed in a body and worn by the user.
  • the equipment worn by the user includes an imaging device 30 and a display device as shown in FIGS. 40 is also possible.
  • the imaging device 30 in FIG. 2A is mounted on the user's temporal region by a predetermined mounting frame. Then, the imaging lens 3a and the light emitting unit 4a are arranged facing forward so that the user's visual field direction is taken as the subject direction in the mounted state. There is also a microphone 6a that collects external audio!
  • the imaging device 30 is a device that does not have a display function! /, And that captures the user's field of view scene while being worn by the user. Note that the same shape, mounting structure, components, and the like as those of the imaging display device 1 can be considered for the imaging device 30 as well.
  • the display device 40 of FIG. 2 (b) is an example of a wristwatch type display device, and a display panel unit 2a that can be visually recognized by the user when worn on the wrist of the user with a wristband. It has been formed.
  • the force S indicating the wristwatch-type display device 40 and various shapes and mounting structures are assumed as the display device 40 worn or possessed by the user.
  • the display device 40 may be a portable device that can be carried by a user.
  • a display device 40 (a device in which the imaging function is eliminated from the imaging display device 1 in FIG. 1) that can be worn by the user in the shape of glasses as shown in FIG. 1 is also conceivable.
  • a display device 40 that can be carried by the user
  • devices having a display function such as a mobile phone, a portable game machine, and a PDA (Personal Digital Assistant) that can be used only with a dedicated device for monitoring display can be used. It can be the display device 40.
  • stationary display devices In addition to devices worn or carried by the user, stationary display devices, computer devices, television receivers, in-vehicle display monitor devices, and the like can also be employed as the display device 40 of this example.
  • the imaging device 30 and the display device 40 in FIGS. 2A and 2B may be used individually, but the user wears both the imaging device 30 and the display device 40. However, a configuration in which two devices are used as an image display device is also assumed. For example, the imaging device 30 and the display device 40 may perform data communication so that the display device 40 performs monitoring of a captured image on the imaging device 30 and display of an image transmitted from an external device.
  • the imaging display device 1 and the display device 40 are used by a user (person).
  • the imaging device 30 is used by being mounted on various mobile bodies, not limited to humans, and various mobile bodies can be considered including humans.
  • the imaging device 30 as shown in FIG. 2 (a) is an example of a device that is worn by a person and images a person's field of view. Think diverse.
  • a moving body other than a human is a living organism other than a human being, a ground mobile device, a marine mobile device, an underwater mobile device, an aeronautical mobile device, a space mobile device, or the like.
  • Non-human organisms include birds, mammals, reptiles, amphibians, fish, insects, and other types of organisms.
  • ground mobile devices examples include passenger cars, trucks, buses, taxis, motorcycles and other automatic vehicles, and bicycles, rickshaws, playground vehicles and other vehicles that move by human power.
  • Railway vehicles such as trains and steam locomotives are also assumed.
  • vehicles for amusement parks, commercial vehicles for factories and other facilities are also assumed.
  • Submarine equipment such as submarines, submersible robots, and aqualungs are envisioned as subsea mobile devices.
  • the imaging device 30 may have a shape or a mounting structure corresponding to each moving body to be mounted.
  • the user of the imaging display device 1 or the display device 40 designates the position in the displayed map image, so that the image captured at the corresponding position on the other imaging display device 1 or the imaging device 30 is displayed. Can see. That is, when the user of the imaging display device 1 or the display device 40 is viewing the map, the user can see the image of the scene at the location actually shown on the map on his / her imaging display device 1 or the display device 40. .
  • System type for this Figure 3 shows an example of the situation.
  • map image includes an ocean map, an underwater map, an aerial map, and the like that are connected only by a map on the ground as described above.
  • FIG. 3 shows a system configuration in which the imaging display device 1, the display device 40, the imaging device 30, and the server device 70 communicate via the network 60! /.
  • the network 60 may be a wide area network such as the Internet, but of course a LAN (Local Area Network) or other narrow area network is also assumed.
  • LAN Local Area Network
  • the users A, B, and C are wearing the imaging display device 1 as shown in FIG. 1, for example.
  • the user D wears the display device 40 as shown in FIG. 2B
  • the user E wears the image pickup device 30 as shown in FIG.
  • the imaging device 30 mounted on the moving body G and the moving body H is an imaging device that is mounted on a moving body (a moving body other than a person) such as an automobile, a railway vehicle, or an aircraft in a required shape. Suppose there is.
  • the imaging device 30 worn by the user E and the imaging device 30 mounted on the moving bodies G and H are always or regularly or at any timing through communication via the network 60. Upload the image data taken to the server device 70 and the additional data including at least the location information of the imaging location.
  • the imaging display device 1 worn by the users A, B, and C also captures images to the server device 70 by communication via the network 60 at all times, periodically, or at any timing.
  • the power S can be used to upload the additional image data including the image data and at least the position information of the imaging location.
  • the server device 70 registers and stores the imaging display device 1 or the imaging device 30 in a point image database to be described later.
  • the imaging display device 1 worn by the users A, B, and C and the display device 40 used by the users D and F respond to the user specifying the position on the map image. Access the server device 70 via communication via the network 60, send the location specification information, and Do.
  • the server device 70 searches the point image database based on the position designation information, and extracts image data captured at the position designated by the position designation information. Then, the image data is transmitted to the imaging display device 1 or the display device 40.
  • the imaging display device 1 or the display device 40 receives the image data transmitted from the server device 70 and displays it.
  • FIG. 4 shows a configuration example of the imaging display device 1.
  • the system controller 10 includes, for example, a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a non-volatile resident memory unit, and an interface unit.
  • the control unit controls the entire imaging display device 1.
  • the system controller 10 performs various arithmetic processes and exchanges control signals with each unit via the bus 13 based on a program stored in an internal ROM or the like, and causes each unit to execute a required operation.
  • an imaging unit 3 is provided as a configuration for imaging a scene in the user's viewing direction.
  • the imaging unit 3 includes an imaging optical system, an imaging element unit, and an imaging signal processing unit.
  • the imaging lens 3a shown in FIG. 1 a lens system including an aperture, a zoom lens, a focus lens, and the like, a force operation with respect to the lens system, A drive system or the like for performing a zoom operation is provided.
  • the image sensor section in the image capturing section 3 is provided with a solid-state image sensor array that detects imaging light obtained by the imaging optical system and generates an imaging signal by performing photoelectric conversion.
  • the solid-state imaging device array is, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.
  • the imaging signal processing unit in the imaging unit 3 includes a sample hold / AGC (Automatic Gain Control) circuit that performs gain adjustment and waveform shaping on a signal obtained by the solid-state imaging device, and a video A / D converter. Obtain captured image data as digital data. Also, white balance processing, luminance processing, color signal processing, blur correction processing, and the like are performed on the captured image data.
  • Imaging is performed by the imaging unit 3 having these imaging optical system, imaging element unit, and imaging signal processing unit, and image data obtained by imaging is obtained.
  • the system controller 10 controls the on / off of the imaging operation in the imaging unit 3, the zoom lens of the imaging optical system, the drive control of the focus lens, the sensitivity of the imaging element unit, the frame rate control, and the imaging signal processing unit. Set parameters for each process and execution process.
  • the captured image data obtained by the imaging operation of the imaging unit 3 can be supplied to the display unit 2, the storage unit 25, and the communication unit 26 via the image processing unit 15.
  • the image processing unit 15 performs processing for converting captured image data into a predetermined image data format and required signal processing for display on the display unit 2 under the control of the system controller 10.
  • Signal processing for display on the display unit 2 includes, for example, brightness level adjustment, color correction, contrast adjustment, sharpness (contour emphasis) adjustment, screen division processing, character image composition processing, generation of an enlarged or reduced image, Image effect processing such as mosaic image / brightness inverted image / soft focus / partial highlighting in image / variation of color atmosphere of entire image.
  • the image processing unit 15 also performs image data transfer processing between the imaging unit 3, the display unit 2, the storage unit 25, and the communication unit 26. That is, processing for supplying captured image data from the imaging unit 3 to the display unit 2, the storage unit 25, and the communication unit 26, processing for supplying image data reproduced by the storage unit 25 to the display unit 2, and communication The image data received by the unit 26 is also supplied to the display unit 2.
  • the display unit 2 is provided as a configuration for displaying the image to the user on the imaging display device 1.
  • the display unit 2 is provided with display panel units 2a and 2b made of the above-described liquid crystal panel and the like, and a display driving unit for driving the display panel units 2a and 2b.
  • the display driving unit is configured by a pixel driving circuit for displaying the image signal supplied from the image processing unit 15 on the display panel units 2a and 2b, which are liquid crystal displays, for example. That is, the display signals are executed by applying a drive signal based on the video signal at a predetermined horizontal / vertical drive timing to each pixel arranged in a matrix in the display panel units 2a and 2b. By this processing, display as an imaging monitor in the imaging unit 3, display of a reproduced image reproduced in the storage unit 25, and display of a received image received in the communication unit 26 are displayed on the display panel units 2a and 2b. Done.
  • the display driving unit can also control the transmittance of each pixel of the display panel units 2a and 2b to be in the through state (transparent or translucent state).
  • the system controller 10 performs on / off (through) control of the display operation in the display unit 2, instruction of processing parameters for image data to be displayed, screen area setting control, character generation instruction, and the like.
  • the imaging display device 1 is provided with an audio input unit 6, an audio processing unit 16, and an audio output unit 5.
  • the audio input unit 6 includes the microphones 6a and 6b shown in FIG. 1, and a microphone amplifier unit and an A / D converter for amplifying the audio signals obtained by the microphones 6a and 6b. Is output.
  • the voice data obtained by the voice input unit 6 is supplied to the voice processing unit 16.
  • the audio processing unit 16 controls the transfer of audio data according to the control of the system controller 10. That is, the audio data obtained by the audio input unit 6 is converted into the audio output unit 5 and the storage unit 25.
  • audio data reproduced by the storage unit 25 and audio data received by the communication unit 26 are supplied to the audio output unit 5.
  • the sound processing unit 16 performs processing such as volume adjustment, sound quality adjustment, and sound effect based on the control of the system controller 10.
  • the audio output unit 5 includes a pair of earphone speakers 5a shown in FIG.
  • the audio data supplied from the audio processing unit is converted into an analog audio signal by the D / A converter, amplified by the amplifier circuit, and output as audio from the earphone speaker 5a.
  • the user can listen to the external sound, or the sound based on the sound data reproduced by the storage unit 25 or the sound data received by the communication unit 26.
  • the audio output unit 5 may be configured using a so-called bone conduction speaker.
  • the storage unit 25 is a part that records and reproduces image data (and audio data) on a predetermined recording medium.
  • a predetermined recording medium For example, it is realized as an HDD (Hard Disk Drive).
  • HDD Hard Disk Drive
  • various recording media such as a solid-state memory such as a flash memory, a memory card incorporating a solid-state memory, an optical disk, a magneto-optical disk, and a hologram memory.
  • the storage unit 25 performs recording / reproduction according to the recording medium employed. What is necessary is just to be set as the structure which can be performed.
  • the storage unit 25 stores image data (and audio data) obtained by imaging and image data (and audio data) received by the communication unit 26 on a recording medium based on the control of the system controller 10. Record. That is, the image data supplied via the image processing unit 15 or the audio data supplied via the audio processing unit 16 or the image data or audio data received by the communication unit 26 to the recording medium. Encoding for recording is performed and recorded on a recording medium.
  • the storage unit 25 can reproduce the recorded image data and audio data according to the control of the system controller 10.
  • the reproduced image data is supplied to the display unit 2 through the image processing unit 15, and the audio data is supplied to the audio output unit 5 through the audio processing unit 16.
  • the reproduced image data / audio data can also be supplied to the communication unit 26 as data to be transmitted to an external device.
  • the communication unit 26 transmits / receives data to / from an external device, particularly the server device 70, via the network 60 in FIG.
  • the communication unit 26 may be configured to perform network communication via short-range wireless communication with a network access point using a method such as wireless LAN or Bluetooth.
  • the captured image data obtained by the imaging unit 3 is supplied to the communication unit 26 via the image processing unit 15.
  • the voice data obtained by the voice input unit 6 is supplied via the voice processing unit 16.
  • the communication unit 26 can perform a communication encoding process on the image data and audio data, perform modulation for wireless transmission, and transmit the result to an external device. That is, it is possible to transmit the image data / sound data currently captured and collected by the imaging display device 1 to an external device (server device 70).
  • the image data and audio data reproduced by the storage unit 25 can be encoded for communication, modulated for wireless transmission, and transmitted to an external device.
  • the system controller 10 When image data / audio data currently captured and collected by the imaging display device 1 is transmitted to, for example, the server device 70, the system controller 10 generates additional data, and the image data / It is encoded and transmitted by the communication unit 26 together with the audio data.
  • the additional data includes image data management information, current position information detected by the position detector 12 (to be described later), and current date information counted by the date / time counter 28.
  • the image data / sound data that has been picked up and collected is temporarily stored in the storage unit 25, read out from the storage unit 25 at a later time, and transmitted from the communication unit 26 to the server device 70.
  • the system controller 10 when storing the image data / audio data in the storage unit 25, the system controller 10 generates additional data including the above contents and records the additional data in the storage unit 25.
  • the recorded image data / audio data is read from the storage unit 25 and transmitted to the server device 70, the additional data recorded together is also transmitted.
  • the communication unit 26 receives image data / audio data transmitted from the external device (server device 70), demodulates it, and supplies it to the image processing unit 15 and the audio processing unit 16. In this case, the display unit 2 and the audio output unit 5 output the received image and audio.
  • the image data / audio data received by the communication unit 26 can be supplied to the storage unit 25 and recorded on the recording medium.
  • the imaging display device 1 is provided with an illumination unit 4 and an illumination control unit 14.
  • the lighting unit 4 includes a light emitting unit 4a shown in FIGS. 1 and 2 and a light emitting circuit that emits light from the light emitting unit 4a (for example, an LED). Become.
  • the illumination control unit 14 causes the illumination unit 4 to perform a light emission operation based on an instruction from the system controller 10.
  • the illumination unit 4 Since the light emitting unit 4a in the illumination unit 4 is attached as shown in FIG. 1 or 2, the illumination unit 4 performs an illumination operation with respect to the subject direction by the imaging lens 3a.
  • an operation input unit 11 is provided for user operation.
  • the operation input unit 11 has an operation element such as a key and a dial, for example, so as to detect a user's operation as a key operation or the like. It is also possible to have a configuration that detects the abnormal behavior.
  • an acceleration sensor an angular velocity sensor, a vibration sensor, a pressure sensor, and the like may be provided.
  • the system controller 10 detects when the lateral acceleration exceeds a certain value, for example, by detecting the speed sensor or vibration sensor. It can be recognized as a user operation. Also
  • the user can detect the force with which the user strikes the side part (the part corresponding to the eyeglass vine) from the right side and the side part from the left side by using the acceleration sensor or the angular velocity sensor, It can also be determined as an operation.
  • the acceleration sensor or the angular velocity sensor can detect it and the system controller 10 can recognize this as a user operation.
  • Biometric information includes pulse rate, heart rate, electrocardiogram information, myoelectricity, respiratory information (for example, respiratory rate, depth, ventilation), sweating, GSR Reaction), blood pressure, blood oxygen saturation, skin surface temperature, electroencephalogram (eg, ⁇ wave, / 3 wave, ⁇ wave, ⁇ wave information), blood flow change, eye condition, etc.
  • the system controller 10 may recognize the detection information of the biosensor as a user operation input.
  • the user's conscious behavior may be eye movements (gaze direction change or blinking), but if it detects that the user has blinked three times, it will determine that it is a specific operation input.
  • the system controller 10 turns on the power in response to the detection. You may make it perform / off etc.
  • the operation input unit 11 supplies information obtained as the operation element, the acceleration sensor, the angular velocity sensor, the vibration sensor, the pressure sensor, the biological sensor, and the like to the system controller 10 as described above. The user's operation is detected.
  • the imaging display device 1 includes a position detection unit 12.
  • the position detector 12 is, for example, a GPS receiver.
  • the GPS receiver receives radio waves from a GPS (Global Positioning System) satellite, and outputs latitude / longitude information as the current position to the system controller 10.
  • GPS Global Positioning System
  • image data / audio data and additional data are transmitted to the server device 70, they are included in the position information power additional data at the time of imaging detected by the position detector 12.
  • the location detection unit 12 may use a location information service provided by WiFi (Wireless Fidelity) or a mobile phone company, or may be used in combination with GPS. good.
  • WiFi Wireless Fidelity
  • a mobile phone company may use a location information service provided by WiFi (Wireless Fidelity) or a mobile phone company, or may be used in combination with GPS. good.
  • the detection position can be corrected by detecting the walking speed (the vehicle speed or the like in the case of a device mounted on an automobile or the like).
  • the date and time counting unit 28 counts the current date and time (year / month / day / hour / minute / second).
  • the system controller 10 can recognize the current date and time from the count value in the date and time counting unit 28.
  • image data / audio data and additional data are transmitted to the server device 70, it is included in the date / time information power additional data detected by the date / time counting unit 28 at the time of imaging.
  • the imaging display device 1 can display a map image on the display unit 2.
  • a map database 29 is provided for displaying the map image.
  • the map database 29 may be stored in a partial area when the storage unit 25 is an HDD or the like, for example.
  • the map database 29 includes map image generation information corresponding to position information, additional information such as names of points, search information, and the like as information for displaying a map in the same manner as a so-called navigation system. It is a database.
  • the system controller 10 can execute map search and map display processing using the map database 29.
  • the imaging device 30 in FIG. 5 eliminates the display unit 2 and the audio output unit 5 that are image and audio output systems in the imaging display device 1 in FIG. 4 and the map database 29 that is information for map display. It is a configuration.
  • the imaging device 30 is imaged by the imaging unit 3 in a state where the imaging device 30 is worn by the user as shown in FIG. 2 or is worn by various moving bodies as described above, and the captured image data is transmitted to the communication unit. Can be sent from 26 to an external device or recorded in the storage unit 25
  • the system controller 10 controls an imaging operation, a communication operation, a recording operation, and the like.
  • a configuration example of the display device 40 is as shown in FIG. Again, the same parts as those in FIG.
  • the display device 40 in FIG. 6 has a configuration in which the image pickup unit 3 and the sound input unit 6 for image pickup and sound input functions in the image pickup display device 1 in FIG. 4 are eliminated. Also, there is no illumination unit 4 or illumination control unit 14 to assist in imaging!
  • the display device 40 is not a device that transmits image data / audio data to the server device 70, in the sense of generating position information and date / time information included in the additional data at the time of transmission,
  • the position detection unit 12 and the date / time counting unit 28 need not be provided.
  • system controller 10 does not have to have a function of executing transmission control processing of image data / audio data to the server device 70.
  • the display device 40 is worn by the user in the form as shown in Fig. 2B, or the user This is a device owned by the user or owned by a user as a device installed at home or in a car, etc., and the communication unit 26 receives the image data / audio data transmitted from the external device.
  • the received image data / audio data is output from the display unit 2 and the audio output unit 5 or recorded in the storage unit 25.
  • the system controller 10 controls communication operation, display operation, audio output operation, recording operation, and the like.
  • the communication unit 26 may be configured to perform network communication by wired connection.
  • a configuration example as shown in FIG. 7 is considered as the imaging device 30 and the display device 40.
  • the imaging device 30 is configured to have substantially the same configuration as the imaging display device 1 of FIG.
  • the display unit 2 is not provided in the imaging device 30, and a transmission unit 27 is provided instead.
  • the transmission unit 27 performs encoding processing for transmission to the display device 40 on the image data supplied from the image processing unit 15 for display monitoring.
  • the encoded image data is transmitted to the display device 40.
  • the display device 40 is provided with a receiving unit 41, a display control unit 42, and a display unit 2.
  • the receiving unit 41 performs data communication with the transmitting unit 21 of the imaging device 30. Then, it receives the image data transmitted from the imaging device 30 and performs a decoding process.
  • the image data decoded by the receiving unit 41 is supplied to the display control unit 42.
  • the display control unit 42 performs processing such as signal processing for display, screen division, and character synthesis on the image data to generate a display image signal.
  • the display control unit 42 has a display panel unit 2a that is a liquid crystal display. Supply to part 2.
  • a drive signal based on the signal is applied to perform display.
  • FIG. 8 shows a configuration example of the server device 70.
  • the server device 70 includes a server control unit 72, a network storage unit 71, and a communication unit 73.
  • the network storage unit 71 is realized by, for example, an HDD or the like, and stores a point image database to be described later.
  • the point image database is a database in which image data / audio data and additional data transmitted from the imaging device 30 or the imaging display device 1 via the network 60 are accumulated.
  • the communication unit 73 performs data communication via the network 60 with the communication unit 26 of the imaging display device 1, the imaging device 30, and the display device 40.
  • the server control unit 72 performs necessary operation control as the server device 70. Specifically, the communication operation between the image display device 1, the image pickup device 30, and the display device 40, the storage processing of image data / audio data in the network storage unit 71, search processing, and the like are performed.
  • the device A is the imaging display device 1 or the display device 40 in FIG.
  • the device B is the imaging display device 1 or the imaging device 30 in FIG.
  • the device A is a device that is used by a certain user to receive and display an image captured by another mobile body from the server device 70, and is referred to as “display” in the claims of the present invention.
  • the device B is a device that uploads an image to the server device 70, and is a device that is mounted / mounted on a human, a living thing, a vehicle, or other moving body as described above. This is a device corresponding to the “imaging device” in the section.
  • FIG. 9 shows the imaging display device 1, the display device 40, the server device 70, and the imaging display device 1 and the imaging device 30 as the device A as the device A, respectively.
  • the imaging device 30 and the imaging display device 1 as the device B perform processing for transmitting the captured image data (and audio data) to the server device 70.
  • imaging may be performed constantly, and the captured image data (and audio data) may be transmitted to the server device 70.
  • the captured image is always displayed when the imaging is performed.
  • Data (and voice data) may be transmitted to the server device 70.
  • imaging / transmission is performed for a limited time, for example, imaging / transmission is periodically performed, or when device B is a device worn by the user, imaging / transmission is performed based on a user operation. That power S is considered.
  • the server device 70 designates the position information and transmits the imaging request data, so that when the system controller 10 of the device B determines that the current position is the requested position, it is automatically set. It may be possible to perform imaging / transmission.
  • the image pickup device 30 and the image pickup display device 1 as the device B transmit image data / audio data to the server device 70, the additional data is also transmitted.
  • the additional data includes image management information regarding image data / audio data to be transmitted, position information of an imaging location, and date / time information at the time of imaging.
  • the server device 70 stores image data (and audio data) and additional data transmitted from each of the imaging display device 1 and the imaging device 30 in the point image database in the network storage unit 71.
  • the server control unit 72 receives the image data (and audio data) and the additional data from the device B by the communication unit 73, and the received data is received as a point image in the network storage unit 71. Process to register in the database.
  • FIG. 10 schematically shows the recorded contents of the point image database.
  • each imaging display device 1 or imaging device as the device B is stored.
  • the image transmitted from the device 30 is registered as one entry # 1, # 2 ... in a predetermined unit.
  • the predetermined unit may be a unit whose upper limit is determined according to the image data size, playback time, etc., or when image data is transmitted as a continuous video from device B, the position information as the imaging position is One unit may be set at the changing point.
  • the unit for dividing image data as one entry depends on the image transmission mode from device B, the transmission duration, the convenience of management information in the point image database, the convenience of the image provision service of server device 70, etc. Can be determined appropriately.
  • image data (including audio data) VD1, VD2, VD3 '... Is recorded as each entry, and position information PI is associated with each of these image data.
  • P2, ⁇ 3 ⁇ , date and time information Datel, Date2, Date3—, image management information CI, C2, C3-• are recorded.
  • the position information, date and time information, and image management information are added as additional data together with the image data.
  • the position information P1 is position information as a place where the image data VD1 is captured, for example, latitude and longitude information.
  • Date / time information Datel is information of year / month / day / hour / minute / second when the image data VD1 was captured.
  • Image management information C1 is management information of image data VD1, and includes, for example, image type (video / still image distinction, etc.), data size, compression method, device B identification information, imaging point name information, etc. This is imaging position related information.
  • the imaging position related information is searched from the map database 29 in the imaging display device 1 or the imaging device 30 as the device B based on the current position information at the time of imaging, and the system controller 10 of the device B adds this information.
  • the data may be transmitted to the server device 70 in addition to the data! /, And the server device 70 may be provided with a map database, and the map database may be searched and acquired from the position information P1.
  • the imaging display device 1 or the imaging device 30 as the device B performs the operation of transmitting the image data and the additional data, so that each point is stored in the point image database as shown in Fig. 10. Image data is accumulated.
  • the server The device 70 can provide an image providing service to the user of the device A. That is, in response to an image request from apparatus A, the image data stored in the point image database can be reproduced and the reproduced image data can be transmitted to apparatus A.
  • the imaging display device 1 or the display device 40 as the device A communicates with the server device 70 to acquire and display image data from the server device 70.
  • this is an operation example when the user of the device A enjoys the image providing service by the server device 70.
  • the processing of device A shown in FIG. 11 is the control processing of the system controller 10 of the imaging display device 1 or the display device 40, and the processing of the server device 70 is considered as the control processing of the server control unit 72.
  • Power S can be.
  • step F100 a position designation process using a map image is performed.
  • the system controller 10 of the device A displays a map using data in the map database 29.
  • a certain area on the map is searched or scrolled according to the user's operation. This allows the user to view the map image of a specific region or region on the display unit 2.
  • the system controller 10 changes the displayed region and scale in response to the user specifying a place name and scale or performing a scroll operation, for example, as shown in Fig. 12 (a).
  • a map image of a certain area is displayed.
  • the system controller 10 displays a pointer PT on such a map image as shown in FIG. 12 (b), for example, and the pointer PT is moved on the map image based on the user operation! So that That is, the user can designate a specific position on the map image by moving the pointer PT to an arbitrary position on the map image and performing a predetermined operation.
  • a touch panel operation function is added to the display unit 2 other than using the pointer PT so that the position touched by the user's finger with respect to the map image becomes the designated position.
  • the system controller 10 generates position designation information in response to the user performing an operation of designating a certain point on the map image. That is, position designation information including the latitude and longitude values of the point designated by the user on the map is generated. [0177]
  • the server device 70 is accessed in step F101. That is, a communication connection state is established with the server device 70. At this time, the image request information and the position designation information are transmitted to the server device 70.
  • the server control unit 72 of the server device 70 establishes a communication connection with the device A and accepts an image request and position designation information in step F300.
  • step F301 a reproduced image is specified. That is, the point image database in the network storage unit 71 is searched based on the received position designation information. Then, an entry matching the position information power S and the position designation information in the point image database is extracted.
  • an entry having position information within a predetermined range that can be regarded as a neighborhood from the position of latitude / longitude specified by the position specification information may be extracted.
  • the image data of the extracted entry is specified as a reproduction image.
  • the image data of the entry with the latest date and time may be selected as a playback image by referring to the date and time information, or all entries are played back in order. You can decide as a playback image!
  • one entry may not be extracted. That is, this is the case where the image data has been uploaded by the device B so far with respect to the position (or near position) indicated by the position designation information.
  • the server control unit 72 notifies the device A that the corresponding image data does not exist and the image cannot be provided. In response to this, the device A side notifies the user that the image cannot be provided and ends the process.
  • the server control unit 72 After searching the point image database and specifying the entry (image data) to be played back, the server control unit 72 causes the network storage unit 71 to play back the image data specified as the playback image in step F302.
  • the reproduced image data and audio data are transmitted from the communication unit 73 to the device A.
  • step 102 the image data transmitted from the server device 70 is received and displayed. That is, the system controller 10 of the device A receives the image data (and audio data) received and demodulated by the communication unit 26 as the image processing unit 15 and the audio processing unit 16. And display output on the display unit 2 and sound output on the sound output unit 5 are executed.
  • the system controller 10 of the device A monitors whether or not a communication release request has been transmitted from the server device in step F103.
  • step F104 it is determined whether or not the image display is finished. For example, when the user performs a display end operation using the operation input unit 11, it is determined that the display is ended. Alternatively, a process may be considered in which reception and display are automatically terminated after a predetermined time.
  • step F102 The display output (and audio output) of the data received in step F102 is continuously output until it is determined that the reception of the communication cancellation request is confirmed in step F103, or until the display end is determined in step F104. Execute.
  • the server device 70 monitors in step F303 whether or not the reproduction of the image data of the entry being reproduced has been completed, and whether or not there is a communication release request from the device A in step F304. Until these conditions are detected, image playback and transmission of image data (and audio data) are continued.
  • the user of the device A can view the actual scene image captured by the device B in the past at the position designated on the map image.
  • step F104 determines in step F104 that the display is terminated due to a user operation or other termination condition
  • the process proceeds to step F105, and the communication unit 26 transmits the server device.
  • the communication cancel request is transmitted to 70, and the process proceeds to Step F106.
  • the server device 70 receives the communication cancellation request, the server device 70 proceeds from step F304 to F306.
  • step F303 determines that the reproduction and transmission of the entry to be reproduced has been completed
  • the server control unit 72 proceeds from step F303 to F305 and causes the communication unit 73 to transmit a communication cancellation request to the device A.
  • the process proceeds to step F103 force, F106.
  • the system controller 10 of the device A performs communication connection cancellation processing with the server device 70 in step F106. Further, the server control unit 72 of the server device 70 terminates the communication with the device A and the server processing in step F306. This completes the system operation.
  • the user of the device A can arbitrarily designate a certain position on the map image so that the user wears or possesses the scene captured by the device B at that position.
  • Device A can!
  • FIG. 1 An example of an image that can be viewed by the user of apparatus A is shown in FIG.
  • an image captured by the device B in the past is viewed at that point as shown in (a) and (b) of FIG. be able to.
  • the image is picked up at the designated point by the image pickup device 30 attached to the car, the image pickup device 30 or the image pickup display device 1 worn by the driver.
  • the imaging device 30 or An image captured by the device B as the imaging display device 1 can be viewed.
  • the user of device A can view an image actually captured at a point by designating a point on the map.
  • the user of device A can specify only the position on the map image. As noted in step F100 in Fig. 11, the user can also specify the date and time. You can do it.
  • step F100 the system controller 10 generates the specified position information in response to the user's position specifying operation in the state where the map image is displayed as described above.
  • the menu format or number input format input that specifies the date and time is also executed.
  • a specific date, a specific time, etc. can be specified and input, or a certain date range (for example, from what month to what day) or a time range (for example, from what time to what time) ).
  • a search condition based on the input date and time may be selected. Search conditions include “include specified date”, “within specified date range”, “before specified date”, “after specified date”. The specified date and time, or the specified date and search conditions are set as date and time specification information.
  • step F301 the server control unit 72 searches the point image database using both the position designation information and the date designation information.
  • the position information power in the point image database is extracted as an entry that matches (or is close to) the position designation information, and the date and time information in the point image database matches the condition of the date and time designation information. Narrow down.
  • a certain point at a certain point For example, a certain point at a certain point, a recent point at a certain point, a certain point before a certain point, a certain day at a certain point, a certain point at a certain point You can select and view scenes of time, night scenes of a certain point, etc.
  • the user of the imaging display device 1 or the display device 40 corresponding to the device A described above designates a position on the map image, so that the designated position is selected.
  • an image actually captured by the imaging device 30 can be viewed. This makes it possible to view and enjoy the spectacle of a certain place that can be specified on the map, to know the situation of a certain place that can be specified on the map, and to meet the various needs of users. Can be realized.
  • the fact that a position can be specified on a map image and a captured image of that position can be viewed means that the specified position status includes, for example, terrain, surrounding buildings and scenery of natural objects, and the width of the road. It is also possible to provide information in an expanded manner by applying it to a so-called navigation system.
  • the imaging display device 1 or the imaging device 30 serving as the device B is attached to a moving body including a person, so that it is not necessary to provide a fixed facility such as a so-called fixed point camera. is there.
  • the imaging display device 1 or the imaging device 30 mounted on the moving body captures images while moving at various points, it naturally collects actual captured images at various points and registers the point image database. There is also an advantage that it is easy to enhance the image!
  • Configuration examples and processing examples of the imaging display device 1 or the display device 40 as the device A corresponding to the display device of the present invention, and the imaging display device as the device B corresponding to the imaging device according to the claims of the present invention 1 or configuration examples and processing examples of the imaging device 30, and further configuration examples and processing examples of the server device 70 can be considered in various ways.
  • image capturing is performed with various image capturing operations that can be performed only by normal image capturing and uploading to the server device 70, or the server device 70 can request various image capturing operations. Also good. For example, telephoto imaging, wide-angle imaging, imaging with zoom-in or zoom-out from telephoto to wide-angle, image enlargement imaging, image reduction imaging, variable frame rate imaging (high frame rate imaging or low frame imaging) High-intensity imaging, low-intensity imaging, variable contrast imaging, variable sharpness imaging, imaging with increased sensitivity, imaging with increased infrared imaging sensitivity, imaging with increased ultraviolet imaging sensitivity, specific wavelength Imaging with a band cut, Mosaic processing for captured image data, Brightness inversion processing, Soft focus processing, Partial enhancement in the image, Imaging with added image effects such as variable processing of the color atmosphere of the entire image, Still image Imaging.
  • a special reproduction image may be requested in addition to the normal reproduction image of the image registered in the point image database.
  • image data stored as a moving image it is possible to request that only one frame of still image be transmitted, or request image data for slow playback, high speed playback, etc. Even if you do it.
  • the image data is captured by the device B attached to the moving body, the image data registered in the point image database is often image data captured while moving at a certain speed. . Therefore, when the server device 70 reproduces such image data at a variable speed and transmits it to the device A, the user of the device A can view an image of the scene when moving at a high speed or when the user moves slowly. You can see the image of the scene in a pseudo manner.
  • the image data transmitted from the server device 70 may be recorded in the storage unit 25 together with the position information. That is, the system controller 10 is connected to the storage unit 2
  • the received image data is recorded in correspondence with the position information (for example, the position designation information set in step F100 in FIG. 11).
  • the image data stored in 25 can be replayed.
  • the moving direction from a certain point may be designated.
  • the position detection unit 12 also detects the moving direction and includes the additional data in the server device.
  • the server device 70 can be requested to select image data picked up in the moving direction desired by the user.
  • the position is specified by the map image on the ground.
  • a certain position by force such as an ocean chart, an underwater map, an aerial map, and a space chart.
  • image data captured by a ship, a submarine, an aircraft, a satellite, or the like is registered in the point image database together with its position information, etc., designation by these ocean charts, etc. Images can be retrieved and provided to device A based on Of course, as position information about the sea, the sky, and space, not only latitude and longitude but also altitude and depth information may be added.
  • an image captured by a human satellite can be viewed at or near that point.
  • the device A is equipped with the map database 29 on the side of the device A to display the map.
  • the server device 70 includes the map database, and the server device 70 is based on the map database.
  • a map image may be transmitted and displayed on the device A side.
  • the user power S of device A, a specific place name and address are input, and the place name and address are transmitted to server device 70 as position designation information.
  • the server device 70 generates map image data to be displayed from the place name and the like, and transmits it to the device A for display.
  • the operation of the present invention can be realized in the imaging display device 1 or the display device 40 that is not equipped with the map database 29.
  • image data and audio data are uploaded from the device B to the server device 70 and provided from the server device 70 to the device A.
  • an example in which only the image data is targeted is also considered. .
  • the present invention can be applied as a system that targets only audio data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 ユーザが地図画像上で位置を指定することで、その位置で撮像された画像を見ることができるようにする。移動体に装着された撮像装置(撮像表示装置1又は撮像装置30)は、撮像画像データを撮像地点の位置情報を含む付加データとともにサーバ装置に送信し、サーバ装置で格納されるようにする。即ちサーバ装置では多数の撮像装置が各地で撮像した画像データを位置情報とともに蓄積するようにする。表示装置(撮像表示装置1又は表示装置40)のユーザは、地図画像上で位置を指定する。そして表示装置は位置指定情報をサーバ装置に送信することで、サーバ装置は位置指定情報に基づいて画像データを検索し、位置指定情報に対応する画像データを表示装置に送信する。表示装置では受信した画像データを表示する。

Description

明 細 書
画像表示システム、表示装置、表示方法
技術分野
[0001] 本発明は、画像表示システム、表示装置、表示方法に関し、特に表示装置側での 地図画像上での位置指定に基づ!/、て、外部の撮像装置により撮像された画像表示 を行う技術に関する。
背景技術
[0002] 特開 2005— 341604号公報にはデータ通信システムの一例が述べられている。
[0003] 特開 2005— 337863号公報にはカメラによって撮像された画像を用いて、カーナ ビグーシヨンシステムが有する立体地図を更新する技術が示されている。
[0004] 特表 2004— 538681号公報、特表 2004— 537193号公報、特表 2004— 5386
79号公報には、放送済み ·記録済みの番組を胃 W (World Wide Web)上で拡張し て楽しむ試みが開示されている。
[0005] しかしながら従来は、地図画像に対してユーザが任意に位置を指定し、その位置の 画像を見ることができるようにする技術は提案されて!/、なレ、。
[0006] そこで本発明は、ユーザが地図画像上で、或る位置を指定することで、その位置で 実際に撮像された画像を見ることができるようにすることを目的とする。
発明の開示
[0007] 本発明の画像表示システムは、表示装置と、移動体に装着されて画像撮像を行う 撮像装置と、サーバ装置とを有して成り、上記表示装置と上記撮像装置は、それぞ れ上記サーバ装置と通信可能とされている。そして上記撮像装置は、画像撮像を行 う撮像手段と、位置情報を検出する位置検出手段と、上記撮像手段の撮像により得 られた画像データと少なくともその画像データの撮像の際に上記位置検出手段で検 出された位置情報を含む付加データを上記サーバ装置に対して送信させる送信制 御処理を行う制御手段とを備える。上記サーバ装置は、上記撮像装置から送信され てくる上記画像データ及び上記付加データを格納する格納手段と、上記表示装置か ら送信されてくる位置指定情報に基づいて、上記格納手段に格納された画像データ の検索を行レ、、検索された画像データを再生して上記表示装置に送信させる検索送 信制御処理を行う制御手段とを備える。上記表示装置は、画像表示を行う表示手段 と、上記表示手段に地図画像を表示させる地図表示処理、上記地図画像に対する 入力に基づいて位置指定情報を設定する位置指定処理、上記サーバ装置に上記 位置指定情報を送信して画像データを要求する画像要求送信処理、上記画像要求 送信処理に応じて上記サーバ装置から送信されてくる画像データを受信し受信した 画像データに基づく表示動作を上記表示手段に実行させる表示処理を行う制御手 段とを備える。
[0008] 上記撮像装置が装着される上記移動体は、人、又は人以外の生物、又は地上移 動機器、又は海上移動機器、又は海中移動機器、又は航空移動機器、又は宇宙移 動機器のいずれかである。
[0009] また上記撮像装置は、さらに現在日時を検出する日時検出手段を備え、上記撮像 装置の制御手段は、上記付加データに、画像データの撮像の際に上記日時検出手 段で検出された日時情報を含むようにし、上記表示装置の制御手段は、 日時を指定 する日時指定情報を設定する日時指定処理を行うとともに、上記画像要求送信処理 では、上記位置指定情報とともに上記日時指定情報を上記サーバ装置に送信し、上 記サーバ装置の制御手段は、上記検索送信制御処理の際に、上記表示装置から送 信されてくる位置指定情報と日時指定情報に基づいて、上記格納手段に格納された 画像データの検索を行う。
[0010] 本発明の表示装置は、画像表示を行う表示手段と、外部のサーバ装置との間でデ ータ通信を行う通信手段と、上記表示手段に地図画像を表示させる地図表示処理、 上記地図画像に対する入力に基づいて位置指定情報を設定する位置指定処理、上 記通信手段により上記サーバ装置に上記位置指定情報を送信して画像データを要 求する画像要求送信処理、上記画像要求送信処理に応じて上記サーバ装置から送 信されてくる画像データを上記通信手段により受信させ受信した画像データに基づく 表示動作を上記表示手段に実行させる表示処理を行う制御手段とを備える。
[0011] また上記制御手段は、上記位置指定処理において、上記地図画像に対して指定 入力された地点の緯度 ·経度の情報を、上記位置指定情報とする。 [0012] また上記制御手段は、さらに、 日時を指定する日時指定情報を設定する日時指定 処理を行うとともに、上記画像要求送信処理では、上記位置指定情報とともに上記日 時指定情報を上記サーバ装置に送信する処理を行う。
[0013] また上記表示手段は、使用者の目の前方に位置するように配置されて画像表示を 行う構造とされる。
[0014] また画像撮像を行う撮像手段と、位置情報を検出する位置検出手段とをさらに備え 、上記制御手段は、上記撮像手段の撮像により得られた画像データと、少なくとも、 その画像データの撮像の際に上記位置検出手段で検出された位置情報を含む付加 データを、上記通信手段から上記サーバ装置に対して送信させる送信制御処理も実 行可能とされる。
[0015] 本発明の表示方法は、地図画像を表示させる地図表示処理ステップと、上記地図 画像に対する入力に基づいて位置指定情報を設定する位置指定処理ステップと、外 部のサーバ装置に上記位置指定情報を送信して画像データを要求する画像要求送 信処理ステップと、上記画像要求送信処理に応じて上記サーバ装置から送信されて くる画像データを受信し、受信した画像データに基づく表示を行う表示ステップとを 備える。
[0016] 以上の本発明では、表示装置の使用者 (ユーザ)は、地図画像上で位置を指定す ることで、その指定した位置にお!/、て実際に撮像装置で撮像された画像を見ることが できる。
[0017] 例えば、外部の撮像装置として、他人が装着している撮像装置や、自動車、電車等 に取り付けられた撮像装置、更には動物や鳥などに装着された撮像装置などを考え る。そしてこれらの撮像装置によって撮像された画像データ(動画や静止画)が、撮 像地点の位置情報を含む付加データとともにサーバ装置に送信され、サーバ装置に お!/、て格納される。従ってサーバ装置では多数の撮像装置が各地で撮像した画像 データが、位置情報とともに蓄積されていくことになる。
[0018] このようにしておくと、表示装置側で位置を指定して位置指定情報をサーバ装置に 送信することで、サーバ装置は位置指定情報に基づいて画像データを検索できる。 サーバ装置は位置指定情報に対応する画像データを検索し、それを表示装置に送 信する。表示装置では受信した画像データを表示する。すると表示装置のユーザは 、表示画像として、指定した地点で撮像された光景を見ることができる。
[0019] なお、本発明でいう地図画像とは、単に地上での道、地形、建物、自然物等を表し た「地図」の画像のことだけでなぐ海洋図、海中地形図、航空図、宇宙図など、或る 特定の場所を指定することのできる各種の図の画像を含むものとする。
[0020] 本発明によれば、表示装置のユーザは、地図画像上で位置を指定することで、そ の指定した位置にお!/、て実際に撮像装置で撮像された画像を見ることができる。これ により本発明は、地図上で指定できる或る場所の光景を見て楽しみたい場合、地図 上で指定できる或る場所の状況を知りた!/、場合など、ユーザの多様なニーズに対応 できるシステム及び装置となる。また、地図画像上で位置を指定して、その位置の撮 像画像を見ることができるということは、指定した位置の状況として、例えば地形、周り の建物や自然物の風景、道路の幅や車線数、 日時に応じた様子などを知ることがで きるものであるため、レ、わゆるナビゲーシヨンシステムとして拡張的な情報提供を行う ことも可能となる。
図面の簡単な説明
[0021] [図 1]図 1は、本発明の実施の形態の撮像表示装置の外観例の説明図である。
[図 2]図 2は、実施の形態の撮像装置、表示装置の外観例の説明図である。
[図 3]図 3は、実施の形態のシステム構成例の説明図である。
[図 4]図 4は、実施の形態の撮像表示装置のブロック図である。
[図 5]図 5は、実施の形態の撮像装置のブロック図である。
[図 6]図 6は、実施の形態の表示装置のブロック図である。
[図 7]図 7は、実施の形態の撮像装置及び表示装置のブロック図である。
[図 8]図 8は、実施の形態のサーバ装置のブロック図である。
[図 9]図 9は、実施の形態のシステム動作例の説明図である。
[図 10]図 10は、実施の形態の地点画像データベースの説明図である。
[図 11]図 11は、実施の形態のシステム動作例のフローチャートである。
[図 12]図 12は、実施の形態での地図画像を用いた指定の際の画像の説明図である [図 13]図 13は、実施の形態で表示される指定地点の撮像画像の説明図である。 発明を実施するための最良の形態
[0022] 以下、本発明の画像表示システム、表示装置、表示方法の実施の形態を説明する 。実施の形態においては、撮像表示装置 1又は表示装置 40が、本発明請求項でい う表示装置に該当し、撮像表示装置 1又は表示装置 40の処理として本発明の表示 方法が実行される。また撮像表示装置 1又は撮像装置 30が、本発明請求項でいう撮 像装置に該当する。なお、従って実施の形態の撮像表示装置 1は、本発明請求項で V、う表示装置、撮像装置の双方として機能できるものである。
[0023] 説明は次の順序で行う。
[0024] [1.撮像表示装置、撮像装置、表示装置の外観例]
[2.システム形態]
[3.撮像表示装置、撮像装置、表示装置、サーバ装置の構成例]
[4.システム動作例]
[5.実施の形態の効果、及び変形例、拡張例]
[1.撮像表示装置、撮像装置、表示装置の外観例]
図 1に実施の形態の撮像表示装置 1の外観例を示す。この撮像表示装置 1は眼鏡 型ディスプレイカメラとしてユーザが装着できるものとしている。
[0025] 撮像表示装置 1は、例えば両側頭部から後頭部にかけて半周回するようなフレーム の構造の装着ユニットを持ち、図のように両耳殻にかけられることでユーザに装着さ れる。
[0026] そしてこの撮像表示装置 1は、図 1のような装着状態において、ユーザの両眼の直 前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表 示パネル部 2a、 2bが配置される構成とされている。この表示パネル部 2a、 2bには、 例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即 ち透明又は半透明の状態とできる。表示パネル部 2a, 2bがスルー状態とされること で、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
[0027] またユーザが装着した状態において、ユーザの視界方向を被写体方向として撮像 するように、前方に向けて撮像レンズ 3aが配置されている。 [0028] また撮像レンズ 3aによる撮像方向に対して照明を行う発光部 4aが、例えば LED (L ight Emitting Diode)等により設けられる。
[0029] また、図では左耳側しか示されていないが、装着状態でユーザの右耳孔及び左耳 孔に揷入できる一対のイヤホンスピーカ 5aが設けられる。
[0030] また右眼用の表示部 2の右方と、左眼用の表示部 2の左方に、外部音声を集音す るマイクロホン 6a, 6bが配置される。
[0031] なお図 1は一例であり、撮像表示装置 1をユーザが装着するための構造は多様に 考えられる。一般に眼鏡型、或いは頭部装着型とされる装着ユニットで形成されれば よぐその状態で例えばユーザの眼の前方に近接して表示パネル部 2a、 2bが設けら れ、また撮像レンズ 3aによる撮像方向がユーザの視界方向、つまりユーザの前方と なるようにされていればよい。また表示パネル部 2a, 2bとして両眼に対応して表示部 がー対設けられる構成の他、片側の眼に対応して 1つ表示部が設けられる構成でも よい。
[0032] また撮像レンズ 3aによる撮像方向が、ユーザの後方、側方など、視界方向以外の 方向とされていてもよい。
[0033] またイヤホンスピーカ 5aは、左右のステレオスピーカとせずに、一方の耳にのみ装 着するために 1つ設けられるのみでもよい。またマイクロホンも、マイクロホン 6a, 6bの うちの一方でもよい。さらには、撮像表示装置 1としてマイクロホンやイヤホンスピーカ を備えない構成も考えられる。
[0034] また発光部 4aを設けな!/、構成も考えられる。
[0035] 撮像表示装置 1として眼鏡型或いは頭部装着型の装着ユニットを有する例を示した
1S 例えばヘッドホン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニット でユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザ一 、或いはヘッドホン等に、クリップなどの取付具で取り付けることでユーザに装着させ る形態であってもよい。また必ずしもユーザの頭部に装着されるものでなくても良い。
[0036] ところで図 1の撮像表示装置 1は、撮像のための構成部分と画像をモニタできる表 示パネル部 2a, 2bがー体に形成されてユーザに装着される機器とした例であるが、 ユーザが装着する機器としては、図 2の(a) (b)に示すような撮像装置 30や表示装置 40も考えられる。
[0037] 図 2の(a)の撮像装置 30は、所定の装着フレームによりユーザの側頭部に装着さ れる。そして装着状態においてユーザの視界方向を被写体方向として撮像するよう に、前方に向けて撮像レンズ 3a及び発光部 4aが配置されている。また、外部音声を 集音するマイクロホン 6aが設けられて!/、る。
[0038] 即ちこの撮像装置 30は、表示機能は持たな!/、が、ユーザに装着された状態でユー ザの視界光景の撮像を行う装置とされる。なお、このような撮像装置 30についても、 上記撮像表示装置 1と同じぐ形状、装着構造、構成要素などは多様に考えられる。
[0039] 図 2の (b)の表示装置 40は、腕時計型の表示装置とした例であり、リストバンドによ つてユーザの手首に装着された状態で、ユーザが視認できる表示パネル部 2aが形 成されたものである。
[0040] なお、ここでは腕時計型の表示装置 40を示している力 S、ユーザが装着又は所持す る表示装置 40として多様な形状や装着構造が想定される。表示装置 40としては例え ば携帯用の小型機器としてユーザが所持できるものであってもよい。また、図 1のよう な眼鏡型の形状でユーザが装着できる表示装置 40 (図 1の撮像表示装置 1から撮像 機能を無くした装置)も考えられる。
[0041] さらにユーザが携帯できる表示装置 40を考えた場合、モニタリング表示のみの専用 装置だけでなぐ携帯電話機、携帯ゲーム機、 PDA (Personal Digital Assistant)など の表示機能を有する機器も、本例の表示装置 40となり得る。
[0042] また、ユーザが装着又は携帯する機器以外に、据置型の表示装置、コンピュータ 装置、テレビジョン受像器、車載用ディスプレイモニタ機器なども、本例の表示装置 4 0として採用できる。
[0043] また図 2の(a) (b)の撮像装置 30、表示装置 40は、それぞれを個別に使用しても良 いが、ユーザが、この撮像装置 30、表示装置 40の両方を装着し、 2つの機器で、撮 像表示装置として使用する形態も想定される。例えば撮像装置 30、表示装置 40が データ通信を行って、表示装置 40で撮像装置 30での撮像画像のモニタリングや、 外部機器から送信されてきた画像表示を行うようにする場合である。
[0044] ところで本例においては、撮像表示装置 1、表示装置 40はユーザ(人)が使用する ことを想定するが、撮像装置 30については、人に限らず各種の移動体に装着されて 用いられることが想定されており、移動体とは人を含めて多様に考えられる。上記図 2 の(a)のような撮像装置 30は人が装着して、人の視界光景を撮像するものとされた例 である力 S、人以外の移動体に装着される撮像装置 30も多様に考えられる。
[0045] 人以外の移動体とは、人以外の生物、又は地上移動機器、又は海上移動機器、又 は海中移動機器、又は航空移動機器、又は宇宙移動機器などである。
[0046] 人以外の生物としては、鳥類、ほ乳類、は虫類、両生類、魚類、昆虫類その他の各 種の生物である。
[0047] 地上移動機器としては、乗用車、トラック、バス、タクシー、オートバイ等の自動車両 や、 自転車、人力車、遊具車など人力で移動する車両がある。また、電車、蒸気機関 車などの鉄道車両も想定される。さらに遊園地等における乗り物、工場その他の施設 における業務用の乗り物も想定される。また、人が乗る移動体でないものもある。例え ば業務用や遊具としての各種ロボット、 V、わゆるラジコン等の遊具なども考えられる。
[0048] 海上移動機器としては、各種船舶、水上バイク、サーフボード、手こぎボート、浮き 輪、筏などが想定される。
[0049] 海中移動機器としては、潜水艦、潜水ロボット、アクアラング等の潜水器具などが想 定される。
[0050] 航空移動機器としては、各種航空機、ヘリコプター、グライダー、パラシュート、気球
、 などが想定される。
[0051] 宇宙移動機器としては、ロケット、宇宙探査機、人工衛星などが想定される。
[0052] 移動体としての具体例は更に多様に考えられる力 撮像装置 30は、それぞれ装着 される移動体に応じた形状や装着構造とされればょレ、。
[0053] [2.システム形態]
実施の形態では、撮像表示装置 1又は表示装置 40のユーザは、表示された地図 画像において位置を指定することで、他の撮像表示装置 1又は撮像装置 30で、該当 位置で撮像された画像を見ることができる。つまり撮像表示装置 1又は表示装置 40 のユーザは、地図を見ているときに、実際に地図上で示した場所の光景の画像を、 自分の撮像表示装置 1又は表示装置 40で見ることができる。このためのシステム形 態の例を図 3に示す。
[0054] なお「地図画像」とは、上述のように地上の地図だけでなぐ海洋図、海中図、航空 図なども含むものとする。
[0055] 図 3には、撮像表示装置 1、表示装置 40,撮像装置 30、サーバ装置 70がネットヮ ーク 60を介して通信するシステム形態を示して!/、る。
[0056] なお、ネットワーク 60としてはインターネットなどの広域ネットワークが考えられるが、 もちろん LAN (Local Area Network)その他の狭域ネットワークも想定される。
[0057] ここでは、ユーザ A, B, Cは、例えば図 1のような撮像表示装置 1を装着していると する。またユーザ Dは例えば図 2の(b)のような表示装置 40を装着し、ユーザ Eは図 2 の(a)のような撮像装置 30を装着して!/、るとする。
[0058] さらにユーザ Fは、図 2の(a)の撮像装置 30と図 2の (b)の表示装置 40を共に装着 し、 2つの機器で撮像表示装置として機能するようにしているとする。
[0059] また、移動体 G、移動体 Hに搭載された撮像装置 30とは、所要の形状で自動車、 鉄道車両、航空機その他の移動体 (人以外の移動体)に装着された撮像装置である とする。
[0060] この場合、ユーザ Eが装着する撮像装置 30や、移動体 G、 Hに搭載された撮像装 置 30は、常時、或いは定期的、或いは任意のタイミングで、ネットワーク 60を介した 通信によりサーバ装置 70に対して撮像した画像データ及び少なくとも撮像場所の位 置情報を含む付加データをアップロードする。
[0061] またユーザ A, B, Cが装着している撮像表示装置 1も、常時、或いは定期的、或い は任意のタイミングで、ネットワーク 60を介した通信によりサーバ装置 70に対して撮 像した画像データ及び少なくとも撮像場所の位置情報を含む付加データをアップ口 ード'すること力 Sでさる。
[0062] サーバ装置 70は、撮像表示装置 1又は撮像装置 30を後述する地点画像データべ ースに登録して格納する。
[0063] 一方、ユーザ A, B, Cが装着して!/、る撮像表示装置 1や、ユーザ D、 Fが使用する 表示装置 40は、ユーザが地図画像上で位置を指定することに応じて、ネットワーク 6 0を介した通信でサーバ装置 70にアクセスし、位置指定情報を送信して画像要求を 行う。
[0064] サーバ装置 70は位置指定情報に基づいて地点画像データベースを検索し、位置 指定情報で指定された位置で撮像された画像データを抽出する。そしてその画像デ ータを、撮像表示装置 1又は表示装置 40に送信する。
[0065] 撮像表示装置 1又は表示装置 40では、サーバ装置 70から送信されてくる画像デ ータを受信し、それを表示する。
[0066] これによりユーザ A、 B、 C、 D、 Fは、地図上で指定した位置で実際に撮像された光 景を見ること力 Sでさる。
[0067] [3.撮像表示装置、撮像装置、表示装置、サーバ装置の構成例]
撮像表示装置 1、撮像装置 30、表示装置 40、サーバ装置 70の各構成例を図 4〜 図 8で説明する。
[0068] まず図 4に、撮像表示装置 1の構成例を示す。
[0069] システムコントローラ 10は、例えば CPU (Central Processing Unit)、 ROM (Read O nly Memory)、 RAM (Random Access Memory)、不揮発十生メモリ部、インターフエ一 ス部を備えたマイクロコンピュータにより構成され、撮像表示装置 1の全体を制御する 制御部とされる。このシステムコントローラ 10は内部の ROM等に保持したプログラム に基づいて、各種演算処理やバス 13を介した各部と制御信号等のやりとりを行い、 各部に所要の動作を実行させる。
[0070] 撮像表示装置 1内では、ユーザの視界方向の光景の撮像のための構成として、撮 像部 3が設けられる。
[0071] 撮像部 3は、撮像光学系、撮像素子部、撮像信号処理部を有する。
[0072] 撮像部 3における撮像光学系では、図 1に示した撮像レンズ 3aや、絞り、ズームレン ズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォー力 ス動作やズーム動作を行わせるための駆動系等が備えられる。
[0073] また撮像部 3における撮像素子部では、撮像光学系で得られる撮像光を検出し、 光電変換を行うことで撮像信号を生成する固体撮像素子アレイが設けられる。固体 撮像素子アレイは、例えば CCD (Charge Coupled Device)センサアレイや、 CMOS ( Complementary Metal Oxide Semiconductor)センサアレイとされる。 [0074] また撮像部 3における撮像信号処理部では、固体撮像素子によって得られる信号 に対するゲイン調整や波形整形を行うサンプルホールド/ AGC(Automatic Gain Co ntrol)回路や、ビデオ A/Dコンバータを備え、デジタルデータとしての撮像画像デー タを得る。また撮像画像データに対してホワイトバランス処理、輝度処理、色信号処 理、ぶれ補正処理などを行う。
[0075] これらの撮像光学系、撮像素子部、撮像信号処理部を有する撮像部 3により、撮像 が行われ、撮像による画像データが得られる。
[0076] システムコントローラ 10は、この撮像部 3における撮像動作のオン/オフ制御、撮 像光学系のズームレンズ、フォーカスレンズの駆動制御、撮像素子部の感度ゃフレ ームレート制御、撮像信号処理部の各処理のパラメータや実行処理の設定などを行
5。
[0077] この撮像部 3の撮像動作によって得られた撮像画像データは、画像処理部 15を介 して表示部 2、ストレージ部 25,通信部 26に供給することができる。
[0078] 画像処理部 15は、システムコントローラ 10の制御に従って、撮像画像データを所 定の画像データフォーマットに変換する処理や、表示部 2でモニタ表示させるための 所要の信号処理を行う。表示部 2でモニタ表示させるための信号処理とは、例えば輝 度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整、画面分割 処理、キャラクタ画像の合成処理、拡大又は縮小画像の生成、モザイク画像/輝度 反転画像/ソフトフォーカス/画像内の一部の強調表示/画像全体の色の雰囲気 の可変などの画像エフェクト処理などである。
[0079] また画像処理部 15は、撮像部 3,表示部 2,ストレージ部 25、通信部 26の間の画 像データの転送処理も行う。即ち、撮像部 3からの撮像画像データを表示部 2,ストレ ージ部 25,通信部 26に供給する処理や、ストレージ部 25で再生された画像データ を表示部 2に供給する処理や、通信部 26で受信した画像データを表示部 2に供給す る処理も行う。
[0080] 撮像表示装置 1にお!/、てユーザに対して表示を行う構成としては、表示部 2が設け られる。この表示部 2は、上述した液晶パネル等による表示パネル部 2a、 2bと、表示 パネル部 2a、 2bを表示駆動する表示駆動部が設けられる。 [0081] 表示駆動部は、画像処理部 15から供給される画像信号を、例えば液晶ディスプレ ィとされる表示パネル部 2a, 2bにおいて表示させるための画素駆動回路で構成され ている。即ち表示パネル部 2a, 2bにおいてマトリクス状に配置されている各画素につ V、て、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印 加し、表示を実行させる。この処理により、撮像部 3での撮像モニタとしての表示や、 ストレージ部 25で再生された再生画像の表示、さらには通信部 26で受信された受信 画像の表示が、表示パネル部 2a、 2bにおいて行われる。
[0082] また表示駆動部は、表示パネル部 2a、 2bの各画素の透過率を制御して、スルー状 態 (透明又は半透明の状態)とすることもできる。
[0083] システムコントローラ 10は、この表示部 2における表示動作のオン/オフ(スルー) 制御、表示する画像データに対する処理パラメータの指示、画面領域設定制御、キ ャラクタ発生指示などを行う。
[0084] また撮像表示装置 1には、音声入力部 6、音声処理部 16,音声出力部 5が設けら れる。
[0085] 音声入力部 6は、図 1に示したマイクロホン 6a, 6bと、そのマイクロホン 6a, 6bで得 られた音声信号を増幅処理するマイクアンプ部や A/D変換器を有し、音声データ を出力する。
[0086] 音声入力部 6で得られた音声データは音声処理部 16に供給される。
[0087] 音声処理部 16は、システムコントローラ 10の制御に応じて、音声データの転送を制 御する。即ち音声入力部 6で得られた音声データを、音声出力部 5、ストレージ部 25
、通信部 26に供給する。或いは、ストレージ部 25で再生された音声データや、通信 部 26で受信された音声データを音声出力部 5に供給する。
[0088] また音声処理部 16は、システムコントローラ 10の制御に基づいて、音量調整、音質 調整、音響エフェクト等の処理を行う。
[0089] 音声出力部 5は、図 1に示した一対のイヤホンスピーカ 5aと、そのイヤホンスピーカ
5aに対するアンプ回路や D/A変換器を有する。
[0090] 即ち音声処理部から供給された音声データは D/A変換器でアナログ音声信号に 変換され、アンプ回路で増幅されてイヤホンスピーカ 5aから音声として出力される。こ れによりユーザは外部音声を聞いたり、ストレージ部 25で再生された音声データや 通信部 26で受信した音声データによる音声を聞くことができる。
[0091] なお音声出力部 5は、いわゆる骨伝導スピーカを用いた構成とされてもよい。
[0092] ストレージ部 25は、所定の記録媒体に対して画像データ(及び音声データ)の記録 再生を行う部位とされる。例えば HDD (Hard Disk Drive)として実現される。もちろん 記録媒体としては、フラッシュメモリ等の固体メモリ、固体メモリを内蔵したメモリカード 、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部 25とし ては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
[0093] このストレージ部 25は、システムコントローラ 10の制御に基づいて、撮像によって得 られる画像データ(及び音声データ)や、通信部 26で受信された画像データ(及び音 声データ)を記録媒体に記録する。即ち、画像処理部 15を介して供給される画像デ ータゃ音声処理部 16を介して供給される音声データ、或いは通信部 26で受信され た画像データや音声データに対して、記録媒体への記録のためのエンコード処理を 行い、記録媒体に記録する。
[0094] またストレージ部 25はシステムコントローラ 10の制御に従って、記録した画像デー タ、音声データを再生することができる。再生した画像データは画像処理部 15を介し て表示部 2に供給され、音声データは音声処理部 16を介して音声出力部 5に供給さ れる。また再生した画像データ/音声データは、外部機器に送信するデータとして 通信部 26に供給することもできる。
[0095] 通信部 26は図 3のネットワーク 60を介して外部機器、特にサーバ装置 70との間で のデータの送受信を fiう。
[0096] この通信部 26は、無線 LAN、ブルートゥースなどの方式で、例えばネットワークァク セスポイントに対する近距離無線通信を介してネットワーク通信を行う構成とすること が考えられる。
[0097] 通信部 26に対しては、撮像部 3で得られた撮像画像データが画像処理部 15を介 して供給される。また音声入力部 6で得られた音声データが音声処理部 16を介して 供給される。通信部 26は、この画像データ及び音声データについて通信用のェンコ ード処理を行い、無線送信のための変調を行って外部機器に送信することができる。 つまりこの撮像表示装置 1で現在撮像及び集音されている画像データ/音声データ を、外部機器 (サーバ装置 70)に送信すること力 Sできる。
[0098] また、ストレージ部 25で再生された画像データ及び音声データについて通信用の エンコード処理を行い、無線送信のための変調を行って外部機器に送信することも できる。
[0099] なお、この撮像表示装置 1で現在撮像及び集音されている画像データ/音声デー タを例えばサーバ装置 70に送信する際には、システムコントローラ 10は付加データ を生成し、画像データ/音声データとともに通信部 26でエンコードさせて送信させる 。付加データは、画像データの管理情報や、後述する位置検出部 12で検出される 現在位置情報や、 日時計数部 28で計数されてレ、る現在日時情報を含むものとされ
[0100] また、撮像及び集音されている画像データ/音声データをストレージ部 25に一旦 記憶し、後の時点でストレージ部 25から読み出して、通信部 26からサーバ装置 70に 送信するという動作も考えられるが、その場合、システムコントローラ 10は、画像デー タ/音声データをストレージ部 25に記憶する際に、上記の内容を含む付加データを 生成し、共にストレージ部 25に記録させる。記録した画像データ/音声データをスト レージ部 25から読み出してサーバ装置 70に送信する際には、共に記録されている 付加データも、送信されることになる。
[0101] システムコントローラ 10が、このような処理を行うことで、サーバ装置 70に対して画 像データ/音声データを送信する際には、その画像データ/音声データに関しての 撮像時点の位置情報と、 日時情報も、サーバ装置 70に送信されることになる。
[0102] また通信部 26は外部機器 (サーバ装置 70)から送信されてきた画像データ/音声 データを受信し、復調して画像処理部 15及び音声処理部 16に供給する。この場合 、表示部 2と音声出力部 5により、受信した画像及び音声の出力が行われる。
[0103] もちろん、通信部 26で受信した画像データ/音声データをストレージ部 25に供給 して記録媒体に記録することも可能である。
[0104] また撮像表示装置 1には照明部 4と照明制御部 14が設けられる。照明部 4は、図 1 、図 2に示した発光部 4aとその発光部 4a (例えば LED)を発光させる発光回路から 成る。照明制御部 14は、システムコントローラ 10の指示に基づいて、照明部 4に発光 動作を実行させる。
[0105] 照明部 4における発光部 4aが図 1又は図 2に示したように取り付けられていることで 、照明部 4は撮像レンズ 3aによる被写体方向に対する照明動作を行うことになる。
[0106] この撮像表示装置 1では、ユーザの操作のために操作入力部 11が設けられる。
[0107] 操作入力部 11は、例えばキー、ダイヤル等の操作子を有するようにし、キー操作等 としてのユーザの操作を検知する構成としてもょレ、し、或!/、はユーザの意識的な挙動 を検知する構成としても良い。
[0108] 操作子を設ける場合、例えば、電源オン/オフ操作、撮像系の操作 (例えばズーム 等の操作や、信号処理の指示操作)、表示関連操作 (例えば表示内容の選択や表 示調整操作)、更には後述する外部装置の指定のための操作に用いる操作子が形 成されればよい。
[0109] またユーザの挙動を検知する構成とする場合は、加速度センサ、角速度センサ、振 動センサ、圧力センサ等を設けることが考えられる。
[0110] 例えばユーザが撮像表示装置 1を側面側からコッコッと軽く叩くといったことを、カロ 速度センサ、振動センサ等で検知し、例えば横方向の加速度が一定値を越えたとき にシステムコントローラ 10がユーザの操作として認識するようにすることができる。また
、加速度センサや角速度センサによりユーザが右側から側部(眼鏡のツルに相当す る部分)を叩いた力、、左側から側部を叩いたかを検出できるようにすれば、それらを、 それぞれ所定の操作として判別することもできる。
[0111] またユーザが頭を回す、首を振るなどとすることを加速度センサや角速度センサで 検知し、これをシステムコントローラ 10がユーザの操作として認識することができる。
[0112] また、撮像表示装置 1の左右の側部(眼鏡のツルに相当する部分)等に圧力センサ を配置し、右側部をユーザが指で押したときは望遠方向のズーム操作、左側部をュ 一ザが指で押したときは広角方向のズーム操作などとすることもできる。
[0113] さらには、生体センサとしての構成を備えるようにし、ユーザの生体情報を検出して 、操作入力と認識するようにしても良い。生体情報とは、脈拍数、心拍数、心電図情 報、筋電、呼吸情報 (例えば呼吸の速さ、深さ、換気量など)、発汗、 GSR (皮膚電気 反応)、血圧、血中酸素飽和濃度、皮膚表面温度、脳波(例えば α波、 /3波、 Θ波、 δ波の情報)、血流変化、眼の状態などである。
[0114] そしてシステムコントローラ 10は生体センサの検出情報を、ユーザの操作入力とし て認識するようにしてもよい。例えばユーザの意識的な挙動として目の動き(視線方 向の変化やまばたき)が考えられるが、ユーザが 3回まばたきをしたことを検知したら、 それを特定の操作入力と判断するなどである。さらには、上記生体情報の検知により ユーザが撮像表示装置 1を装着したことや外したこと、あるいは特定のユーザが装着 したことなども検出可能であり、システムコントローラ 10がその検出に応じて電源オン /オフなどを行うようにしてもよい。
[0115] 操作入力部 11は、このように操作子、加速度センサ、角速度センサ、振動センサ、 圧力センサ、生体センサ等として得られる情報をシステムコントローラ 10に供給し、シ ステムコントローラ 10はこれらの情報によりユーザの操作を検知する。
[0116] また撮像表示装置 1は位置検出部 12を備える。位置検出部 12は例えば GPS受信 部とされる。 GPS受信部は、 GPS (Global Positioning System)の衛星からの電波を 受信し、現在位置としての緯度 ·経度の情報をシステムコントローラ 10に出力する。
[0117] サーバ装置 70に対して画像データ/音声データ及び付加データの送信を行う際 には、この位置検出部 12によって検出された撮像時の位置情報力 付加データに含 まれることになる。
[0118] なお、位置検出部 12としては、 WiFi (Wireless Fidelity)や携帯電話会社が提供す る位置情報サービスを利用するものとしてもょレ、し、それらや GPSを組み合わせて利 用しても良い。
[0119] また、歩行速度(自動車等に搭載される装置の場合は車速等)を検出することで、 検出位置を補正できるようにすることも考えられる。
[0120] 日時計数部 28は、現在日時 (年月日時分秒)を計数する。システムコントローラ 10 は日時計数部 28での計数値により現在日時を認識できる。
[0121] サーバ装置 70に対して画像データ/音声データ及び付加データの送信を行う際 には、この日時計数部 28によって検出された撮像時の日時情報力 付加データに含 まれることになる。 [0122] 撮像表示装置 1は、表示部 2において地図画像を表示することができる。この地図 画像の表示のために地図データベース 29が備えられる。なお、地図データベース 2 9は、例えばストレージ部 25が HDD等とされる場合に、その一部領域に格納されるも のとしてあよい。
[0123] 地図データベース 29は、いわゆるナビゲーシヨンシステムと同様に地図表示を行う ための情報として、位置情報に対応した地図画像生成情報や各地点の名称等の付 加的な情報、検索情報等がデータベース化されたものである。
[0124] システムコントローラ 10は、地図データベース 29を利用した地図検索及び地図表 示処理を実行できる。
[0125] 次に撮像装置 30の構成を図 5に示す。なお図 4と同一部分は同一符号を付して重 複説明を避ける。図 5の撮像装置 30は、図 4の撮像表示装置 1における画像及び音 声の出力系である表示部 2,音声出力部 5と、地図表示のための情報となる地図デ ータベース 29を無くした構成である。
[0126] 即ちこの撮像装置 30は、図 2のようにユーザに装着されたり、上述したように各種の 移動体に装着された状態において、撮像部 3により撮像を行い、撮像画像データを 通信部 26から外部装置に送信したり、ストレージ部 25において記録することができる
[0127] システムコントローラ 10は撮像動作、通信動作、記録動作等の制御を行う。
[0128] 表示装置 40の構成例は図 6のようになる。ここでも図 4と同一部分は同一符号を付 して重複説明を避ける。図 6の表示装置 40は、図 4の撮像表示装置 1における画像 撮像及び音声入力の機能のための撮像部 3,音声入力部 6を無くした構成である。ま た撮像のための補助となる照明部 4 ,照明制御部 14も設けられな!/、。
[0129] また表示装置 40はサーバ装置 70に対して画像データ/音声データを送信する機 器とはならないため、送信時の付加データに含む位置情報、 日時情報を生成するた めという意味では、位置検出部 12や日時計数部 28が設けられなくて良い。
[0130] 当然システムコントローラ 10は、画像データ/音声データのサーバ装置 70への送 信制御処理を実行する機能を持たなくて良い。
[0131] この表示装置 40は、図 2の(b)のような形態でユーザに装着されたり、或いはユー ザが所持したり、或いはユーザが家庭や自動車等に設置する機器として所有する機 器であり、外部装置力 送信されてくる画像データ/音声データを通信部 26で受信 する。そして受信した画像データ/音声データを表示部 2,音声出力部 5から出力し たり、ストレージ部 25において記録する。
[0132] システムコントローラ 10は通信動作、表示動作、音声出力動作、記録動作等の制 御を行う。
[0133] また家庭等に固定的に設置する形態の表示装置を考えた場合、通信部 26は有線 接続によりネットワーク通信を行う構成とされても良い。
[0134] ところで、図 3のユーザ Fの所持する機器として述べたように、図 2の(a) (b)のような 撮像装置 30と表示装置 40の両方を用いて撮像表示装置 1と同等の機能を持つよう にしても良い。
[0135] その場合、撮像装置 30と表示装置 40として図 7のような構成例が考えられる。
[0136] この図 7の例では、撮像装置 30において、図 4の撮像表示装置 1とほぼ同様の構 成を備えるようにする。但し撮像装置 30において表示部 2は設けられず、代わりに送 信部 27が設けられる。
[0137] 送信部 27は、画像処理部 15から表示モニタ用として供給される画像データについ て、表示装置 40への送信の為のエンコード処理を行う。そしてエンコードした画像デ ータを表示装置 40に送信する。
[0138] また表示装置 40には、受信部 41、表示制御部 42、表示部 2が設けられる。
[0139] 受信部 41は、撮像装置 30の送信部 21との間でデータ通信を行う。そして撮像装 置 30から送信されてくる画像データを受信し、デコード処理をおこなう。
[0140] 受信部 41でデコードされた画像データは、表示制御部 42に供給される。表示制御 部 42は、画像データについて表示のための信号処理や画面分割、キャラクタ合成等 の処理を行って表示用の画像信号を生成し、例えば液晶ディスプレイとされる表示パ ネル部 2aを有する表示部 2に供給する。
[0141] 表示部 2では、表示用の画像信号に応じて、マトリクス状に配置されている表示パ ネル部 2aの各画素につ!/、て、それぞれ所定の水平/垂直駆動タイミングで映像信 号に基づく駆動信号を印加し、表示を実行させる。 [0142] このように構成することで、例えば図 3のユーザ Fのように撮像装置 30と表示装置 4
0を装着したユーザ力 S、これらを撮像表示装置 1と同様に使用することができる。
[0143] 次に図 8にサーバ装置 70の構成例を示す。
[0144] サーバ装置 70は、サーバ制御部 72、ネットワークストレージ部 71、通信部 73を備
X·る。
[0145] ネットワークストレージ部 71は、例えば HDD等により実現され、後述する地点画像 データベースを格納する。後に図 10で述べるが、地点画像データベースとは、撮像 装置 30又は撮像表示装置 1からネットワーク 60を介して送信されてくる画像データ /音声データ及び付加データを蓄積したデータベースである。
[0146] 通信部 73は、撮像表示装置 1、撮像装置 30、表示装置 40の通信部 26との間で、 ネットワーク 60を介したデータ通信を行う。
[0147] サーバ制御部 72は、サーバ装置 70としての必要な動作制御を行う。具体的には撮 像表示装置 1、撮像装置 30、表示装置 40との間の通信動作や、画像データ/音声 データのネットワークストレージ部 71への格納処理、検索処理などを行う。
[0148] 以上、撮像表示装置 1、撮像装置 30、表示装置 40、サーバ装置 70の構成を示し た力 これらはそれぞれ一例にすぎない。実際に実施されるシステム動作例や機能 に応じて各種の構成要素の追加や削除は当然考えられる。また撮像装置 30、撮像 表示装置 1が搭載 (装着)される移動体の別や、表示装置 30の形態 (例えば腕時計 型、携帯型、据置型など)の別に応じて、それぞれ適切な構成が考えられることはいう までもない。
[0149] [4.システム動作例]
以下、本実施の形態として行われるシステム動作例について説明していく。
[0150] なお、以下の説明では、「装置 A」「装置 B」という名称を用いる。
[0151] 装置 Aとは、図 3における撮像表示装置 1又は表示装置 40のことである。また装置 Bとは、図 3における撮像表示装置 1又は撮像装置 30のことである。
[0152] つまり装置 Aは、或るユーザが使用して、他の移動体で撮像された画像をサーバ装 置 70から受信して表示する側の機器であり、本発明請求項でいう「表示装置」に該当 する機器である。 [0153] 一方装置 Bは、サーバ装置 70に対して画像をアップロードする側の機器であり、人 、生物、車両、その他の上述した移動体に装着/搭載される機器であって、本発明 請求項でいう「撮像装置」に該当する機器である。
[0154] 図 9は装置 Aとしての撮像表示装置 1、表示装置 40と、サーバ装置 70と、装置 Bと しての撮像表示装置 1、撮像装置 30を示している。
[0155] 装置 Bとしての撮像装置 30、撮像表示装置 1は、撮像した画像データ(及び音声デ ータ)をサーバ装置 70に送信する処理を行う。
[0156] 例えば常時撮像を行って、撮像画像データ(及び音声データ)をサーバ装置 70に 送信するものとしてもよいし、或いは時限的に撮像を行う際には、その撮像実行時に は常に撮像画像データ(及び音声データ)をサーバ装置 70に送信するものとしてもよ い。時限的に撮像/送信を行う場合としては、例えば定期的に撮像/送信を行うよう にしたり、装置 Bがユーザが装着する機器の場合はユーザ操作に基づいて撮像/送 信を行うようにすること力 S考えられる。また、サーバ装置 70が位置情報を指定して撮 像依頼データを送信しておくことで、装置 Bのシステムコントローラ 10が、現在位置が 依頼された位置であると判別したときに、自動的に撮像/送信を行うようにすることも 考えられる。
[0157] また上述のように、装置 Bとしての撮像装置 30、撮像表示装置 1は、画像データ/ 音声データをサーバ装置 70に送信する際には、付加データも加えて送信する。
[0158] 付加データとは、送信する画像データ/音声データについての画像管理情報と、 撮像場所の位置情報と、撮像時の日時情報を含むものとされる。
[0159] サーバ装置 70は、撮像表示装置 1、撮像装置 30のそれぞれから送信されてくる画 像データ(及び音声データ)や付加データを、ネットワークストレージ部 71において地 点画像データベースに蓄積する。
[0160] 即ちサーバ制御部 72は、通信部 73により装置 Bからの画像データ(及び音声デー タ)と付加データを受信することに応じて、その受信したデータをネットワークストレー ジ部 71における地点画像データベースに登録する処理を行う。
[0161] 図 10に、地点画像データベースの記録内容を模式的に示す。
[0162] 地点画像データベースには、装置 Bとしてのそれぞれの撮像表示装置 1や撮像装 置 30から送信されてくる画像が、所定単位で 1つのエントリ # 1、 # 2 · · ·として登録さ れる。所定単位とは画像データサイズ、再生時間などに応じて上限が決められる単 位でも良いし、装置 Bから画像データが継続的な動画として送信されてくるような場合 、撮像位置としての位置情報が変化するポイントで 1つの単位が設定されても良い。 どのような単位で 1つのエントリとしての画像データを区切るかは、装置 Bからの画像 送信態様、送信継続時間、地点画像データベースの管理情報の都合、サーバ装置 70の画像提供サービスの都合などに応じて適宜決められればよい。
[0163] 図 10に示すように、各エントリとして、画像データ(音声データも含む) VD1、 VD2 、 VD3 ' · ·が記録されていくが、これらの画像データにそれぞれ対応して、位置情報 PI , P2, Ρ3 · · ·、 日時情報 Datel、 Date2、 Date3—、画像管理情報 CI , C2, C3 - • ·が記録される。
[0164] 位置情報、 日時情報、画像管理情報は、画像データとともに付加データとして装置
Bから送信されてきた情報である。
[0165] 従って例えばエントリ # 1について言えば、位置情報 P1は、画像データ VD1を撮 像した場所としての位置情報であり、例えば緯度、経度の情報である。
[0166] また日時情報 Datelは、画像データ VD1を撮像した時点の年月日時分秒の情報 である。
[0167] 画像管理情報 C1は、画像データ VD1の管理情報であり、例えば画像種別(動画 /静止画の別など)、データサイズ、圧縮方式、装置 Bの識別情報、撮像地点の名称 情報などの撮像位置関連情報である。なお撮像位置関連情報は、装置 Bとしての撮 像表示装置 1又は撮像装置 30における地図データベース 29から、撮像時の現在位 置情報に基づいて検索し、装置 Bのシステムコントローラ 10が、これを付加データとし て加えてサーバ装置 70に送信してもよ!/、し、サーバ装置 70が地図データベースを 備え、位置情報 P1から地図データベースを検索して取得するようにしてもよい。
[0168] 図 9のように装置 Bとしての撮像表示装置 1又は撮像装置 30が、画像データと付加 データを送信する動作を行うことで、この図 10のような地点画像データベースに、各 地点の画像データが蓄積されていくことになる。
[0169] このように各地点の撮像画像がサーバ装置 70において蓄積されていくことで、サー バ装置 70は装置 Aのユーザに対して、画像提供サービスを行うことが可能となる。即 ち装置 Aからの画像要求に応じて、地点画像データベースに蓄積された画像データ を再生し、その再生画像データを装置 Aに送信できる。
[0170] 以下、装置 Aとしての撮像表示装置 1又は表示装置 40が、サーバ装置 70との間で 通信を行い、サーバ装置 70からの画像データを取得して表示する動作例を説明す る。つまり装置 Aのユーザがサーバ装置 70による画像提供サービスを享受する際の 動作例である。
[0171] 図 11に示す装置 Aの処理は、撮像表示装置 1又は表示装置 40のシステムコント口 ーラ 10の制御処理であり、サーバ装置 70の処理はサーバ制御部 72の制御処理と 考えること力 Sできる。
[0172] 装置 A側では、まずステップ F100として地図画像を用いた位置指定処理を行う。
例えば装置 Aのシステムコントローラ 10は、地図データベース 29のデータを用いて 地図表示を行う。またユーザの操作に応じて地図上の或る地域の検索やスクロール 表示なども行う。これにより、ユーザが特定の地方、地域の地図画像を表示部 2で見 ることカでさるようにする。
[0173] 例えばユーザが地名や縮尺を指定したり、スクロール操作を行うことに応じて、シス テムコントローラ 10は表示される地域や縮尺を変化させることで、例えば図 12の(a) のように或る地区の地図画像を表示させる。
[0174] システムコントローラ 10は、このような地図画像上では例えば図 12の(b)のようにポ インタ PTを表示させ、ポインタ PTがユーザ操作に基づ!/、て地図画像上で移動され るようにする。即ちユーザは、ポインタ PTを地図画像上の任意の位置に移動させて、 所定の操作を行うことで、地図画像上の特定の位置を指定することができる。
[0175] なお、もちろんポインタ PTによるものではなぐ例えば表示部 2にタツチパネル操作 機能を付加し、地図画像に対してユーザが指でタツチした位置が指定位置となるよう にすることあでさる。
[0176] これらのようにして、ユーザが地図画像上で或る地点を指定する操作を行うことに応 じて、システムコントローラ 10は位置指定情報を生成する。即ち地図上でユーザが指 定したポイントの緯度、経度の値を含む位置指定情報を生成する。 [0177] 装置 Aのシステムコントローラ 10は、ステップ F100で位置指定情報を生成したら、 次にステップ F101で、サーバ装置 70にアクセスする。即ちサーバ装置 70との間で 通信接続状態を確立する。そしてこのとき、画像要求の情報と、位置指定情報をサー バ装置 70に送信する。
[0178] サーバ装置 70のサーバ制御部 72は、ステップ F300で、装置 Aとの通信接続を確 立し、画像要求と位置指定情報を受け付ける。
[0179] そしてステップ F301で再生画像を特定する。即ち受信した位置指定情報に基づい てネットワークストレージ部 71の地点画像データベースを検索する。そして地点画像 データベースにおける位置情報力 S、位置指定情報に一致するエントリを抽出する。
[0180] 又は位置指定情報で指定された緯度 ·経度の位置から近辺とみなすことのできる所 定範囲内としての位置情報を有するエントリを抽出してもよい。
[0181] そして抽出したエントリの画像データを再生画像として特定する。
[0182] なお、複数のエントリが検索された場合は、 日時情報を参照して、最新の日時のェ ントリの画像データを再生画像として選択してもよいし、全てのエントリを順番に再生 する再生画像として決定してもよ!/ヽ。
[0183] また、位置指定情報に基づく検索で、 1つのエントリも抽出されない場合もある。即 ち位置指定情報で示される位置 (もしくは近辺位置)に関して、これまで装置 Bによる 画像データのアップロードがされてレ、なレ、場合である。
[0184] そのような場合は、図 11では示していないが、サーバ制御部 72は装置 Aに対して 該当する画像データが存在せず、画像提供不能ということの通知を行うことになる。こ れに応じて装置 A側では、画像提供不能の旨をユーザに提示して処理を終える。
[0185] サーバ制御部 72は、地点画像データベースの検索を行って再生するエントリ(画像 データ)を特定したら、続いてステップ F302で、再生画像として特定した画像データ を、ネットワークストレージ部 71から再生させ、再生された画像データ及び音声デー タを、通信部 73から装置 Aに対して送信させる。
[0186] 装置 A側ではステップ 102で、サーバ装置 70から送信されてくる画像データの受信 及び表示を実行する。即ち装置 Aのシステムコントローラ 10は、通信部 26で受信及 び復調される画像データ(及び音声データ)を、画像処理部 15及び音声処理部 16 に供給させ、表示部 2での表示出力と音声出力部 5での音声出力を実行させる。
[0187] 装置 Aのシステムコントローラ 10はステップ F103でサーバ装置から通信解除要求 が送信されてきたか否力、を監視する。
[0188] またステップ F104で画像表示の終了か否かを判断する。例えばユーザが操作入 力部 11により表示終了の操作を行ったら、終了と判断する。或いは、受信及び表示 を所定時間行ったら自動的に終了とするような処理も考えられる。
[0189] ステップ F103で通信解除要求の受信が確認される力、、或いはステップ F104で表 示終了と判断されるまで、ステップ F102で受信したデータの表示出力(及び音声出 力)を継続的に実行する。
[0190] またサーバ装置 70では、ステップ F303で、再生しているエントリの画像データの再 生が終了したか否かを監視し、またステップ F304で装置 Aからの通信解除要求があ るか否かを監視しており、これらの状況が検知されるまでは、画像再生及び画像デー タ(及び音声データ)の送信を継続する。
[0191] 従ってこの間、装置 Aのユーザは、自分で地図画像上で指定した位置において、 過去に装置 Bで撮像された実光景の画像を見ることができる。
[0192] 装置 Aのシステムコントローラ 10は、ステップ F104で、ユーザ操作或いは他の終了 条件により表示終了と判断したら、ステップ F105に進み、通信部 26からサーバ装置
70に対して通信解除要求を送信させ、ステップ F106に進む。サーバ装置 70は、通 信解除要求を受信したら、ステップ F304から F306に進む。
[0193] または、サーバ制御部 72は、再生対象となったエントリの再生及び送信を完了した と判断したら、ステップ F303から F305に進み、通信部 73から装置 Aに対して通信 解除要求を送信させる。装置 Aのシステムコントローラ 10は、通信解除要求を受信し たら、ステップ F103力、ら F106に進む。
[0194] そして装置 Aのシステムコントローラ 10はステップ F106でサーバ装置 70との間の 通信接続解除処理を行う。またサーバ装置 70のサーバ制御部 72はステップ F306 で装置 Aとの通信及びサーバ処理を終了させる。以上でシステム動作を終える。
[0195] 以上の処理により、装置 Aのユーザは、地図画像上で、任意に或る位置を指定する ことで、その位置で装置 Bによって撮像された光景を、自分が装着又は所持している 装置 Aにお!/ヽて見ること力 Sできる。
[0196] 装置 Aのユーザが見ることのできる画像の例を図 13に示す。
[0197] 例えば装置 Aのユーザ力 S、地図上で或る道路の地点を指定したら、図 13の(a) (b) のように、その地点において過去に装置 Bにおいて撮像された画像を見ることができ る。例えば自動車に取り付けられた撮像装置 30や、運転手が装着していた撮像装置 30又は撮像表示装置 1によって、その指定地点で撮像されて!/、た画像である。
[0198] また例えば装置 Aのユーザ力 地図上で或る鉄道線路上の地点を指定したら、図 1 3の(c)のように、その地点において過去に鉄道車両に装着された撮像装置 30、もし くは鉄道運転士が装着していた撮像装置 30又は撮像表示装置 1としての装置 Bにお Vヽて撮像された画像を見ることができる。
[0199] また例えば装置 Aのユーザ力 地図上で或るリゾート地の地点を指定したら、図 13 の(d)のように、過去にその地点に居た人物が装着していた撮像装置 30又は撮像表 示装置 1としての装置 Bにおいて撮像された画像を見ることができる。
[0200] 例えば以上の例のように、装置 Aのユーザは、地図上の地点を指定することで、そ の地点で実際に撮像された画像を見ることができる。
[0201] なお、上記の説明では、装置 Aのユーザは地図画像上で位置のみを指定するもの とした力 図 11のステップ F100に付記しているように、 日時指定も行うこと力 Sできるよ うにしても良い。
[0202] 例えばステップ F100の時点で、システムコントローラ 10は上述のように地図画像を 表示させた状態でのユーザの位置指定操作に応じて、指定位置情報を生成するが、 このときに、ユーザに、メニュー形式もしくは数 入力形式で、 日時を指定する入力も 実行させるようにする。
[0203] 例えば特定に年月日、特定の時刻等を指定入力させるようにしたり、或る日付け範 囲(例えば何月何日から何月何日まで)や時刻範囲(例えば何時から何時まで)を指 定入力させるようにする。また入力した日時に基づいた検索条件を選択させるように してもよい。検索条件として、「指定した日時を含む」「指定の日時範囲内」「指定日時 以前」「指定日時以降」などとする。そして指定日時、又は指定日時と検索条件を、 日 時指定情報として設定する。 [0204] 装置 Aのシステムコントローラ 10は、ステップ F101でサーバアクセスを行う際には、 システムコントローラ 10は位置指定情報と共に、 日時指定情報も送信する。サーバ制 御部 72は、ステップ F300で、位置指定情報と共に日時指定情報を受け付ける。
[0205] そしてサーバ制御部 72はステップ F301では、位置指定情報と日時指定情報の両 方を用いて、地点画像データベースの検索を行う。
[0206] 即ち、地点画像データベースにおける位置情報力 位置指定情報に一致 (又は近 辺)となるエントリを抽出し、さらに、地点画像データベースにおける日時情報が、 日 時指定情報の条件に合致するエントリを絞り込む。
[0207] このような検索により、位置及び撮像日時がユーザの指定に合致したエントリを抽 出し、そのエントリの画像データを再生画像として特定する。
[0208] このように日時指定を行うようにすることで、装置 Aのユーザは、見たい画像を時期 的に選定して見ることができる。
[0209] 例えば或る地点の或る時期の光景、或る地点の最近の光景、或る地点の或る時期 より前の光景、或る地点の特定の日の光景、或る地点の特定の時刻の光景、或る地 点の夜の光景' · ·などを、任意に選択して見ることができる。
[0210] これにより、任意の或る地点の光景として、より多様な光景を見ることができる。
[0211] [5.実施の形態の効果、及び変形例、拡張例]
以上、実施の形態を説明してきたが、上記した装置 Aに相当する撮像表示装置 1 又は表示装置 40のユーザは、地図画像上で位置を指定することで、その指定した位 置にぉレ、て実際に撮像装置 30で撮像された画像を見ることができる。これにより地図 上で指定できる或る場所の光景を見て楽しみたい場合、地図上で指定できる或る場 所の状況を知りたレ、場合など、ユーザの多様なニーズに対応できるシステム及び装 置を実現できる。
[0212] また、地図画像上で位置を指定して、その位置の撮像画像を見ることができるという ことは、指定した位置の状況として、例えば地形、周りの建物や自然物の風景、道路 の幅や車線数、 日時に応じた様子などを知ることができるものであるため、いわゆる ナビゲーシヨンシステムに適用して拡張的な情報提供を行うことも可能となる。
[0213] また、 日時指定情報によって提供を受ける画像データを選定することによって、 日 時的な条件で異なる画像を見ることもできる。
[0214] 例えば或る場所で或る時期より以前の撮像画像として、或る場所で或る建物が建 設される前の光景を指定して見ることなども可能となる。
[0215] また装置 Bとなる撮像表示装置 1又は撮像装置 30は、人を含めた移動体に装着さ れるものとすることで、いわゆる定点カメラのような固定的な設備を設けることが不要 である。
[0216] そして移動体に装着された撮像表示装置 1又は撮像装置 30は、当然、多様な地点 を移動しながら撮像するため、多様な地点での実撮像画像を集めて地点画像データ ベースの登録画像を充実させて!/、くことが容易であるとレ、う利点もある。
[0217] なお、本発明の画像表示システム、表示装置、表示方法の実施の形態を説明して きたが、上記実施の形態の例に限らず多様な変形例や拡張例が考えられる。
[0218] 本発明の表示装置に該当する装置 Aとしての撮像表示装置 1又は表示装置 40の 構成例や処理例、さらに本発明請求項でいう撮像装置に該当する装置 Bとしての撮 像表示装置 1又は撮像装置 30の構成例や処理例、さらにサーバ装置 70の構成例 や処理例は、それぞれ多様に考えられる。
[0219] 例えば装置 B側で、通常の撮像だけでなぐ多様な撮像動作で撮像を行ってサー バ装置 70にアップロード送信したり、或いはサーバ装置 70が多様な撮像動作を要 求できるようにしてもよい。例えば、望遠撮像、広角撮像、望遠から広角までの間のズ ームインもしくはズームアウトを行いながらの撮像、画像拡大撮像、画像縮小撮像、フ レームレートの可変撮像(高フレームレートでの撮像や低フレームレートでの撮像な ど)、高輝度撮像、低輝度撮像、コントラスト可変撮像、シャープネス可変撮像、撮像 感度上昇状態の撮像、赤外線撮像感度上昇状態の撮像、紫外線撮像感度上昇状 態の撮像、特定波長帯域をカットした撮像、撮像画像データに対するモザイク処理 /輝度反転処理/ソフトフォーカス処理/画像内の一部の強調処理/画像全体の 色の雰囲気の可変処理などの画像エフェクトを加えた撮像、静止画撮像などである。
[0220] また、装置 Aからサーバ装置 70に画像を要求する際に、地点画像データベースに 登録された画像の通常再生画像とする以外に、特殊再生画像を要求できるようにし てもよい。 [0221] 例えば動画として格納されている或る画像データについて、 1フレーム分のみの静 止画を送信するように要求できるようにしたり、或いはスロー再生、高速再生などとし ての画像データを要求できるようにしてもょレ、。
[0222] 特に移動体に装着された装置 Bによって撮像された画像データであるため、地点 画像データベースに登録された画像データは、或る速度で移動しながら撮像した画 像データである場合も多い。従って、サーバ装置 70がそのような画像データについ て変速再生させ、それを装置 Aに送信することで、装置 Aのユーザは、高速で移動し たときの光景の画像や、ゆっくり移動したときの光景の画像などを擬似的に見ることが できる。
[0223] また装置 A側では、サーバ装置 70から送信されてきた画像データを、位置情報と 共にストレージ部 25に記録しても良い。即ちシステムコントローラ 10はストレージ部 2
5に、受信した画像データを、位置情報 (例えば図 11のステップ F100で設定した位 置指定情報)に対応させて記録しておく。
[0224] このようにしておくことで、以降は、地図上で同一の地点を指定したら、ストレージ部
25に格納されている画像データをリプレイさせてみることができるようにもなる。
[0225] また装置 A側で、或る地点からの移動方向を指定できるようにしてもよい。
[0226] 装置 Bでは、位置検出部 12で移動方向も検出し、付加データに含めてサーバ装置
70に送信するようにする。サーバ装置 70では、地点画像データベースに、移動方向 の情報も付加して登録する。
[0227] すると、装置 A側で移動方向も検索条件として指定すれば、ユーザが見たい移動 方向の状態で撮像された画像データを選択するようにサーバ装置 70に要求できるこ とになる。
[0228] 例えば南北につながる或る道路の光景として、南から北へ移動しながら撮像された 光景と、北から南へ移動しながら撮像された光景は異なる力 これらの移動方向を指 定条件に加えることで、装置 Aのユーザが見たい移動方向の条件で画像データが検 索され、装置 Aに提供されるようにすることカでさる。
[0229] また上記例では、地上の地図画像で位置指定を行うものとしたが、海洋図、海中地 形図、航空図、宇宙図など力も或る位置を指定することも可能である。 [0230] 例えばサーバ装置 70では、船舶、潜水艦、航空機、衛星などで撮像された画像デ ータを、その位置情報等とともに地点画像データベースに登録するようにしておけば 、これら海洋図等による指定に基づいて、画像を検索し、装置 Aに提供することがで きる。もちろん海中、空、宇宙などの位置情報としては、緯度、経度だけでなく高度、 深度の情報も加えても良い。
[0231] 例えば宇宙図により衛星軌道上の或る場所を指定すると、その地点又は近辺で人 ェ衛星で撮像された画像を見ることができるようにするなどである。
[0232] また、実施の形態の動作例では、装置 A側で地図データベース 29を備えて地図表 示を行うようにした力 サーバ装置 70が地図データベースを備え、サーバ装置 70が 地図データベースに基づいて地図画像を送信して装置 A側で表示するようにしても よい。
[0233] 例えば装置 Aのユーザ力 S、特定の地名や住所を入力し、その地名や住所等を位置 指定情報としてサーバ装置 70に送信する。サーバ装置 70は、地名等から表示させ るべき地図画像データを生成し、装置 Aに送信して表示させる。
[0234] このようにすれば、装置 A側で地図データベース 29を備える必要を無くすこともでき る。言い換えれば、地図データベース 29を装備しない撮像表示装置 1又は表示装置 40において、本発明の動作を実現することもできる。
[0235] また、画像データと音声データを装置 Bからサーバ装置 70にアップロードし、サー バ装置 70から装置 Aに提供されるものとしたが、画像データのみを対象とする例も考 X_られる。
[0236] 或いは本発明を、音声データのみを対象とするシステムとして適用することもできる

Claims

請求の範囲
表示装置と、移動体に装着されて画像撮像を行う撮像装置と、サーバ装置とを有し て成り、上記表示装置と上記撮像装置は、それぞれ上記サーバ装置と通信可能とさ
Figure imgf000032_0001
上記撮像装置は、
画像撮像を行う撮像手段と、
位置情報を検出する位置検出手段と、
上記撮像手段の撮像により得られた画像データと、少なくとも、その画像データの 撮像の際に上記位置検出手段で検出された位置情報を含む付加データを、上記サ ーバ装置に対して送信させる送信制御処理を行う制御手段と、
を備え、
上記サーバ装置は、
上記撮像装置から送信されてくる上記画像データ及び上記付加データを格納する 格納手段と、
上記表示装置から送信されてくる位置指定情報に基づ!/、て、上記格納手段に格納 された画像データの検索を行い、検索された画像データを再生して上記表示装置に 送信させる検索送信制御処理を行う制御手段と、
を備え、
上記表示装置は、
画像表示を行う表示手段と、
上記表示手段に地図画像を表示させる地図表示処理、上記地図画像に対する入 力に基づいて位置指定情報を設定する位置指定処理、上記サーバ装置に上記位 置指定情報を送信して画像データを要求する画像要求送信処理、上記画像要求送 信処理に応じて上記サーバ装置から送信されてくる画像データを受信し受信した画 像データに基づく表示動作を上記表示手段に実行させる表示処理、を行う制御手段 を備えたことを特徴とする画像表示システム。
上記移動体は、人、又は人以外の生物、又は地上移動機器、又は海上移動機器、 又は海中移動機器、又は航空移動機器、又は宇宙移動機器のいずれかであること を特徴とする請求項 1に記載の画像表示システム。
[3] 上記撮像装置は、さらに現在日時を検出する日時検出手段を備え、上記撮像装置 の制御手段は、上記付加データに、画像データの撮像の際に上記日時検出手段で 検出された日時情報を含むようにし、
上記表示装置の制御手段は、 日時を指定する日時指定情報を設定する日時指定 処理を行うとともに、上記画像要求送信処理では、上記位置指定情報とともに上記日 時指定情報を上記サーバ装置に送信し、
上記サーバ装置の制御手段は、上記検索送信制御処理の際に、上記表示装置か ら送信されてくる位置指定情報と日時指定情報に基づいて、上記格納手段に格納さ れた画像データの検索を行うことを特徴とする請求項 1に記載の画像表示システム。
[4] 上記サーバ装置は、位置情報を指定した撮像依頼データを送信する送信手段を 備え、
上記撮像装置の制御手段は、当該撮像装置の現在位置が、上記撮像依頼データ で指定された位置であると判別された場合、上記撮像手段での撮像を実行させること を特徴とする請求項 1に記載の画像表示システム。
[5] 上記撮像装置の制御手段は、当該撮像装置の現在位置が、上記撮像依頼データ で指定された位置であると判別された場合、上記撮像手段の撮像により得られた画 像データと、少なくとも、その画像データの撮像の際に上記位置検出手段で検出さ れた位置情報を含む付加データを、上記サーバ装置に対して送信させることを特徴 とする請求項 1に記載の画像表示システム。
[6] 上記表示手段の制御手段は、上記サーバ装置より複数の画像データを受信した場 合には、当該複数の画像データが上記サーバ装置にアップロードされた順に従って 当該複数の画像データを上記表示手段に表示させることを特徴とする請求項 1記載 の画像表示システム。
[7] 上記表示手段の制御手段は、上記サーバ装置より複数の画像データを受信した場 合には、当該複数の画像データが有する日時情報に基づいて当該複数の画像デー タを上記表示手段に表示させることを特徴とする請求項 3に記載の画像表示システム [8] 画像表示を行う表示手段と、
外部のサーバ装置との間でデータ通信を行う通信手段と、
上記表示手段に地図画像を表示させる地図表示処理、上記地図画像に対する入 力に基づいて位置指定情報を設定する位置指定処理、上記通信手段により上記サ ーバ装置に上記位置指定情報を送信して画像データを要求する画像要求送信処理 、上記画像要求送信処理に応じて上記サーバ装置から送信されてくる画像データを 上記通信手段により受信させ受信した画像データに基づく表示動作を上記表示手 段に実行させる表示処理、を行う制御手段と、
を備えたことを特徴とする表示装置。
[9] 上記制御手段は、上記位置指定処理において、上記地図画像に対して指定入力 された地点の緯度 ·経度の情報を、上記位置指定情報とすることを特徴とする請求項 8に記載の表示装置。
[10] 上記制御手段は、さらに、 日時を指定する日時指定情報を設定する日時指定処理 を行うとともに、上記画像要求送信処理では、上記位置指定情報とともに上記日時指 定情報を上記サーバ装置に送信する処理を行うことを特徴とする請求項 8に記載の 表示装置。
[11] 上記表示手段は、使用者の目の前方に位置するように配置されて画像表示を行う 構造とされることを特徴とする請求項 8に記載の表示装置。
[12] 画像撮像を行う撮像手段と、位置情報を検出する位置検出手段とをさらに備え、 上記制御手段は、上記撮像手段の撮像により得られた画像データと、少なくとも、 その画像データの撮像の際に上記位置検出手段で検出された位置情報を含む付加 データを、上記通信手段から上記サーバ装置に対して送信させる送信制御処理も実 行可能とされることを特徴とする請求項 8に記載の表示装置。
[13] 地図画像を表示させる地図表示処理ステップと、
上記地図画像に対する入力に基づいて位置指定情報を設定する位置指定処理ス 外部のサーバ装置に上記位置指定情報を送信して画像データを要求する画像要 求送信処理ステップと、
上記画像要求送信処理に応じて上記サーバ装置から送信されてくる画像データを 受信し、受信した画像データに基づく表示を行う表示ステップと、
を備えたことを特徴とする表示方法。
[14] 上記画像データは、上記サーバ装置に当該画像データが撮像された日時を示す 日時情報を付加データとして上記サーバ装置に格納されており、
上記画像要求送信処理ステップは、上記位置指定情報とともに指定された日時指 定情報とを上記サーバ装置に送信することを特徴とする請求項 13に記載の表示方 法。
[15] 上記表示ステップは、複数の画像データを受信した場合には、当該複数の画像デ ータが上記サーバ装置にアップロードされた順に従って当該複数の画像データを表 示することを特徴とする請求項 13に記載の表示方法。
[16] 上記表示ステップは、複数の画像データを受信した場合には、当該複数の画像デ ータが有する日時情報に基づいて当該複数の画像データを表示することを特徴とす る請求項 13に記載の表示方法。
PCT/JP2007/071491 2006-12-07 2007-11-05 画像表示システム、表示装置、表示方法 WO2008068990A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020097011531A KR101329419B1 (ko) 2006-12-07 2007-11-05 화상 표시 시스템, 표시 장치, 표시 방법
EP07831223.8A EP2090989B1 (en) 2006-12-07 2007-11-05 Image display system, display device and display method
CA2670744A CA2670744C (en) 2006-12-07 2007-11-05 Image display system, display apparatus, and display method
BRPI0719940A BRPI0719940B1 (pt) 2006-12-07 2007-11-05 sistema de exibição de imagem, aparelho de exibição, e, método de exibição
US12/312,615 US8473544B2 (en) 2006-12-07 2007-11-05 Image display system, display apparatus, and display method
US13/903,302 US8949324B2 (en) 2006-12-07 2013-05-28 Image display system, display apparatus, and display method
US14/511,059 US20150022427A1 (en) 2006-12-07 2014-10-09 Image display system, display apparatus, and display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-330832 2006-12-07
JP2006330832A JP5176311B2 (ja) 2006-12-07 2006-12-07 画像表示システム、表示装置、表示方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/312,615 A-371-Of-International US8473544B2 (en) 2006-12-07 2007-11-05 Image display system, display apparatus, and display method
US13/903,302 Continuation US8949324B2 (en) 2006-12-07 2013-05-28 Image display system, display apparatus, and display method

Publications (1)

Publication Number Publication Date
WO2008068990A1 true WO2008068990A1 (ja) 2008-06-12

Family

ID=39491896

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/071491 WO2008068990A1 (ja) 2006-12-07 2007-11-05 画像表示システム、表示装置、表示方法

Country Status (10)

Country Link
US (3) US8473544B2 (ja)
EP (1) EP2090989B1 (ja)
JP (1) JP5176311B2 (ja)
KR (1) KR101329419B1 (ja)
CN (1) CN101578602A (ja)
BR (1) BRPI0719940B1 (ja)
CA (1) CA2670744C (ja)
MY (1) MY151947A (ja)
TW (1) TW200837713A (ja)
WO (1) WO2008068990A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2136556A1 (en) * 2008-06-17 2009-12-23 Samsung Electronics Co., Ltd. Method and apparatus for recording and reproducing motion picture with location information

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5023663B2 (ja) * 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
JP5092357B2 (ja) * 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4506795B2 (ja) * 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
JP5369974B2 (ja) * 2009-08-04 2013-12-18 株式会社リコー 撮像装置及び画像共有システム
TWI423112B (zh) * 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
US9152650B1 (en) 2010-03-31 2015-10-06 Emc Corporation Mobile device data recovery
US8694597B1 (en) * 2010-03-31 2014-04-08 Emc Corporation Mobile device group-based data sharing
US9514089B1 (en) 2010-03-31 2016-12-06 EMC IP Holding Company LLC Mobile device network data synchronization
US8786698B2 (en) 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method
US8638364B2 (en) 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
JP5677002B2 (ja) * 2010-09-28 2015-02-25 キヤノン株式会社 映像制御装置、及び映像制御方法
CN102033918B (zh) * 2010-12-07 2012-11-21 武汉若鱼网络科技有限公司 基于时间位置信息搜索目标用户的方法及系统
JP2012142825A (ja) * 2011-01-05 2012-07-26 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
US8621000B2 (en) * 2011-03-23 2013-12-31 Verizon Patent And Licensing Inc. Region of interest streaming
US9217867B2 (en) 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
JP2012203128A (ja) * 2011-03-24 2012-10-22 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US8818706B1 (en) 2011-05-17 2014-08-26 Google Inc. Indoor localization and mapping
US8164599B1 (en) 2011-06-01 2012-04-24 Google Inc. Systems and methods for collecting and providing map images
JP5860634B2 (ja) * 2011-08-23 2016-02-16 任天堂株式会社 情報処理システム、情報処理方法、サーバプログラム、サーバ装置、および、サーバシステム
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
TWI482108B (zh) * 2011-12-29 2015-04-21 Univ Nat Taiwan To bring virtual social networks into real-life social systems and methods
KR20130080186A (ko) * 2012-01-04 2013-07-12 삼성전자주식회사 위치 정보 태깅을 위한 방법 및 장치
WO2013118535A1 (ja) * 2012-02-06 2013-08-15 ソニー株式会社 撮像制御装置、画像処理装置、撮像制御方法及び画像処理方法
JP5891843B2 (ja) * 2012-02-24 2016-03-23 ソニー株式会社 クライアント端末、サーバ、およびプログラム
US9170113B2 (en) 2012-02-24 2015-10-27 Google Inc. System and method for mapping an indoor environment
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
US9756138B2 (en) * 2013-04-08 2017-09-05 Here Global B.V. Desktop application synchronization to process data captured on a mobile device
FR3006455A1 (fr) * 2013-05-31 2014-12-05 Optinvent Systeme de vision oculaire avec guide optique positionnable dans deux positions
JP5836319B2 (ja) * 2013-05-31 2015-12-24 京セラドキュメントソリューションズ株式会社 画像形成システム
JP6299234B2 (ja) * 2014-01-23 2018-03-28 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
KR101580617B1 (ko) 2014-06-05 2015-12-28 오병오 빛의 조사구간 선택이 용이한 실외용 엘이디등기구
DE102014213058A1 (de) * 2014-07-04 2016-01-07 Siemens Aktiengesellschaft Verfahren zur Ausgabe von Fahrzeuginformation
JP6070652B2 (ja) * 2014-07-28 2017-02-01 ヤマハ株式会社 リファレンス表示装置およびプログラム
CN104767816A (zh) * 2015-04-15 2015-07-08 百度在线网络技术(北京)有限公司 拍摄信息采集方法、装置和终端
JP2015212828A (ja) * 2015-06-17 2015-11-26 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2017073775A1 (ja) * 2015-10-30 2017-05-04 誠 大島 自動撮像装置、および装着型撮像装置
US10733456B2 (en) 2015-12-21 2020-08-04 A9.Com, Inc. Sharing video footage from audio/video recording and communication devices
US10447963B2 (en) * 2015-12-21 2019-10-15 Amazon Technologies, Inc. Sharing video footage from audio/video recording and communication devices
CN108924451A (zh) * 2017-05-09 2018-11-30 高德信息技术有限公司 一种图像获取方法及装置
CN110851643A (zh) * 2019-10-28 2020-02-28 维沃移动通信有限公司 一种信息显示方法及电子设备
US20210398322A1 (en) * 2020-06-17 2021-12-23 Palantir Technologies Inc. Approaches for compressing and distributing image data
WO2023084810A1 (ja) * 2021-11-10 2023-05-19 日本電信電話株式会社 情報処理装置、情報処理方法、及び、情報処理プログラム
WO2024085353A1 (ko) * 2022-10-20 2024-04-25 삼성전자주식회사 위치에 기반하여 카메라를 제어하여 위치에 대응하는 미디어를 획득하기 위한 전자 장치 및 그 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288357A (ja) * 2002-03-28 2003-10-10 Toshiba Corp 情報共有システムと情報共有方法
JP2004537193A (ja) 2001-05-10 2004-12-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 記録されたラジオ番組またはテレビ番組をワールド・ワイド・ウェブ上の情報で拡張するシステムおよび方法
JP2004538679A (ja) 2001-05-10 2004-12-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 放送されたまたは記録されたラジオ番組またはテレビ番組をワールド・ワイド・ウェブ上の情報で拡張するシステムおよび方法
JP2004538681A (ja) 2001-05-10 2004-12-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 放送された番組をワールド・ワイド・ウェブ上の情報で拡張するシステムおよび方法
JP2005341604A (ja) 1994-06-20 2005-12-08 Toshiba Corp 無線通信方法、無線通信基地局および無線端末
JP2005337863A (ja) 2004-05-26 2005-12-08 Fuji Photo Film Co Ltd 地図更新システム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6853293B2 (en) * 1993-05-28 2005-02-08 Symbol Technologies, Inc. Wearable communication system
US7084903B2 (en) * 1998-05-18 2006-08-01 International Business Machines Corporation Image capturing system and method for automatically watermarking recorded parameters for providing digital image verification
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6791580B1 (en) * 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
JP2001034615A (ja) * 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 作業支援システム及び作業支援方法
JP2001050759A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd ナビゲーション装置
JP2001290820A (ja) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp 映像収集装置、映像検索装置および映像収集検索システム
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
GB0028804D0 (en) * 2000-11-25 2001-01-10 Hewlett Packard Co Voice communication concerning a local entity
US20030014212A1 (en) * 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
US6717737B1 (en) * 2001-12-21 2004-04-06 Kyle Haglund Mobile imaging system
EP1324274A3 (en) 2001-12-28 2005-11-02 Matsushita Electric Industrial Co., Ltd. Vehicle information recording system
JP2003244691A (ja) 2002-02-20 2003-08-29 Matsushita Electric Ind Co Ltd 記憶支援システム
JP3789842B2 (ja) 2002-03-28 2006-06-28 エヌ・ティ・ティ・コムウェア株式会社 コンテンツのセキュリティ機能付き管理方法およびセキュリティ機能付きコンテンツ管理装置
JP4181372B2 (ja) * 2002-09-27 2008-11-12 富士フイルム株式会社 表示装置、画像情報管理端末、画像情報管理システム、および画像表示方法
JP4508596B2 (ja) * 2002-11-06 2010-07-21 キヤノン株式会社 通信装置、画像記憶装置およびそれらの制御方法
TWI235588B (en) * 2003-01-30 2005-07-01 Casio Computer Co Ltd Wrist-worn communications apparatus
US20040174443A1 (en) * 2003-03-07 2004-09-09 Simske Steven J. System and method for storing of records in a database
WO2004107012A1 (ja) * 2003-05-30 2004-12-09 Vixen Co., Ltd. 天体の自動導入装置
JP4192731B2 (ja) * 2003-09-09 2008-12-10 ソニー株式会社 案内情報提供装置及びプログラム
US20050060299A1 (en) * 2003-09-17 2005-03-17 George Filley Location-referenced photograph repository
JP3944160B2 (ja) 2003-12-25 2007-07-11 キヤノン株式会社 撮像装置、情報処理装置、それらの制御方法及びプログラム
JP2005252732A (ja) * 2004-03-04 2005-09-15 Olympus Corp 撮像装置
US20060187317A1 (en) * 2005-02-24 2006-08-24 Memory Matrix, Inc. Systems and methods for processing images with positional data
US20060197781A1 (en) * 2005-03-03 2006-09-07 Arutunian Ethan B System and method utilizing enhanced imagery and associated overlays
US7848765B2 (en) * 2005-05-27 2010-12-07 Where, Inc. Location-based services
KR20080030086A (ko) * 2005-07-07 2008-04-03 퀄컴 인코포레이티드 위치 정보 제공 방법 및 장치
US20070032945A1 (en) * 2005-08-02 2007-02-08 Jason Kaufman System and method for providing location related information to a network user
US7920854B2 (en) * 2005-09-19 2011-04-05 Silverbrook Research Pty Ltd Printing a map using a mobile device
US20070083329A1 (en) * 2005-10-07 2007-04-12 Wansoo Im Location-based interactive web-based multi-user community site
JP4371127B2 (ja) 2006-07-14 2009-11-25 ソニー株式会社 再生装置、再生方法、プログラム
US20080082264A1 (en) * 2006-09-11 2008-04-03 Broadcom Corporation, A California Corporation GPS route creation, photograph association, and data collection
JP5092357B2 (ja) 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5023663B2 (ja) 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
US9665597B2 (en) * 2006-12-05 2017-05-30 Qualcomm Incorporated Method and system for processing images using time and location filters
JP4961984B2 (ja) 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
JP4367663B2 (ja) 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341604A (ja) 1994-06-20 2005-12-08 Toshiba Corp 無線通信方法、無線通信基地局および無線端末
JP2004537193A (ja) 2001-05-10 2004-12-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 記録されたラジオ番組またはテレビ番組をワールド・ワイド・ウェブ上の情報で拡張するシステムおよび方法
JP2004538679A (ja) 2001-05-10 2004-12-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 放送されたまたは記録されたラジオ番組またはテレビ番組をワールド・ワイド・ウェブ上の情報で拡張するシステムおよび方法
JP2004538681A (ja) 2001-05-10 2004-12-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 放送された番組をワールド・ワイド・ウェブ上の情報で拡張するシステムおよび方法
JP2003288357A (ja) * 2002-03-28 2003-10-10 Toshiba Corp 情報共有システムと情報共有方法
JP2005337863A (ja) 2004-05-26 2005-12-08 Fuji Photo Film Co Ltd 地図更新システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ITO D.: "Chizu Joho to Kakucho Genjitsukan o Mochiita Ichi Izon Joho no Authoring", IEICE TECHNICAL REPORT, vol. 105, no. 566, 19 January 2006 (2006-01-19), pages 1 - 6, XP003023034 *
KAMISAKA D.: "NAMBA Explorere: Gazo Kyoyu Kano na Real Time Shigaichi Joho Kyoyu System", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU, vol. 2004, no. 9, 30 January 2004 (2004-01-30), pages 49 - 54, XP003023033 *
See also references of EP2090989A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2136556A1 (en) * 2008-06-17 2009-12-23 Samsung Electronics Co., Ltd. Method and apparatus for recording and reproducing motion picture with location information
CN101610376A (zh) * 2008-06-17 2009-12-23 三星电子株式会社 用于记录和再现具有位置信息的运动图像的方法和设备
US8463101B2 (en) 2008-06-17 2013-06-11 Samsung Electronics Co., Ltd. Method and apparatus for recording and reproducing motion picture with location information
CN101610376B (zh) * 2008-06-17 2016-08-10 三星电子株式会社 用于记录和再现具有位置信息的运动图像的方法和设备

Also Published As

Publication number Publication date
JP5176311B2 (ja) 2013-04-03
CA2670744C (en) 2017-10-31
US8949324B2 (en) 2015-02-03
TW200837713A (en) 2008-09-16
BRPI0719940B1 (pt) 2018-11-27
JP2008147864A (ja) 2008-06-26
US20150022427A1 (en) 2015-01-22
BRPI0719940A2 (pt) 2014-03-11
US20130335352A1 (en) 2013-12-19
KR20090086092A (ko) 2009-08-10
US20100063997A1 (en) 2010-03-11
EP2090989B1 (en) 2016-01-27
EP2090989A1 (en) 2009-08-19
EP2090989A4 (en) 2011-11-02
TWI379284B (ja) 2012-12-11
CA2670744A1 (en) 2008-06-12
KR101329419B1 (ko) 2013-11-14
MY151947A (en) 2014-07-31
US8473544B2 (en) 2013-06-25
CN101578602A (zh) 2009-11-11

Similar Documents

Publication Publication Date Title
JP5176311B2 (ja) 画像表示システム、表示装置、表示方法
JP4961984B2 (ja) 画像表示システム、表示装置、表示方法
US10187612B2 (en) Display apparatus for displaying image data received from an image pickup apparatus attached to a moving body specified by specification information
JP2008227813A (ja) 画像処理装置、画像処理方法、画像処理システム
JP5630513B2 (ja) 表示装置、表示方法、画像表示システム
JP2013110764A (ja) 撮像表示装置、撮像表示方法
JP2013034237A (ja) 画像処理装置、画像処理方法、画像処理システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780045113.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07831223

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2907/DELNP/2009

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 12312615

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2670744

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1020097011531

Country of ref document: KR

Ref document number: 2007831223

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0719940

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20090605