WO2005124735A1 - 画像表示システム、画像表示方法および画像表示プログラム - Google Patents

画像表示システム、画像表示方法および画像表示プログラム Download PDF

Info

Publication number
WO2005124735A1
WO2005124735A1 PCT/JP2005/010463 JP2005010463W WO2005124735A1 WO 2005124735 A1 WO2005124735 A1 WO 2005124735A1 JP 2005010463 W JP2005010463 W JP 2005010463W WO 2005124735 A1 WO2005124735 A1 WO 2005124735A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
face
data
image data
Prior art date
Application number
PCT/JP2005/010463
Other languages
English (en)
French (fr)
Inventor
Rui Ishiyama
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US11/570,863 priority Critical patent/US7839423B2/en
Priority to EP05748915A priority patent/EP1768097A1/en
Priority to JP2006514702A priority patent/JP4952995B2/ja
Publication of WO2005124735A1 publication Critical patent/WO2005124735A1/ja

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0414Vertical resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0421Horizontal resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens

Definitions

  • Image display system image display method, and image display program
  • the present invention relates to an image display system, an image display method, and an image display program, and particularly to an image display system, an image display method, and an image display program used for monitoring.
  • a special surveillance system is required when a person is required to visually capture a range beyond the field of view of the person (hereinafter referred to as the wide area).
  • the technology used in this special system is to capture the image of the surveillance target using a wide-range imaging device (hereinafter referred to as a wide-range imaging device), and to fit the captured image within the field of view.
  • a wide-range imaging device hereinafter referred to as a wide-range imaging device
  • a wide-area photographing apparatus there is an image-capturing apparatus capable of photographing a wide area with a single apparatus such as a panoramic camera.
  • wide-range photographing apparatuses that combine images photographed by a plurality of photographing apparatuses to form a wide-area image. The observer can visually recognize a range beyond the field of view by viewing a wide range image displayed on the display device.
  • a reduced display image When displaying a wide-range image in a reduced size, it may be difficult to obtain information necessary for monitoring from the reduced image (hereinafter, referred to as a reduced display image). In such a case, there is a technology that can obtain a desired amount of information by increasing the resolution of a specific area (hereinafter, referred to as a specific area) of the reduced display image or by enlarging the display.
  • a specific area a specific area
  • a visual information providing device is disclosed in Japanese Patent Application Laid-Open No. 5-139209.
  • This visual information providing device includes a first generation unit, a first display unit, a second generation unit, a second display unit, a presentation unit, a switching signal generation unit, and an image control device.
  • the first generation means generates first visual information.
  • the first display means displays the first visual information as a first image.
  • the second generation means generates second visual information including right-eye information and left-eye information.
  • the second display means displays the second visual information as a three-dimensional second image.
  • the presenting means can present the first and second images individually or in an overlapping manner.
  • the switching signal generating means outputs a selection switching signal for selecting an image to be presented by the presenting means.
  • the image control device controls the presenting means based on the switching signal.
  • an eye direction (line of sight) detection sensor for detecting the line of sight of the observer is required to specify the line of sight.
  • the gaze detection sensor is attached to, for example, the observer's head, detects the inclination of the head in response to the movement, and detects the inclination.
  • the viewpoint is specified in response to the movement of the eyeball, which is worn by the observer wearing glasses. Techniques using the latter include, for example,
  • Japanese Patent Application Laid-Open No. Hei 9-305156 discloses an image display method and apparatus.
  • This video display method is a video display method for generating and displaying a fine video at high speed.
  • An image is generated with normal accuracy over the entire image to be displayed, and the line of sight is continuously detected using the eye direction detecting means, and the position of the center of the visual field at each moment on the image is determined.
  • the image near the center of the field of view is calculated using at least one of high resolution to increase the number of display pixels and high reproducibility to increase the number of display colors and gradation. It is characterized by generating.
  • an imaging device is disclosed in Japanese Patent Application Laid-Open No. 2000-59665.
  • This imaging device includes three imaging units each having two imaging units arranged on the left and right sides of one imaging unit.
  • the optical axis of the left imaging unit and the optical axis of the right imaging unit intersect at the same angle with respect to the optical axis of the central imaging unit, and the intersection of the optical axes becomes the same point.
  • the relationship is The three imaging units are located at positions where the distance from the intersection of the optical axes to the front principal point of each imaging unit is the same in the direction closer to the subject side than the position of the intersection of the optical axes.
  • Japanese Patent Application Laid-Open No. 8-116556 discloses an image processing method and apparatus.
  • This picture The image processing method includes a multi-viewpoint image input step of inputting an image obtained from a plurality of viewpoint positions arranged on a plurality of different straight lines, and a position and an eye position of an observer watching the image.
  • a viewpoint detection step for detecting a direction in which the viewpoint is located, an image reconstruction step for reconstructing an image viewed from the viewpoint position detected in the viewpoint detection step from multi-view image data, and an image output device for reconstructing the reconstructed image. And outputting the image via
  • An object of the present invention is to provide an image display system and an image display method for appropriately presenting a necessary amount of information to a display device from a wide-range image that does not fit in the human field of view or an image captured from multiple viewpoints. Is to provide.
  • an object of the present invention is to take pictures from a wide range of images and multi-viewpoints that cannot be included in a person's field of view without wearing a special device for detecting eye movement or head tilt. It is an object of the present invention to provide an image display system and an image display method capable of appropriately presenting a shadowed image within the field of view of the person and appropriately extracting a necessary amount of information from the image.
  • an object of the present invention is to allow a human to unconsciously move his or her viewpoint in order to intermittently look at an area other than a part where the person is consciously gazing.
  • Another object of the present invention is to provide an image display system and an image display method capable of stably displaying an area that a human needs consciously.
  • an image display system of the present invention includes an image display device, an image generation device, a face image photographing device, and a face front point detection device.
  • the image generation device generates display image data of a display image displayed on the image display device.
  • the display image has a plurality of regions.
  • the face image capturing apparatus captures a face image of a human looking at a display image.
  • the face front point detection device generates face image data from a face image, and detects a face front point as a point located in front of a human face on a display image based on the face image data.
  • the image generation device specifies a specific region corresponding to the face front point from the plurality of regions, and generates display image data by increasing the amount of information provided by the image corresponding to the specific region.
  • the face front point detection device detects a new face front point.
  • the image generation device detects when a new face front point transitions to a specific area force. In this case, it is preferable to specify a new area and generate new display image data by increasing the amount of information provided by the image corresponding to the new area.
  • the image generation device can increase the amount of information provided by the image by relatively increasing the display size of the image when displayed on the image display device. preferable.
  • the image generation device increases the amount of information provided by the image by relatively increasing the resolution of the image when displayed on the image display device. Is preferred.
  • the image generation device configures, as the display image, a wide-range image captured by a wide-range imaging device that captures an image in a range exceeding the range of human vision.
  • the image display device displays display image data composed of a wide-range image so as to correspond to a plurality of regions and to be within the range of human vision.
  • the image generation device synthesizes a plurality of images shot by a plurality of shooting devices as a wide range shooting device with a display image. It is preferable that the image display device displays the display image data corresponding to the plurality of regions so as to be within the range of the human visual field.
  • the image generation device preferably includes an information storage unit.
  • the information storage unit stores display device data indicating information of the image display device and face image photographing device data indicating information of the face image photographing device.
  • the face front point detection device performs three-dimensional image processing based on the face image to generate face image data, and detects the face front point based on the face image data, the display device data, and the face image photographing device data. Preferably, it is detected.
  • an image display method includes: (a) generating display image data of a display image displayed on an image display device, the display image has a plurality of regions, (B) a step of capturing a human face image for viewing a display image; and (c) generating face image data from the face image and positioning the image in front of the human face on the display image based on the face image data. (D) identifying a specific area corresponding to the face front point from a plurality of areas to increase the amount of information provided by the image corresponding to the specific area; And (e) displaying the display image data on an image display device.
  • the step (a) comprises the step of: (al) forming a wide-range image captured by a wide-range image capturing apparatus that captures an image in a range exceeding the range of human vision into a display image.
  • the step (e) includes the step of: (el) displaying display image data composed of a wide-range image so as to correspond to a plurality of regions and fall within the range of human vision.
  • the (al) step includes a step of (all) synthesizing a plurality of images photographed by a plurality of photographing devices as a wide-range photographing device with a display image.
  • Each of the plurality of regions corresponds to each of the plurality of images.
  • the (el) step includes a step of displaying the display image data corresponding to the plurality of regions so as to fall within the range of human vision.
  • the step (c) includes (cl) display device data indicating information of the image display device, and face image shooting device data indicating information of the face image shooting device that shoots a face image. And (c2) performing three-dimensional image processing based on the face image to generate face image data, and determining a face front point based on the face image data, the display device data, and the face image capturing device data. And detecting.
  • a program includes: (h) a step of generating display image data of a display image displayed on an image display device; (I) generating face image data from a human face image viewing a display image, and detecting a point located in front of the human face on the display image as a human face front point based on the face image data; (J) a plurality of area powers; a step of specifying a specific area corresponding to a face front point, increasing the amount of information provided by an image corresponding to the specific area, and generating display image data; k) outputting the display image data to the image display device.
  • the amount of information provided by the image is increased by relatively increasing the resolution of the image when displayed on the image display device.
  • the (h) step includes (hi) a step of composing a wide-range image captured by a wide-range imaging device that captures an image in a range exceeding the range of human vision into a display image.
  • the (k) step includes: (kl) displaying the display image data to the image display device so that the display image data composed of a wide range image is displayed so as to correspond to a plurality of regions and to be within the range of the human visual field.
  • the (hi) step preferably includes a step of (hi 1) combining a plurality of images photographed by a plurality of photographing devices as a wide-range photographing device with a display image. Each of the plurality of regions corresponds to each of the plurality of images.
  • the (kl) step includes the step of (kll) outputting the display image data to the image display device so that the display image data is displayed within a range of human sight and corresponding to a plurality of regions. Is preferred.
  • step includes (il) display device data indicating information of the image display device and face image shooting device data indicating information of the face image shooting device that shoots a face image. Reading out, and (i2) performing 3D image processing based on the face image to Generating image data, and detecting a face front point based on the face image data, the display device data, and the face image photographing device data.
  • an image display system that appropriately presents a necessary amount of information to a display device from a wide-range image that does not fit in the human field of view or an image captured from multiple viewpoints. become.
  • the image is taken from a wide range of images and multi-viewpoints that cannot be included in the person's field of view without attaching a special device for detecting eye movement or head tilt to the person. This makes it possible to appropriately present the image in the person's field of view, and to appropriately extract the necessary information amount from the image.
  • FIG. 1 is a conceptual diagram showing a configuration of an embodiment of an image display system according to the present invention.
  • FIG. 2 is a conceptual diagram showing an operation of the embodiment of the image display system of the present invention.
  • FIG. 3 is a block diagram showing a detailed configuration of an embodiment of the image display system of the present invention.
  • FIG. 4 is a flowchart showing an operation of the embodiment of the image display system of the present invention.
  • FIG. 5 is a diagram showing a configuration in a case where the image display system is applied to vehicle operation
  • FIG. 6 is a diagram exemplifying external image data captured by a first image capturing device to a third image capturing device.
  • FIG. 7 is a diagram showing an operation of generating display image data from first to third image data.
  • FIG. 8 is a conceptual diagram showing a configuration when the present embodiment is applied to wide area monitoring.
  • FIG. 9 is a conceptual diagram showing an operation when the present invention is applied to a wide-area monitoring system.
  • FIG. 1 is a conceptual diagram showing the configuration of an embodiment of the image display system of the present invention.
  • the image display system 1 includes a monitoring target image capturing device 2, a face image capturing device 3, an image display device 4, and a computer 5.
  • the monitoring target image capturing device 2 and the computer 5 are electrically connected to each other.
  • the computer 5 receives data output from the monitoring target image capturing device 2.
  • the face image capturing device 3 and the computer 5 are electrically connected to each other.
  • the computer 5 receives data output from the face image capturing device 3.
  • the image display device 4 is electrically connected to the computer 5. Display image data transmitted from the computer 5 is received and an image is displayed.
  • the connection of the monitoring target image capturing device 2, the face image capturing device 3, the image display device 4, and the computer 5 may be performed via a predetermined network.
  • the observer 10 observes the image displayed on the image display device 4.
  • the face front point P shown in FIG. 1 is displayed on the screen of the image display device 4 located in front of the face. Is shown.
  • the observer 10 can use the image display system 1 without having detailed knowledge of the technology of the image display system 1.
  • the monitoring target image capturing apparatus 2 has a range (hereinafter, referred to as a wide range) that exceeds the range of human visibility.
  • the monitoring target image capturing device 2 includes a plurality of capturing devices. As a result, it becomes possible to execute multi-view monitoring in which a specific point is observed from a plurality of points.
  • the image of the observation target captured by the monitoring target image capturing device 2 is converted into observation image data and transmitted to the computer 5.
  • the monitoring target image capturing device 2 of the present invention is not limited to this configuration. For example, when observing a wide area from a specific point, it may be constituted by a single photographing device such as a panoramic camera capable of photographing a wide area.
  • the face image capturing device 3 captures a face image of the observer 10. Examples are optical cameras and CCD cameras.
  • the face image photographing apparatus 3 converts the photographed face image into face image data and transmits the face image data to the computer 5. It is desirable that the face image photographing device 3 is installed in a place where the relative position with respect to the position of the face of the observer 10 can be specified. Alternatively, by specifying the coordinates of the face image capturing device 3 with the predetermined position of the image display device 4 as the origin, the face image capturing device 3 It is good to specify the installation position of 3,
  • the computer 5 executes data processing based on image data (observation image data / face image data) transmitted from the monitoring target image capturing device 2 and the face image capturing device 3. ⁇ Exemplified by workstations and personal computers.
  • the computer 5 executes a predetermined program to perform image processing in response to the received image data (observation image data Z face image data).
  • the computer 5 outputs the display image data generated by the image processing to the image display device 4.
  • the image display device 4 displays display image data transmitted from the computer 5. Examples are CRTs and liquid crystal displays.
  • FIG. 2 is a conceptual diagram showing the operation of the embodiment of the image display system of the present invention.
  • the monitoring target image capturing device 2 captures the observation target using the first to third three capturing devices.
  • each imaging device has a viewing angle of approximately 90 degrees with a horizontal included angle
  • observation at a horizontal angle of 270 degrees is possible with the three imaging devices described above.
  • the monitoring target image capturing device 2 captures an observation target using three capturing devices. Then, a plurality of image data is obtained. Each of the first image data Gl, the second image data G2, and the third image data G3 as a plurality of image data indicates an image captured by the first to third imaging devices. The monitoring target image capturing device 2 transmits a plurality of pieces of captured image data to the computer 5.
  • the computer 5 generates one piece of reference image data GO based on the plurality of pieces of transmitted image data. Further, the face image capturing device 3 captures a face image of the observer 10 and transmits the face image data to the computer 5. The computer 5 performs a predetermined calculation in response to the received face image data, and calculates a face front point P.
  • the computer 5 generates display image data based on the reference image data GO and the face front point P, and transmits the display image data to the image display device 4.
  • the computer 5 determines from the reference image data GO and the face front point P that the observer 10 is paying attention to the first image data G1.
  • the computer 5 generates display image data that can display the first image data G1 with high resolution and a large display area.
  • the second image data G2 and the third image data G3 have a low resolution and a narrow display area.
  • the computer 5 transmits the generated display image data to the image display device 4.
  • the image display device 4 receives the received display image data.
  • the display image 40 in which the first image data G1 is enlarged (high-resolution display) is displayed on the display screen based on the data.
  • the displayed image 40 allows the observer 10 to execute observation of an observation object existing in a range exceeding the range of the visual field of the individual observer 10.
  • FIG. 3 is a block diagram showing a detailed configuration of the embodiment of the image display system of the present invention.
  • the image display system 1 of the present embodiment includes the monitoring target image capturing device 2, the face image capturing device 3, the image display device 4, and the computer 5.
  • the monitoring target image capturing device 2 includes a plurality of capturing devices (2— :! to 2—n).
  • the monitoring target image capturing device 2 can perform monitoring over a wide range and from multiple viewpoints by installing a plurality of capturing devices (2— :! to 2—n) at arbitrary positions. become.
  • the computer 5 includes a CPU 6, a memory 7, and a storage device 8.
  • the computer 5 may be connected to a network (not shown).
  • the CPU 6, the memory 7, and the storage device 8 are connected to each other via a bus 9.
  • the CPU 6 is an arithmetic processing device provided at least in the computer 5.
  • the CPU 6 executes a command for controlling a device built in or external to the computer 5 and executes a calculation process on input data, and outputs a result of the calculation process.
  • the memory 7 is an information storage device provided in the computer 5.
  • the memory 7 is exemplified by a semiconductor storage device such as a RAM.
  • the predetermined data is stored in response to a command from the CPU 6.
  • the storage device 8 is a large-capacity storage device provided in the computer 5.
  • the storage device 8 is exemplified by an HDD and has a nonvolatile storage area. It stores electronic data (11 to 14) and computer programs (21 to 24) used in this embodiment.
  • the electronic data stored in the storage device 8 includes display device data 11, face image photographing device data 12, face posture initial data 13, and layout data 14.
  • Display device data 11, face image capturing device data 12, face posture initial data 13 and layout data 14 These are used to execute the operation of the image display system 1.
  • the display device data 11 is data indicating information on the image display device 4.
  • the data is exemplified by information necessary for displaying an image on the display screen, such as the display screen size of the image display device 4 ⁇ displayable resolution.
  • the face image capturing device data 12 is data indicating an installation position of the face image capturing device 3.
  • the data is used to calculate the face posture data (data for identifying the line of sight of the observer 10) from the image data captured by the facial image capturing device 3, and the installation position of the facial image capturing device 3 is required. Is exemplified in the information about.
  • the face posture initial data 13 is initial data used for calculating face posture data.
  • the face image data in which the observer 10 is gazing at the left corner of the display screen of the image display device 4 is exemplified as the face posture initial data 13.
  • the relative distance between the observer 10 and a specific point of the image display device 4 may be stored as the face posture initial data 13.
  • the layout data 14 is data relating to a display layout when displaying the monitoring target image on the image display device 4.
  • the monitoring target image (wide-range image or multi-viewpoint image) is generated by executing an image processing by the computer 5 on the image captured by the monitoring target image capturing device 2.
  • the computer 5 specifies an area corresponding to the face front point P.
  • the computer 5 generates display data so that the specified area can be displayed with high resolution. Therefore, by changing the setting to the layout data 14, the display form on the image display device 4 can be arbitrarily changed.
  • the computer programs stored in the storage device 8 include a reference image data generation program 21, a face posture data generation program 22, a face front point detection program 23, and a display image data generation program 24.
  • Each of the reference image data generation program 21, the face posture data generation program 22, the face front point detection program 23, and the display image data generation program 24 is used to execute the operation of the image display system 1.
  • the reference image data generation program 21 executes the monitoring transmitted from the monitoring target image capturing apparatus 2. Based on the image data to be viewed (eg, G1 to G3 in FIG. 2), reference image data (eg, GO in FIG. 2) serving as a reference for generating display image data is generated. For example, the reference image data generation program 21 generates a seamless image without overlap when an image captured by a plurality of imaging devices (2— :! to 2—n) has an overlap. Generate the corresponding reference image data.
  • the face posture data generation program 22 generates the current face posture data for the observer 10 based on the face image data transmitted from the face image photographing device 3, the initial face posture data 13 and the display device data 11. (Data for specifying the viewing direction of the observer 10).
  • the face front point detection program 23 based on the face posture data, the display device data 11, and the face image photographing device data 12 generated by the face posture data generating program 22, displays the image on the display screen of the image display device 4.
  • the face front point P of is calculated.
  • the display image data generation program 24 generates a display based on the reference image data generated by the reference image data generation program 21, the face front point P calculated by the face front point detection program 23, and the layout data 14. Generate image data.
  • the face posture data generation program 22 may generate the display image data without using the layout data 14. Even in that case, the operation and effect of the present invention are not affected.
  • FIG. 4 is a flowchart showing the operation of the embodiment of the image display system of the present invention. In the following operation, it is assumed that required data is stored in the storage device 8 in advance.
  • the image display system 1 is activated, and the image display device 4 displays the monitoring target image.
  • the displayed image is reference image data that has been continuously photographed at predetermined time intervals by the monitoring target image photographing device 2 and has been subjected to predetermined image processing by the computer 5.
  • the reference image data is continuously updated.
  • the observer 10 looks at the displayed image with the naked eye.
  • the face image capturing device 3 captures a face image of the observer 10.
  • the time intervals at which this imaging is performed are performed at intervals that are short enough to detect the movement of the observer 10 in front of the face.
  • the face image capturing device 3 converts the captured face image into a format that can be subjected to data processing as face image data, and transmits the converted image to the computer 5 via the network.
  • step S102 the computer 5 activates the face posture data generation program 22 in response to the face image data transmitted from the face image photographing device 3.
  • the CPU 6 of the computer 5 reads the face posture initial data 13 and the display device data 11 in response to the activation of the face posture data generation program 22.
  • the present face posture data of the observer 10 is calculated based on the face posture initial data 13, the face image data, and the display device data 11.
  • An example of a technique for performing this processing is described in “High-speed 'high-accuracy face pose estimation using a 3D appearance model' (Transactions of the Institute of Electronics, Information and Communication Engineers 2004, D-12-99)”.
  • a face posture estimation technique can be used.
  • the face posture of the observer 10 with respect to the face image photographing device 3 can be calculated. Therefore, by obtaining the positional relationship between the face image capturing device 3 and the image display device 4 in advance, the face posture data of the observer 10 with respect to the image display device 4 can be calculated.
  • the computer 5 proceeds to the process of step S103 in response to the completion of the calculation of the face posture data.
  • step S103 the computer 5 activates the face front point detection program 23.
  • the CPU 6 of the computer 5 further reads the face image capturing device data 12 in response to the activation of the face front point detection program 23. Then, the face front point P is specified based on the face posture data, the display device data 11 and the face image photographing device data 12. The computer 5 proceeds to the process of step S103 in response to the completion of the identification of the face front point P.
  • step S104 the computer 5 starts the display image data generation program 24.
  • the CPU 6 of the computer 5 responds to the activation of the display image data generation program 24, based on the reference image data captured by the monitoring target image capturing device 2 and image-processed by the computer 5, the front face point P, and the layout data 14.
  • To generate display image data The display image data has a high resolution in the display area (high-resolution display area) corresponding to the face front point P.
  • the image is generated so that the image is displayed.
  • the computer 5 proceeds to the process of step S105 in response to the completion of the generation of the display image data.
  • step S105 it is determined whether or not the front face point P has moved during the execution of step 104. For example, the process such as step S103 is re-executed, and if the previously identified face front point is the same as the currently identified face front point, it is determined that the face has not moved. As a result of the determination, when the movement of the face front point is not detected (step S105: N ⁇ ), the computer 5 transmits the display image data generated in step S104 to the image display device 4 via the network. I do. If the face front point movement is detected after the display image data is generated (step S105: YES), the process proceeds to step S106.
  • step S106 the computer 5 executes reading of data on the detected face front point P after the movement (calculated in step S105) (hereinafter referred to as face front point data).
  • the face front point data is exemplified by coordinates in the screen of the image display device 4.
  • step S107 the computer 5 executes the reading of the display image data (generated in step S104) in response to the completion of the reading of the face front point data. In response to the completion of the reading of the face front point data and the display image data, the process proceeds to step S108.
  • step S108 the computer 5 determines whether or not the face front point P force corresponds to the high-resolution display area of the read display image data. As a result of the determination, when the image is made to correspond to the current display image data, the area where the image is displayed in high resolution (high-resolution display area) does not correspond to the face front point P (step S108: YES), the process returns to step S101, and new display image data is generated. If the face front point P has moved in step S108, but has not deviated from the area where the image is displayed in high resolution (step S108: N ⁇ ), the computer 5 generates the display generated in step S104. The image data is transmitted to the image display device 4 via the network, and the process proceeds to step S109.
  • step S109 the image display device 4 receives the display image data transmitted from the computer 5, and displays an image corresponding to the display image data on the display screen.
  • the image display system 1 automatically follows the movement of the observer 10 to the front of the face and automatically displays a region corresponding to the point of interest of the observer 10 at a high resolution. it can.
  • steps S105 to S108 may be omitted. In that case, the execution and update of the image display become faster.
  • FIG. 5 is a diagram showing a configuration when the image display system 1 is applied to the operation of a vehicle.
  • the vehicle 30 is a moving body including the image display system 1.
  • FIG. 5 shows that the vehicle 30 enters the intersection P.
  • the motorcycle B1 runs near the front left of the vehicle 30, and the vehicle C1 exists on the road on the right front side with respect to the traveling direction of the vehicle 30.
  • the vehicle 30 includes a monitoring target image capturing device 2 (2— :! to 2-3), a face image capturing device 3, an image display device 4, and a computer 5. Further, the observer 10 (the driver of the vehicle 30) operates the vehicle while watching the image displayed on the image display device 4.
  • the first image capturing device 2-1 captures an external image in a range corresponding to the field of view R1.
  • the second image capturing device 2-2 captures an external image in a range corresponding to the field of view R2.
  • the third image capturing device 2-3 captures an external image in a range corresponding to the field of view R3.
  • the face image capturing device 3 is installed inside the vehicle 30 and constantly captures a face image of the observer 10.
  • the first image capturing device 2-1 to the third image capturing device 2-3 convert captured external images into electronic data. Then, the data is converted into a format that can be processed by the computer 5 and transmitted to the computer 5 via a network (not shown) inside the vehicle 30. Similarly, the face image photographing device 3 converts the photographed face image into electronic data. Then, the format is converted into a format that can be processed by the computer 5 and transmitted to the computer 5 via the network.
  • the computer 5 executes image processing based on the received external image data and face image data to generate display image data. The generated display image data is transmitted to the image display device 4 via the above-described network.
  • FIG. 6 is a diagram exemplifying external image data captured by the first image capturing device 2-1 to the third image capturing device 2-3.
  • the first image data G1 indicates image data captured by the first image capturing device 2-1.
  • the second image G2 data is obtained by the second image capturing device 2_2.
  • the third image data G3 indicates image data captured, and the third image data G3 indicates image data captured by the third image capturing device 2-3.
  • FIG. 7 is a diagram showing an operation of generating display image data 40 (40a, 40b) from the above-described first image data G1 to third image data G3.
  • the reference external image data GO is reference image data generated based on the first to third image data G1 to G3.
  • the reference image data GO shown in FIG. 7 is generated by combining the image data (G1 to G3), and the relative position of each image data (first image data G1 to third image data G3) is calculated. Specified. Note that, in order to reduce the information amount of the reference image data GO, the reference image data GO in which the horizontal size of each image (G1 to G3) is reduced at a predetermined ratio may be generated.
  • the generated reference image data GO is displayed on the image display device 4 when the front face point P is not detected.
  • face front point data 50 is generated.
  • the face front point data 50 indicates the face front point P corresponding to the reference image data GO to facilitate understanding of the present invention, but the actual face front point data is a numerical value indicating the coordinates on the screen. It may be data.
  • the computer 5 corresponds to the point indicated by the coordinates. Calculate the area to perform. Then, the computer 5 generates display image data based on the calculated area and the face front point data 50 so that the image Gla corresponding to the above-described first image data G1 can be displayed at a high resolution.
  • the generated display image data is output to the image display device 4 via the network.
  • the image display device 4 displays the display image 40a on the screen based on the display image data supplied from the computer 5.
  • a case is considered in which it is determined that the position of the face front point P does not exist in the area of the display image Gla due to the observer 10 moving his / her line of sight.
  • the computer 5 monitors the face front point movement of the observer 10 based on the face image data transmitted from the face image photographing device 3. As shown in FIG. 7, when the observer 10 moves his / her gaze, the coordinates of the face front point P in the face front point data 50 indicate the face front point P (5, 25) (hereinafter, referred to as The face front point P is referred to as a “new face front point P.”), and the computer 5 determines that the new face front point P exists in the area of the display image Gla and does not exist.
  • the computer 5 responds to the result of the determination by determining the coordinates of the new face front point P (face front point P (5, 25)) and the display image data output to the image display device 4. Then, new display image data is generated so that the image G2a corresponding to the above-described second image data G2 can be displayed at a high resolution. The generated new display image data is output to the image display device 4 via the network. The image display device 4 displays a new display image 40b on the screen based on the new display image data supplied from the computer 5.
  • the image of the attention portion is specified by the observer 10 merely moving the face a little, and the observer 10 can see the image of the specified area with high resolution.
  • the observer 10 By using the present invention for vehicle operation, it is possible to reduce blind spots in the images in front and left and right of the observer 10 (driver of the vehicle).
  • the observer 10 when the observer 10 turns the vehicle 30 to the left, the observer 10 must confirm that the two-wheeled vehicle B1 running on the left side is involved. Normally, the observer 10 has to turn his face to see the left motorcycle B1. Performing the left visual inspection while driving may cause you to be careless in the front, and often cause accidents due to forgetting the left visual observation. Also, if the left motorcycle B1 is distracted, the car C1 coming from the right may be overlooked.
  • the image display device 4 which displays an image in a range where the whole can be seen even in the front-facing state, has a wide-field image including the left motorcycle B1 to the right automobile C1.
  • the image is displayed. Therefore, the observer 10 can quickly and easily judge the situation around the intersection.
  • the second image data G2 needs to be displayed with high resolution in order to accurately determine the situation and check the relative distance to the motorcycle B1 and the size of the motorcycle B1. If the observer 10 looking at the display image Gla notices the presence of the motorcycle B1 displayed in the display image Gla, he only needs to move his face by 20 to 30 degrees (or less). It is possible to see the same image as when the left visual observation is performed during traveling.
  • the right-hand car C1 is always displayed at a low resolution, so it is possible to notice the presence of the two-wheeler B1 while checking it, which is less likely to be overlooked.
  • the force S that describes the case where the image display system of the present invention is applied to a car traveling on a road is used. Not limited to vehicles that travel.
  • the image display system It is also possible to provide the same configuration as the stem in a ship navigating on water or the like.
  • FIG. 8 is a conceptual diagram showing a configuration when the present embodiment is applied to wide area monitoring.
  • the wide-area monitoring system includes a plurality of photographing devices (2— :! to 2—6) for photographing different points, a facial image photographing device 3, an image display device 4, It consists of computer 5.
  • each device denoted by the same reference numeral as the above-described device has the same configuration as that described above, and detailed description thereof will be omitted.
  • each of the plurality of photographing devices (2_ :! to 2_6) is composed of, for example, six surveillance cameras that photograph six different places.
  • Each photographing device is connected to a computer 5 via a network (not shown).
  • the plurality of photographing devices (2— :! to 2—6) generate image data of predetermined pixels that photograph the state of each point, and output the image data to the computer 5 via the network.
  • the face image photographing device 3 and the image display device 4 are also connected to the computer 5 via the network.
  • the observer 10 is a person who observes an image displayed on the image display device 4.
  • the face image photographing device 3 is a face image photographing device for photographing the face of the observer 10.
  • the face image capturing device 3 is connected to the computer 5 and the image display device 4 via the above-described network.
  • the face image of the observer 10 captured by the face image capturing device 3 is converted into face image data and input to the computer 5.
  • the computer 5 detects the face front point P of the observer 10 based on the supplied face image data and generates face front point data.
  • FIG. 9 is a conceptual diagram showing an operation when the present invention is applied to a wide area monitoring system.
  • the photographing devices (2— :! to 2—6) installed at each photographing point convert the photographed image into electronic data and transmit it to the computer 5.
  • the computer 5 receives the transmitted image data via the network, and activates the reference image data generation program 21 in response to the reception.
  • the computer 5 generates the reference image data by executing the started reference image data generation program 21.
  • the reference image data is obtained by arranging the images transmitted from the first image capturing device 2 —: !! 2-16 at a reduced resolution and arranging one image that can be displayed on the image display device 4. Generated by integrating the images.
  • the computer 5 generates face posture data based on the face image data transmitted from the face image photographing device 3.
  • the generated face image data is generated by executing the face posture data generation program 22.
  • the computer 5 uses the face posture data detected by the face posture data generation program 22 and the position information of the screen of the display device data 11 to determine the face front point P (the point on the screen located in front of the face). Determine the position and output as face front point P.
  • display image data is generated by increasing the resolution of the surveillance camera image displayed in the area including the face front point P and decreasing the resolution of the other surveillance camera images.
  • the first image capturing device 2-1 to the sixth image capturing device 2-6 constituting the wide area monitoring system capture image data G1 to image data G6 at different points.
  • the captured image data (G1 to G6) is transmitted to the computer 5 via the network.
  • the pixel of each transmitted image data is 360 ⁇ 240 pixels
  • the displayable pixel size of the image display device 4 is 360 ⁇ 240 pixels.
  • the computer 5 executes the reference image data generation program 21, and executes the first image capturing device 2
  • the computer 5 allocates the area 41 to 240 ⁇ 160 pixels and the areas 42 to 46 to 120 ⁇ 80 pixels as in the display image 40c, and assigns the image to the image display device 4. Is displayed.
  • the computer 5 When the system is operating, the computer 5 continues to photograph the face image of the observer 10 using the face image photographing device 3.
  • the computer 5 executes the face posture data generation program 22, and detects the three-dimensional position and orientation of the face of the observer 10 based on the face image data transmitted from the face image photographing device 3. Further, the computer 5 uses the face posture data calculated by executing the face posture data generation program 22, the display device data 11, and the face image photographing device data 12 to obtain the face front point P (the positional force of the face is also determined by the face position). Straightened in the direction The point at which the line intersects the screen of the image display device 4) is determined as the face front point P.
  • the computer 5 determines which area of the area 41 to the area 46 includes the face front point P, and determines that the area including the face front point P is an area of 240 x 160 pixels. Then, new display image data is generated. Except when the system is started, it is determined which area the face front point P is in based on the display image data at the time of the previous display. For example, when the face front point P is within the area 46, the computer 5 generates the display image data by setting the area 46 to a lower left area of 240 ⁇ 160 pixels as shown in the display image 40d. In the display image data, regions 41 to 45 are regions of 120 ⁇ 80 pixels. That is, in the monitoring target image displayed on the image display device 4, the display image data is displayed by changing the image data G1 to the image data G6 to the resolution of the region 41 to the region 46, respectively.
  • the force S for which the amount of resolution enlargement is constant at twice can be arbitrarily changed by changing the setting of the layout data 14.
  • the viewer can change the amount of change in resolution as necessary by performing processing such as increasing the size of the face when it is close to the display and reducing it when it is far away. It is.
  • the observer can constantly monitor a plurality of points at once, and an image displaying a point suspected of having an abnormality is displayed. Can be enlarged and displayed so as to follow the line of sight.
  • the observer 10 can display and confirm the target area at a high resolution only by slightly moving the face without performing a switch operation or the like. it can. Further, according to the present invention, the observer 10 can perform wide-area monitoring without wearing a special device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

明 細 書
画像表示システム、画像表示方法および画像表示プログラム
技術分野
[0001] 本発明は、画像表示システム、画像表示方法および画像表示プログラムに関し、特 に監視に用いる画像表示システム、画像表示方法および画像表示プログラムに関す る。
背景技術
[0002] 人間の視界は有限であり、一人の人が短時間で全方位を視覚的に捉えることは不 可能である。人の視界を超える範囲(以下、広範囲と呼ぶ)を視覚的に捉えることがそ の人に要求される場合、特殊な監視システムが必要になる。この特殊なシステムに用 レ、られる技術としては、広範囲撮影用の撮影装置 (以下、広範囲撮影装置と呼ぶ)を 使用して監視対象の画像を撮影し、その撮影された画像を視界内に収まるようにカロ ェした画像(以下、広範囲画像と呼ぶ)によって広範囲の観察を可能にする技術が 知られている。
[0003] 広範囲撮影装置には、パノラマカメラなどの単一の装置で広範囲の撮影が可能な 撮影装置が存在する。また、複数の撮影装置で撮影された画像を組み合わせて広 範囲画像にする広範囲撮影装置なども存在する。観察者は、表示装置に表示されて レ、る広範囲画像を見ることで、その視界を越える範囲を視覚的に捉えることが可能に なる。
[0004] 広範囲画像を十分な画像サイズや解像度で表示させる場合、画像表示に必要な 表示装置の画面サイズが大きくなつてしまう。そのため、広範囲画像を用いて監視対 象を監視するには、その広範囲画像の表示が可能な大型の表示装置が要求される
[0005] 大型の表示装置を設置することが困難な場合には、上述の広範囲画像の画像サイ ズを縮小して (解像度を低くして)小型の表示装置に表示させる技術が存在する。縮 小画像を使用して監視を実行することで、より小規模なシステムであっても広範囲の 観察を可能にする技術が知られている。この技術により、システムの構築に力かるコ ストを低減することができる。カロえて、限られた空間で広範囲を監視するシステムの構 築が可能である。
[0006] 広範囲画像を縮小して表示する場合、その縮小された画像(以下、縮小表示画像 と呼ぶ)からは、監視に必要な情報を得ることが困難になる場合がある。このような場 合に、縮小表示画像の特定の領域 (以下、特定領域と呼ぶ)の解像度を高くしたり、 拡大表示したりすることで、所望の情報量を得ることを可能にする技術が知られてい る。
[0007] そのような技術として、例えば、特開平 5— 139209号公報に視覚情報提供装置が 開示されている。この視覚情報提供装置は、第 1生成手段と、第 1表示手段と、第 2 生成手段と、第 2表示手段と、提示手段と、切り替え信号発生手段と、画像制御装置 とを具備する。第 1生成手段は、第 1の視覚情報を生成する。第 1表示手段は、前記 第 1の視覚情報を第 1の画像として表示する。第 2生成手段は、右目用の情報と左目 用の情報とからなる第 2の視覚情報を生成する。第 2表示手段は、前記第 2の視覚情 報を 3次元の第 2の画像として表示する。提示手段は、前記第 1および第 2の画像を 単独にまたは重ねて提示可能である。切り替え信号発生手段は、該提示手段におい て提示する画像の選択切り替え信号を出力する。画像制御装置は、前記切り替え信 号に基づレ、て前記提示手段を制御する。
[0008] その拡大表示を実行するためには上述の特定領域を選択する必要がある。従来、 その選択動作は、表示装置外部に備えられた切替スィッチを操作して行われていた 。外部に切替スィッチを備えていないシステムでは、観察者が見ている画面上の特 定部分 (以下、視点と呼ぶ)を検出して、その視点に対応する領域を特定領域として いる。特開平 5— 139209号公報では、上述のように、高解像度の表示装置と低解像 度の表示装置の二つを重ねて用いている。観察者の視線の方向を検出して、視線 方向の領域の画像を高解像表示装置で、その周辺の領域を低解像表示装置で表 示している。
[0009] 上述の視線方向を検出するシステムでは、視線方向を特定するために、観察者の 視線を検出する眼球方向(視線)検出センサが必要である。視線検出センサは、例え ば、観察者の頭部に装着され、その動きに応答して頭部の傾きを検出し、その傾きか ら視点を特定する。他の例としては、眼鏡をかけるように観察者に装着され、その眼 球の動きに応答して視点を特定する。後者を用いている技術として、例えば、特開平
9— 305156号公報力 Sある。
[0010] 特開平 9一 305156号公報は、映像表示方法及び装置を開示している。この映像 表示方法は、精細な映像を高速で生成して表示する映像表示方法である。表示す べき映像全体にわたって通常の精度で映像の生成を行レ、、眼球方向検出手段を用 いて視線を連続的に検出し、各瞬間の視野の中心が前記映像上のどの位置に相当 するかを計算し、その計算の結果に基づいて当該視野の中心付近の映像を、表示 画素数を多くする高解像度と表示色の数や階調を多くする高再現性のうち少なくとも 1つを用いて生成することを特徴とする。
[0011] 特開平 5— 139209号公報に記載の技術では、画像表示の高速化のため、眼球方 向検出により求めた視線方向の領域のみ高解像度の画像を生成するようにしている 。特開平 5— 139209号公報及び特開平 9— 305156号公報に記載の技術は、観察 者の視線方向を眼球運動推定手段により自動的に検出し、その視線方向の領域を 高解像で表示する。それにより、スィッチ操作などを行わずとも自動的にその観察者 の必要とする部分を高解像度で表示してレ、る。
[0012] 観察者の視野に入りきらない広範囲の画像や多視点の画像を、観察者の視野内に 適切に提示する技術が望まれている。さらに、眼球の動きを検知するための特殊な 装置を観察者に装着させること無ぐ観察者の視野に入りきらない広範囲の画像や 多視点の画像を観察者の視野内に適切に提示する技術が望まれている。
[0013] 関連する技術として特開 2000— 59665号公報に撮像装置が開示されている。こ の撮像装置は、 1つの撮像部の左右両側に 2つの撮像部が配置される 3つの撮像部 力、らなる。この撮像装置は、中央の撮像部の光軸に対して、左側の撮像部と右側の 撮像部の光軸が交差する角度が同一角度で、光軸の交差点が同一点となるような光 軸の関係である。上記光軸の交差点位置より被写体側に近づく方向で、上記光軸の 交差点から各撮像部の前側主点までの距離が同一距離となるような位置に 3つの撮 像部が位置する。
[0014] 特開平 8—116556号公報に画像処理方法および装置が開示されている。この画 像処理方法は、複数の異なる直線上に配置された複数の視点位置から得られた画 像を入力する多視点画像入力ステップと、上記画像を見ている観察者の目の位置お よび見ている方向を検出する視点検出ステップと、上記視点検出ステップにより検出 された視点位置から見える画像を多視点画像データから再構成する画像再構成ステ ップと、上記再構成された画像を画像出力装置を介して出力する画像出力ステップ とを備えたことを特徴とする。
発明の開示
[0015] 本発明の目的は、人の視界に入りきらない広範囲の画像や、多視点から撮影され た画像から、必要な情報量を適切に表示装置に提示する画像表示システム及び画 像表示方法を提供することにある。
[0016] さらに、本発明の目的は、眼球運動や頭部の傾斜を検知するための特殊な装置を 人に装着させること無ぐその人の視界に入りきらない広範囲の画像や多視点から撮 影された画像をその人の視界内に適切に提示させ、その画像から必要な情報量を 適切に抽出できる画像表示システム及び画像表示方法を提供することにある。
[0017] さらに、本発明の目的は、人間は意識的に注視している部分以外の領域も間欠的 に見るために無意識に視点を移動させているが、この無意識な視点移動に惑わされ ず、人間が意識的に必要としている領域を安定して表示できる画像表示システム及 び画像表示方法を提供することにある。
[0018] 上記課題を解決するために本発明の画像表示システムは、画像表示装置と、画像 生成装置と、顔画像撮影装置と、顔正面点検出装置とを備える。画像生成装置は、 画像表示装置で表示される表示画像の表示画像データを生成する。表示画像は複 数の領域を有する。顔画像撮影装置は、表示画像を見るヒトの顔画像を撮影する。 顔正面点検出装置は、顔画像から顔画像データを生成し、顔画像データに基づい て表示画像上におけるヒトの顔の正面に位置する点としての顔正面点を検出する。 画像生成装置は、複数の領域から顔正面点に対応する特定領域を特定して、特定 領域に対応する画像が提供する情報量を増加させて表示画像データを生成する。
[0019] 上記の画像表示システムにおいて、顔正面点検出装置は、新たな顔正面点を検出 することが好ましい。画像生成装置は、新たな顔正面点が特定領域力 遷移した場 合、新たな領域を特定し、新たな領域に対応する画像が提供する情報量を増加させ て新たな表示画像データを生成することが好ましレ、。
[0020] 上記の画像表示システムにおいて、画像生成装置は、画像が提供する情報量の増 加を、画像表示装置で表示されるときの画像の表示サイズを相対的に大きくすること で行うことが好ましい。
[0021] 上記の画像表示システムにおいて、画像生成装置は、画像が提供する情報量の増 加を、画像表示装置で表示されるときの画像の解像度を、相対的に高くすることで行 うことが好ましい。
[0022] 上記の画像表示システムにおいて、画像生成装置は、ヒトの視界の範囲を超える範 囲の画像を撮影する広範囲撮影装置で撮影された広範囲画像を表示画像に構成 することが好ましい。画像表示装置は、広範囲画像で構成された表示画像データを、 複数の領域に対応させヒトの視界の範囲内に入るように表示することが好ましレ、。
[0023] 上記の画像表示システムにおいて、画像生成装置は、広範囲撮影装置としての複 数の撮影装置で撮影された複数の画像を、表示画像に合成することが好ましい。画 像表示装置は、ヒトの視界の範囲内に入るように、複数の領域に対応して表示画像 データを表示することが好ましい。
[0024] 上記の画像表示システムにおいて、画像生成装置は、情報記憶部を有することが 好ましい。情報記憶部は、画像表示装置の情報を示す表示装置データと、顔画像撮 影装置の情報を示す顔画像撮影装置データを記憶する。顔正面点検出装置は、顔 画像に基づレ、て 3次元画像処理を実行して顔画像データを生成し、顔画像データと 表示装置データおよび顔画像撮影装置データに基づいて顔正面点を検出すること が好ましい。
[0025] 上記課題を解決するために本発明の画像表示方法は、 (a)画像表示装置で表示さ れる表示画像の表示画像データを生成するステップと、表示画像は複数の領域を有 し、(b)表示画像を見るヒトの顔画像を撮影するステップと、(c)顔画像から顔画像デ ータを生成し、顔画像データに基づいて表示画像上におけるヒトの顔の正面に位置 する点をヒトの顔正面点として検出するステップと、(d)複数の領域から顔正面点に 対応する特定領域を特定して、特定領域に対応する画像が提供する情報量を増加 させて表示画像データを生成するステップと、 (e)表示画像データを画像表示装置 で表示するステップとを具備する。
[0026] 上記の画像表示方法において、 (f)新たな顔正面点を検出するステップと、(g)新 たな顔正面点が特定領域から遷移した場合、新たな特定領域を特定し、新たな特定 領域に対応する画像が提供する情報量を増加させて新たな表示画像データを生成 するステップとをさらに具備することが好ましい。
[0027] 上記の画像表示方法において、画像が提供する情報量の増加は、画像表示装置 で表示されるときの画像の表示サイズを相対的に大きくすることで行うことが好ましい
[0028] 上記の画像表示方法において、画像が提供する情報量の増加は、画像表示装置 で表示されるときの画像の解像度を、相対的に高くすることで行うことが好ましい。
[0029] 上記の画像表示方法において、 (a)ステップは、(al)ヒトの視界の範囲を超える範 囲の画像を撮影する広範囲撮影装置で撮影された広範囲画像を表示画像に構成 するステップを備えることが好ましい。 (e)ステップは、(el)広範囲画像で構成された 表示画像データを、複数の領域に対応させヒトの視界の範囲内に入るように表示す るステップを備えることが好ましレ、。
[0030] 上記の画像表示方法において、 (al)ステップは、(al l)広範囲撮影装置としての 複数の撮影装置で撮影された複数の画像を、表示画像に合成するステップを備える ことが好ましい。複数の領域の各々は、複数の画像の各々に対応する。 (el)ステツ プは、(el l)ヒトの視界の範囲内に入るように、複数の領域に対応して表示画像デー タを表示するステップを備えることが好ましレ、。
[0031] 上記の画像表示方法において、 (c)ステップは、(cl)画像表示装置の情報を示す 表示装置データと、顔画像を撮影する顔画像撮影装置の情報を示す顔画像撮影装 置データを読み出すステップと、 (c2)顔画像に基づいて 3次元画像処理を実行して 顔画像データを生成し、顔画像データと表示装置データおよび顔画像撮影装置デ ータに基づいて顔正面点を検出するステップとを備えることが好ましい。
[0032] 上記課題を解決するために本発明のプログラムは、 (h)画像表示装置で表示され る表示画像の表示画像データを生成するステップと、表示画像は複数の領域を有し 、(i)表示画像を見るヒトの顔画像から顔画像データを生成し、顔画像データに基づ いて表示画像上におけるヒトの顔の正面に位置する点をヒトの顔正面点として検出す るステップと、 (j)複数の領域力 顔正面点に対応する特定領域を特定して、特定領 域に対応する画像が提供する情報量を増加させて表示画像データを生成するステツ プと、 (k)表示画像データを画像表示装置へ出力するステップとを具備する方法をコ ンピュータで実行可能である。
[0033] 上記のプログラムにおいて、 (1)新たな顔正面点を検出するステップと、(m)新たな 顔正面点が特定領域力 遷移した場合、新たな特定領域を特定し、新たな特定領域 に対応する画像が提供する情報量を増加させて新たな表示画像データを生成する ステップとをさらに具備することが好ましい。
[0034] 上記のプログラムにおいて、画像が提供する情報量の増加は、画像表示装置で表 示されるときの画像の表示サイズを相対的に大きくすることで行うことが好ましい。
[0035] 上記のプログラムにおいて、画像が提供する情報量の増加は、画像表示装置で表 示されるときの画像の解像度を、相対的に高くすることで行うことが好ましい。
[0036] 上記のプログラムにおいて、 (h)ステップは、(hi)ヒトの視界の範囲を超える範囲の 画像を撮影する広範囲撮影装置で撮影された広範囲画像を表示画像に構成するス テツプを備えることが好ましい。 (k)ステップは、(kl)広範囲画像で構成された表示 画像データが、複数の領域に対応させヒトの視界の範囲内に入るように表示されるよ うに、表示画像データを画像表示装置へ出力するステップを備えることが好ましい。
[0037] 上記のプログラムにおいて、 (hi)ステップは、(hi 1)広範囲撮影装置としての複数 の撮影装置で撮影された複数の画像を、表示画像に合成するステップを備えること が好ましい。複数の領域の各々は、複数の画像の各々に対応する。 (kl)ステップは 、(kl l)ヒトの視界の範囲内に入り、複数の領域に対応して表示画像データを表示さ れるように、表示画像データを画像表示装置へ出力するステップを備えることが好ま しい。
[0038] 上記のプログラムにおいて、 (i)ステップは、(il)画像表示装置の情報を示す表示 装置データと、顔画像を撮影する顔画像撮影装置の情報を示す顔画像撮影装置デ ータを読み出すステップと、(i2)顔画像に基づいて 3次元画像処理を実行して顔画 像データを生成し、顔画像データと表示装置データおよび顔画像撮影装置データに 基づいて顔正面点を検出するステップとを備えることが好ましい。
[0039] 本発明によると、人の視界に入りきらない広範囲の画像や、多視点から撮影された 画像から、必要な情報量を適切に表示装置に提示する画像表示システムを提供する ことが可能になる。
[0040] さらに、本発明によると、眼球運動や頭部の傾斜を検知するための特殊な装置を人 に装着させること無ぐその人の視界に入りきらない広範囲の画像や多視点から撮影 された画像をその人の視野内に適切に提示させ、その画像から必要な情報量を適 切に抽出することが可能になる。
図面の簡単な説明
[0041] [図 1]図 1は、本発明の画像表示システムの実施の形態の構成を示す概念図である。
[図 2]図 2は、本発明の画像表示システム実施の形態の動作を示す概念図である。
[図 3]図 3は、本発明の画像表示システムの実施の形態の詳細な構成を示すブロック 図である。
[図 4]図 4は、本発明の画像表示システムの実施の形態の動作を示すフローチャート である。
[図 5]図 5は、画像表示システムを車両の運行に適用した場合の構成を示す図である
[図 6]図 6は、第 1画像撮影装置〜第 3画像撮影装置で撮影された外部画像データを 例示する図である。
[図 7]図 7は、第 1画像データ〜第 3画像データから表示画像データを生成する動作 を示した図である。
[図 8]図 8は、本実施の形態を広域監視に適用した場合の構成を示す概念図である。
[図 9]図 9は、広域監視システムに本発明を適用した場合の動作を示す概念図である 発明を実施するための最良の形態
[0042] 以下に、本発明の画像表示システムの実施の形態について図面を参照して説明す る。図 1は、本発明の画像表示システムの実施の形態の構成を示す概念図である。 本実施の形態における画像表示システム 1は、監視対象画像撮影装置 2と、顔画像 撮影装置 3と、画像表示装置 4と、コンピュータ 5を備えている。監視対象画像撮影装 置 2とコンピュータ 5とは互いに電気的に接続されている。コンピュータ 5は、監視対象 画像撮影装置 2から出力されるデータを受信している。顔画像撮影装置 3とコンビュ ータ 5とは互いに電気的に接続されている。コンピュータ 5は、顔画像撮影装置 3から 出力されるデータを受信している。画像表示装置 4はコンピュータ 5に電気的に接続 されている。コンピュータ 5から送信される表示画像データを受信して画像を表示して いる。監視対象画像撮影装置 2、顔画像撮影装置 3、画像表示装置 4、及びコンビュ ータ 5の接続は、所定のネットワークを介して行われていても良い。
[0043] 観察者 10は、画像表示装置 4に表示されている画像を観察する。図 1に示されて レ、る顔正面点 Pは、観察者 10が画像表示装置 4に表示されている画像を見ていると き、その顔の正面に位置する画像表示装置 4の画面上の部分を示している。本発明 において、観察者 10に対する制限は存在しない。つまり、本発明によれば、観察者 1 0は、画像表示システム 1の技術に関する詳しい知識を有することなぐ画像表示シス テム 1を利用することが可能である。
[0044] 監視対象画像撮影装置 2は、人の視界の範囲を超える範囲(以下、広範囲と呼ぶ。
)の画像を撮影する。光学カメラや CCDカメラに例示される。監視対象画像撮影装置 2は、複数の撮影装置によって構成されている。それにより、複数の地点から特定の 地点を観察する多視点監視を実行することも可能になる。監視対象画像撮影装置 2 で撮影された観察対象の画像は、観察画像データに変換されコンピュータ 5に送信 される。本発明の監視対象画像撮影装置 2は、この構成に限定されない。例えば、特 定の地点から広範囲の観察を行う場合、パノラマカメラのような広範囲の撮影が可能 な単一の撮影装置によって構成されていても良い。
[0045] 顔画像撮影装置 3は、観察者 10の顔画像を撮影する。光学カメラや CCDカメラに 例示される。顔画像撮影装置 3は、撮影した顔画像を顔画像データにしてコンビユー タ 5に送信する。顔画像撮影装置 3は、観察者 10の顔の位置に対して、相対的な位 置が特定できる場所に設置されていることが望ましい。または、画像表示装置 4の所 定の位置を原点として、顔画像撮影装置 3の座標を特定することで顔画像撮影装置 3の設置位置を特定しても良レ、。
[0046] コンピュータ 5は、監視対象画像撮影装置 2と顔画像撮影装置 3とから送信される画 像データ (観察画像データ/顔画像データ)に基づいてデータ処理を実行する。ヮ ークステーションやパーソナルコンピュータに例示される。コンピュータ 5は、受信した 画像データ (観察画像データ Z顔画像データ)に応答して所定のプログラムを実行し て画像処理を行う。コンピュータ 5は、画像処理により生成された表示画像データを 画像表示装置 4へ出力する。画像表示装置 4は、コンピュータ 5から送信される表示 画像データを表示する。 CRTや液晶ディスプレイに例示される。
[0047] 図 2は、本発明の画像表示システム実施の形態の動作を示す概念図である。ここで は、監視対象画像撮影装置 2は第 1〜第 3の 3台の撮影装置を使用して観察対象を 撮影しているものとする。例えば、各撮影装置が概ね水平挟角 90度の視野角を有し ている場合、上述の 3台の撮影装置によって水平角 270度の観察が可能になる。
[0048] 監視対象画像撮影装置 2は、 3台の撮影装置を使用して観察対象を撮影する。そ して、複数の画像データを取得する。複数の画像データとしての第 1画像データ Gl、 第 2画像データ G2および第 3画像データ G3の各々は、その第 1〜第 3の撮影装置 で撮影されたそれぞれの画像を示している。監視対象画像撮影装置 2は、撮影され た複数の画像データをコンピュータ 5へ送信する。
[0049] コンピュータ 5は、送信された複数の画像データに基づいて、一つの基準画像デー タ GOを生成する。また、顔画像撮影装置 3は観察者 10の顔画像を撮影してその顔 画像データをコンピュータ 5に送信する。コンピュータ 5は、受信した顔画像データに 応答して所定の演算を実行し、顔正面点 Pを算出する。
[0050] コンピュータ 5は、基準画像データ GOと顔正面点 Pとに基づいて、表示画像データ を生成して画像表示装置 4に送信する。図 2の例では、コンピュータ 5は、基準画像 データ GOと顔正面点 Pとから、観察者 10が第 1画像データ G1に注目していると判断 する。コンピュータ 5は、第 1画像データ G1を高解像度や表示領域を大きくして表示 できるような表示画像データを生成する。このとき、第 2画像データ G2および第 3画 像データ G3は低解像度や狭い表示領域となる。コンピュータ 5は、生成された表示 画像データを画像表示装置 4に送信する。画像表示装置 4は、受信した表示画像デ ータに基づいて、第 1画像データ G1が拡大表示(高解像度表示)されている表示画 像 40を表示画面に表示する。観察者 10は、表示された表示画像 40によって、観察 者 10個人の視野の範囲を超える範囲に存在する観察対象の観察を実行することが 可能になる。
[0051] 以下に、本発明の画像表示システムの実施の形態について、より詳細に説明する。
図 3は、本発明の画像表示システムの実施の形態の詳細な構成を示すブロック図で ある。図 1の説明で述べたように、本実施の形態の画像表示システム 1は、監視対象 画像撮影装置 2、顔画像撮影装置 3、画像表示装置 4、およびコンピュータ 5を備え ている。以下の説明では、前述の図 1の構成と同様な部分に関しては詳細な説明を 省略する。監視対象画像撮影装置 2は、複数の撮影装置 (2— :!〜 2— n)で構成され ている。監視対象画像撮影装置 2は、複数の撮影装置 (2— :!〜 2— n)をそれぞれ任 意の位置に設置することで、広範囲の監視や多視点からの監視を実行することが可 肯 になる。
[0052] コンピュータ 5は、 CPU6とメモリ 7と記憶装置 8とを備えている。コンピュータ 5は、ネ ットワーク(図示されず)に接続されていても良い。 CPU6、メモリ 7、及び記憶装置 8 は、バス 9を介して互いに接続されている。 CPU6は、コンピュータ 5に少なくとも一つ 備えられている演算処理装置である。 CPU6は、コンピュータ 5に内蔵または外付け されている装置の制御を行うための命令や、入力されたデータに対する演算処理を 実行して、その演算処理結果を出力する。
[0053] メモリ 7は、コンピュータ 5に備えられている情報記憶装置である。メモリ 7は、 RAM のような半導体記憶装置に例示される。 CPU6からの命令に応答して所定のデータ を記憶する。記憶装置 8は、コンピュータ 5に備えられている大容量記憶装置である。 記憶装置 8は、 HDDに例示され、不揮発性の記憶領域を有する。本実施の形態に 用いられる電子データ(11〜14)やコンピュータプログラム(21〜24)を格納している
[0054] 記憶装置 8に格納された電子データは、表示装置データ 11、顔画像撮影装置デ ータ 12、顔姿勢初期データ 13およびレイアウトデータ 14を含む。表示装置データ 1 1、顔画像撮影装置データ 12、顔姿勢初期データ 13およびレイアウトデータ 14の各 々は、画像表示システム 1の動作を実行するために使用される。
[0055] 表示装置データ 11は、画像表示装置 4に関する情報を示すデータである。そのデ ータは、画像を表示画面に表示するために必要な、画像表示装置 4の表示画面サイ ズゃ表示可能解像度などの情報に例示される。
[0056] 顔画像撮影装置データ 12は、顔画像撮影装置 3の設置位置を示すデータである。
そのデータは、顔画像撮影装置 3で撮影された画像データから顔姿勢データ (観察 者 10の視線方向を特定するためのデータ)を算出するために必要な、顔画像撮影装 置 3の設置位置に関する情報に例示される。
[0057] 顔姿勢初期データ 13は、顔姿勢データを算出するために使用される初期データで ある。そのデータは、観察者 10が画像表示装置 4の表示画面の左隅を注視している 顔画像データを顔姿勢初期データ 13に例示される。予め顔姿勢初期データ 13を格 納しておくことで、顔正面点 Pの算出に要する情報処理量を低減することが可能にな る。観察者 10と画像表示装置 4の特定点との相対的な距離を顔姿勢初期データ 13 として格納しても良い。
[0058] レイアウトデータ 14は、監視対象画像を画像表示装置 4に表示する場合の表示レ ィアウトに関するデータである。監視対象の画像 (広範囲画像または多視点画像)は 、監視対象画像撮影装置 2で撮影された画像をコンピュータ 5で画像処理を実行す ることで生成される。コンピュータ 5は、生成された監視対象画像を画像表示装置 4に 表示する場合、顔正面点 Pに対応する領域を特定する。コンピュータ 5は、その特定 された領域を高解像で表示可能なように表示データを生成する。したがって、レイァ ゥトデータ 14に設定を変更することで、画像表示装置 4での表示形態を任意に変更 することが可能になる。
[0059] 記憶装置 8に格納されたコンピュータプログラムは、基準画像データ生成プログラム 21、顔姿勢データ生成プログラム 22、顔正面点検出プログラム 23および表示画像 データ生成プログラム 24を含む。基準画像データ生成プログラム 21、顔姿勢データ 生成プログラム 22、顔正面点検出プログラム 23および表示画像データ生成プロダラ ム 24の各々は、画像表示システム 1の動作を実行するために使用される。
[0060] 基準画像データ生成プログラム 21は、監視対象画像撮影装置 2から送信された監 視対象の画像データ(例示:図 2の G1〜G3)に基づいて、表示画像データ生成のた めの基準となる基準画像データ(例示:図 2の GO)を生成する。例えば、基準画像デ ータ生成プログラム 21は、複数の撮影装置(2—:!〜 2— n)で撮影された画像にォー バーラップが存在しているとき、オーバーラップのないシームレスな画像に対応する 基準画像データを生成する。
[0061] 顔姿勢データ生成プログラム 22は、顔画像撮影装置 3から送信された顔画像デー タと顔姿勢初期データ 13と表示装置データ 11とに基づいて、観察者 10に関する現 在の顔姿勢データ (観察者 10の視線方向を特定するためのデータ)を生成する。
[0062] 顔正面点検出プログラム 23は、顔姿勢データ生成プログラム 22で生成された顔姿 勢データと表示装置データ 11と顔画像撮影装置データ 12とに基づいて、画像表示 装置 4の表示画面上の顔正面点 Pを算出する。
[0063] 表示画像データ生成プログラム 24は、基準画像データ生成プログラム 21で生成さ れた基準画像データと顔正面点検出プログラム 23で算出された顔正面点 Pとレイァ ゥトデータ 14とに基づいて、表示画像データを生成する。
[0064] なお、本発明の作用効果を得るために、必ずしも上述の各データや各プログラムが 全て要求されることは無い。例えば、より高性能なコンピュータ 5を使用している場合 などでは、顔姿勢データ生成プログラム 22がレイアウトデータ 14を使用せずに表示 画像データを生成する構成であってもよい。その場合でも、本発明の作用効果に影 響はない。
[0065] 次に、本発明の画像表示システムの実施の形態の動作について説明する。図 4は 、本発明の画像表示システムの実施の形態の動作を示すフローチャートである。以 下の動作において、必要とされるデータは記憶装置 8に予め格納されているとして説 明する。
[0066] 画像表示システム 1が起動され、画像表示装置 4が監視対象画像を表示する。表 示されている画像は、監視対象画像撮影装置 2によって所定の時間間隔で連続的 に撮影され、コンピュータ 5で所定の画像処理が実行された基準画像データである。 基準画像データは、連続的に更新されている。観察者 10は、その表示されている画 像を肉眼で見る。 [0067] ステップ S101において、顔画像撮影装置 3は、観察者 10の顔画像を撮影する。こ の撮影が実行される時間間隔は、観察者 10の顔正面点移動を十分に検出できる程 度に短い間隔で行われる。顔画像撮影装置 3は、撮影された顔画像を顔画像データ としてデータ処理可能な形式に形式変換して、ネットワークを介してコンピュータ 5に 送信する。
[0068] ステップ S102において、コンピュータ 5は、顔画像撮影装置 3から送信される顔画 像データに応答して、顔姿勢データ生成プログラム 22を起動する。コンピュータ 5の CPU6は、顔姿勢データ生成プログラム 22の起動に応答して、顔姿勢初期データ 1 3と表示装置データ 11とを読み込む。そして、顔姿勢初期データ 13と顔画像データ と表示装置データ 11とに基づいて、観察者 10の現在の顔姿勢データを算出する。こ の処理を行う技術の一例として、「『3Dァピアランスモデルを用いた高速 '高精度な顔 姿勢推定』(2004年 電子情報通信学会総合大会論文集 D— 12— 99)」に記載 の顔姿勢推定技術を利用可能である。この顔姿勢推定技術を顔姿勢データ生成プ ログラム 22に含ませることにより、顔画像撮影装置 3に対する観察者 10の顔姿勢を 算出できる。したがって、顔画像撮影装置 3と画像表示装置 4と間の位置関係を予め 求めておくことにより、画像表示装置 4に対する観察者 10の顔姿勢データを演算で 求めることができる。コンピュータ 5は顔姿勢データの算出完了に応答してステップ S 103の処理に進む。
[0069] ステップ S103において、コンピュータ 5は顔正面点検出プログラム 23を起動する。
コンピュータ 5の CPU6は、顔正面点検出プログラム 23の起動に応答して、更に、顔 画像撮影装置データ 12を読み込む。そして、顔姿勢データと表示装置データ 11と 顔画像撮影装置データ 12とに基づいて、顔正面点 Pを特定する。コンピュータ 5は顔 正面点 Pの特定完了に応答してステップ S103の処理に進む。
[0070] ステップ S104において、コンピュータ 5は、表示画像データ生成プログラム 24を起 動する。コンピュータ 5の CPU6は、表示画像データ生成プログラム 24の起動に応答 して、監視対象画像撮影装置 2が撮影しコンピュータ 5で画像処理された基準画像 データと顔正面点 Pとレイアウトデータ 14とに基づいて表示画像データを生成する。 表示画像データは、顔正面点 Pに対応する表示領域(高解像度表示領域)に高解像 度画像が表示されるように生成されている。コンピュータ 5は、表示画像データの生成 完了に応答してステップ S105の処理に進む。
[0071] ステップ S105において、ステップ 104の実行の間に顔正面点 Pが移動したかどうか の判断が実行される。例えば、ステップ S103のようなプロセスを再実行し、前回特定 した顔正面点と今回特定した顔正面点とが同じであれば、移動していないと判定する 。その判断の結果、顔正面点の移動が検出されなかった場合 (ステップ S105 : N〇) 、コンピュータ 5は、ステップ S104で生成された表示画像データを、ネットワークを介 して画像表示装置 4へ送信する。表示画像データ生成後に、顔正面点移動を検出し た場合(ステップ S 105 : YES)、処理はステップ S 106に進む。
[0072] ステップ S106において、コンピュータ 5は、検出された移動後の顔正面点 P (ステツ プ S105で算出したもの)に関するデータ(以下、顔正面点データという)の読み込み を実行する。顔正面点データとしては、画像表示装置 4の画面内の座標に例示され る。
[0073] ステップ S107において、コンピュータ 5は、顔正面点データの読み込み完了に応 答して、表示画像データ(ステップ S104で生成されたもの)の読み込みを実行する。 顔正面点データと表示画像データの各々の読み込み完了に応答して、処理はステツ プ S108に進む。
[0074] ステップ S108において、コンピュータ 5は顔正面点 P力 読込んだ表示画像データ の高解像度表示領域に対応してレ、るかどうかの判断を実行する。その判断の結果、 現在の表示画像データに対応させた場合、高解像度で画像が表示される領域(高解 像度表示領域)と顔正面点 Pとが対応していなかった場合 (ステップ S108 : YES)、 処理はステップ S 101に戻り、新たな表示画像データの生成が行われる。ステップ S1 08で顔正面点 Pは移動していたけれども、高解像度で画像が表示される領域から外 れていなかった場合(ステップ S108 : N〇)、コンピュータ 5は、ステップ S104で生成 された表示画像データをネットワークを介して画像表示装置 4に送信し、処理はステ ップ S 109に進む。
[0075] ステップ S109において、画像表示装置 4は、コンピュータ 5から送信された表示画 像データを受信し、その表示画像データに対応する画像を表示画面に表示する。こ の動作を繰り返すことで、画像表示システム 1は、観察者 10の顔正面点移動に追従 して観察者 10が注目している箇所に対応する領域を自動的に高解像度で表示する こと力 Sできる。
[0076] なお、上記動作において、ステップ S105〜ステップ S108を省略することも可能で ある。その場合、画像表示の実行、更新がより迅速になる。
[0077] 次に、本発明の画像表示システムの具体的な利用について説明する。図 5は、画 像表示システム 1を車両の運行に適用した場合の構成を示す図である。車両 30は、 画像表示システム 1を備えている移動体である。図 5は、その車両 30が交差点 Pに侵 入する様子を示している。図 5を参照すると、車両 30の左前近傍に二輪車 B1が走行 し、車両 30の進行方向に対して右前方の道路に自動車 C1が存在している。車両 30 には、監視対象画像撮影装置 2 (2— :!〜 2— 3)と顔画像撮影装置 3と画像表示装置 4とコンピュータ 5とが備えられている。また、観察者 10 (車両 30の運転者)は、画像 表示装置 4の表示されている画像を見ながら車両の運行を行っている。第 1画像撮影 装置 2— 1は視野 R1に対応する範囲の外部画像を撮影している。第 2画像撮影装置 2— 2は視野 R2に対応する範囲の外部画像を撮影している。第 3画像撮影装置 2— 3は視野 R3に対応する範囲の外部画像を撮影している。顔画像撮影装置 3は、車両 30内部に設置され、観察者 10の顔画像を常時撮影している。
[0078] 第 1画像撮影装置 2— 1〜第 3画像撮影装置 2— 3は、撮影した外部画像を電子デ ータ化する。そして、コンピュータ 5で情報処理が可能な形式に形式変換して、車両 3 0内部のネットワーク(図示されず)を介してコンピュータ 5に送信する。同様に、顔画 像撮影装置 3は、撮影した顔画像を電子データ化する。そして、コンピュータ 5で情報 処理が可能な形式に形式変換して、ネットワークを介してコンピュータ 5に送信する。 コンピュータ 5は受信した外部画像データと顔画像データとに基づいて画像処理を 実行し、表示画像データを生成する。生成された表示画像データは、上述のネットヮ ークを介して画像表示装置 4に送信される。
[0079] 図 6は、第 1画像撮影装置 2— 1〜第 3画像撮影装置 2— 3で撮影された外部画像 データを例示する図である。第 1画像データ G1は第 1画像撮影装置 2— 1で撮影され た画像データを示している。同様に第 2画像 G2データは第 2画像撮影装置 2_ 2で 撮影された画像データを示し、第 3画像データ G3は、第 3画像撮影装置 2— 3で撮 影された画像データを示してレ、る。
[0080] 図 7は、上述の第 1画像データ G1〜第 3画像データ G3から表示画像データ 40 (40 a、 40b)を生成する動作を示した図である。基準外部画像データ GOは、第 1画像デ ータ G1〜第 3画像データ G3に基づいて生成された基準画像データである。図 7に 示されている基準画像データ GOは、各画像データ(G1〜G3)を結合させて生成さ れ、各々の画像データ(第 1画像データ G1〜第 3画像データ G3)の相対位置を特定 している。なお、基準画像データ GOの情報量を低減するために、各画像 (G1〜G3) の横方向サイズを所定の比率で縮小した基準画像データ GOを生成しても良い。生 成された基準画像データ GOは、顔正面点 Pが検出されていない場合に画像表示装 置 4で表示される。システムが動作し、顔正面点 Pの検出が実行されると、顔正面点 データ 50が生成される。顔正面点データ 50は、本発明の理解を容易にするために、 基準画像データ GOに対応して顔正面点 Pを示しているが、実際の顔正面点データ は画面上の座標を示す数値データであっても良い。
[0081] ここで、観察者 10の顔正面点 Pが、図 7に示されているように座標(50、 50)で示さ れる位置である場合、コンピュータ 5はその座標で示される点に対応する領域を算出 する。そしてコンピュータ 5は、算出された領域と顔正面点データ 50とに基づいて、上 述の第 1画像データ G1に対応する画像 Glaが高解像度で表示可能なように表示画 像データを生成する。生成された表示画像データはネットワークを介して画像表示装 置 4に出力される。画像表示装置 4は、コンピュータ 5から供給された表示画像データ に基づレ、て表示画像 40aを画面に表示する。
[0082] 観察者 10が視線を移動させたことにより、顔正面点 Pの位置が表示画像 Glaの領 域に存在しないと判断される場合を考える。コンピュータ 5は、顔画像撮影装置 3から 送信される顔画像データに基づいて、観察者 10の顔正面点移動を監視している。図 7に示されているように、観察者 10が視線を移動したことで顔正面点データ 50の顔 正面点 Pの座標が、顔正面点 P (5、 25)を示した場合 (以下、その顔正面点 Pを"新た な顔正面点 P"と呼ぶ。)、コンピュータ 5は、その新たな顔正面点 Pが表示画像 Gla の領域に存在してレ、ないと判断する。 [0083] コンピュータ 5は、その判断結果に対応して、上記の新たな顔正面点 Pの座標 (顔 正面点 P (5、 25) )と画像表示装置 4に出力している表示画像データとから、上述の 第 2画像データ G2に対応する画像 G2aが高解像度で表示可能なように、新たな表 示画像データを生成する。生成された新たな表示画像データはネットワークを介して 画像表示装置 4に出力される。画像表示装置 4は、コンピュータ 5から供給された新 たな表示画像データに基づいて新たな表示画像 40bを画面に表示する。
[0084] したがって、観察者 10が顔を少し動かすだけで注目部分の画像が指定され、観察 者 10は、指定された領域の画像を高解像度で見ることができる。本発明を車両運行 に用いることにより、観察者 10 (車両の運転者)の前方および左右の映像を死角を低 減させることが可能になる。例えば、観察者 10が、車両 30を左折させる場合、左側に 併走する二輪車 B1の巻き込みを確認しなければならない。通常では観察者 10は左 の二輪車 B1を目視するために顔を回転しなければならなレ、。走行中に左の目視を 実行することにより、前方不注意になる場合あり、また、左の目視を忘れて事故原因と なることも多レ、。また、左側の二輪車 B1に気をとられていると右側から来る自動車 C1 を見落とす可能性がある。
[0085] しかし、本発明によれば、正面向きの状態でも全体を目視可能な範囲に画像を表 示する画像表示装置 4に、左の二輪車 B1から右の自動車 C1までを含む広視野の画 像が表示されている。したがって観察者 10は、交差点周囲の状況を迅速に、かつ、 容易に判断することができる。状況判断を正確行い、二輪車 B1までの相対距離や二 輪車 B1大きさを確認するためには、第 2画像データ G2が高解像度で表示される必 要がある。表示画像 Glaを見ている観察者 10が、表示画像 Glaに表示されている二 輪車 B1存在に気がつレ、た場合、顔を 20〜30度(あるいはそれ以下の角度)動かす だけで、走行中に左の目視を実行した場合と同様の画像を見ることができる。また、 右側の自動車 C1も低解像度ながら常に表示されているため見落とす可能性が少な ぐ二輪車 B1確認中もその存在に気づくことができる。
[0086] なお、上記の説明では、本発明の画像表示システムを道路を走行する自動車に適 用した場合について述べている力 S、これは、本発明の画像表示システムを適用する 移動体を地上を走行する車両に限定するものではなレ、。例えば、上記の画像表示シ ステムと同様の構成を水上を航行する船舶などに備えることも可能である。
[0087] 本発明は、広域監視システム (複数の異なる場所に設置された監視カメラの画像を 監視員が監視するシステム)に適用する場合においても、その効果を発揮する。図 8 は、本実施の形態を広域監視に適用した場合の構成を示す概念図である。図 8に示 されているように、この広域監視システムは、異なる地点を撮影する複数の撮影装置 (2— :!〜 2— 6)と、顔画像撮影装置 3と、画像表示装置 4と、コンピュータ 5で構成さ れている。以下の説明において、前述した装置と同じ符号が付されている各装置は、 前述のものと同様の構成を有しているものとし、その詳細な説明は省略する。
[0088] 図 8に示されているように、複数の撮影装置(2_:!〜 2_ 6)の各々は、一例として 6 箇所の異なる場所を撮影する 6台の監視カメラで構成されている。各々の撮影装置 は、ネットワーク(図示されず)を介してコンピュータ 5に接続されている。複数の撮影 装置(2— :!〜 2— 6)は、それぞれの地点の様子を撮影した所定の画素の画像デー タを生成し、ネットワークを介してコンピュータ 5出力する。また、顔画像撮影装置 3お よび画像表示装置 4も、そのネットワークを介してコンピュータ 5に接続されている。観 察者 10は、画像表示装置 4に表示されている画像を観察する人物である。
[0089] 顔画像撮影装置 3は、観察者 10の顔を撮影する顔画像撮影装置である。顔画像 撮影装置 3は、上述のネットワークを介して、コンピュータ 5と、画像表示装置 4とに接 続されている。顔画像撮影装置 3によって撮影された観察者 10の顔画像は、顔画像 データに変換されてコンピュータ 5に入力される。コンピュータ 5は顔画像撮影装置 3 力 供給された該顔画像データに基づいて観察者 10の顔正面点 Pを検出して顔正 面点データを生成する。
[0090] 図 9は、広域監視システムに本発明を適用した場合の動作を示す概念図である。
各撮影地点に設置された撮影装置 (2— :!〜 2— 6)は、その撮影画像を電子データ に変換してコンピュータ 5に送信する。コンピュータ 5は送信された画像データをネット ワークを介して受信し、その受信に応答して基準画像データ生成プログラム 21を起 動する。コンピュータ 5は、起動した基準画像データ生成プログラム 21を実行すること で基準画像データを生成する。その基準画像データは、第 1画像撮影装置 2— :!〜 2 一 6から送信される画像を低解像度化して並べ、画像表示装置 4で表示可能な 1枚 の画像に統合することによって生成される。
[0091] また、コンピュータ 5は、顔画像撮影装置 3から送信された顔画像データに基づいて 顔姿勢データを生成する。生成される顔画像データは、顔姿勢データ生成プロダラ ム 22を実行することによって生成される。コンピュータ 5は、顔姿勢データ生成プログ ラム 22によって検出された顔姿勢データと、表示装置データ 11の画面の位置情報を 用いて、顔正面点 P (顔の正面に位置する画面上の点)の位置を決定し、顔正面点 P として出力する。さらに、顔正面点 Pを含む領域に表示される監視カメラ画像の解像 度を高くし、その他の監視カメラ画像の解像度を下げることによって表示画像データ を生成する。
[0092] 上記の動作を具体的に説明する。広域監視システムを構成している第 1画像撮影 装置 2— 1〜第 6画像撮影装置 2— 6は、異なる地点の画像データ G1〜画像データ G6を撮影する。撮影された各々の画像データ(G1〜G6)は、ネットワークを介してコ ンピュータ 5に送信される。ここで、送信される各々の画像データの画素が 360 X 24 0画素であるとし、画像表示装置 4の表示可能画素サイズが 360 X 240画素であると する。
[0093] コンピュータ 5は、基準画像データ生成プログラム 21を実行し、第 1画像撮影装置 2
1〜第 6画像撮影装置 2— 6で撮影された画像を、図 9の表示画像 40cに示されて いるように、 120 X 80画素の領域 5つ(領域 42〜領域 46)と、約その 2倍の解像度と なる 240 X 160画素の領域 (領域 41)ひとつに分割する。システムが動作を開始した 時点(初期状態)では、コンピュータ 5は、表示画像 40cのように領域 41を 240 X 160 画素、領域 42〜領域 46を 120 X 80画素の領域に割り当てて画像表示装置 4に表 示させている。
[0094] システムが動作している場合、コンピュータ 5は、顔画像撮影装置 3を用いて観察者 10の顔画像を撮影し続ける。コンピュータ 5は顔姿勢データ生成プログラム 22を実 行し、顔画像撮影装置 3から送信される顔画像データに基づいて、観察者 10の顔の 3次元的な位置および向きを検出する。さらにコンピュータ 5は、顔姿勢データ生成プ ログラム 22を実行することによって算出される顔姿勢データと表示装置データ 11と顔 画像撮影装置データ 12を用いて、顔正面点 P (顔の位置力も顔の向きに伸ばした直 線と画像表示装置 4の画面の交わる点)を顔正面点 Pとして決定する。
[0095] ここでコンピュータ 5は、その顔正面点 Pが領域 41〜領域 46のどの領域に含まれて いるかを判定し、顔正面点 Pが含まれる領域を 240 X 160画素の領域となるように新 たな表示画像データを生成する。システム起動時点以外は、前回表示を行った時点 での表示画像データに基づき、顔正面点 Pがどの領域にあるかを判別する。例えば、 顔正面点 Pが領域 46の領域内である場合、コンピュータ 5は、表示画像 40dに示され ているように、領域 46を左下の 240 X 160画素の領域として表示画像データを生成 する。その表示画像データにおいて、領域 41〜領域 45を 120 X 80画素の領域とす る。つまり、画像表示装置 4で表示される監視対象画像は、画像データ G1〜画像デ ータ G6をそれぞれ領域領域 41〜領域 46の解像度に変更して表示画像データが表 示される。
[0096] 上述の例では、解像度の拡大量を 2倍で一定であるとした力 S、これはレイアウトデー タ 14の設定を変更することで任意に変更可能である。特に、顔の位置がディスプレイ に近くなつた場合に大きくし、遠くなつた場合に小さくする、などの処理を行うことによ り、視聴者が解像度の変化量を必要に応じて変えることも可能である。
[0097] このように広域監視システムに本発明を適用することによって、監視員は一度に複 数地点を常時監視することができ、かつ、異常が発生した疑いがある地点を表示して いる画像を、視線に追従するように拡大表示させることができる。本発明により、観察 者 10は、スィッチ操作などを行わなくても顔をすこし動かすだけで、対象領域を高解 像で表示させて確認することができるため、以上発生時に迅速に対応することができ る。また、本発明により、観察者 10は、特別な装置を装着することなく広域監視を実 行すること力 Sできる。

Claims

請求の範囲
[1] 画像表示装置と、
前記画像表示装置で表示される表示画像の表示画像データを生成する画像生成 装置と、前記表示画像は複数の領域を有し、
前記表示画像を見るヒトの顔画像を撮影する顔画像撮影装置と、
前記顔画像から顔画像データを生成し、前記顔画像データに基づレ、て前記表示 画像上における前記ヒトの顔の正面に位置する点としての顔正面点を検出する顔正 面点検出装置と
を備え、
前記画像生成装置は、前記複数の領域から前記顔正面点に対応する特定領域を 特定して、前記特定領域に対応する画像が提供する情報量を増加させて前記表示 画像データを生成する
画像表示システム。
[2] 請求項 1に記載の画像表示システムにおいて、
前記顔正面点検出装置は、新たな顔正面点を検出し、
前記画像生成装置は、前記新たな顔正面点が前記特定領域から遷移した場合、 新たな領域を特定し、前記新たな領域に対応する画像が提供する情報量を増加さ せて新たな表示画像データを生成する
画像表示システム。
[3] 請求項 1または 2に記載の画像表示システムにおいて、
前記画像生成装置は、画像が提供する情報量の増加を、前記画像表示装置で表 示されるときの画像の表示サイズを相対的に大きくすることで行う
画像表示システム。
[4] 請求項 1から 3の何れ力 4項に記載の画像表示システムにおいて、
前記画像生成装置は、画像が提供する情報量の増加を、前記画像表示装置で表 示されるときの画像の解像度を、相対的に高くすることで行う
画像表示システム。
[5] 請求項 1から 4の何れ力 1項に記載の画像表示システムにおいて、 前記画像生成装置は、前記ヒトの視界の範囲を超える範囲の画像を撮影する広範 囲撮影装置で撮影された広範囲画像を前記表示画像に構成し、
前記画像表示装置は、前記広範囲画像で構成された前記表示画像データを、前 記複数の領域に対応させ前記ヒトの視界の範囲内に入るように表示する
画像表示システム。
[6] 請求項 5に記載の画像表示システムにおいて、
前記画像生成装置は、前記広範囲撮影装置としての複数の撮影装置で撮影され た複数の画像を、前記表示画像に合成し、
前記画像表示装置は、前記ヒトの視界の範囲内に入るように、前記複数の領域に 対応して前記表示画像データを表示する
画像表示システム。
[7] 請求項 1から 6の何れ力 4項に記載の画像表示システムにおいて、
前記画像生成装置は、情報記憶部を有し、
前記情報記憶部は、前記画像表示装置の情報を示す表示装置データと、前記顔 画像撮影装置の情報を示す顔画像撮影装置データを記憶し、
前記顔正面点検出装置は、前記顔画像に基づいて 3次元画像処理を実行して前 記顔画像データを生成し、前記顔画像データと前記表示装置データおよび前記顔 画像撮影装置データに基づいて前記顔正面点を検出する
画像表示システム。
[8] (a)画像表示装置で表示される表示画像の表示画像データを生成するステップと、 前記表示画像は複数の領域を有し、
(b)前記表示画像を見るヒトの顔画像を撮影するステップと、
(c)前記顔画像から顔画像データを生成し、前記顔画像データに基づいて前記表 示画像上における前記ヒトの顔の正面に位置する点を前記ヒトの顔正面点として検 出するステップと、
(d)前記複数の領域から前記顔正面点に対応する特定領域を特定して、前記特定 領域に対応する画像が提供する情報量を増加させて前記表示画像データを生成す るステップと、 (e)前記表示画像データを前記画像表示装置で表示するステップと
を具備する
画像表示方法。
請求項 8に記載の画像表示方法において、
(f )新たな顔正面点を検出するステップと、
(g)前記新たな顔正面点が前記特定領域から遷移した場合、新たな特定領域を特 定し、前記新たな特定領域に対応する画像が提供する情報量を増加させて新たな 表示画像データを生成するステップと
をさらに具備する
画像表示方法。
請求項 8または 9に記載の画像表示方法において、
画像が提供する情報量の増加は、前記画像表示装置で表示されるときの画像の表 示サイズを相対的に大きくすることで行う
画像表示方法。
請求項 8から 10の何れ力 1項に記載の画像表示方法において、
画像が提供する情報量の増加は、前記画像表示装置で表示されるときの画像の解 像度を、相対的に高くすることで行う
画像表示方法。
請求項 8から 11の何れ力 1項に記載の画像表示方法において、
前記(a)ステップは、
(al)前記ヒトの視界の範囲を超える範囲の画像を撮影する広範囲撮影装置で撮 影された広範囲画像を前記表示画像に構成するステップを備え、
前記(e)ステップは、
(el)前記広範囲画像で構成された前記表示画像データを、前記複数の領域に対 応させ前記ヒトの視界の範囲内に入るように表示するステップを備える
画像表示方法。
請求項 12に記載の画像表示方法において、 (al l)前記広範囲撮影装置としての複数の撮影装置で撮影された複数の画像を、 前記表示画像に合成するステップを備え、
前記複数の領域の各々は、前記複数の画像の各々に対応し、
前記(el)ステップは、
(el l )前記ヒトの視界の範囲内に入るように、前記複数の領域に対応して前記表示 画像データを表示するステップを備える
画像表示方法。
[14] 請求項 8から 13の何れ力 4項に記載の画像表示方法において、
前記(c)ステップは、
(cl)前記画像表示装置の情報を示す表示装置データと、前記顔画像を撮影する 顔画像撮影装置の情報を示す顔画像撮影装置データを読み出すステップと、
(c2)前記顔画像に基づいて 3次元画像処理を実行して前記顔画像データを生成 し、前記顔画像データと前記表示装置データおよび前記顔画像撮影装置データに 基づいて前記顔正面点を検出するステップと
を備える
画像表示方法。
[15] (h)画像表示装置で表示される表示画像の表示画像データを生成するステップと、 前記表示画像は複数の領域を有し、
(i)前記表示画像を見るヒトの顔画像から顔画像データを生成し、前記顔画像デー タに基づいて前記表示画像上における前記ヒトの顔の正面に位置する点を前記ヒト の顔正面点として検出するステップと、
0)前記複数の領域から前記顔正面点に対応する特定領域を特定して、前記特定 領域に対応する画像が提供する情報量を増加させて前記表示画像データを生成す るステップと、
(k)前記表示画像データを前記画像表示装置へ出力するステップと
を具備する法をコンピュータで実行可能なプログラム。
[16] 請求項 15に記載のプログラムにおいて、
(1)新たな顔正面点を検出するステップと、 (m)前記新たな顔正面点が前記特定領域から遷移した場合、新たな特定領域を 特定し、前記新たな特定領域に対応する画像が提供する情報量を増加させて新た な表示画像データを生成するステップと
をさらに具備するプログラム。
[17] 請求項 15または 16に記載のプログラムにおいて、
画像が提供する情報量の増加は、前記画像表示装置で表示されるときの画像の表 示サイズを相対的に大きくすることで行う
プログラム。
[18] 請求項 15から 17の何れ力 4項に記載のプログラムにおいて、
画像が提供する情報量の増加は、前記画像表示装置で表示されるときの画像の解 像度を、相対的に高くすることで行う
プログラム。
[19] 請求項 15から 18の何れ力 1項に記載のプログラムにおいて、
前記 (h)ステップは、
(hi)前記ヒトの視界の範囲を超える範囲の画像を撮影する広範囲撮影装置で撮 影された広範囲画像を前記表示画像に構成するステップを備え、
前記(k)ステップは、
(kl)前記広範囲画像で構成された前記表示画像データが、前記複数の領域に対 応させ前記ヒトの視界の範囲内に入るように表示されるように、前記表示画像データ を前記画像表示装置へ出力するステップを備える
プログラム。
[20] 請求項 19に記載のプログラムにおいて、
前記 (hi)ステップは、
(hi 1)前記広範囲撮影装置としての複数の撮影装置で撮影された複数の画像を、 前記表示画像に合成するステップを備え、
前記複数の領域の各々は、前記複数の画像の各々に対応し、
前記(kl)ステップは、
(kl l)前記ヒトの視界の範囲内に入り、前記複数の領域に対応して前記表示画像 データを表示されるように、前記表示画像データを前記画像表示装置へ出力するス テツプを備える
プログラム。
[21] 請求項 15から 20の何れ力 4項に記載のプログラムにおいて、
前記 (i)ステップは、
(11)前記画像表示装置の情報を示す表示装置データと、前記顔画像を撮影する 顔画像撮影装置の情報を示す顔画像撮影装置データを読み出すステップと、
(12)前記顔画像に基づいて 3次元画像処理を実行して前記顔画像データを生成し 、前記顔画像データと前記表示装置データおよび前記顔画像撮影装置データに基 づいて前記顔正面点を検出するステップと
を備える
プログラム。
PCT/JP2005/010463 2004-06-18 2005-06-08 画像表示システム、画像表示方法および画像表示プログラム WO2005124735A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/570,863 US7839423B2 (en) 2004-06-18 2005-06-08 Image display system with gaze directed zooming
EP05748915A EP1768097A1 (en) 2004-06-18 2005-06-08 Image display system, image display method, and image display program
JP2006514702A JP4952995B2 (ja) 2004-06-18 2005-06-08 画像表示システム、画像表示方法および画像表示プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004180485 2004-06-18
JP2004-180485 2004-06-18

Publications (1)

Publication Number Publication Date
WO2005124735A1 true WO2005124735A1 (ja) 2005-12-29

Family

ID=35509944

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/010463 WO2005124735A1 (ja) 2004-06-18 2005-06-08 画像表示システム、画像表示方法および画像表示プログラム

Country Status (6)

Country Link
US (1) US7839423B2 (ja)
EP (1) EP1768097A1 (ja)
JP (1) JP4952995B2 (ja)
KR (1) KR100911066B1 (ja)
CN (1) CN1969313A (ja)
WO (1) WO2005124735A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215063A (ja) * 2006-02-13 2007-08-23 Alpine Electronics Inc 運転支援画像表示制御装置
JP2013081039A (ja) * 2011-10-03 2013-05-02 Hitachi Kokusai Electric Inc 映像表示装置
WO2016075774A1 (ja) * 2014-11-12 2016-05-19 三菱電機株式会社 表示制御装置および情報表示装置
WO2016129241A1 (ja) * 2015-02-12 2016-08-18 株式会社デンソー 表示制御装置及び表示システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513699B2 (en) 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US9582805B2 (en) 2007-10-24 2017-02-28 Invention Science Fund I, Llc Returning a personalized advertisement
US20090113297A1 (en) * 2007-10-24 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Requesting a second content based on a user's reaction to a first content
JP4743234B2 (ja) * 2008-07-02 2011-08-10 ソニー株式会社 表示装置及び表示方法
DE102009020328A1 (de) 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung von unterschiedlich gut sichtbaren Objekten aus der Umgebung eines Fahrzeugs auf der Anzeige einer Anzeigevorrichtung
FR2956364B1 (fr) * 2010-02-18 2016-01-29 Peugeot Citroen Automobiles Sa Dispositif d'aide aux manoeuvres d'un vehicule par affichage de points de vue fonction de la position de la tete du conducteur
US8463075B2 (en) * 2010-08-11 2013-06-11 International Business Machines Corporation Dynamically resizing text area on a display device
US10884577B2 (en) * 2013-01-15 2021-01-05 Poow Innovation Ltd. Identification of dynamic icons based on eye movement
US20150355463A1 (en) * 2013-01-24 2015-12-10 Sony Corporation Image display apparatus, image display method, and image display system
US11747895B2 (en) * 2013-03-15 2023-09-05 Intuitive Surgical Operations, Inc. Robotic system providing user selectable actions associated with gaze tracking
CN104228684B (zh) * 2014-09-30 2017-02-15 吉林大学 一种消除汽车a柱盲区的方法
TWI547177B (zh) * 2015-08-11 2016-08-21 晶睿通訊股份有限公司 視角切換方法及其攝影機
JP6449501B1 (ja) * 2018-03-28 2019-01-09 Eizo株式会社 表示システム及びプログラム
CN113055587A (zh) * 2019-12-27 2021-06-29 财团法人工业技术研究院 全景视频处理方法、全景视频处理装置与全景视频系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63118988A (ja) * 1986-09-12 1988-05-23 ウエスチングハウス・エレクトリック・コーポレーション 可変的に換算される表示を発生する方法及び装置
JPH01252993A (ja) * 1988-04-01 1989-10-09 Nippon Telegr & Teleph Corp <Ntt> 画像表示方法
JPH03173000A (ja) * 1989-11-30 1991-07-26 Toshiba Corp 画像表示方法及び画像表示装置
JPH08322796A (ja) * 1995-05-29 1996-12-10 Sharp Corp 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置
JPH09251342A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
JPH09304814A (ja) * 1996-05-17 1997-11-28 Kajima Corp 作業機械の操作支援画像システム
JPH1078845A (ja) * 1996-06-25 1998-03-24 Sun Microsyst Inc 視標追跡主導型テキスト拡大の方法および装置
JP2001055100A (ja) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2005136561A (ja) * 2003-10-29 2005-05-26 Denso Corp 車両周辺画像表示装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3031013B2 (ja) 1991-11-15 2000-04-10 日産自動車株式会社 視覚情報提供装置
JPH08116556A (ja) 1994-10-14 1996-05-07 Canon Inc 画像処理方法および装置
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
JPH09305156A (ja) 1996-05-16 1997-11-28 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法及び装置
JP2000059665A (ja) 1998-08-06 2000-02-25 Mitsubishi Electric Corp 撮像装置
US6292713B1 (en) * 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
JP2000347692A (ja) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 人物検出方法、人物検出装置及びそれを用いた制御システム
JP2003116125A (ja) * 2001-10-03 2003-04-18 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP3909251B2 (ja) * 2002-02-13 2007-04-25 アルパイン株式会社 視線を用いた画面制御装置
US6943799B2 (en) * 2002-03-29 2005-09-13 The Boeing Company Gaze directed visual system
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7561143B1 (en) * 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63118988A (ja) * 1986-09-12 1988-05-23 ウエスチングハウス・エレクトリック・コーポレーション 可変的に換算される表示を発生する方法及び装置
JPH01252993A (ja) * 1988-04-01 1989-10-09 Nippon Telegr & Teleph Corp <Ntt> 画像表示方法
JPH03173000A (ja) * 1989-11-30 1991-07-26 Toshiba Corp 画像表示方法及び画像表示装置
JPH08322796A (ja) * 1995-05-29 1996-12-10 Sharp Corp 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置
JPH09251342A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
JPH09304814A (ja) * 1996-05-17 1997-11-28 Kajima Corp 作業機械の操作支援画像システム
JPH1078845A (ja) * 1996-06-25 1998-03-24 Sun Microsyst Inc 視標追跡主導型テキスト拡大の方法および装置
JP2001055100A (ja) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2005136561A (ja) * 2003-10-29 2005-05-26 Denso Corp 車両周辺画像表示装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215063A (ja) * 2006-02-13 2007-08-23 Alpine Electronics Inc 運転支援画像表示制御装置
JP4668803B2 (ja) * 2006-02-13 2011-04-13 アルパイン株式会社 運転支援画像表示制御装置
JP2013081039A (ja) * 2011-10-03 2013-05-02 Hitachi Kokusai Electric Inc 映像表示装置
WO2016075774A1 (ja) * 2014-11-12 2016-05-19 三菱電機株式会社 表示制御装置および情報表示装置
US10417993B2 (en) 2014-11-12 2019-09-17 Mitsubishi Electric Corporation Display control device and information display device
WO2016129241A1 (ja) * 2015-02-12 2016-08-18 株式会社デンソー 表示制御装置及び表示システム

Also Published As

Publication number Publication date
US7839423B2 (en) 2010-11-23
EP1768097A1 (en) 2007-03-28
KR100911066B1 (ko) 2009-08-06
JP4952995B2 (ja) 2012-06-13
CN1969313A (zh) 2007-05-23
US20080036790A1 (en) 2008-02-14
KR20080024545A (ko) 2008-03-18
JPWO2005124735A1 (ja) 2008-07-31

Similar Documents

Publication Publication Date Title
KR100911066B1 (ko) 화상 표시 시스템, 화상 표시 방법 및 기록 매체
JP4323377B2 (ja) 画像表示装置
US9077861B2 (en) Image processing apparatus, electronic apparatus, and image processing method
JP4262011B2 (ja) 画像提示方法及び装置
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
US6389153B1 (en) Distance information generator and display device using generated distance information
JP2007142735A (ja) 周辺監視システム
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2010109452A (ja) 車両周囲監視装置及び車両周囲監視方法
JP2011004201A (ja) 周辺表示装置
EP3537714B1 (en) Bird&#39;s-eye-view video image generation device, bird&#39;s-eye-view video image generation system, bird&#39;s-eye-view video image generation method, and program
JP2000242896A (ja) モニタ装置
JP6669182B2 (ja) 乗員監視装置
JPWO2018225804A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP6649010B2 (ja) 情報処理装置
JP2008037118A (ja) 車両用表示装置
JP2005269010A (ja) 画像生成装置、画像生成プログラム、及び画像生成方法
KR101383997B1 (ko) 실시간 동영상 합병 방법 및 시스템, 실시간 동영상 합병을 이용한 영상 감시 시스템 및 가상 영상 투어 시스템
KR100856966B1 (ko) 화상 표시 시스템, 화상 표시 방법 및 기록 매체
JP2009044597A (ja) 広角画像取得装置
EP4075786A1 (en) Image processing device, system, image processing method and image processing program
JP3206874B2 (ja) 遠隔施工支援用の画像システム
JP7135378B2 (ja) 周辺監視装置
JP2021033872A (ja) 車両用表示制御装置、車両用表示制御方法、およびプログラム
JP2008011187A (ja) 表示制御装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006514702

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020067026496

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2005748915

Country of ref document: EP

Ref document number: 200580020077.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWE Wipo information: entry into national phase

Ref document number: 11570863

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 11570863

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020067026496

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2005748915

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11570863

Country of ref document: US