WO2013054462A1 - ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 - Google Patents

ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 Download PDF

Info

Publication number
WO2013054462A1
WO2013054462A1 PCT/JP2012/005109 JP2012005109W WO2013054462A1 WO 2013054462 A1 WO2013054462 A1 WO 2013054462A1 JP 2012005109 W JP2012005109 W JP 2012005109W WO 2013054462 A1 WO2013054462 A1 WO 2013054462A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
graphic
user interface
image
subject
Prior art date
Application number
PCT/JP2012/005109
Other languages
English (en)
French (fr)
Inventor
航太郎 箱田
山地 治
伸輔 緒方
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN2012800020451A priority Critical patent/CN103168316A/zh
Priority to US13/808,145 priority patent/US9791922B2/en
Publication of WO2013054462A1 publication Critical patent/WO2013054462A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Definitions

  • the present invention relates to user interface technology, and more particularly to display of a user interface when processing a stereoscopic image.
  • Patent Document 1 discloses a technique for arranging and synthesizing various graphics such as balloons and characters on a stereoscopic image captured by a camera or the like. Specifically, in the technique disclosed in Patent Document 1, the relative size and the front-rear relationship between a plurality of graphics are determined according to the depth information (depth map) of the stereoscopic image at the position where the graphics are arranged. This gives a three-dimensional visual effect.
  • Patent Document 1 does not provide a means for the user to specify graphic depth information. In this case, there is a problem that the depth at which the graphic is arranged cannot be determined by the user when processing the photograph, and the processing desired by the user cannot be realized.
  • the processing operation is not necessarily performed in a state where the stereoscopic image is displayed stereoscopically, and the processing operation is performed in a state where the viewpoint images constituting the stereoscopic image are displayed in a planar view.
  • the depth information of the graphic to be synthesized can be easily specified even when the viewpoint image is displayed in a planar view. Means are required.
  • the present invention provides a user interface control device, a user interface control method, a computer program for controlling a user interface, and a user interface control device that realize a GUI capable of easily setting the depth of a graphic when a graphic is combined with a stereoscopic image. And an integrated circuit.
  • a user interface control device provides a user interface for setting a depth in a depth direction in which a graphic is arranged when a graphic is combined with a stereoscopic image.
  • the interface control apparatus when a graphic is arranged on one viewpoint image constituting a stereoscopic image, plane position specifying means for specifying a range occupied by the graphic, and the one viewpoint image in the specified range Viewpoint image depth acquisition means for acquiring the depth of the subject shown in the image, an option indicating the acquired depth, and a display means for presenting an option indicating another depth at which a graphic different from the acquired depth can be arranged It is characterized by providing.
  • the user interface control device provides a user with an option indicating the depth at which a graphic can be arranged from the distribution of depth information at the position where the graphic is arranged, with the configuration described in the means for solving the problem. So the graphic depth can be set easily.
  • the user interface control device can set the depth by selecting an option, the display is combined regardless of whether the display mode at the time of image processing is stereoscopic display or planar display. Graphic depth information can be set easily.
  • FIG. The figure which shows the hardware constitutions of the smart phone which has a function as a user interface control apparatus which concerns on this embodiment.
  • FIG. The figure which shows the object of the stereo image made into a process target in this embodiment.
  • the figure which shows the example of a display of the display 200 Graphic showing graphic drawing range and center coordinates (A) The figure which shows the example in which the depth of a graphic part is further set ahead of two subjects, (b) The figure which shows the example in which the depth of a graphic part is set to the same depth as the subject on the near side, (c) The figure which shows the example in which the depth of a graphic part is set to the intermediate
  • the figure which shows the depth distribution of the viewpoint image in the arrangement position of the graphic part Display example of depth setting pop-up menu including multiple options
  • the figure explaining the depth adjustment of the graphic part after selecting the depth setting menu The flowchart which shows the flow of the depth information generation process in the depth information calculation part 103.
  • the figure which shows the flow of the depth setting pop-up menu display processing The flowchart which shows the flow of the process which extracts the arrangement depth candidate of a graphic part Flowchart showing the flow of the graphic part depth adjustment process after selecting the depth setting menu
  • the figure which shows the pixel shift for calculating a parallax from the determined depth information Flow chart showing the flow of graphic parts composition processing Display example of the depth setting pop-up menu including two options
  • (A) is a figure which shows arrangement
  • (b) is a figure which shows a viewpoint image.
  • (A) Screen example for displaying subject image extracted from image based on depth distribution by color-coding
  • (b) Screen example for displaying subject image extracted from image with number Flowchart showing the flow of stereoscopic image processing in the user interface control device 300
  • the present invention relates to a user interface control device, a user interface control method, and a computer for controlling a user interface that provide a GUI capable of easily setting a depth for displaying a graphic after synthesis when the graphic is synthesized with a stereoscopic image. It is an object to provide a program and an integrated circuit.
  • a user interface control apparatus is a user interface control apparatus that provides a user interface for setting a depth in a depth direction in which a graphic is arranged when a graphic is combined with a stereoscopic image.
  • the plane position specifying means for specifying the range occupied by the graphic, and the depth of the subject reflected in the one viewpoint image in the specified range are set.
  • a viewpoint image depth acquisition unit to acquire, an option indicating the acquired depth, and a display unit that presents an option indicating another depth at which a graphic different from the acquired depth can be arranged.
  • the user since the user is provided with an option indicating the depth at which the graphic can be arranged based on the distribution of the depth information at the position where the graphic is arranged, the user can select the graphic by selecting one of the options. Can be set easily.
  • the depth can be set by selecting an option, the depth information of the graphic to be synthesized can be easily set regardless of whether the display mode at the time of image processing is stereoscopic display or planar display. Can do.
  • the second aspect of the present invention is the first aspect, wherein the option indicating the acquired depth indicates the depth of the object located closest to the subject in the range occupied by the graphic.
  • the option indicating the depth may be configured to indicate a depth closer to the front than the depth of the subject positioned closest to the front.
  • the user can easily select whether to combine the graphics so that the graphics are pasted on the subject or to arrange the graphics so that the graphics are arranged in front of the subject. .
  • the presenting means may be further configured to present an option indicating an intermediate depth between the two subject depths.
  • the composition in which the graphic is arranged between two subjects having different depths is performed by the user. Can be easily selected.
  • a receiving unit that receives a selection of any of the plurality of options, and the graphic until receiving a determination instruction from a user after receiving the selection of the options. If the graphic is enlarged and displayed at the time when the determination instruction is received, the depth on the near side than the depth indicated by the selected option is displayed. If the graphic is reduced and displayed when the determination instruction is received, the depth behind the selected option is determined as the graphic placement depth. It may be configured to further include a depth determining means.
  • the configuration of the fourth aspect of the present invention it is possible to adjust not only the depth indicated by a plurality of options but also the graphic arrangement depth further to the front or back from the depth indicated by each option.
  • positioning depth of a graphic can be raised, a user's convenience can be improved.
  • the graphic is displayed while changing the size, but it is not necessary to perform the stereoscopic display. Therefore, the graphic depth can be easily set even in an environment where the image cannot be stereoscopically displayed.
  • the depth determining means is a subject positioned on the near side of the two subjects when an option indicating an intermediate depth between the two subjects is selected.
  • the depth of the image is associated with the size of the graphic displayed by the expansion / contraction display means most enlarged, and the depth of the subject located on the far side of the two subjects is displayed as the size of the graphic displayed by the expansion / contraction display means most reduced.
  • the depth corresponding to the size of the graphic at the time when the determination instruction is received may be determined.
  • the depth width between two subjects can be expressed in relation to the graphic display size. Therefore, the user can intuitively set the graphic arrangement depth between the two subjects.
  • a sixth aspect of the present invention is the fourth aspect, wherein the depth determining means is arranged so that if any subject exists behind the depth indicated by the selected option in the range occupied by the graphic, The depth according to the size of the graphic at the time when the determination instruction is received may be determined by associating the depth of the positioned subject with the size of the graphic displayed by the expansion / contraction display means the smallest.
  • the depth range from the depth indicated by the selected option to the subject on the back side can be expressed in relation to the graphic display size.
  • the user can intuitively set the graphic arrangement depth from the depth indicated by the selected option to the back subject.
  • the seventh aspect of the present invention is the fourth aspect according to the fourth aspect, and when the depth determination means has any subject in front of the depth indicated by the selected option in the range occupied by the graphic, The depth of the subject to be positioned is associated with the size of the graphic that is displayed by the expansion / contraction display means.
  • the selected The depth corresponding to the size of the graphic at the time when the determination instruction is received is determined by associating the predetermined depth closer to the depth indicated by the option with the size of the graphic displayed by the expansion / contraction display means the largest. It may be configured.
  • the depth width can be expressed in relation to the graphic display size.
  • an eighth aspect of the present invention is the shift amount acquisition according to the fourth aspect, wherein a parallax for generating a stereoscopic effect at the determined depth is calculated, and the shift amount is acquired by converting the parallax into the number of pixels.
  • a graphic combined with the range specified by the plane position specifying means for the one viewpoint image, and the range specified by the plane position specifying means for the other viewpoint image constituting the stereoscopic image You may comprise further the image composition means to synthesize
  • the viewpoint image depth acquisition unit acquires the depth of the subject by stereo matching between the one viewpoint image and the other viewpoint image constituting the stereoscopic image. You may comprise.
  • a stereoscopic image for which depth information such as a depth map is not prepared in advance can be processed.
  • an area dividing means for dividing the one viewpoint image into a plurality of areas that differ from each other by a depth exceeding a threshold when the stereoscopic display is performed.
  • An area presenting means for presenting the plurality of areas, and an area receiving means for receiving a selection of any of the presented areas, wherein the planar position specifying means includes at least a part of the selected area.
  • the range occupied by the graphic may be specified.
  • the user can easily specify the plane position where the graphic is arranged by presenting the user with the area divided for each depth in the viewpoint image displayed in plan view. .
  • the area presenting means may be configured to present a plurality of divided areas by displaying adjacent areas in different colors.
  • the region presentation unit may be configured to present a plurality of divided regions by adding different texts to the regions and displaying the regions.
  • the thirteenth aspect of the present invention is the tenth aspect according to the tenth aspect, in the classification of the one viewpoint image by the area classification means, the edge or the intersection of the edges where the luminance changes sharply between the pixels of the one viewpoint image.
  • the boundary of each region is specified by extraction, and the depth of each pixel obtained by stereo matching between the one viewpoint image and the other viewpoint image constituting the stereoscopic image is used as the depth for stereoscopic display. It may be configured.
  • an edge is generated at the boundary between subjects in a viewpoint image that is captured so that a plurality of subjects partially overlap.
  • FIG. 1 is a diagram illustrating a hardware configuration of a smartphone having a function as a user interface control device according to the present embodiment.
  • the smartphone shown in FIG. 1 includes a camera 10, a speaker 20, a GPS 30, a sensor 40, a touch panel 50, a microphone 60, a recording medium 70, a processing unit 100, and a display 200.
  • the camera 10 is a stereo camera that captures a stereoscopic image composed of two viewpoint images.
  • the captured stereoscopic image is recorded on the recording medium 70.
  • the recording medium 70 is a readable / writable nonvolatile recording medium built in the smartphone, and is realized by a hard disk, a semiconductor memory, or the like.
  • the processing unit 100 includes, for example, a memory such as a RAM and a processor such as a CPU, and executes functions recorded on the recording medium 70 by the CPU, thereby controlling functions such as calling and photographing and processing of stereoscopic images. To do.
  • the function as the user interface control device according to the present embodiment is also realized by executing the program recorded in the recording medium 70 in the processing unit 100.
  • FIG. 2 is a diagram showing a configuration of the user interface control device according to the present embodiment.
  • This user interface control device provides a GUI that supports a user's processing operation for processing a stereoscopic image composed of two viewpoint images, and is used by being incorporated in various electric devices.
  • a device incorporating the user interface control device there is a general-purpose computer such as a PC (Personal Computer; personal computer or personal computer), a communication terminal such as a PDA (Personal Digital Assistance), a tablet, or a mobile phone in addition to a smartphone.
  • PC Personal Computer
  • PDA Personal Digital Assistance
  • the user interface control device includes an operation input receiving unit 101, a control unit 102, a depth information calculation unit 103, a graphic information acquisition unit 105, a depth information analysis unit 106, a depth setting presentation unit 107, a stereo image.
  • a generation unit 108 and an output unit 109 are included.
  • the program corresponding to each of the units 109 is loaded into the RAM in the processing unit 100 and executed by the CPU in the processing unit 100, which is realized by hardware resources (cooperation of the CPU and the program on the RAM).
  • the depth information storage unit 104 is realized by a part of the recording area of the recording medium 70.
  • the operation input receiving unit 101 has a function of receiving a user operation input via a pointing device such as a touch panel or a mouse.
  • user operations accepted in this embodiment include a drag operation for placing a graphic to be retouched on a photo, a click operation for selecting an item or state pointed to by a pointing device, and a plurality of options on the screen.
  • the operation input receiving unit 101 functions as a receiving unit by receiving a click operation for selecting one of the options when displayed.
  • template images of graphic parts 2a to 2d corresponding to various graphics to be combined with the left-eye image 1, which is one viewpoint image constituting the stereoscopic image, and the stereoscopic image are displayed.
  • a graphic part display unit 2 to be displayed, a pointer 3 indicating the pointing position of the pointing device, and the like are displayed.
  • an operation of placing a graphic part on a photograph is performed on the graphic parts 2a to 2d displayed on the graphic part display unit 2. This is realized by dragging any graphic part from the inside and dropping it at an arbitrary position in the image 1 for the left eye.
  • Control unit 102 has a function of controlling the processing of the present embodiment according to the input content of the operation input receiving unit 101.
  • the depth information calculation unit 103 realizes part of the function of the viewpoint image depth acquisition unit by generating depth information (depth map) indicating the position of the subject in the depth direction from the stereo image for each pixel of the left-eye image. . Specifically, first, a corresponding point search is performed for each pixel between the left-eye image and the right-eye image constituting the stereo image. Then, the distance in the depth direction of the subject is calculated from the positional relationship between the corresponding points of the left-eye image and the right-eye image based on the principle of triangulation.
  • depth information depth map
  • the depth information is a grayscale image in which the depth of each pixel is represented by 8-bit luminance, and the depth information calculation unit 103 converts the calculated distance in the depth direction of the subject into 256 gradation values from 0 to 255. To do.
  • a small region is set around the point of interest, a region-based matching method that is performed based on the shading pattern of pixel values in that region, and features such as edges are extracted from the image, and between the features
  • feature-based matching for associating any method may be used.
  • the stereo image is an image obtained by capturing the scene from different viewpoints, and in the first embodiment, image data of a stereoscopic image captured by the camera 10 and recorded on the recording medium 70 is used.
  • the stereo image is not limited to a real image, and may be CG (Computer Graphics) created assuming different virtual viewpoints.
  • image processing will be described for a stereoscopic image obtained by photographing a scene where one person stands in front of a bus with a stereo camera.
  • the depth information storage unit 104 is realized by a part of the recording area of the recording medium 70 and has a function of storing the depth information calculated by the depth information calculation unit 103 in the recording area of the recording medium 70.
  • the graphic information acquisition unit 105 has a function as a plane position specifying unit that acquires the coordinates of the area occupied by the graphic arranged by the user on the left-eye image.
  • a pointer instruction when a graphic is dropped in the XY coordinate system of the left-eye image with the upper left corner of the left-eye image as the origin The position is acquired as center coordinates (x g , y g ) for placing the graphic part, and the upper left corner coordinates (x 1 , y 1 ) and lower right corner coordinates (x 2 , y) of the rectangular frame surrounding the graphic part shown in FIG. 2 ) is calculated as the arrangement range occupied by the graphic part in the XY coordinate system described above.
  • the graphic information acquisition unit 105 holds the relative values of the center coordinates, the upper left corner coordinates, and the lower right corner coordinates for each graphic part, and the upper left corner coordinates (x 1 , y 1 ) and the lower right corner coordinates (x 2 , y 2 ) can be calculated easily by using the coordinates of the pointer indication position and this relative value to obtain the graphic part arrangement range.
  • the depth information analysis unit 106 has a function of obtaining depth information of the image for the left eye in the arrangement range of the graphic part and a depth so as to present the user with options indicating the depth at which the graphic part can be arranged by the relative position to the subject. And a function for instructing the setting presentation unit 107.
  • the depth information analysis unit 106 reads the depth information of the image for the left eye in the graphic part arrangement range calculated by the graphic information acquisition unit 105 from the recording medium 70 via the depth information storage unit 104, and stores the depth information. By detecting a subject existing in the arrangement range by analysis, it functions as a viewpoint image depth acquisition means, and further determines a relative position where a graphic part can be arranged with respect to the detected subject.
  • the depth distribution of the image for the left eye is analyzed with pixels (hereinafter referred to as a horizontal pixel group) that continue in the horizontal direction through the graphic part center coordinates (x g , y g ) in the arrangement range of the graphic part,
  • a horizontal pixel group pixels that continue in the horizontal direction through the graphic part center coordinates (x g , y g ) in the arrangement range of the graphic part.
  • the depth information analysis unit 106 selects the depth further before the shallowest depth between (x 1 , y g ) and (x 2 , y g ).
  • the same depth as the shallow depth and the average depth of two adjacent pixels that differ in depth by exceeding the threshold Th are set as depth positions at which graphic parts can be placed, and options corresponding to each are presented to the depth setting presentation unit 107. Instruct.
  • the positions in the depth direction at which the graphic parts can be arranged are roughly divided into depths 4a ahead of the person who is the foremost object as shown in FIG. 6A, as shown in FIG. 6B.
  • the depth 4b is the same as that of the person, and the depth 4c is intermediate between the person and the bus as shown in FIG.
  • the depth information analysis unit 106 determines that there are two objects in the graphic part arrangement range because the depth changes beyond the threshold Th at the boundary between the person and the bus in the left-eye image. and, further the front depth than the depth at x 1 on the front side and the depth 4a shown in (a) of FIG. 6, the depth 4b indicating the depth at x 1 on the front side in FIG. 6 (b), the front side
  • the average depth of the depth at x 1 and the depth at x 2 on the back side is set to a depth 4c shown in FIG. 6C, and the depth at which three graphic parts can be arranged is determined.
  • the depth information analysis unit 106 sets the intermediate depth between these subjects for each set of two subjects whose depths are before and after.
  • the depth setting presentation unit 107 is instructed to add a corresponding option as a possible depth.
  • the graphic part when the graphic part is arranged so that the entire graphic part overlaps the range where any one subject image exists in the image for the left eye displayed on the display 200, it appears in the image even if the depth of the graphic part is behind the subject. Since there is no meaning and there is no meaning, the relative position to the subject on which the graphic part can be placed is two positions, the same depth as the subject and a depth closer to the subject. In such a case, the depth information analysis unit 106 instructs the depth setting presentation unit 107 to present options corresponding to the two depths.
  • the depth setting presentation unit 107 includes a GUI presentation unit 111, an expansion / contraction display unit 112, and a depth determination unit 113.
  • the depth setting presentation unit 107 controls the GUI for setting the depth information of the graphic part, and determines the depth at which the graphic part is arranged. Has a function to determine.
  • the GUI presentation unit 111 functions as a presentation unit, receives an instruction from the depth information analysis unit 106, generates a GUI image including the instructed option, and notifies the output unit 109 to draw as a pop-up menu.
  • the arrangement range of the flower-shaped graphic parts includes the head of the person and the bus behind it, and the depth information analysis unit 106 is closest to the front.
  • the person who is the subject is instructed to select “front”, “paste”, and “rear” as the graphic part placement depth options.
  • the depth setting presentation unit 107 Based on this instruction, the depth setting presentation unit 107 generates a GUI image of a pop-up menu including three options “front”, “attach”, and “back”.
  • the depth before the predetermined value is lower than the shallowest depth of the left eye image in the graphic part placement range.
  • the shallowest depth of the left-eye image in the graphic part placement range is a graphic so that the graphic part does not sink into the subject. This means that it has been selected as the part placement depth.
  • the item of “rearward” is selected from the menu, the middle of the two subjects, the human head that is the foremost subject existing in the graphic part placement range, and the bus behind it is displayed. It means that the depth is selected as the placement depth of the graphic part.
  • the expansion / contraction display unit 112 receives an instruction to determine the graphic part arranged in the left-eye image on the display 200 by a click operation as shown in FIG. It has a function as an expansion / contraction display means for instructing the output unit 109 to perform drawing while changing the size repeatedly until input.
  • the graphic part is displayed in the range of 2 to 1/2 times the original size displayed on the graphic part display unit 2 at the graphic part center coordinates (x g , y g ). Repeated enlargement and reduction are displayed.
  • the depth determination unit 113 sets the depth corresponding to the selected option as the provisional depth position, and the graphic part at the time of the determination operation It has a function as a depth determination means for determining the final depth after adjusting the provisional depth position according to the display size.
  • the graphic part is displayed in its original size, assigned to the depth corresponding to the option selected in the menu, and the graphic part is displayed in a double-scaled display with the selected depth in the menu.
  • the graphic part is displayed in a double-scaled display with the selected depth in the menu.
  • the stretchable display unit 112 has an original size to 1/2 times the original size.
  • the graphic part is repeatedly enlarged and reduced within the range of.
  • the depth beyond the selected depth is the depth that sinks into the subject, so the stretchable display unit 112 has an original size to an original size.
  • the graphic part is repeatedly enlarged and reduced within the range of 2 times.
  • the graphic part is repeatedly enlarged and reduced in the range of 2 times the original size to 1/2 times the original size to determine the depth.
  • the unit 113 assigns the position nearer than the selection depth in the menu by a predetermined depth to the state where the graphic part is enlarged and displayed twice, and the depth is set according to the enlargement / reduction ratio at the time of the determination operation. It may be calculated.
  • the stereo image generation unit 108 has a shift amount acquisition unit 114 and an image synthesis unit 115 inside, and based on the arrangement depth of the graphic parts determined by the depth setting presentation unit 107, combines the graphic parts with the photograph with parallax. And a function of generating a left-eye image and a right-eye image obtained by combining graphic parts.
  • the shift amount acquisition unit 114 has a function as a shift amount acquisition unit that calculates a parallax for generating a stereoscopic effect of the arrangement depth of the graphic parts, and acquires the shift amount by converting the calculated parallax into the number of pixels. Have.
  • the image synthesis unit 115 synthesizes the graphic part with the graphic part arrangement range for the left-eye image, and horizontally aligns the graphic part arrangement range with the shift amount calculated by the shift amount acquisition unit 114 for the right-eye image. By synthesizing the graphic part in the moved range, it functions as an image synthesizing means for generating a stereoscopic image by synthesizing the graphic part.
  • the output unit 109 is a driver that controls display on the display 200, and the left-eye image at the time of processing, the graphic part, the GUI image instructed from the depth setting presentation unit 107, and the graphic part are combined in the stereo image generation unit 108. A stereoscopic image or the like is displayed on the display.
  • FIG. 10 is a flowchart showing the flow of the depth information generation process.
  • the depth information calculation unit 103 first acquires the captured left-eye image and right-eye image (step S1). Next, the depth information calculation unit 103 searches the right eye image for pixels corresponding to the pixels constituting the left eye image (step S2). Then, the depth information calculation unit 103 calculates the distance in the depth direction of the subject based on the triangulation principle from the positional relationship between corresponding points of the left-eye image and the right-eye image (step S3).
  • the stereo matching process including the above steps S2 and S3 is performed on all the pixels constituting the left-eye image.
  • the depth information calculation unit 103 obtains information on the distance in the depth direction of the subject obtained by the process of step S3. Is quantized 8-bit (step S4). Specifically, the calculated distance in the depth direction of the subject is converted into 256 gradation values from 0 to 255, and a grayscale image in which the depth of each pixel is represented by 8-bit luminance is generated. The grayscale image generated in this way is recorded in the depth information storage unit 104 as depth information.
  • FIG. 11 is a flowchart showing the flow of the depth setting pop-up menu display process executed in response to the graphic part placement operation by the user.
  • the graphic information acquisition unit 105 displays the coordinates where the user placed the graphic part on the left-eye image.
  • the graphic part arrangement range centering on the arrangement coordinates is calculated (step S13).
  • the arrangement range is calculated as upper left corner coordinates and lower right corner coordinates of a rectangular area surrounding the graphic part as shown in FIG.
  • the depth information analysis unit 106 reads out the depth information in the horizontal pixel group passing through the center (x g , y g ) of the arrangement range of the graphic parts from the depth information storage unit 104 (step S14). ) Based on the read depth information, a process of extracting a graphic part placement depth candidate is executed (step S15).
  • the number L of options indicating the graphic part arrangement depth candidates is determined and further included in the graphic part arrangement range.
  • Each depth of the subject is recorded on the recording medium 70.
  • the GUI presentation unit 111 Based on the processing result of the graphic part arrangement depth candidate extraction process in step S15, the GUI presentation unit 111 generates a pop-up menu including the determined L choices and presents it to the user (step S16).
  • the L options are associated with depths as follows.
  • the “paste” option is associated with the depth closest to the subject recorded in the recording medium 70, and further than the depth associated with the “paste” option.
  • the “front” option is associated with the depth on the near side by a predetermined depth. Further, two average depths are calculated from the front side of the depth of the (L ⁇ 1) subjects recorded on the recording medium 70, and the calculated L ⁇ 2 average depths are sequentially set to “back 1” and “back 2”. ... Corresponds to the option of “rear L-2”.
  • the display position of the pop-up menu is assumed to be arranged at the upper left corner of the image for the left eye by default as shown in FIG. 8, but when the superimposition position of the pop-up menu to be displayed overlaps the position where the graphic is arranged.
  • the pop-up menu is moved to a position that does not overlap the subject.
  • FIG. 12 is a flowchart showing details of the processing for extracting the graphic part arrangement depth candidates in step S15 of FIG.
  • the depth information analysis unit 106 first initializes a variable L for managing the number of options with 2 (step S21), and sets a variable n for managing the search coordinates to the upper left corner of the graphic part arrangement range. is initialized to x 1 is the x-coordinate values of the coordinates (step S22).
  • the depth information analysis unit 106 repeats the loop from step S23 to step S27.
  • step S23 the coordinates (n, y g) depth D n and the coordinates (n, y g) of the left-eye image in the predetermined number of pixels w (e.g., 5 pixels) only right coordinates (n + w, y g) It is determined whether or not the absolute value [D n ⁇ D n + w ] of the difference from the depth D n + w of the left-eye image exceeds the threshold Th.
  • [D n ⁇ D n + w ] exceeds the threshold Th (step S23: Yes)
  • the number of choices L is incremented (step S24), and the value of the left-eye image depth D n at the search coordinates is set to the depth of the subject. Is recorded on the recording medium 70 (step S25).
  • n be updated with n + w (step S26), the variable n after the update and determines whether more than x 2 and x-coordinate value of the lower right corner coordinates of the arrangement range of the graphic part (step S27).
  • step S27 If the variable n in step S27 does not exceed x 2, repeating the loop process from step S23, if exceeded, it terminates the extraction of placement depth candidate graphics parts.
  • the search pixel width w is not limited to the above-described five pixels, and any value suitable for detecting a subject in an image can be used. However, in an image obtained by photographing two people lined up side by side at the same depth, if a small value such as one pixel is used as the search width w, even a slight background between the two people is detected as a graphic part placement candidate. Therefore, there is a possibility that a meaningless option in image processing is presented to the user.
  • the search width w is increased, there is a possibility that an area that gradually changes continuously from a shallow depth to a deep depth, such as a wall photographed from an oblique direction, is detected as a plurality of subjects for each search width w. Therefore, when the search width w is increased in this way, it is preferable to use a large value for the depth threshold Th according to the search width w.
  • the depth distribution is analyzed with a horizontal pixel group passing through the center (x g , y g ) of the arrangement range of the graphic part.
  • the analysis of the depth distribution for extracting the part arrangement depth candidates may be performed on another horizontal pixel group within the graphic part arrangement range or a pixel group continuous in the vertical direction. Further, a plurality of horizontal pixel groups and vertical pixel groups within the arrangement range of the graphic parts may be analyzed for depth distribution.
  • FIG. 13 is a flowchart showing the flow of the graphic part depth adjustment process executed in response to an option selection operation from the pop-up menu.
  • the depth determination unit 113 acquires the depth associated with the option selected by the user (step S31).
  • Step S32 After the expansion / contraction display unit 112 superimposes and displays the graphic part on the arrangement range of the graphic part (step S32), the graphic part is repeatedly enlarged and reduced with the coordinates where the graphic part is arranged as a center to update and display the image. (Step S33).
  • the size of the enlarged / reduced graphic part is related to adjust the depth of the graphic part to the near side as the size increases, and to the back side as the size decreases, and when the graphic part is displayed at the desired size.
  • the depth determination unit 113 corrects the depth associated with the option acquired in step S31 according to the graphic part display size at the time of the determination operation (step S34).
  • Step S41 is a loop process waiting for a user to select a pop-up menu option.
  • the expansion / contraction display unit 112 initializes the enlargement flag with ON (step S42). After the flag initialization, the expansion / contraction display unit 112 repeatedly executes the loop processing of steps S43 to S50.
  • Step S43 is a determination of whether or not the enlargement flag is set to ON. If the enlargement flag is set to ON (step S43: Yes), is the graphic part displayed in the maximum size (twice the original size of the graphic part displayed in the graphic part display unit 2 in FIG. 4)? It is determined whether or not (step S44). If the graphic part is not displayed at the maximum size (step S44: No), the graphic part display is updated by increasing the enlargement ratio of the graphic part by 10% (step S45), and the graphic part is displayed at the maximum size. If this is the case (step S44: Yes), the enlargement flag is set to OFF (step S46). After the processing of step S45 and step S46, it is determined in step S50 whether there is an input of a determination operation by the user.
  • step S43: No it is determined whether or not the graphic part is displayed in the minimum size (1/2 times the original size) (step S47). To do. If the graphic part is not displayed at the minimum size (step S47: No), the graphic part display is updated (step S48) by reducing the reduction ratio of the graphic part by 5%, and the graphic part is displayed at the minimum size. If this is the case (step S47: Yes), the enlargement flag is set to ON (step S49). After the processing of step S48 and step S49, it is determined in step S50 whether there is an input of a determination operation by the user.
  • step S50 If it is determined in step S50 that the user does not input a determination operation (step S50: No), the process is repeated from step S43.
  • step S50 when there is an input of the determination operation by the user (step S50: Yes), the depth determination unit 113 acquires the graphic part display size at the time of the determination operation (step S51), and the depth according to the size. Is determined (step S52). Specifically, if the graphic part display size acquired in step S51 is larger than the graphic part displayed in the graphic part display unit 2 of FIG. 4, it is acquired in step S31 of the flowchart shown in FIG. The depth corrected to the near side in proportion to the enlargement ratio rather than the depth corresponding to the option is determined as the graphic part placement depth. On the other hand, if the graphic part display size acquired in step S51 is reduced more than the graphic part displayed in the graphic part display unit 2, the depth in proportion to the reduction ratio is greater than the depth acquired in step S31. The corrected depth is determined as the graphic part placement depth.
  • FIG. 15 is a flowchart showing a flow of processing for generating a stereoscopic image obtained by synthesizing graphic parts based on the depth of the graphic parts determined by the depth setting presentation unit 107.
  • the shift amount acquisition unit 114 acquires the depth of the graphic part determined by the depth setting presentation unit 107 (step S61).
  • the image synthesizing unit 115 synthesizes the graphic parts with the arrangement range of the graphic parts of the left-eye image, and generates a left-eye image after synthesis (step S62).
  • the shift amount acquisition unit 114 calculates the pixel shift amount from the depth of the graphic part determined by the depth setting presentation unit 107 (step S63), and the graphic part by the pixel shift amount calculated by the image composition unit 115 in step S63.
  • the graphic part is synthesized with the right-eye image at the coordinates where the arrangement range is shifted, and the synthesized right-eye image is generated (step S64).
  • FIG. 16 is a diagram illustrating a relationship between the arrangement depth of the graphic parts and the pixel shift amount.
  • the stereoscopic effect includes a pop-out effect (a pop-up stereoscopic view) and a retraction effect (a pull-down stereo view).
  • FIG. 16A shows a pixel shift in the case of a pop-up stereo view.
  • 16 (b) shows a pixel shift in the case of retracted stereoscopic viewing.
  • Px is the horizontal shift amount
  • L-View-Point is the left eye pupil position
  • R-View-Point is the right eye pupil position
  • L-Pixel is the left eye pixel
  • R-Pixel is the right eye pixel
  • e is Interpupillary distance
  • H is the height of the display screen
  • W is the horizontal width of the display screen
  • S is the distance from the viewer to the display screen
  • Z is the distance from the viewer to the imaging point, that is, the placement depth of the graphic parts .
  • the straight line connecting the left eye pixel L-pixel and the left eye pupil L-view-point is the line of sight of the left eye pupil L-view-point
  • the straight line connecting the right eye pixel R-Pixel and the right eye pupil R-View-Point is the right eye pupil R- View-point line of sight, realized by switching between translucent and light-shielding with 3D glasses, and parallax barriers using parallax barriers, lenticular lenses, and the like.
  • Px is a negative value
  • the width W of the display screen is the width W of the display screen.
  • 701 in FIG. 16 is a diagram illustrating pixel shift when the viewer jumps out and performs stereoscopic viewing. By performing such pixel shift on all the pixels constituting the left-eye image, a right-eye image corresponding to the left-eye image can be generated.
  • a specific calculation formula for the shift amount in the horizontal direction will be described.
  • the pixel shift in the case of pop-up stereoscopic vision is as follows.
  • the subject distance Z can be obtained from the arrangement depth of the graphic parts.
  • the average value for adult males is 6.4 cm.
  • the distance S from the viewer to the display screen is 3H because the optimum viewing distance is generally three times the height of the display screen.
  • the length per pixel in the horizontal direction is the horizontal width of the display screen divided by the horizontal width of the display screen.
  • the number of pixels K and the length per pixel in the vertical direction are the height H of the display screen / the number L of pixels in the vertical direction of the display screen. One inch is 2.54 cm. Therefore, when the horizontal shift amount Px is shown in units of pixels,
  • the horizontal shift amount Px can be calculated based on the above mathematical formula.
  • the horizontal shift amount in the horizontal direction is a specific calculation method of the pixel shift amount in the horizontal direction.
  • FIG. 17 is a flowchart showing details of the graphic part synthesis process executed in steps S62 and S64. Here, a case where a graphic part is combined with a left-eye image will be described.
  • the composition positions x and y are initialized with the upper left corner coordinates (x 1 , y 1 ) of the graphic part arrangement range (step S71), and then the loop process of steps S72 to S78 is executed. To do.
  • Step S72 is a determination as to whether or not the depth D (x, y) of the left-eye image at the coordinates (x, y) is behind the graphic part arrangement depth d. If the depth D (x, y) of the left-eye image at the coordinates (x, y) is deeper than the graphic part arrangement depth d (step S72: Yes), the left-eye image at the coordinates (x, y) The pixel of the image is overwritten with the pixel of the graphic part (step S73).
  • step S73 After overwriting the pixels of the left-eye image in step S73, and when the depth D (x, y) of the left-eye image at the coordinates (x, y) is on the near side of the graphic part arrangement depth d ( In step S72: No), the x coordinate of the composite position is incremented (step S74), and the x coordinate of the composite position after the change is the x coordinate value of the lower right corner coordinates (x 2 , y 2 ) of the graphic part arrangement range. , X 2 is determined (step S75).
  • step S75: No If the x coordinate of the new composite position does not exceed x 2 (step S75: No), the process is repeated from step S72 for the new composite position, and if the x coordinate of the new composite position exceeds x 2 (step S75: Yes), the x-coordinate of the combined position again initialized with x 1 (step S76), (step S77 after incrementing the y coordinate of the synthetic position), the y-coordinate of the combined position after the change, the graphic part It is determined whether or not the y coordinate value of the lower right corner coordinates (x 2 , y 2 ) of the arrangement range, y 2, is exceeded (step S78).
  • step S78: No If the y coordinate of the new composite position does not exceed y 2 in step S78 (step S78: No), the process is repeated from step S72 for the new composite position, and the x coordinate of the new composite position exceeds x 2 . If so (step S78: Yes), since the image composition has been completed for all the pixels in the graphic part arrangement range, the graphic part composition process is terminated.
  • the possibility of graphic placement is determined from the distribution of depth information at the position where the user places the graphic part, and depth options are provided to the user regarding the setting of the depth direction. By doing so, it is possible to easily set the arrangement depth of the graphic parts.
  • the graphic part is repeatedly enlarged / reduced to display a graphic part, and waits for a further determination operation by the user.
  • the graphic part display size at the time of the determination operation further from the depth indicated by the option, or Adjust the placement depth of the graphic parts in the back.
  • the pop-up menu for selecting the arrangement depth of the graphic parts, as shown in FIG. 8, when there are two subjects, a person and a bus behind it, in the arrangement range of the graphic parts,
  • the number of options in the pop-up menu is not necessarily three.
  • the pop-up menu when the graphic part is arranged so as to overlap only the head of the person, the pop-up menu is configured to present two options “front” and “paste”. May be.
  • the pop-up menu may be configured to include four or more options in addition to “front”, “attach”, and “back”.
  • the graphic parts can be arranged at various depths such as the front and rear of each subject, and the options presented to the user are diverse. In such a case, it takes time and effort for the user to select an option indicating a desired depth.
  • the user interface control apparatus extracts subjects having different depths from depth map data obtained by stereo matching of two viewpoint images, and emphasizes the extracted subject in a viewpoint image displayed in plan view. This makes it easy for the user to specify the plane position where the graphic part is placed. In addition, by receiving designation of a subject close to the depth at which the graphic part is desired to be placed from the highlighted subject, the options are narrowed down and presented to the user.
  • FIG. 19 is a diagram illustrating a configuration of the user interface control device 300 according to the second embodiment.
  • the user interface control device 300 includes an operation input reception unit 201, a graphic superimposition control unit 202, a depth information calculation unit 203, a depth information analysis unit 205, a graphic information acquisition unit 206, a depth setting presentation unit 207, a stereo image generation unit 208, and an output.
  • the function of the unit 1201 is recorded in advance in the recording medium 70 shown in FIG. 1 as a program, for example.
  • a hardware resource is obtained by loading a program corresponding to each of the stereo image generating unit 208, the output unit 209, and the region dividing unit 1201 from the recording medium 70 to the RAM in the processing unit 100 and executing it by the CPU in the processing unit 100. This is realized by (cooperation between the CPU and the program on the RAM).
  • the depth information storage unit 204 is realized by a part of the recording area of the recording medium 70.
  • elements other than the operation input reception unit 201, the graphic information acquisition unit 206, the depth setting presentation unit 207, and the region division unit 1201 are the user interface according to the first embodiment illustrated in FIG. This is the same as that of the control device, and a description thereof is omitted in this embodiment.
  • the operation input reception unit 201, the graphic information acquisition unit 206, the depth setting presentation unit 207, and the region division unit 1201 will be described.
  • the area dividing unit 1201 has a function as area dividing means for dividing the left-eye image into a plurality of subject areas in accordance with the luminance distribution and depth information distribution of the stereoscopic image. Specifically, when the luminance is compared with the surrounding pixels in the left-eye image, an edge portion where the luminance exceeds the predetermined threshold and changes sharply is detected. The area dividing unit 1201 classifies the left-eye image for each area surrounded by the edges, reads out the depth information of the left-eye image from the recording device, and sets the depths on both sides of the edge to a predetermined threshold. If it is different, the area surrounded by the edge is determined to be the subject area.
  • a left-eye image as shown in FIG. 20B is obtained.
  • the left eye image is detected as a different area by using an appropriate luminance threshold in the area dividing unit 1201.
  • the depth information of the image for the left eye is read from the recording device for these areas, and the depths of the areas 11a, 12a, and 13a are compared with the depths of the adjacent areas, respectively.
  • 13a is determined to be the subject area.
  • the detected coordinate information of each subject area is recorded on the recording medium 70 via the depth information storage unit 204.
  • the depth setting presentation unit 207 includes the GUI presentation unit 211, the expansion / contraction display unit 212, and the depth determination unit 213.
  • the area presentation unit 214 is provided inside.
  • the region presenting unit 214 has a function as a region presenting unit that presents subjects having different depths to the user in the left-eye image displayed on the display. Specifically, the area presentation unit 214 displays each subject area detected by the area division unit 1201 with different patterns and colors as shown in the areas 11b, 12b, and 13b shown in FIG. It is presented to the user by displaying on the screen.
  • the area is presented by combining a text such as a number in each area and displaying it, or by emphasizing the edge portions of the areas 11c, 12c, and 13c determined as subjects.
  • Various methods for assisting user recognition of an area determined to be a subject can be used, such as a method for processing and displaying an image.
  • the operation input receiving unit 201 selects any one of the subjects with different depths presented by the region presenting unit 214 as described above. It has a function as an area receiving means for receiving an operation to perform.
  • the graphic information acquisition unit 206 functions as a plane position specifying unit that acquires the coordinates of the arrangement range occupied by the graphic part on the left-eye image displayed on the display 200.
  • the method for specifying the arrangement range is different from that of the graphic information acquisition unit 105.
  • the graphic information acquisition unit 105 calculates the arrangement range of the graphic part from the coordinates where the user dropped the graphic part on the left-eye image, but the graphic information acquisition unit 206 is selected by the operation received by the operation input reception unit 201.
  • the coordinate range of the graphic part is calculated using the coordinate of the center of the subject area as the center coordinate (x g , y g ) of the graphic part.
  • the region dividing unit 1201 detects the region of the subject from the image for the left eye using the luminance and depth information of the image, and the region presenting unit 214 displays on the display.
  • the region presenting unit 214 displays on the display.
  • a pattern with a different pattern is superimposed and displayed on each detected subject area (step S81). The user can select any of the areas painted differently as shown in FIG. 21A and designate which subject the graphic part is to be superimposed on.
  • the area presenting unit 214 removes the pattern of the pattern displayed superimposed on each subject area. Thereafter, the graphic part is drawn on the selected subject area (step S84).
  • the operation of designating the placement position of the graphic part by the user dropping the graphic part on the image for the left eye in the first embodiment can be substituted.
  • the stereoscopic image processing can be continued by determining the arrangement depth of the graphic part by the same processing as the processing procedure shown in and after step S12 in FIG. 11 (step S84).
  • the placement position of the graphic parts can be selected in units of areas, so it is possible to handle various compositions and types of photos, and further improve user convenience.
  • this invention is not limited to said embodiment. The following cases are also included in the present invention.
  • One aspect of the present invention may be an application execution method disclosed by the processing procedure described in each embodiment. Further, the present invention may be a computer program including program code that causes a computer to operate according to the processing procedure.
  • One aspect of the present invention can also be implemented as an LSI that controls the user interface control device described in each of the above embodiments.
  • Such an LSI can be realized by integrating the functional blocks included in the user interface control devices 100 and 300 shown in FIGS. These functional blocks may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • LSI is used, but depending on the degree of integration, it may be called IC, system LSI, super LSI, or ultra LSI.
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • a function for specifying a range occupied by the graphic, and a function for acquiring the depth of a subject in the one viewpoint image in the specified range A function for presenting an option indicating the acquired depth and an option indicating another depth at which a graphic different from the acquired depth can be arranged, a function for accepting a selection from among a plurality of options, After receiving the selection, the function of repeatedly changing the size of the graphic until receiving a decision instruction from the user, and when the graphic is enlarged and displayed at the time of receiving the decision instruction, the selected option The depth in front of the indicated depth is determined as the depth at which the graphic is placed, and when the determination instruction is received, the graphic is reduced and displayed.
  • the function of determining the depth behind the depth indicated by the selected option as the depth to place the graphic, and calculating the parallax for causing the stereoscopic effect at the determined depth A function that acquires the shift amount by converting it to the number of pixels and the amount of shift from the range specified for the other viewpoint image that composes the stereoscopic image by combining the graphic with the range specified for one viewpoint image
  • the function of presenting the area and the function of receiving selection of any of the presented areas can be realized by an integrated circuit, a dedicated circuit, or the like as described above. Further, each of the above functions can be realized by cooperation of a processor and a program on a memory.
  • the corresponding point search is performed in units of pixels.
  • the present invention is not necessarily limited to this case.
  • the corresponding point search may be performed in pixel block units (for example, 4 ⁇ 4 pixels, 16 ⁇ 16 pixels).
  • the depth information is converted into a grayscale image in which the distance in the depth direction of the subject is converted into 256 gradation values from 0 to 255, and the depth of each pixel is represented by 8-bit luminance.
  • the distance in the depth direction of the subject may be converted into 128 gradation values from 0 to 127.
  • the graphic parts are superimposed on the right-eye image with a parallax added based on the arrangement position of the graphic parts with respect to the left-eye image, but in the reverse order, the right-eye image
  • the graphic part may be superimposed on the right-eye image with parallax on the basis of the arrangement position of the graphic part with respect to. In this case, it is preferable to display the right-eye image on the display when receiving the designation of the placement position of the graphic part by the user.
  • Embodiment 1 a case has been described in which a stereo image composed of a set of a left-eye image and a right-eye image having the same resolution is acquired.
  • the present invention is not necessarily limited to this case.
  • the left-eye image and the right-eye image may be images having different resolutions. It is possible to generate depth information by searching for corresponding points by performing resolution conversion processing between images with different resolutions, and generate high-resolution stereo images by performing pixel shift processing on high-resolution images. can do. Since generation processing of depth information with heavy processing can be performed with a low-resolution image size, processing can be reduced. In addition, a part of the imaging device can be a low-performance imaging device, and cost reduction can be achieved.
  • (G) In the first embodiment, information on the type number X of the display device, the aspect ratio m: n, and the resolution of the display screen (the number of pixels in the vertical direction L and the number of pixels in the horizontal direction K) are transferred to the external display.
  • the present invention is not necessarily limited to this case.
  • the viewer may input information such as the display device type number X, aspect ratio m: n, and display screen resolution (vertical pixel number L, horizontal pixel number K).
  • the distance S from the viewer to the display screen is set to three times the height H of the display screen (3H) and the pixel shift amount is calculated has been described. It is not limited.
  • the distance S from the viewer to the display screen may be calculated by a distance sensor such as a TOF (Time Of Flight) type sensor.
  • the inter-pupil distance e is the average value of adult males and the pixel shift amount is calculated.
  • the present invention is not necessarily limited to this case.
  • a camera may be installed on the display device, and the interpupillary distance may be calculated from a face image acquired by the camera. Further, it may be determined whether the viewer is an adult, a child, a man, or a woman, and the interpupillary distance e may be calculated accordingly.
  • the region is divided from the luminance distribution and the depth information distribution when the region of the subject is divided.
  • the region dividing method is not limited to this.
  • the region may be divided only from the distribution of depth information.
  • the region may be divided by extracting as feature points that are edges (locations where luminance changes sharply) or intersections of the edges.
  • Edge detection may be performed by obtaining a luminance difference (first derivative) between pixels and calculating edge strength from the difference. Note that feature points may be extracted by other edge detection methods.
  • the user is instructed to display the GUI menu as a means for allowing the user to select the depth arrangement.
  • the background, subject, and foreground are displayed in color at predetermined intervals in order, and are roughly arranged at any position by inputting an operation such as a button press when the depth desired by the user is displayed in color. You may make it select. Even when the background, the subject, and the foreground are colored and displayed in order, if they are hidden by the subject, no meaningless option for placing graphic parts is displayed.
  • the depth information calculation unit 103 may generate the depth information by measuring the distance of each subject using a distance sensor such as a TOF (Time Of Flight) type distance sensor. Further, depth information may be acquired together with a monocular image from an external network, server, recording medium, or the like. Further, the acquired monocular image may be analyzed to generate depth information. Specifically, the image is first divided into a set of pixels called “superpixels” that have very homogeneous attributes such as color and brightness, and this superpixel is compared with adjacent superpixels to analyze changes in texture gradation and other factors. To estimate the distance of the subject.
  • the monocular image may be image data captured by an imaging device such as a monocular camera. Further, the image is not limited to a real image, and may be CG (Computer / Graphics) or the like.
  • the menu of the GUI is displayed, but the display position is determined as the default display position at the upper left corner, but the display position is not limited to this position.
  • the object may be moved and displayed at a position where the subject is not hidden, and may be arranged so as not to overlap the graphic part arrangement position.
  • the stereoscopic image is divided into subject areas, but the subject area is divided based on the luminance and depth information without considering what the subject is.
  • an object is detected using some person / object recognition technology, and combined with the area division method as described in (k) and the distribution of depth information used in the second embodiment.
  • Region division may be performed.
  • a number may be assigned to the divided area, the number may be superimposed on the subject, and the subject on which the graphic part is superimposed may be selected by allowing the user to select the number.
  • the person recognition function may be used to recognize the person's area, and the area may be divided so that the graphic parts can be easily superimposed on the person.
  • the flower mark is taken as an example of the graphic part.
  • a graphic part that is a part of the human body
  • face recognition is performed.
  • the graphic parts may be superimposed so as to be arranged at an appropriate position on the face.
  • the flower mark is taken as an example of the graphic part.
  • the graphic part is a speech balloon
  • the face recognition function is used to search the mouth area and the speech balloon It is also possible to arrange so that the front end of the subject comes to the face and the face that is the subject is not hidden.
  • a PC and a tablet that can easily set the arrangement depth of the graphic parts when synthesizing the graphic parts to the stereoscopic image and process the stereoscopic image It can be applied to applications such as smartphones and mobile phones. It is also particularly useful for retouching applications.

Abstract

 立体視画像にグラフィックを合成する際にグラフィックの深度を容易に設定可能なGUIを実現するユーザーインタフェース制御装置を提供する。立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定するグラフィック情報取得部105と、特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する深度情報解析部106と、前記取得した深度を示す選択肢と前記取得した深度とは異なるグラフィックを配置可能な他の深度を示す選択肢とを提示する深度設定提示部107とを備える。

Description

ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路
 本発明は、ユーザーインタフェース技術に関し、特に立体視画像の加工に際してのユーザーインタフェースの表示に関する。
 近年、両眼網膜像差を利用した立体視画像表示技術が注目を集めている。人間は左目の網膜像と右目の網膜像の違いにより立体を知覚することから、視聴者の左目と右目に視差がある画像(左目用画像・右目用画像)を独立して入射させることにより、両眼の網膜に生じる物体像にズレを生じさせ、奥行きを感じさせる技術である。立体写真を撮影できるデバイスはデジタルカメラのみならず、スマートフォン等でも今後ますます増える事が予想される。
 このような立体視画像表示技術の普及により、撮影・閲覧するという従来の立体視画像の利用形態に加えて、撮影した立体視画像を加工する新しいユーザ体験を提供するような試みがなされている。例えば、特許文献1には、カメラ等で撮影された立体視画像に、吹き出しや文字など各種グラフィックを配置して合成する技術が開示されている。具体的には、特許文献1に開示の技術では、グラフィックの配置された位置での立体視画像の奥行き情報(デプスマップ)に応じて、複数のグラフィック間の相対的なサイズや前後関係を決定することで、立体的な視覚効果を与えている。
特開2009-230431号公報
 しかしながら、特許文献1に開示の技術では、ユーザがグラフィックの奥行き情報を指定する手段が提供されていない。これでは、写真を加工する上でグラフィックをどのような深度に配置するかをユーザが決定することができず、ユーザが所望する加工を実現することができないという問題がある。
 また、立体視画像の加工では、立体視画像を必ずしも立体視表示した状態で加工作業がなされるとは限らず、立体視画像を構成する視点画像が平面視表示された状態で加工作業を行う場合もある。例えば、表示機器として画像を立体視表示できないディスプレイのみしかない環境での立体視画像の加工では、視点画像が平面視表示された状態であっても、合成するグラフィックの奥行き情報を容易に指定できる手段が求められる。
 本発明はかかる問題に鑑み、立体視画像にグラフィックを合成する際に、グラフィックの深度を容易に設定可能なGUIを実現するユーザーインタフェース制御装置、ユーザーインタフェース制御方法、ユーザーインタフェースを制御するコンピュータプログラム、及び集積回路を提供することを目的とする。
 上記目的を達成するため、本発明の一態様にかかるユーザーインタフェース制御装置は、立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを提供するユーザーインタフェース制御装置であって、立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定手段と、前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得手段と、前記取得した深度を示す選択肢と、前記取得した深度とは異なるグラフィックを配置可能な他の深度を示す選択肢とを提示する提示手段とを備えることを特徴とする。
 上記態様にかかるユーザーインタフェース制御装置は、課題を解決するための手段に記載の構成により、グラフィックを配置する位置での深度情報の分布から、グラフィックの配置可能な深度を示す選択肢をユーザに提供するので、グラフィックの深度を容易に設定することができる。
 また、上記態様にかかるユーザーインタフェース制御装置では、選択肢の選択により深度設定を行うことができるため、画像加工時の表示形態が立体視表示/平面視表示の何れであるかに関わらず、合成するグラフィックの奥行き情報を容易に設定することができる。
本実施形態に係るユーザーインタフェース制御装置としての機能を有するスマートフォンのハードウェア構成を示す図 実施形態1に係るユーザーインタフェース制御装置の構成を示す図 本実施形態において加工対象とするステレオ画像の被写体を示す図 ディスプレイ200の表示例を示す図 グラフィックの描画範囲と中心座標を示す図 (a)2つの被写体の更に前方にグラフィックパーツの深度が設定される例を示す図、(b)手前側の被写体と同じ深度にグラフィックパーツの深度が設定される例を示す図、(c)2つの被写体の中間の深度にグラフィックパーツの深度が設定される例を示す図 グラフィックパーツの配置位置における視点画像の深度分布を示す図 複数の選択肢を含む深度設定ポップアップメニューの表示例 深度設定メニュー選択後のグラフィックパーツの深度調節を説明する図 深度情報算出部103における深度情報生成処理の流れを示すフローチャート 深度設定ポップアップメニュー表示処理の流れを示す図 グラフィックパーツの配置深度の候補を抽出する処理の流れを示すフローチャート 深度設定メニュー選択後のグラフィックパーツ深度調節処理の流れを示すフローチャート ステップS33、34の処理の詳細を示すフローチャート グラフィックパーツを合成した立体視画像を生成する処理の流れを示すフローチャート 決定された奥行き情報から視差を算出するための画素シフトを示す図 グラフィックパーツ合成処理の流れを示すフローチャート 2つの選択肢を含む深度設定ポップアップメニューの表示例 実施形態2に係るユーザーインタフェース制御装置300の構成を示す図 (a)は撮影時の被写体の配置を示す図、(b)は視点画像を示す図 (a)深度分布に基づいて画像から抽出した被写体像を色分けして表示する画面例、(b)は画像から抽出した被写体像に番号を付して表示する画面例 ユーザーインタフェース制御装置300における立体視画像加工の流れを示すフローチャート
(発明の一態様の概要)
 本発明は、立体視画像にグラフィックを合成する際に、合成後にグラフィックを表示するための深度を容易に設定可能なGUIを提供するユーザーインタフェース制御装置、ユーザーインタフェース制御方法、ユーザーインタフェースを制御するコンピュータプログラム、及び集積回路を提供することを目的とする。
 本発明の第1態様であるユーザーインタフェース制御装置は、立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを提供するユーザーインタフェース制御装置であって、立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定手段と、前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得手段と、前記取得した深度を示す選択肢と、前記取得した深度とは異なるグラフィックを配置可能な他の深度を示す選択肢とを提示する提示手段とを備える。
 上記の構成によれば、グラフィックを配置する位置での深度情報の分布に基づいてグラフィックの配置可能な深度を示す選択肢がユーザに提供されるので、ユーザは何れかの選択肢を選択することによりグラフィックの深度を容易に設定することができる。また、選択肢の選択により深度設定を行うことができるため、画像加工時の表示形態が立体視表示/平面視表示の何れであるかに関わらず、合成するグラフィックの奥行き情報を容易に設定することができる。
 また、本発明の第2態様は第1態様において、前記取得した深度を示す選択肢は、前記グラフィックが占める範囲に写る被写体で最も手前に位置するものの深度を示し、前記グラフィックを配置可能な他の深度を示す選択肢は、前記最も手前に位置する被写体の深度よりも更に手前側の深度を示すよう構成してもよい。
 上記本発明の第2態様の構成によれば、被写体にグラフィックを貼り付けるように合成するか、被写体よりも手前にグラフィックを配置するように合成するかを、ユーザが容易に選択することができる。
 また、本発明の第3態様は、第2態様において前記一方の視点画像の前記特定した範囲に、前記最も手前に位置する被写体に加えて他の被写体が存在し、且つ、2つの被写体間で深度が閾値を超えて異なる場合、提示手段は更に、前記2つの被写体の深度の中間の深度を示す選択肢を提示するよう構成してもよい。
 上記本発明の第3態様の構成によれば、発明の第2態様において選択可能な深度でのグラフィック合成に加えて、深度の異なる2つの被写体の間にグラフィックを配置するような合成を、ユーザが容易に選択することができる。
 また、本発明の第4態様は第3態様において、前記複数の選択肢のうちの何れかの選択を受け付ける受付手段と、前記選択肢の選択を受け付けた後に、ユーザからの決定指示を受けるまで前記グラフィックのサイズを繰り返し変化させて表示する伸縮表示手段と、前記決定指示を受けた時点でグラフィックを拡大して表示していた場合、前記選択された選択肢の示す深度よりも手前側の深度を、グラフィックを配置する深度に決定し、前記決定指示を受けた時点でグラフィックを縮小して表示していた場合、前記選択された選択肢の示す深度よりも奥側の深度を、グラフィックを配置する深度に決定する深度決定手段と
を更に備えるよう構成してもよい。
 上記本発明の第4態様の構成によれば、複数の選択肢によって示される深度だけでなく、それぞれの選択肢が示す深度から更に手前、若しくは奥にグラフィックの配置深度を調整することができる。これにより、グラフィックの配置深度の設定の自由度を高めることができるので、ユーザの利便性を向上させることができる。また、この時にサイズを変化させながらグラフィックの表示を行うが立体視表示を行う必要はないため、画像を立体視表示できない環境においてもグラフィックの深度を容易に設定することができる。
 また、本発明の第5態様は第4態様において、深度決定手段は、2つの被写体の深度の中間の深度を示す選択肢が選択された場合に、前記2つの被写体のうち手前側に位置する被写体の深度を、伸縮表示手段が最も拡大して表示したグラフィックのサイズに対応付け、前記2つの被写体のうち奥側に位置する被写体の深度を、伸縮表示手段が最も縮小して表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定するよう構成してもよい。
 上記本発明の第5態様の構成によれば、2つの被写体の間の深度の幅を、グラフィックの表示サイズに関連させて表現することができる。これによりユーザは2つの被写体の間において、グラフィックの配置深度を直観的に設定することが可能となる。
 また、本発明の第6態様は第4態様において、深度決定手段は、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より奥側に何れかの被写体が存在する場合、当該奥側に位置する被写体の深度を、伸縮表示手段が最も小さく表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定するよう構成してもよい。
 上記本発明の第6態様の構成によれば、選択された選択肢の示す深度から奥側の被写体までの深度の幅を、グラフィックの表示サイズに関連させて表現することができる。これによりユーザは選択された選択肢の示す深度から奥側の被写体までの間において、グラフィックの配置深度を直観的に設定することが可能となる。
 また、本発明の第7態様は第4態様において、深度決定手段は、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より手前側に何れかの被写体が存在する場合、当該手前側に位置する被写体の深度を、伸縮表示手段が最も大きく表示したグラフィックのサイズに対応付け、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より手前側に被写体が存在しない場合、前記選択された選択肢の示す深度よりも手前側の所定の深度を、伸縮表示手段が最も大きく表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定するよう構成してもよい。
 上記本発明の第7態様の構成によれば、選択された選択肢の示す深度から手前側の被写体の深度まで、若しくは、選択された選択肢の示す深度から手前側の手前側の所定の深度までの深度の幅を、グラフィックの表示サイズに関連させて表現することができる。これによりユーザは選択された選択肢の示す深度から手前側の深度までの間において、グラフィックの配置深度を直観的に設定することが可能となる。
 また、本発明の第8態様は第4態様において、前記決定した深度で立体視効果を生じさせるための視差を算出し、当該視差を画素数に変換することでシフト量を取得するシフト量取得手段と、前記一方の視点画像に対して前記平面位置特定手段で特定した範囲にグラフィックを合成し、立体視画像を構成する他方の視点画像に対して前記平面位置特定手段で特定した範囲から前記シフト量だけ水平方向にシフトした範囲にグラフィックを合成する画像合成手段とを更に備えるよう構成してもよい。
 上記本発明の第8態様の構成によれば、決定した深度にグラフィックを合成した立体視画像を生成することができる。
 また、本発明の第9態様は第1態様において、視点画像深度取得手段は、立体視画像を構成する前記一方の視点画像と他方の視点画像とのステレオマッチングによって、前記被写体の深度を取得するよう構成してもよい。
 上記本発明の第9態様の構成によれば、デプスマップ等の深度情報が予め用意されていない立体視画像を加工対象とすることができる。
 また、本発明の第10態様は第1態様において、立体視表示する際の深度が隣接する領域と閾値を超えて異なる複数の領域に、前記一方の視点画像を区分する領域区分手段と、区分した複数の領域を提示する領域提示手段と、提示した領域の何れかの選択を受ける領域受付手段とをさらに備え、前記平面位置特定手段は、前記選択された領域の少なくとも一部を含むように、前記グラフィックが占める範囲を特定するよう構成してもよい。
 上記本発明の第10態様の構成によれば、平面視表示した視点画像において深度毎に分割した領域をユーザに提示することで、ユーザがグラフィックを配置する平面位置を容易に指定することができる。例えば、近接配置された複数の被写体を撮影した画像であっても、グラフィックを配置する範囲を領域単位、で選択することで、どの被写体に対してグラフィックを重畳するかの指定が容易になる。
 また、本発明の第11態様は第10態様において、前記領域提示手段は、隣接する領域を異なる色で表示することにより、区分した複数の領域を提示するよう構成してもよい。
 また、本発明の第12態様は第10態様において、前記領域提示手段は、各領域に異なるテキストを付加して表示することにより、区分した複数の領域を提示するよう構成してもよい。
 上記本発明の第11態様の構成、あるいは本発明の第12態様の構成によれば、視点画像において深度の異なる領域を視覚的により把握しやすくなる効果がある。
 また、本発明の第13態様は第10態様において、領域区分手段による前記一方の視点画像の区分では、前記一方の視点画像の画素間で輝度が鋭敏に変化しているエッジまたはエッジの交点の抽出により各領域の境界を特定し、立体視表示する際の深度には、立体視画像を構成する前記一方の視点画像と他方の視点画像とのステレオマッチングによって得られる各画素の深度を用いるよう構成してもよい。
 上記本発明の第13態様の構成によれば、複数の被写体が一部重なるように撮像された視点画像では被写体間の境界でエッジが生じるため、エッジを領域の境界とした場合、何れかの領域を指定することでグラフィックを重畳配置する被写体を指定することが可能となる。
 以下、本発明の一態様であるユーザーインタフェース制御装置の実施の形態について、図を用いて説明する。
(実施形態1)
 図1は、本実施形態に係るユーザーインタフェース制御装置としての機能を有するスマートフォンのハードウェア構成を示す図である。図1に示すスマートフォンは、カメラ10、スピーカ20、GPS30、センサ40、タッチパネル50、マイク60、記録媒体70、処理部100、ディスプレイ200を有している。
 カメラ10は、2つの視点画像から構成される立体視画像を撮像するステレオカメラである。撮像された立体視画像は、記録媒体70に記録される。
 記録媒体70は、スマートフォンに内蔵された読み書き可能な不揮発記録媒体であり、ハードディスク、半導体メモリ等により実現される。
 処理部100は、例えばRAMなどのメモリー、CPUなどのプロセッサを有し、記録媒体70に記録されたプログラムをCPUにおいて実行することにより、通話や、立体視画像の撮影、加工等の機能を制御する。本実施形態に係るユーザーインタフェース制御装置としての機能も、記録媒体70に記録されたプログラムを処理部100において実行することで実現される。
 図2は、本実施形態に係るユーザーインタフェース制御装置の構成を示す図である。このユーザーインタフェース制御装置は、2つの視点画像から構成される立体視画像を加工するユーザの加工操作を支援するGUIを提供するものであり、様々な電気機器に組み込まれて利用される。ユーザーインタフェース制御装置を組み込む機器としては、スマートフォンの他に、PC(Personal Computer;パーソナルコンピュータあるいはパソコン)等の汎用のコンピュータ、PDA(Personal Digital Assistance)、タブレットあるいは携帯電話機等の通信端末がある。
 ユーザーインタフェース制御装置は、図2に示されるように、操作入力受付部101、制御部102、深度情報算出部103、グラフィック情報取得部105、深度情報解析部106、深度設定提示部107、ステレオ画像生成部108、出力部109を含んで構成される。
 これら操作入力受付部101、制御部102、深度情報算出部103、グラフィック情報取得部105、深度情報解析部106、深度設定提示部107、ステレオ画像生成部108、出力部109の後述する機能は、例えばプログラムとして予め図1に示す記録媒体70に記録されている。本実施形態では処理部100において、操作入力受付部101、制御部102、深度情報算出部103、グラフィック情報取得部105、深度情報解析部106、深度設定提示部107、ステレオ画像生成部108、出力部109のそれぞれに対応するプログラムを処理部100内のRAMにロードして、処理部100内のCPUで実行することで、ハード資源(CPUとRAM上のプログラムとの協働)により実現される。
 上述の例では、予め記録媒体70に記録されているプログラムを処理部100内のRAMにロードして処理部100内のCPUが実行する構成を例に説明をしたが、上述のプログラムは処理部100内のRAMに予め記録されていても良い。処理部100内のRAMに予め上述のプログラムを記録する構成を採用した場合、記録媒体70に上述のプログラムを記録する必要は必ずしもなくなる。
 また、深度情報保存部104は、記録媒体70の記録領域の一部により実現される。
 <操作入力受付部101>
 操作入力受付部101は、タッチパネル、マウス等のポインティングデバイスを介して入力されるユーザの操作を受け付ける機能を有する。
 本実施形態で受け付けるユーザ操作は、具体的には、写真にレタッチするグラフィックを配置するドラッグ操作、ポインティングデバイスにより指し示される項目や状態を選択するクリック操作等があり、画面上に複数の選択肢が表示された時に何れか選択肢を選択するクリック操作を受け付けることで、操作入力受付部101は、受付手段として機能する。
 ディスプレイ200には、図4に示すように、立体視画像を構成する一方の視点画像である左目用画像1、立体視画像に合成する様々なグラフィックに対応するグラフィックパーツ2a~2dのテンプレート画像を表示するグラフィックパーツ表示部2、ポインティングデバイスの指示位置を示すポインタ3等が表示され、例えば、写真にグラフィックパーツを配置する操作は、グラフィックパーツ表示部2に表示されているグラフィックパーツ2a~2dの中から何れかのグラフィックパーツをドラッグし、左目用画像1の任意の位置にドロップすることで実現される。
 <制御部102>
 制御部102は、本実施例の処理を操作入力受付部101の入力内容に従って制御する機能を有する。
 <深度情報算出部103>
 深度情報算出部103は、ステレオ画像から被写体の奥行き方向の位置を示す深度情報(デプスマップ)を左目用画像の画素毎に生成することで、視点画像深度取得手段の機能の一部を実現する。具体的には、まずステレオ画像を構成する左目用画像・右目用画像間の各画素について対応点探索を行う。そして、左目用画像と右目用画像の対応点の位置関係から、三角測量の原理に基づき、被写体の奥行き方向の距離を算出する。深度情報は、各画素の奥行きを8ビットの輝度で表したグレースケール画像であり、深度情報算出部103は、算出した被写体の奥行き方向の距離を0~255までの256階調の値に変換する。なお、対応点探索には、注目点の周りに小領域を設け、その領域中の画素値の濃淡パターンに基づいて行う領域ベースマッチング手法と、画像からエッジなど特徴を抽出し、その特徴間で対応付けを行う特徴ベースマッチングの2つに大きく大別されるが、何れの手法を用いてもよい。なお、ステレオ画像は、異なる視点から被写界を撮像して得られる画像であり、本実施形態1ではカメラ10により撮像され記録媒体70に記録された立体視画像の画像データを用いる。ステレオ画像は、実写画像に限らず、異なる仮想視点を想定して作成したCG(Computer Graphics)等であってもよい。
 本実施形態では、図3に示すように、バスの前に1人の人物が立った情景をステレオカメラにて撮影した立体視画像を対象として画像加工を説明する。
 <深度情報保存部104>
 深度情報保存部104は、記録媒体70の記録領域の一部により実現され、深度情報算出部103が算出した深度情報を記録媒体70の記録領域に保存する機能を有する。
 <グラフィック情報取得部105>
 グラフィック情報取得部105は、ユーザが配置したグラフィックが左目用画像上で占める領域の座標を取得する平面位置特定手段としての機能を有する。
 具体的には、グラフィック配置操作が操作入力受付部101において受け付けられた場合に、左目用画像の左上隅を原点とした左目用画像のX-Y座標系において、グラフィックをドロップした時のポインタ指示位置をグラフィックパーツを配置する中心座標(xg,yg)として取得し、図5に示すグラフィックパーツを囲む矩形枠の左上隅座標(x1,y1)及び右下隅座標(x2,y2)を、上述のX-Y座標系においてグラフィックパーツが占める配置範囲として算出する。
 尚、グラフィック情報取得部105は、各グラフィックパーツについて、中心座標と左上隅座標及び右下隅座標との相対値を保持しており、左上隅座標(x1,y1)及び右下隅座標(x2,y2)の算出には、ポインタ指示位置の座標とこの相対値を用いることで、グラフィックパーツの配置範囲を簡便に得ることができる。
 <深度情報解析部106>
 深度情報解析部106は、グラフィックパーツの配置範囲における左目用画像の深度情報を取得する機能と、グラフィックパーツを配置可能な深度を被写体との相対位置により示す選択肢を、ユーザに提示するように深度設定提示部107に指示する機能とを持つ。
 具体的には、深度情報解析部106はグラフィック情報取得部105で算出したグラフィックパーツの配置範囲における左目用画像の深度情報を、深度情報保存部104を介して記録媒体70から読み出し、深度情報の解析により配置範囲に存在する被写体を検出することで視点画像深度取得手段として機能し、さらに検出した被写体に対してグラフィックパーツを配置可能な相対位置を決定する。
 被写体の検出では、先ず、グラフィックパーツの配置範囲においてグラフィックパーツ中心座標(xg,yg)を通り水平方向に連続する画素(以下、水平画素群)で左目用画像の深度分布を解析し、隣接する画素間の深度が閾値Thを超えて異なる場合に、閾値Thを超えて深度が異なる位置を挟んで異なる2つの被写体が存在すると判定する。グラフィックパーツの配置範囲に被写体が存在すると判定された場合、深度情報解析部106は、(x1, yg)から(x2, yg)の間で最も浅い深度より更に手前の深度、最も浅い深度と同じ深度、及び、閾値Thを超えて深度が異なる隣接する2画素の平均深度を、グラフィックパーツの配置可能な奥行きの位置として、それぞれに対応する選択肢の提示を深度設定提示部107に指示する。
 例えば、ディスプレイ200に表示された左目用画像において、被写体である人間の頭に相当する位置にグラフィックパーツの一部が重なるように配置された場合を考える。この場合、グラフィックパーツを配置可能な奥行き方向の位置は大きく分けて、図6(a)のように最も手前に位置する被写体である人物よりも更に前方の深度4a、図6(b)のように人物と同じ深度4b、図6(c)のように人物とバスの中間の深度4cが考えられる。
 深度情報解析部106では、図7に示すように、左目用画像に写る人物とバスとの境界で深度が閾値Thを超えて変化するため、グラフィックパーツの配置範囲に2つの被写体が存在すると判定し、手前側のx1での深度より更に手前の深度を図6の(a)に示す深度4aとし、手前側のx1での深度を図6(b)に示す深度4bとし、手前側のx1での深度と奥側のx2での深度との平均の深度を図6(c)に示す深度4cとして、3通りのグラフィックパーツの配置可能な深度を決定する。
 尚、グラフィックパーツの配置範囲に3以上の被写体が検出される場合には、深度情報解析部106は、深度が前後する2つの被写体の組毎に、これらの被写体の中間の深度をグラフィックパーツの配置可能な深度として、対応する選択肢の追加を深度設定提示部107に指示する。
 また、ディスプレイ200に表示された左目用画像において何れか1つの被写体像が存在する範囲にグラフィックパーツの全体が重なるように配置された場合、グラフィックパーツの深度を被写体の背後にしても画像に現れることがなく意味がないため、グラフィックパーツを配置可能な被写体との相対位置は、被写体と同じ深度、及び、被写体より更に手前の深度の2つの位置となる。このような場合、深度情報解析部106はこの2つの深度にそれぞれ対応する選択肢の提示を深度設定提示部107に指示する。
 <深度設定提示部107>
 深度設定提示部107は、GUI提示部111、伸縮表示部112、深度決定部113を内部に有し、グラフィックパーツの奥行き情報を設定するためのGUIを制御して、グラフィックパーツを配置する深度を決定する機能を有する。
 GUI提示部111は提示手段として機能し、深度情報解析部106からの指示を受けて、指示された選択肢を含むGUI画像を生成し、ポップアップメニューとして描画するように出力部109に通知する。図8に示す例では、画面に表示された左目用画像において花形のグラフィックパーツの配置範囲に人物の頭部とその背後のバスとが含まれており、深度情報解析部106からは、最も手前の被写体である人物に対して「前方」、「貼付」、及び「後方」をグラフィックパーツの配置深度の選択肢とするよう指示される。この指示に基づいて深度設定提示部107は、「前方」、「貼付」、及び「後方」の3つの選択肢からなるポップアップメニューのGUI画像を生成する。このようなメニューから例えば、「前方」に配置するという項目を選択する操作が受付られた場合には、グラフィックパーツの配置範囲において左目画像の最も浅い深度より、更に所定値手前の深度がグラフィックパーツの配置深度として選択されたことを意味する。また、メニューから「貼付」(最も手前の被写体と同深度)の項目が選ばれた場合には、グラフィックパーツが被写体に潜り込まないように、グラフィックパーツの配置範囲において左目画像の最も浅い深度がグラフィックパーツの配置深度として選択されたことを意味する。また、メニューから「後方」に配置するという項目が選ばれた場合には、グラフィックパーツの配置範囲に存在する最も手前の被写体である人物頭部とその背後のバスとの2つの被写体の中間の深度が、グラフィックパーツの配置深度として選択されたことを意味する。
 伸縮表示部112は、ユーザがポップアップメニューから何れかの選択肢を選択した場合に、図9に示すようにディスプレイ200上で左目用画像に配置されたグラフィックパーツを、クリック操作によるユーザの決定指示が入力されるまで繰り返しサイズを変化させて描画するように出力部109に指示する伸縮表示手段としての機能を有する。このグラフィックパーツの伸縮表示では、グラフィックパーツ中心座標(xg,yg)において、グラフィックパーツ表示部2に表示しているオリジナルの大きさの2倍から1/2倍の範囲で、グラフィックパーツを拡大、縮小を繰り返して表示する。
 深度決定部113は、グラフィックパーツの拡大、縮小表示を繰り返す間に、ユーザの決定操作が入力された場合、選択された選択肢に対応する深度を暫定的な奥行き位置として、決定操作時のグラフィックパーツ表示サイズに応じて、暫定的な奥行き位置を調整した最終的な深度を決定する深度決定手段としての機能を有する。
 詳細には、グラフィックパーツをオリジナルサイズで表示している状態を、メニューで選択された選択肢に対応する深度に割り付け、グラフィックパーツを2倍に拡大して表示している状態をメニューでの選択深度より手前に位置する被写体の深度に割り付け、グラフィックパーツを1/2倍に縮小して表示している状態をメニューに対応する深度より奥側に位置する被写体の深度に割り付けることで、グラフィックパーツの表示サイズと配置深度とを対応付ける。この対応付けに応じて、決定操作時のグラフィックパーツの拡大/縮小比率から、グラフィックパーツを配置する最終的な深度を算出する。
 但し、メニューから「前方」に配置するという項目が選ばれた場合には、選択深度より手前に被写体が存在しないため、伸縮表示部112はオリジナルの大きさ~オリジナルの大きさの1/2倍の範囲で、グラフィックパーツを拡大、縮小を繰り返して表示する。また、メニューから「貼付」が選択された場合は、選択深度より奥側の深度とは被写体内に沈み込む深度となってしまうため、伸縮表示部112はオリジナルの大きさ~オリジナルの大きさの2倍の範囲で、グラフィックパーツを拡大、縮小を繰り返して表示する。
 なお、メニューから「前方」が選ばれた場合にも、オリジナルの大きさの2倍~オリジナルの大きさの1/2倍の範囲で、グラフィックパーツを拡大、縮小を繰り返して表示し、深度決定部113がメニューでの選択深度より所定の深度だけ手前側の位置を、グラフィックパーツを2倍に拡大して表示している状態に割り付けて、決定操作時の拡大/縮小比率に応じて深度を算出してもよい。
 このように、グラフィックパーツの表示の大きさの変化を、グラフィックパーツの配置深度に関連させて表現することで、ユーザは直観的な深度設定が可能となる。
 <ステレオ画像生成部108>
 ステレオ画像生成部108は、シフト量取得部114、画像合成部115を内部に有し、深度設定提示部107で決定したグラフィックパーツの配置深度に基づいて、視差をつけてグラフィックパーツを写真に合成し、グラフィックパーツを合成した左目用画像、及び右目用画像を生成する機能をもつ。
 シフト量取得部114は、グラフィックパーツの配置深度の立体視効果を生じさせるための視差を算出し、算出した視差を画素数に変換することでシフト量を取得するシフト量取得手段としての機能を有する。
 画像合成部115は、左目用画像に対してグラフィックパーツの配置範囲にグラフィックパーツを合成し、右目用画像に対してグラフィックパーツの配置範囲をシフト量取得部114で算出したシフト量だけ水平方向に移動させた範囲にグラフィックパーツを合成することで、グラフィックパーツを合成した立体視画像を生成する画像合成手段として機能する。
 <出力部109>
 出力部109は、ディスプレイ200の表示を制御するドライバであり、加工作業時の左目画像、グラフィックパーツ、深度設定提示部107から指示されたGUI画像、及びステレオ画像生成部108においてグラフィックパーツを合成した立体視画像等をディスプレイに表示させる。
 以上がユーザーインタフェース制御装置の構成についての説明である。
<動作>
 続いて、上記構成を備えるユーザーインタフェース制御装置の動作について説明する。
 <深度情報生成処理>
 まず、深度情報算出部103による深度情報生成処理について説明する。図10は、深度情報生成処理の流れを示すフローチャートである。
 本図に示されるように、深度情報算出部103はまず、撮影した左目用画像、右目用画像を取得する(ステップS1)。次に、深度情報算出部103は、左目用画像を構成する画素に対応する画素を右目用画像から探索する(ステップS2)。そして、深度情報算出部103は、左目用画像と右目用画像の対応点の位置関係から、三角測量の原理に基づき、被写体の奥行き方向の距離を算出する(ステップS3)。以上のステップS2、及びステップS3からなるステレオマッチング処理を左目用画像を構成する全ての画素に対して行う。左目用画像を構成する全ての画素に対して、ステップS2、ステップS3のステレオマッチング処理を終えた後、深度情報算出部103は、ステップS3の処理で得られた被写体の奥行き方向の距離の情報を8ビット量子化する(ステップS4)。具体的には、算出した被写体の奥行き方向の距離を0~255までの256階調の値に変換し、各画素の奥行きを8ビットの輝度で表したグレースケール画像を生成する。このように生成されたグレースケール画像は、深度情報として深度情報保存部104に記録される。
 以上が、深度情報算出部103による深度情報生成処理についての説明である。
 <深度設定ポップアップメニュー表示処理>
 図11は、ユーザによるグラフィックパーツ配置操作に応じて実行される深度設定ポップアップメニュー表示処理の流れを示すフローチャートである。
 深度設定ポップアップメニュー表示処理では、まず、操作入力受付部101においてグラフィックパーツ配置操作が受け付けられると(ステップS11)、グラフィック情報取得部105は、ユーザが左目用画像上にグラフィックパーツを配置した座標を取得し(ステップS12)、配置座標を中心としたグラフィックパーツの配置範囲を算出する(ステップS13)。ここで、配置範囲は図5に示すようなグラフィックパーツを囲む矩形領域の左上隅座標と右下隅座標として算出される。
 配置範囲の座標が算出されると、深度情報解析部106がグラフィックパーツの配置範囲の中心(xg,yg)を通る水平画素群での深度情報を深度情報保存部104から読み出し(ステップS14)、読み出した深度情報に基づいて、グラフィックパーツの配置深度の候補を抽出する処理を実行する(ステップS15)。
 ステップS15のグラフィックパーツ配置深度候補抽出処理では、図12を用いて後に説明するように、グラフィックパーツの配置深度の候補を示す選択肢の数Lが決定され、さらにグラフィックパーツの配置範囲に含まれるL-1個の被写体のそれぞれの深度が記録媒体70に記録される。このステップS15におけるグラフィックパーツ配置深度候補抽出処理の処理結果に基づいて、GUI提示部111は決定されたL個の選択肢を含むポップアップメニューを生成しユーザに提示する(ステップS16)。
 GUI提示部111によるポップアップメニューの生成では具体的には、L個の選択肢に以下のように深度を対応付ける。先ず、グラフィックパーツ配置深度候補抽出処理において記録媒体70に記録された被写体の深度のうち最も手前側の深度に「貼付」の選択肢を対応付け、「貼付」の選択肢に対応付けた深度よりもさらに所定深度だけ手前側の深度に「前方」の選択肢を対応付ける。さらに、記録媒体70に記録されたL-1個の被写体の深度の手前側から2ずつの平均深度を算出し、算出したL-2個の平均深度を順に「後方1」、「後方2」、・・・「後方L-2」の選択肢に対応付ける。
 ここで、ポップアップメニューの表示位置は、図8のようにデフォルトで左目用画像の左上隅に配置されるものとするが、表示するポップアップメニューの重畳位置がグラフィックを配置した位置と重なる場合には、ポップアップメニューを被写体に重ならない位置に移動させるものとする。
 以上が、深度設定ポップアップメニュー表示処理についての説明である。
 <グラフィックパーツ配置深度候補抽出処理>
 図12は、図11のステップS15において、グラフィックパーツの配置深度の候補を抽出する処理の詳細を示すフローチャートである。
 グラフィックパーツ配置深度候補抽出処理では深度情報解析部106は、先ず、選択肢数を管理する変数Lを2で初期化し(ステップS21)、探索座標を管理する変数nをグラフィックパーツの配置範囲の左上隅座標のx座標値であるx1で初期化する(ステップS22)。
 変数初期化後に深度情報解析部106は、ステップS23~ステップS27のループを繰り返し処理を行う。
 ステップS23では、座標(n,yg)における左目用画像の深度Dnと座標(n,yg)より所定の画素数w(例えば、5画素)だけ右側の座標(n+w,yg)における左目用画像の深度Dn+wとの差の絶対値[Dn-Dn+w]が、閾値Thをこえるか否かを判定する。[Dn-Dn+w]が、閾値Thを超える場合(ステップS23:Yes)、選択肢数Lをインクリメントし(ステップS24)、探索座標での左目用画像深度Dnの値を被写体の深度として記録媒体70に記録する(ステップS25)。
 [Dn-Dn+w]が、閾値Th以下である場合(ステップS23:No)、及び、ステップS25でDnの値を選択肢に対応付ける深度として記録した後は、探索座標を管理する変数nをn+wで更新し(ステップS26)、更新後の変数nがグラフィックパーツの配置範囲の右下隅座標のx座標値であるx2を超えるか否かを判定する(ステップS27)。
 ステップS27で変数nがx2を超えていなければ、ステップS23からループ処理を繰り返し、超えていれば、グラフィックパーツの配置深度候補の抽出を終了する。
 尚、探索の画素幅wとしては上述の5画素に限らず、画像に写る被写体を検出するのに適切な任意の値を用いることができる。但し、同じ深度で横に並んだ2人の人物を撮影した画像では、探索幅wとして1画素など小さな値を用いた場合、2人の間の僅かな背景までグラフィックパーツの配置候補として検出してしまい、画像加工において意味のない選択肢をユーザに提示することになりかねない。あるいは、探索幅wを大きくした場合、浅い深度から深い深度まで連続して緩やかに変化する領域、例えば斜め方向から撮影した壁などを、探索幅w毎に複数の被写体として検出する恐れがある。そこで、このように探索幅wを大きくする場合には、探索幅wに応じて深度の閾値Thについても大きな値を用いることが好ましい。
 また、本実施形態では、グラフィックパーツの配置深度の候補を抽出するために、グラフィックパーツの配置範囲の中心(xg,yg)を通る水平画素群で深度分布を解析しているが、グラフィックパーツの配置深度の候補を抽出のための深度分布の解析は、グラフィックパーツの配置範囲内の他の水平画素群、若しくは垂直方向に連続する画素群を対象としてもよい。更に、グラフィックパーツの配置範囲内の複数の水平画素群、垂直画素群を深度分布の解析対象としてもよい。
 以上が、深度情報解析部106によるグラフィックパーツ配置深度候補抽出処理についての説明である。
 <グラフィックパーツ深度調節処理>
 図13は、ポップアップメニューからの選択肢選択操作に応じて実行されるグラフィックパーツ深度調節処理の流れを示すフローチャートである。
 グラフィックパーツ深度調節処理では深度決定部113は、ユーザが選択した選択肢に対応付けた深度を取得(ステップS31)する。
 次に、伸縮表示部112がグラフィックパーツの配置範囲にグラフィックパーツを重畳表示した後(ステップS32)、グラフィックパーツを配置した座標を中心として、グラフィックパーツを拡大、縮小を繰り返して画像を更新表示する(ステップS33)。
 この拡大/縮小表示されたグラフィックパーツの大きさは、大きいほど手前側、小さいほど奥側にグラフィックパーツの深度を調節するよう対応付けてあり、グラフィックパーツが所望する大きさで表示された時点でユーザが決定操作を入力すると、深度決定部113は、決定操作時のグラフィックパーツ表示サイズに応じて、ステップS31で取得した選択肢に対応付けられた深度を補正する(ステップS34)。
 ここで、ステップS33、34の処理の詳細を図14に示すフローチャートを用いて説明する。
 ステップS41は、ユーザによるポップアップメニュー選択肢の選択操作を待ち受けるループ処理である。選択操作が受け付けられると(ステップS41:Yes)、伸縮表示部112が拡大フラグをONで初期化する(ステップS42)。フラグ初期化後は、伸縮表示部112がステップS43~ステップS50のループ処理を繰り返し実行する。
 ステップS43は拡大フラグがONに設定されているか否かの判定である。拡大フラグがONに設定されている場合(ステップS43:Yes)、グラフィックパーツが最大サイズ(図4のグラフィックパーツ表示部2に表示されているグラフィックパーツのオリジナルサイズの2倍)で表示されているか否かを判定(ステップS44)する。グラフィックパーツが最大サイズで表示されていなければ(ステップS44:No)、グラフィックパーツの拡大率を10%上げてグラフィックパーツの表示を更新(ステップS45)し、グラフィックパーツが最大サイズで表示されていれば(ステップS44:Yes)、拡大フラグをOFFに設定する(ステップS46)。ステップS45、ステップS46の処理後は、ステップS50において、ユーザによる決定操作の入力があるかを判定する。
 一方、ステップS43判定で拡大フラグがOFFに設定されている場合(ステップS43:No)、グラフィックパーツが最少サイズ(オリジナルサイズの1/2倍)で表示されているか否かを判定(ステップS47)する。グラフィックパーツが最小サイズで表示されていなければ(ステップS47:No)、グラフィックパーツの縮小率を5%下げてグラフィックパーツの表示を更新(ステップS48)し、グラフィックパーツが最小サイズで表示されていれば(ステップS47:Yes)、拡大フラグをONに設定する(ステップS49)。ステップS48、ステップS49の処理後、ステップS50において、ユーザによる決定操作の入力があるかを判定する。
 ステップS50の判定において、ユーザによる決定操作の入力がない場合は(ステップS50:No)、ステップS43から処理を繰り返す。
 ステップS50の判定において、ユーザによる決定操作の入力がある場合は(ステップS50:Yes)、深度決定部113は、決定操作時のグラフィックパーツ表示サイズを取得し(ステップS51)、サイズに応じて深度を決定する(ステップS52)。具体的には、ステップS51で取得したグラフィックパーツ表示サイズが、図4のグラフィックパーツ表示部2に表示されているグラフィックパーツよりも拡大されていれば、図13に示すフローチャートのステップS31で取得した選択肢に対応付ける深度よりも、拡大率に比例させて手前側に補正した深度をグラフィックパーツ配置深度に決定する。逆に、ステップS51で取得したグラフィックパーツ表示サイズが、グラフィックパーツ表示部2に表示されているグラフィックパーツよりも縮小されていれば、ステップS31で取得した深度よりも、縮小率に比例させて奥側に補正した深度をグラフィックパーツ配置深度に決定する。
 以上が、深度設定提示部107によるグラフィックパーツ深度調節処理についての説明である。
 <ステレオ画像生成処理>
 図15は、深度設定提示部107によって決定されたグラフィックパーツの深度に基づいて、グラフィックパーツを合成した立体視画像を生成する処理の流れを示すフローチャートである。
 まず、シフト量取得部114は、深度設定提示部107によって決定されたグラフィックパーツの深度を取得する(ステップS61)。画像合成部115は左目用画像のグラフィックパーツの配置範囲にグラフィックパーツを合成し、合成後左目用画像を生成する(ステップS62)。
 次にシフト量取得部114が、深度設定提示部107によって決定されたグラフィックパーツの深度から画素シフト量を算出し(ステップS63)、画像合成部115がステップS63で算出した画素シフト量だけグラフィックパーツの配置範囲をシフトさせた座標において、右目用画像にグラフィックパーツを合成し、合成後右目用画像を生成する(ステップS64)。
 ここで、グラフィックパーツの深度から画素シフト量を算出する方法について図16を用いて説明する。図16は、グラフィックパーツの配置深度と画素シフト量の関係を示す図である。立体視効果には、飛び出し効果をもたらすもの(飛出し立体視)と、引っ込み効果をもたらすもの(引っ込み立体視)とがあり、図16(a)は飛出し立体視の場合の画素シフト、図16(b)は引っ込み立体視の場合の画素シフトを示す。これらの図において、Pxは水平方向へのシフト量、L-View-Pointは左目瞳孔位置、R-View-Pointは右目瞳孔位置、L-Pixelは左目画素、R-Pixelは右目画素、eは瞳孔間距離、Hは表示画面の高さ、Wは表示画面の横幅、Sは視聴者から表示画面までの距離、Zは視聴者から結像点までの距離、すなわちグラフィックパーツの配置深度を示す。左目画素L-pixelと左目瞳孔L-view-pointとを結ぶ直線は左目瞳孔L-view-pointの視線、右目画素R-Pixelと右目瞳孔R-View-Pointとを結ぶ直線は右目瞳孔R-View-Pointの視線であり、3Dメガネによる透光・遮光の切り替えや、パララックスバリア、レンティキュラレンズ等を用いた視差障壁によって実現される。
 また、右目画素R-pixel・左目画素L-pixelが図16(a)の表示画面701における位置関係にある場合のPxを負の値とし、図16(b)の表示画面702における位置関係にある場合のPxを正の値とする。
 まず、表示画面の高さH、表示画面の横幅Wについて考える。表示画面がX型のテレビである場合を考えると、テレビの型数は画面の対角線の長さ(インチ)で表されるため、テレビの型数X、表示画面の高さH、表示画面の横幅Wとの間には、X2=H2+W2の関係が成り立つ。また表示画面の高さH、表示画面の横幅Wは、アスペクト比m:nを用いて、W:H=m:nと表される。上記の関係式から、図16(a)、(b)に示される表示画面の高さHは
Figure JPOXMLDOC01-appb-M000001
表示画面の横幅Wは
Figure JPOXMLDOC01-appb-M000002
で表され、テレビの型数Xの値とアスペクト比m:nから算出することができる。なお、テレビの型数X、アスペクト比m:nの情報は、外部ディスプレイとのネゴシエーションにより取得した値を用いる。以上が表示画面の高さH、表示画面の横幅Wの関係についての説明である。続いて、水平方向のシフト量について説明する。
 まず、飛出し立体視の場合について説明する。図16の701は視聴者が飛び出し立体視を行う場合の画素シフトを示す図である。左目用画像を構成する全画素に対して、かかる画素シフトを行うことにより、左目用画像に対応する右目用画像を生成することができる。以下では、水平方向のシフト量の具体的な計算式について説明する。
 飛出し立体視の場合の画素シフトは、図16(a)を参照するに、左目瞳孔L-view-point、右目瞳孔R-View-Point、結像点の三点からなる三角形と、左目画素L-pixel、右目画素R-pixel、結像点の三点からなる三角形の相似関係から、視聴者が傾いていない場合の水平方向のシフト量Px、被写体の距離Z、視聴者から表示画面までの距離S、瞳孔間距離eとの間には
Figure JPOXMLDOC01-appb-M000003
の関係が成り立つ。被写体の距離Zはグラフィックパーツの配置深度から取得できる。また、瞳孔間距離eは、成人男性の平均値6.4cmを採用する。また視聴者から表示画面までの距離Sは、最適な視聴距離が一般に表示画面の高さの3倍とされることから、3Hとする。
 ここで表示画面の縦方向の画素数をL、表示画面の横方向の画素数をKとした場合、横方向の1画素あたりの長さは、表示画面の横幅W÷表示画面の横方向の画素数K、縦方向の1画素あたりの長さは、表示画面の高さH÷表示画面の縦方向の画素数Lとなる。また1インチは2.54cmである。従って、水平方向のシフト量Pxを画素単位で示すと
Figure JPOXMLDOC01-appb-M000004
となる。なお、表示画面の解像度(縦方向の画素数L、横方向の画素数K)の情報は、外部ディスプレイとのネゴシエーションにより取得した値を用いる。このように、上記数式に基づき、水平方向のシフト量Pxを算出することができる。図16(b)に示す引っ込み立体視の場合も上記の説明と同様の関係が成り立つ。以上が、水平方向の画素シフト量の具体的な計算方法である。
 尚、グラフィックパーツの合成処理では、グラフィックパーツの深度によっては、立体視画像に元から写る被写体によりグラフィックパーツの一部が隠れる場合がある。図15のステップS62、及びステップS64で実行されるグラフィックパーツ合成処理では、このような立体視画像に元から写る被写体とグラフィックパーツとの前後関係を考慮した合成が必要となる。図17は、ステップS62、及びステップS64で実行されるグラフィックパーツ合成処理の詳細を示すフローチャートである。ここでは、グラフィックパーツを左目用画像に合成する場合を説明する。
 グラフィックパーツ合成処理では、先ず、合成位置x、yをグラフィックパーツの配置範囲の左上隅座標(x1,y1)で初期化し(ステップS71)、その後にステップS72~ステップS78のループ処理を実行する。
 ステップS72は、座標(x、y)での左目用画像の深度D(x、y)が、グラフィックパーツの配置深度dよりも奥側であるかの判定である。座標(x、y)での左目用画像の深度D(x、y)が、グラフィックパーツの配置深度dよりも奥側であれば(ステップS72:Yes)、座標(x、y)における左目用画像の画素を、グラフィックパーツの画素で上書きする(ステップS73)。
 ステップS73で左目用画像の画素を上書きした後、及び、座標(x、y)での左目用画像の深度D(x、y)が、グラフィックパーツの配置深度dよりも手前側である場合(ステップS72:No)は、合成位置のx座標をインクリメントし(ステップS74)、変更後の合成位置のx座標が、グラフィックパーツの配置範囲の右下隅座標(x2,y2)のx座標値、x2を超えるか否かを判定する(ステップS75)。
 新たな合成位置のx座標が、x2を超えなければ(ステップS75:No)、新たな合成位置についてステップS72から処理を繰り返し、新たな合成位置のx座標が、x2を超えるならば(ステップS75:Yes)、合成位置のx座標をx1で再度初期化し(ステップS76)、合成位置のy座標をインクリメントした後に(ステップS77)、変更後の合成位置のy座標が、グラフィックパーツの配置範囲の右下隅座標(x2,y2)のy座標値、y2を超えるか否かを判定する(ステップS78)。
 ステップS78で新たな合成位置のy座標が、y2を超えなければ(ステップS78:No)、新たな合成位置についてステップS72から処理を繰り返し、新たな合成位置のx座標が、x2を超えるならば(ステップS78:Yes)、グラフィックパーツの配置範囲の全ての画素について画像合成が完了しているため、グラフィックパーツ合成処理を終了する。
 ここでは、グラフィックパーツを左目用画像に合成する場合を説明したが、グラフィックパーツを右目用画像に合成する場合には、グラフィックパーツの配置範囲の左上隅座標(x1,y1)、及び、右下隅座標(x2,y2)を、図15のステップS63で算出した画素シフト量だけシフトさせた座標を用いて、図17に示す処理を実行することで、合成後右目用画像を生成することができる。
 以上が、ステレオ画像生成部108によるステレオ画像生成処理についての説明である。
 以上のように本実施の形態によれば、ユーザがグラフィックパーツを配置した位置の深度情報の分布から、グラフィックの配置可能性の判断を行い、奥行き方向の設定に関して、深度の選択肢をユーザに提供することで、グラフィックパーツの配置深度の設定を容易に行うことができる。
 また、選択肢の選択後に、拡大/縮小を繰り返してグラフィックパーツを表示して、ユーザの更なる決定操作を待ち受け、決定操作時のグラフィックパーツ表示サイズに応じて、選択肢が示す深度から更に手前、若しくは奥にグラフィックパーツの配置深度を調整する。これにより、グラフィックパーツの配置深度の設定の自由度を高めることができるので、ユーザの利便性を向上させることができる。
 尚、本実施形態1では、グラフィックパーツの配置深度を選択するポップアップメニューとして、図8に示すように、グラフィックパーツの配置範囲に人物とその背後のバスとの2つの被写体が存在する場合に、人物に対して「前方」、「貼付」、及び「後方」をグラフィックパーツの配置深度の選択肢として提示する例を説明したが、ポップアップメニューの選択肢の数は必ずしも3個とは限らない。例えば、図18に示すように、グラフィックパーツが人物の頭部にのみ重なるように配置される場合には、ポップアップメニューには「前方」、及び「貼付」の2つの選択肢を提示するよう構成してもよい。また、「前方」、「貼付」、及び「後方」だけではなく4つ以上の選択肢を含むようポップアップメニューを構成してもよい。
(実施形態2)
 実施の形態1にかかるユーザーインタフェース制御装置では、ディスプレイに平面視表示した左目用画像上で、グラフィックパーツを配置する平面位置がポインティングデバイス等により指定されると、左目用画像のグラフィックパーツの配置範囲に存在する被写体の深度を考慮して、被写体より前方や後方の深度、あるいは被写体と同じ深度等をグラフィックパーツの配置可能な深度として選択肢により提示した。
 しかし、多くの被写体が狭い領域に密集して存在する場合、平面視表示した視点画像では各被写体の前後関係が視認しにくい場合もある。また、グラフィックパーツの配置範囲に多くの被写体が存在する場合、各被写体についての前方や後方など、様々な深度にグラフィックパーツを配置可能であり、ユーザに提示する選択肢も多岐にわたることになる。このような場合、ユーザが所望の深度を示す選択肢を選び出すことに手間がかかる。
 実施の形態2にかかるユーザーインタフェース制御装置は、2つの視点画像のステレオマッチングにより得られたデプスマップデータから深度の異なる被写体を抽出し、抽出した被写体を平面視表示した視点画像において強調してユーザに提示することで、ユーザがグラフィックパーツを配置する平面位置の指定を容易にするものである。また、強調表示した被写体からグラフィックパーツを配置したい深度に近い被写体の指定を受けることで、選択肢を絞り込んでユーザに提示する。
 図19は、実施形態2に係るユーザーインタフェース制御装置300の構成を示す図である。
 ユーザーインタフェース制御装置300は、操作入力受付部201、グラフィック重畳制御部202、深度情報算出部203、深度情報解析部205、グラフィック情報取得部206、深度設定提示部207、ステレオ画像生成部208、出力部209、及び領域分割部1201を備える。これら操作入力受付部201、グラフィック重畳制御部202、深度情報算出部203、深度情報解析部205、グラフィック情報取得部206、深度設定提示部207、ステレオ画像生成部208、出力部209、及び領域分割部1201の機能は、例えばプログラムとして予め、図1に示す記録媒体70に記録されている。
 本実施形態では図1に構成を示したスマートフォンにおいて、操作入力受付部201、グラフィック重畳制御部202、深度情報算出部203、深度情報解析部205、グラフィック情報取得部206、深度設定提示部207、ステレオ画像生成部208、出力部209、及び領域分割部1201のそれぞれに対応するプログラムを記録媒体70から処理部100内のRAMにロードして処理部100内のCPUが実行することで、ハード資源(CPUとRAM上のプログラムとの協働)により実現される。
 上述の例では、予め記録媒体70に記録されているプログラムを処理部100内のRAMにロードして処理部100内のCPUが実行する構成を例に説明をしたが、上述のプログラムは処理部100内のRAMに予め記録されていても良い。処理部100内のRAMに予め上述のプログラムを記録する構成を採用した場合、記録媒体70に上述のプログラムを記録する必要は必ずしもなくなる。
 また、深度情報保存部204は、記録媒体70の記録領域の一部により実現される。
 ユーザーインタフェース制御装置300が有する構成要素のうち操作入力受付部201、グラフィック情報取得部206、深度設定提示部207、領域分割部1201以外の要素は、図2に示した実施形態1に係るユーザーインタフェース制御装置が有するものと同様のものであり、本実施形態では説明を省略する。以下では操作入力受付部201、グラフィック情報取得部206、深度設定提示部207、領域分割部1201について説明する。
 領域分割部1201は、立体視画像の輝度分布及び深度情報の分布にしたがって、左目用画像を複数の被写体領域に分割する領域区分手段としての機能を有する。具体的には、左目用画像において周囲の画素と輝度を比較した場合に、輝度が所定の閾値を超えて鋭敏に変化しているエッジ部分を検出する。領域分割部1201は、このようなエッジに囲まれた領域毎に左目用画像を区分し、さらに記録装置から左目用画像の深度情報を読み出して、エッジを挟んで両側の深度が所定の閾値を超えて異なる場合に、エッジに囲まれた領域が被写体領域であると判定する。
 例えば、図20の(a)に示すような3つの箱11、12、13を被写体として破線で示すような向きで撮影すると、図20の(b)のような左目用画像が得られる。この左目用画像は領域分割部1201において適切な輝度の閾値を用いることにより領域11a、12a、13aが異なる領域として検出される。これらの領域について記録装置から左目用画像の深度情報を読み出し、領域11a、12a、13aの深度を、それぞれ隣接する領域の深度と比較し、所定の閾値を超えて異なる場合は、領域11a、12a、13aが被写体領域であると判定される。こうして検出した各被写体領域の座標情報は、深度情報保存部204を介して記録媒体70に記録される。
 深度設定提示部207は、実施形態1で説明したGUI提示部111、伸縮表示部112、深度決定部113と同様の機能を有するGUI提示部211、伸縮表示部212、深度決定部213に加えて、領域提示部214を内部に有する。領域提示部214は、ディスプレイに表示した左目用画像において、深度の異なる被写体をユーザに提示する領域提示手段としての機能を有する。具体的には、領域提示部214は、領域分割部1201で検出された各被写体領域を図21の(a)に示す領域11b、12b、13bのように、異なる模様や色で塗り分けてディスプレイに表示することでユーザに提示する。
 尚、領域の提示には、図21の(b)に示すように、各領域に番号等のテキストを合成して表示する手法や、被写体と判定した領域11c、12c、13cのエッジ部分を強調するよう画像を加工して表示する手法等、被写体と判定した領域のユーザ認識を補助する様々な手法を用いることができる。
 操作入力受付部201は、実施形態1で説明した操作入力受付部101が受け付けるユーザ操作に加えて、上述のように領域提示部214により提示された深度の異なる被写体の何れかを、ユーザが選択する操作を受け付ける領域受付手段としての機能を有する。
 グラフィック情報取得部206は、実施形態1で説明したグラフィック情報取得部105と同様に、ディスプレイ200に表示された左目用画像上でグラフィックパーツが占める配置範囲の座標を取得する平面位置特定手段として機能するが、配置範囲の特定方法がグラフィック情報取得部105と相異する。グラフィック情報取得部105では、ユーザがグラフィックパーツを左目用画像上にドロップした座標からグラフィックパーツの配置範囲を算出したが、グラフィック情報取得部206は、操作入力受付部201により受け付けられた操作により選択された被写体領域の中央の座標を、グラフィックパーツの中心座標(xg,yg)として、グラフィックパーツの配置範囲を算出する。
 以上が実施形態2に係るユーザーインタフェース制御装置300の構成についての説明である。
 続いて、ユーザーインタフェース制御装置300における立体視画像加工について図22を参照して説明する。
 ユーザーインタフェース制御装置300における立体視画像の加工では、まず、領域分割部1201は、画像の輝度及び深度情報を用いて左目用画像から被写体の領域を検出し、領域提示部214は、ディスプレイに表示している左目用画像において、検出された各被写体領域に異なる模様のパターンを重畳して表示させる(ステップS81)。ユーザは、図21(a)のように異なる模様で塗り分けられた領域の何れかを選択してどの被写体に対してグラフィックパーツを重畳するのかを指定することができる。
 このような何れかの被写体領域を選択する操作が操作入力受付部201において受け付けられると(ステップS82)、領域提示部214は、各被写体領域に重畳して表示していた模様のパターンを除去した後、選択された被写体領域に重畳してグラフィックパーツを描画する(ステップS84)。
 ここまでの手順により、実施形態1でユーザがグラフィックパーツを左目用画像上にドロップすることでグラフィックパーツの配置位置を指定していた操作を代替することができる。これ以降は、図11のステップS12以降に示す処理手順と同様の処理により、グラフィックパーツの配置深度を決定する(ステップS84)ことで、立体視画像加工を継続することができる。
 以上のように本実施の形態によれば、複数の被写体が近接配置され、どの被写体に対してグラフィックパーツを重畳するか判定が困難な場合においても、立体視画像の輝度や深度情報に基づいた領域分割手法を導入する事によって、領域単位でグラフィックパーツの配置位置を選択する事ができるので、様々な構図、種類の写真に対応することができ、さらにユーザの利便性を向上させることができる。
(補足)
 なお、上記の実施の形態に基づいて説明してきたが、本発明は上記の実施の形態に限定されないことはもちろんである。以下のような場合も本発明に含まれる。
 (a)本発明の一態様は、各実施形態で説明した処理手順が開示するアプリケーション実行方法であるとしてもよい。また、前記処理手順でコンピュータを動作させるプログラムコードを含むコンピュータプログラムであるとしてもよい。
 (b)本発明の一態様は、上記各実施の形態に記載のユーザーインタフェース制御装置を制御するLSIとしても実施可能である。このようなLSIは、図2、図19に示すユーザーインタフェース制御装置100、及び300に含まれる各機能ブロックを集積化することで実現できる。これらの機能ブロックは、個別に1チップ化されても良いし、一部または全てを含むように1チップ化されてもよい。
 ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または、汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロック及び部材の集積化を行ってもよい。このような技術には、バイオ技術の適用等が可能性としてありえる。
 特に、立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する機能と、特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する機能と、取得した深度を示す選択肢と取得した深度とは異なるグラフィックを配置可能な他の深度を示す選択肢とを提示する機能と、複数の選択肢のうちの何れかの選択を受け付ける機能と、選択肢の選択を受け付けた後に、ユーザからの決定指示を受けるまでグラフィックのサイズを繰り返し変化させて表示する機能と、決定指示を受けた時点でグラフィックを拡大して表示していた場合、選択された選択肢の示す深度よりも手前側の深度をグラフィックを配置する深度に決定し、決定指示を受けた時点でグラフィックを縮小して表示していた場合、選択された選択肢の示す深度よりも奥側の深度をグラフィックを配置する深度に決定する機能と、決定した深度で立体視効果を生じさせるための視差を算出し、当該視差を画素数に変換することでシフト量を取得する機能と、一方の視点画像に対して特定した範囲にグラフィックを合成し、立体視画像を構成する他方の視点画像に対して特定した範囲からシフト量だけ水平方向にシフトした範囲にグラフィックを合成する機能と、立体視表示する際の深度が隣接する領域と閾値を超えて異なる複数の領域に、一方の視点画像を区分する機能と、区分した複数の領域を提示する機能と、提示した領域の何れかの選択を受ける機能とは、上述のとおり集積回路、専用回路等により実現するよう構成することが出来る。また、上記の各機能を、プロセッサとメモリ上のプログラムとの協働とにより実現するよう構成することもできる。
 (c)上記実施の形態1では、対応点探索を画素単位で行う場合を説明したが、必ずしもこの場合に限定されない。例えば、対応点探索を画素ブロック単位(例えば4×4画素、16×16画素)で行ってもよい。
 (d)上記実施の形態1では、被写体の奥行き方向の距離を0~255までの256階調の値に変換し、各画素の奥行きを8ビットの輝度で表したグレースケール画像として深度情報を生成する場合を説明したが、必ずしもこの場合に限定されない。例えば、被写体の奥行き方向の距離を0~127までの128階調の値に変換してもよい。
 (e)上記実施の形態1では、左目用画像に対するグラフィックパーツの配置位置を基準に視差を付けて右目用画像の上にグラフィックパーツを重畳しているが、順番はその逆に、右目用画像に対するグラフィックパーツの配置位置を基準に視差を付けて右目用画像の上にグラフィックパーツを重畳してもかまわない。この場合、ユーザによるグラフィックパーツの配置位置の指定を受ける際に、ディスプレイには右目用画像を表示しておくことが好ましい。
 (f)上記実施の形態1では、同解像度の左目用画像と右目用画像の組みからなるステレオ画像を取得する場合を説明したが、必ずしもこの場合に限定されない。例えば、左目用画像と右目用画像は解像度が異なる画像であってもよい。解像度が異なる画像間においても、解像度変換処理を行うことで、対応点探索による深度情報の生成が可能であり、高解像度の画像に対して画素シフト処理を行うことにより高解像度のステレオ画像を生成することができる。処理が重い深度情報の生成処理を低解像度の画像サイズで行うことができるため、処理の軽減が可能となる。また、撮像装置の一部を低性能の撮像装置とすることができ、低コスト化を図ることができる。
 (g)上記実施の形態1では、表示デバイスの型数X、アスペクト比m:n、表示画面の解像度(縦方向の画素数L、横方向の画素数K)の情報を、外部ディスプレイとのネゴシエーションにより取得する場合を説明したが、必ずしもこの場合に限定されない。例えば、視聴者に表示デバイスの型数X、アスペクト比m:n、表示画面の解像度(縦方向の画素数L、横方向の画素数K)の情報等を入力させるものであってもよい。
 (i)上記実施の形態1では、視聴者から表示画面までの距離Sを表示画面の高さHの3倍(3H)とし、画素シフト量を算出する場合を説明したが、必ずしもこの場合に限定されない。例えば、TOF(Time Of Flight)型センサ等の距離センサにより、視聴者から表示画面までの距離Sを算出してもよい。
 (j)上記実施の形態1では、瞳孔間距離eを成人男性の平均値6.4cmとし、画素シフト量を算出する場合を説明したが、必ずしもこの場合に限定されない。例えば、表示デバイスにカメラを設置し、そのカメラによって取得した顔画像から瞳孔間距離を算出してもよい。また、視聴者が大人であるか子供であるか、男性であるか女性であるかを判別し、それに応じた瞳孔間距離eを算出してもよい。
 (k)上記実施の形態2では、被写体の領域分割の際、輝度分布、並びに深度情報の分布から領域を分割したが、領域分割方法としては、これに限るものではない。例えば、深度情報の分布のみから領域を分割してもよい。また、輝度分布のみを用いて、エッジ(輝度が鋭敏に変化している箇所)またはエッジの交点箇所をいう特徴点として抽出し、領域を分割してもよい。
 エッジの検出は、画素間の輝度の差分(一次微分)を求め、その差分からエッジ強度を算出することにより行ってもよい。なお、その他のエッジ検出方法により特徴点を抽出してもよい。
 (l)上記実施の形態1では, ユーザに奥行き配置を選択させる手段としてGUIのメニューを表示するように指示しているが、選択できる手段であれば他の手法を用いてもよい、例えば、背景、被写体、前景を所定の時間間隔で順番に色づけして表示し、ユーザの望む深度が色づけして表示されている時にボタン押下等の操作を入力することによって、どの位置に大まかに配置するかを選択させるようにしてもよい。なお、背景、被写体、前景を順番に色づけ表示する場合でも、被写体に隠れてしまうなどの場合、グラフィックパーツを配置する意味の無い選択肢は表示しないものとする。
 (m)上記実施の形態1では、深度情報算出部103は、深度情報を、例えばTOF(Time Of Flight)型距離センサ等の距離センサにより各被写体の距離を計測し、生成してもよい。また、外部のネットワーク、サーバ、記録媒体等から、単眼画像と共に深度情報を取得するものであってもよい。また、取得した単眼画像を解析し、深度情報を生成するものであってもよい。具体的には、まず画像を「スーパーピクセル」と呼ばれる色、明るさなどの属性がきわめて均質な画素集合に分け、このスーパーピクセルを隣接するスーパーピクセルと比較し、テクスチャーのグラデーションなどの変化を分析することによって、被写体の距離を推定する。単眼画像は、例えば単眼カメラ等の撮像装置により撮像された画像データであってもよい。また実写画像に限らず、CG(Computer Graphics)等であってもよい。
 (n)上記実施の形態1では, GUIのメニューを表示しているが、その表示位置は左上隅をデフォルトの表示位置として定めているが、表示位置はこの位置に限らない。被写体が隠れない位置に移動・表示し、グラフィックパーツの配置位置に重ならないように配置してもよい。
 (o)上記実施の形態2では、立体視画像を被写体の領域に分割してはいるが、被写体が何であるかを考慮することなく、輝度及び深度情報により被写体の領域を分割している。しかし、被写体の領域分割において、なんらかの人物・物体認識技術を用いて、物体を検出し、(k)に記載のような領域分割手法や上記実施の形態2で用いた深度情報の分布と組み合わせて領域分割を行ってもよい。また、分割された領域に番号を振り、その番号を被写体の上に重畳表示し、ユーザにその番号を選択させる形でグラフィックパーツを重畳する被写体を選択させるようにしてもよい。
 (p)上記実施の形態2では、人物認識機能を利用して人物の領域を認識し、領域分割を行い、人物に対してグラフィックパーツを重畳しやすくするようにしてもよい。
 (q)上記実施の形態1では、グラフィックパーツとして花のマークを例に挙げたが、人間の体の一部分であるグラフィックパーツ、例えば、髪の毛や唇のようなグラフィックパーツの場合には、顔認識機能を利用して、そのグラフィックパーツを顔上の適切な位置に配置するように重畳してもよい。
(r)上記実施の形態1では、グラフィックパーツとして花のマークを例に挙げたが、グラフィックパーツが吹き出しの場合には、顔認識機能を利用して、口の領域の探索し、口に吹き出しの先端がくるように、かつ、被写体である顔を隠さないように配置してもよい。
 本発明の一態様にかかるユーザーインタフェース制御装置によれば、立体視画像にグラフィックパーツを合成する際にグラフィックパーツの配置深度を容易に設定することができ、立体視画像の加工を行うPC、タブレット、スマートフォン、携帯電話等の用途に応用できる。また、レタッチ系のアプリケーションに対しても特に有用である。
   10  カメラ
   20  スピーカ
   30  GPS
   40  センサ
   50  タッチパネル
   60  マイク
   70  記録媒体
  100  処理部
  101、201 操作入力受付部
  102  制御部
  103、203 深度情報算出部
  104、204 深度情報保存部
  105、206 グラフィック情報取得部
  106、205 深度情報解析部
  107、207 深度設定提示部
  108、208 ステレオ画像生成部
  109、209 出力部
  111  GUI提示部
  112  伸縮表示部
  113  深度決定部
  114  シフト量取得部
  115  画像合成部
  200  ディスプレイ
  202  グラフィック重畳制御部
  211  GUI提示部
  212  伸縮表示部
  213  深度決定部
  214  領域提示部
  300 ユーザーインタフェース表示装置
  1201 領域分割部

Claims (16)

  1. 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを提供するユーザーインタフェース制御装置であって、
     立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定手段と、
     前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得手段と、
     前記取得した深度を示す選択肢と、前記取得した深度とは異なるグラフィックを配置可能な他の深度を示す選択肢とを提示する提示手段と
    を備えることを特徴とするユーザーインタフェース制御装置。
  2. 前記取得した深度を示す選択肢は、前記グラフィックが占める範囲に写る被写体で最も手前に位置するものの深度を示し、
     前記グラフィックを配置可能な他の深度を示す選択肢は、前記最も手前に位置する被写体の深度よりも更に手前側の深度を示す
    ことを特徴とする請求項1記載のユーザーインタフェース制御装置。
  3. 前記一方の視点画像の前記特定した範囲に、前記最も手前に位置する被写体に加えて他の被写体が存在し、且つ、2つの被写体間で深度が閾値を超えて異なる場合、提示手段は更に、前記2つの被写体の深度の中間の深度を示す選択肢を提示する
    ことを特徴とする請求項2記載のユーザーインタフェース制御装置。
  4. 前記複数の選択肢のうちの何れかの選択を受け付ける受付手段と、
     前記選択肢の選択を受け付けた後に、ユーザからの決定指示を受けるまで前記グラフィックのサイズを繰り返し変化させて表示する伸縮表示手段と、
     前記決定指示を受けた時点でグラフィックを拡大して表示していた場合、前記選択された選択肢の示す深度よりも手前側の深度を、グラフィックを配置する深度に決定し、前記決定指示を受けた時点でグラフィックを縮小して表示していた場合、前記選択された選択肢の示す深度よりも奥側の深度を、グラフィックを配置する深度に決定する深度決定手段と
    を更に備えることを特徴とする請求項3記載のユーザーインタフェース制御装置。
  5. 深度決定手段は、2つの被写体の深度の中間の深度を示す選択肢が選択された場合に、前記2つの被写体のうち手前側に位置する被写体の深度を、伸縮表示手段が最も拡大して表示したグラフィックのサイズに対応付け、前記2つの被写体のうち奥側に位置する被写体の深度を、伸縮表示手段が最も縮小して表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定する
    ことを特徴とする請求項4記載のユーザーインタフェース制御装置。
  6. 深度決定手段は、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より奥側に何れかの被写体が存在する場合、当該奥側に位置する被写体の深度を、伸縮表示手段が最も小さく表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定する
    ことを特徴とする請求項4記載のユーザーインタフェース制御装置。
  7. 深度決定手段は、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より手前側に何れかの被写体が存在する場合、当該手前側に位置する被写体の深度を、伸縮表示手段が最も大きく表示したグラフィックのサイズに対応付け、前記グラフィックが占める範囲において前記選択された選択肢の示す深度より手前側に被写体が存在しない場合、前記選択された選択肢の示す深度よりも手前側の所定の深度を、伸縮表示手段が最も大きく表示したグラフィックのサイズに対応付けることで、前記決定指示を受けた時点でのグラフィックのサイズに応じた深度を決定する
    ことを特徴とする請求項4記載のユーザーインタフェース制御装置。
  8. 前記決定した深度で立体視効果を生じさせるための視差を算出し、当該視差を画素数に変換することでシフト量を取得するシフト量取得手段と、
     前記一方の視点画像に対して前記平面位置特定手段で特定した範囲にグラフィックを合成し、立体視画像を構成する他方の視点画像に対して前記平面位置特定手段で特定した範囲から前記シフト量だけ水平方向にシフトした範囲にグラフィックを合成する画像合成手段と
    を更に備えることを特徴とする請求項4記載のユーザーインタフェース制御装置。
  9. 視点画像深度取得手段は、立体視画像を構成する前記一方の視点画像と他方の視点画像とのステレオマッチングによって、前記被写体の深度を取得する
    ことを特徴とする請求項1記載のユーザーインタフェース制御装置。
  10.  立体視表示する際の深度が隣接する領域と閾値を超えて異なる複数の領域に、前記一方の視点画像を区分する領域区分手段と、
     区分した複数の領域を提示する領域提示手段と、
     提示した領域の何れかの選択を受ける領域受付手段と
    をさらに備え、
     前記平面位置特定手段は、前記選択された領域の少なくとも一部を含むように、前記グラフィックが占める範囲を特定する
    ことを特徴とする請求項1記載のユーザーインタフェース制御装置。
  11. 前記領域提示手段は、隣接する領域を異なる色で表示することにより、区分した複数の領域を提示する
    ことを特徴とする請求項10記載のユーザーインタフェース制御装置。
  12. 前記領域提示手段は、各領域に異なるテキストを付加して表示することにより、区分した複数の領域を提示する
    ことを特徴とする請求項10記載のユーザーインタフェース制御装置。
  13. 領域区分手段による前記一方の視点画像の区分では、前記一方の視点画像の画素間で輝度が鋭敏に変化しているエッジまたはエッジの交点の抽出により各領域の境界を特定し、
     立体視表示する際の深度には、立体視画像を構成する前記一方の視点画像と他方の視点画像とのステレオマッチングによって得られる各画素の深度を用いる
    ことを特徴とする請求項10記載のユーザーインタフェース制御装置。
  14. 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを制御するユーザーインタフェース制御方法であって、
     立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定ステップと、
     前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得ステップと、
     前記取得した深度を示す選択肢と、前記取得した深度とは異なり、グラフィックを配置可能な他の深度を示す選択肢とを提示する提示ステップと
    を含むことを特徴とするユーザーインタフェース制御方法。
  15. 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを制御するコンピュータプログラムであって、
     立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定ステップと、
     前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得ステップと、
     前記取得した深度を示す選択肢と、前記取得した深度とは異なり、グラフィックを配置可能な他の深度を示す選択肢とを提示する提示ステップと
    をコンピュータに実行させることを特徴とするコンピュータプログラム。
  16. 立体視画像にグラフィックを合成する際に、グラフィックを配置する奥行き方向の深度を設定するためのユーザーインタフェースを提供するユーザーインタフェース制御装置の集積回路であって、
     立体視画像を構成する一方の視点画像上にグラフィックを配置した場合に、グラフィックが占める範囲を特定する平面位置特定手段と、
     前記特定した範囲において、前記一方の視点画像に写る被写体の深度を取得する視点画像深度取得手段と、
     前記取得した深度を示す選択肢と、前記取得した深度とは異なり、グラフィックを配置可能な他の深度を示す選択肢とを提示する提示手段と
    を備えることを特徴とする集積回路。
PCT/JP2012/005109 2011-10-13 2012-08-10 ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 WO2013054462A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2012800020451A CN103168316A (zh) 2011-10-13 2012-08-10 用户界面控制装置、用户界面控制方法、计算机程序以及集成电路
US13/808,145 US9791922B2 (en) 2011-10-13 2012-08-10 User interface control device, user interface control method, computer program and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011226092 2011-10-13
JP2011-226092 2011-10-13

Publications (1)

Publication Number Publication Date
WO2013054462A1 true WO2013054462A1 (ja) 2013-04-18

Family

ID=48081534

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005109 WO2013054462A1 (ja) 2011-10-13 2012-08-10 ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路

Country Status (4)

Country Link
US (1) US9791922B2 (ja)
JP (1) JPWO2013054462A1 (ja)
CN (1) CN103168316A (ja)
WO (1) WO2013054462A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015084150A (ja) * 2013-10-25 2015-04-30 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2015158743A (ja) * 2014-02-21 2015-09-03 キヤノン株式会社 表示制御装置及び表示制御方法
US11054650B2 (en) 2013-03-26 2021-07-06 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
JP7428687B2 (ja) 2021-11-08 2024-02-06 株式会社平和 遊技機

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10579904B2 (en) 2012-04-24 2020-03-03 Stmicroelectronics S.R.L. Keypoint unwarping for machine vision applications
GB2511526A (en) 2013-03-06 2014-09-10 Ibm Interactor for a graphical object
JP5834253B2 (ja) 2013-03-27 2015-12-16 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP5849206B2 (ja) * 2013-03-27 2016-01-27 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US20150052460A1 (en) * 2013-08-13 2015-02-19 Qualcomm Incorporated Method for seamless mobile user experience between outdoor and indoor maps
CN104469338B (zh) * 2013-09-25 2016-08-17 联想(北京)有限公司 一种控制方法和装置
KR20150101915A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스
US20160165207A1 (en) * 2014-12-03 2016-06-09 Kabushiki Kaisha Toshiba Electronic device, method, and computer program product
KR102423175B1 (ko) 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법
CN109542293B (zh) * 2018-11-19 2020-07-31 维沃移动通信有限公司 一种菜单界面设置方法及移动终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
JP2005078424A (ja) * 2003-09-01 2005-03-24 Omron Corp 写真シール作成装置および写真シール作成方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
US20090219383A1 (en) * 2007-12-21 2009-09-03 Charles Gregory Passmore Image depth augmentation system and method
JP4955596B2 (ja) * 2008-03-21 2012-06-20 富士フイルム株式会社 画像出力方法、装置およびプログラム
WO2010064774A1 (ko) * 2008-12-02 2010-06-10 (주)엘지전자 3차원 영상신호 전송 방법과, 3차원 영상표시 장치 및 그에 있어서의 신호 처리 방법
KR101729023B1 (ko) * 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
JP2005078424A (ja) * 2003-09-01 2005-03-24 Omron Corp 写真シール作成装置および写真シール作成方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11054650B2 (en) 2013-03-26 2021-07-06 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
JP2015084150A (ja) * 2013-10-25 2015-04-30 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2015158743A (ja) * 2014-02-21 2015-09-03 キヤノン株式会社 表示制御装置及び表示制御方法
US10244196B2 (en) 2014-02-21 2019-03-26 Canon Kabushiki Kaisha Display control apparatus and display control method
JP7428687B2 (ja) 2021-11-08 2024-02-06 株式会社平和 遊技機

Also Published As

Publication number Publication date
CN103168316A (zh) 2013-06-19
JPWO2013054462A1 (ja) 2015-03-30
US9791922B2 (en) 2017-10-17
US20130293469A1 (en) 2013-11-07

Similar Documents

Publication Publication Date Title
WO2013054462A1 (ja) ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路
US11756223B2 (en) Depth-aware photo editing
JP4966431B2 (ja) 画像処理装置
WO2020192706A1 (zh) 物体三维模型重建方法及装置
JP7387202B2 (ja) 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム
CN111541907B (zh) 物品显示方法、装置、设备及存储介质
KR102461232B1 (ko) 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체
JP2011509451A (ja) 画像データのセグメント化
JP7387434B2 (ja) 画像生成方法および画像生成装置
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
TWI502546B (zh) 推擠一模型通過二維場景的系統、方法和電腦程式商品
WO2015156149A1 (ja) 画像処理装置および画像処理方法
US9767580B2 (en) Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images
US11043019B2 (en) Method of displaying a wide-format augmented reality object
CN111652792B (zh) 图像的局部处理、直播方法、装置、设备和存储介质
US20130266209A1 (en) Image processing apparatus and image processing method
KR101632514B1 (ko) 깊이 영상 업샘플링 방법 및 장치
JP5464129B2 (ja) 画像処理装置および視差情報生成装置
KR101451236B1 (ko) 3차원 영상 변환 방법 및 그 장치
US8817081B2 (en) Image processing apparatus, image processing method, and program
KR20110082907A (ko) 입체 영상 변환 방법 및 입체 영상 변환 장치
WO2014001062A2 (en) Device for generating a depth map
KR101626679B1 (ko) 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체
EP3367328A1 (en) A method, apparatus and computer program product for generating composite images with three-dimensional effects and reducing pole contraction lines
WO2012096065A1 (ja) 視差画像表示装置及び視差画像表示方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012556728

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13808145

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12839865

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12839865

Country of ref document: EP

Kind code of ref document: A1