WO2013140702A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
WO2013140702A1
WO2013140702A1 PCT/JP2013/000045 JP2013000045W WO2013140702A1 WO 2013140702 A1 WO2013140702 A1 WO 2013140702A1 JP 2013000045 W JP2013000045 W JP 2013000045W WO 2013140702 A1 WO2013140702 A1 WO 2013140702A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
face
image data
image processing
parameter
Prior art date
Application number
PCT/JP2013/000045
Other languages
English (en)
French (fr)
Inventor
次夫 遠藤
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US14/386,894 priority Critical patent/US20150054822A1/en
Priority to EP13765272.3A priority patent/EP2830315A4/en
Publication of WO2013140702A1 publication Critical patent/WO2013140702A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a program for generating stereoscopic image data for displaying a stereoscopic image.
  • Patent Documents 1 and 2 As a technique for displaying an image three-dimensionally, for example, there are techniques described in Patent Documents 1 and 2.
  • the technique described in Patent Literature 1 describes that the position of a user's viewpoint is detected by processing an image, and a stereoscopic image is rotated based on the detection result.
  • Patent Document 2 allows a user to recognize a stereoscopic image by alternately displaying a left-eye image and a right-eye image on an image display device.
  • the optical path of the image is inclined toward the left eye of the user, and the right-eye image is displayed on the image display device.
  • the optical path of an image is inclined toward the right eye of the user.
  • the convergence angle and baseline length of the left eye image and the right eye image are shifted in advance. These values are generally fixed values. However, the optimal convergence angle and base line length for the user vary from user to user. For this reason, the user has to set parameters for displaying a stereoscopic image manually.
  • An object of the present invention is to provide an image processing apparatus, an image processing method, and a program that make it easy to set parameters for stereoscopic image display.
  • position calculation means for acquiring image data generated by imaging a user's face and calculating the position of the face in the image data;
  • Stereoscopic image generation means for generating stereoscopic image data for displaying a stereoscopic image based on the left-eye image, the right-eye image, and the stereoscopic image display parameters;
  • Parameter setting means for setting the parameter based on the calculated value of the position calculating means;
  • a computer Obtaining image data generated by imaging a user's face, calculating the position of the face in the image data, Based on the left-eye image, the right-eye image, and the stereoscopic image display parameters, stereoscopic image data for displaying the stereoscopic image is generated, An image processing method for setting the parameter based on the position of the face is provided.
  • a computer A function of acquiring image data generated by imaging a user's face and calculating the position of the face in the image data; A function of generating stereoscopic image data for displaying a stereoscopic image based on the left-eye image, the right-eye image, and the stereoscopic image display parameters; A function for setting the parameter based on the position of the face; A program for providing
  • the user can easily set a parameter for displaying a stereoscopic image.
  • each component of each device indicates a functional unit block, not a hardware unit configuration.
  • Each component of each device includes a CPU, memory, a program that realizes the components of this figure loaded in the memory, a storage medium such as a hard disk that stores the program, and a network connection interface. It is realized by any combination of software and software. There are various modifications of the implementation method and apparatus.
  • FIG. 1 is a diagram illustrating a functional configuration of an image processing apparatus 10 according to the first embodiment.
  • the image processing apparatus 10 includes a position calculation unit 110, a parameter setting unit 120, and a stereoscopic image generation unit 130.
  • the position calculation unit 110 acquires image data generated by imaging a user's face.
  • the position calculating unit 110 calculates the position of the face in the image data.
  • the stereoscopic image generation unit 130 generates stereoscopic image data for displaying a stereoscopic image based on the left-eye image, the right-eye image, and the stereoscopic image display parameters.
  • the parameter setting unit 120 sets the above-described parameters based on the calculated value of the position calculating unit 110. This parameter is, for example, a shift amount of at least one of the left-eye image and the right-eye image.
  • the user can set the parameters for stereoscopic image display only by shifting the relative position of the face with respect to the imaging device that generates the image data. Therefore, it is easy for the user to set the stereoscopic image display parameters.
  • FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus 10 according to the second embodiment.
  • the image processing apparatus 10 according to the present embodiment has the same configuration as that of the image processing apparatus 10 according to the first embodiment, except that the image processing apparatus 10 includes an imaging unit 140, an image data storage unit 150, and a display unit 160.
  • the imaging unit 140 generates image data.
  • the image data storage unit 150 stores a left-eye image and a right-eye image for stereoscopic image display. These images are in a multi-picture format, for example.
  • the image data storage unit 150 may acquire a left-eye image and a right-eye image via a communication unit (not shown), or may acquire a left-eye image and a right-eye image via a storage medium. .
  • the image data storage unit 150 may store parameter setting values.
  • the display unit 160 displays a stereoscopic image using the stereoscopic image data.
  • the display unit 160 is a display device that can be stereoscopically viewed with the naked eye, such as a parallax barrier method or a lenticular method. However, the display unit 160 may be a device that displays a stereoscopic image using an auxiliary device such as glasses.
  • FIG. 3 is a plan view showing a layout of the imaging unit 140 and the display unit 160 in the image processing apparatus 10.
  • the image processing apparatus 10 is a portable electronic device, for example, and may have a communication function.
  • a display unit 160 is provided on one surface of the housing of the image processing apparatus 10.
  • the imaging unit 140 is provided on the same surface as the display unit 160. Therefore, the user can adjust the parameters for the stereoscopic image by shifting the relative positions of the imaging unit 140 and the face while viewing the stereoscopic image displayed on the display unit 160.
  • FIG. 4 and 5 show an example of the operation performed by the parameter setting unit 120.
  • the parameter setting unit 120 provides a reference area in the image data.
  • the parameter setting unit 120 performs the parameter setting operation only while the face is included in the reference area.
  • the parameter setting unit 120 starts parameter setting when the face inclination is equal to or less than the reference value in the reference area. Also, as shown in FIG. 4B, the parameter setting unit 120 does not start setting parameters even when a face is in the reference area, if the face inclination is equal to or greater than the reference value. The reason for this will be described later with reference to FIG.
  • the parameter setting unit 120 ends the parameter setting when the face is no longer included in the reference area. This simplifies the end of parameter setting.
  • the parameter setting unit 120 may end the parameter setting when a part of the face that is equal to or greater than the reference ratio is out of the reference area.
  • FIG. 6 shows an example of an operation performed by the user of the image processing apparatus 10.
  • the user of the image processing apparatus 10 changes the position of the face in the reference area up and down by changing the inclination of the image processing apparatus 10.
  • the parameter setting unit 120 changes the value of the stereoscopic image parameter based on the height of the face display position. For example, if the height of the face display position is higher than the reference position, the parameter setting unit 120 changes the parameter from the default value to the + direction. Also, the parameter setting unit 120 changes the parameter from the default value to the negative direction when the height of the face display position is lower than the reference position. In this way, the operation performed by the user is simplified. In this process, when the parameter value reaches the upper limit or the lower limit, the parameter setting unit 120 may end the parameter setting operation.
  • the user of the image processing apparatus 10 may change the position of the face in the reference area left and right by changing the horizontal inclination of the image processing apparatus 10.
  • the parameter setting unit 120 changes the parameter from the default value to the + (or-) direction.
  • the parameter setting unit 120 changes the parameter from the default value to the ⁇ (or +) direction when the face display position moves to the left from the reference position.
  • the display unit 160 displays a stereoscopic image by the parallax barrier method
  • the parameter setting unit 120 preferably changes the value of the stereoscopic image parameter based on the height of the face display position.
  • the reference area at the start of parameter setting described in FIG. 4 may be narrower than the reference area during the parameter setting operation.
  • FIG. 8 is a flowchart for explaining the operation of the image processing apparatus 10.
  • the stereoscopic image generation unit 130 causes the display unit 160 to display the image data captured by the imaging unit 140 as two-dimensional image data (step S10).
  • the user of the image processing apparatus 10 positions the face in the reference area while viewing the display on the display unit 160 (step S20: Yes). Thereby, the parameter setting process is started.
  • the stereoscopic image generation unit 130 reads the left-eye image, the right-eye image, and the default parameter value from the image data storage unit 150, and causes the display unit 160 to display a stereoscopic image using the read data (step S30).
  • the user tilts the image processing apparatus 10 based on the visibility of the stereoscopic image displayed on the display unit 160.
  • the position of the face in the image data generated by the imaging unit 140 changes.
  • the parameter setting unit 120 determines the position of the face (step S40), and corrects the stereoscopic image display parameter based on the determination result (step S50).
  • the stereoscopic image generation unit 130 corrects the stereoscopic image data using the parameters corrected by the parameter setting unit 120 (step S60).
  • the display unit 160 displays a stereoscopic image using the corrected stereoscopic image data (step S70).
  • the user moves the face or the image processing apparatus 10 so that the face deviates from the reference area (step S80: No). Thereby, the parameter setting process ends.
  • the set parameters may be stored in the image data storage unit 150.
  • the same effect as that of the first embodiment can be obtained. Further, by changing the inclination of the image processing apparatus 10, the position of the face in the reference area is changed up and down, thereby changing the parameter value. In this way, parameter setting is further facilitated.
  • parameter setting processing is not performed when the face is inclined in the image data. For this reason, it can suppress that a parameter changes in the direction contrary to a user's intention.
  • the imaging unit 140 is provided on the same surface as the display unit 160. Therefore, the user can adjust the parameters for the stereoscopic image by shifting the relative positions of the imaging unit 140 and the face while viewing the stereoscopic image displayed on the display unit 160.
  • the parameter setting unit 120 ends the parameter setting when the face is no longer included in the reference area. This simplifies the end of parameter setting.
  • Position calculating means for acquiring image data generated by imaging a user's face and calculating the position of the face in the image data;
  • Stereoscopic image generation means for generating stereoscopic image data for displaying a stereoscopic image based on the left-eye image, the right-eye image, and the stereoscopic image display parameters;
  • Parameter setting means for setting the parameter based on the calculated value of the position calculating means;
  • An image processing apparatus comprising: (Appendix 2) In the image processing apparatus according to attachment 1, The image processing apparatus, wherein the parameter is a shift amount of at least one of the left-eye image and the right-eye image.
  • (Appendix 3) In the image processing apparatus according to appendix 1 or 2, An image pickup unit provided on one surface of the image processing device and generating the image data; Display means provided on the one surface and displaying the stereoscopic image data; An image processing apparatus comprising: (Appendix 4) In the image processing apparatus according to any one of appendices 1 to 3, The parameter setting means is an image processing device that ends the parameter setting when the face is no longer included in a reference area in the image data. (Appendix 5) In the image processing apparatus according to any one of appendices 1 to 4, The parameter setting means is an image processing apparatus that starts setting the parameter when the inclination of the face is not more than a reference value in the image data.
  • (Appendix 6) Computer Obtaining image data generated by imaging a user's face, calculating the position of the face in the image data, Based on the left-eye image, the right-eye image, and the stereoscopic image display parameters, stereoscopic image data for displaying the stereoscopic image is generated, An image processing method for setting the parameter based on the position of the face.
  • (Appendix 7) In the image processing method according to attachment 6, The image processing method, wherein the parameter is a shift amount of at least one of the left-eye image and the right-eye image.
  • (Appendix 8) In the image processing method according to appendix 6 or 7, The image processing method, wherein the computer ends the parameter setting when the face is not included in a reference area in the image data.
  • Appendix 12 In the program described in Appendix 10 or 11, A program for causing the computer to have a function of ending the parameter setting when the face is no longer included in a reference area in the image data.
  • Appendix 13 In the program according to any one of appendices 10 to 12, A program for causing the computer to have a function of starting the parameter setting when the inclination of the face is equal to or less than a reference value in the image data.

Abstract

 位置算出部(110)は、ユーザの顔を撮像して生成された画像データを取得する。そして位置算出部(110)は、画像データ内における顔の位置を算出する。立体画像生成部(130)は、左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する。パラメータ設定部(120)は、位置算出部(110)の算出値に基づいて、上記したパラメータを設定する。このパラメータは、例えば左目用画像及び右目用画像の少なくとも一方のずらし量である。

Description

画像処理装置、画像処理方法、及びプログラム
 本発明は、立体画像を表示するための立体画像データを生成する画像処理装置、画像処理方法、及びプログラムに関する。
 画像を立体的に表示させるための技術として、例えば特許文献1,2に記載の技術がある。特許文献1に記載の技術は、画像を処理することによってユーザの視点の位置を検出し、この検出結果に基づいて立体画像を回転させることが記載されている。
 特許文献2に記載の技術は、画像表示装置に左目用画像と右目用画像を交互に表示させることにより、ユーザに立体画像を認識させるものである。特に特許文献2に記載の技術では、画像表示装置に左目用画像を表示させているときには、ユーザの左目に向けて画像の光路を傾斜させ、画像表示装置に右目用画像を表示させているときには、ユーザの右目に向けて画像の光路を傾斜させることが記載されている。
特開平4-253281号公報 特開平8-62534号公報
 左目用画像と右目用画像の画像は、輻輳角や基線長が予めずれている。これらの値は、一般的に固定値である。しかし、ユーザにとって最適な輻輳角や基線長は、ユーザによって異なる。このため、ユーザは手入力で立体画像表示用のパラメータを設定する必要があった。
 本発明の目的は、立体画像表示用のパラメータを設定しやすくした画像処理装置、画像処理方法、及びプログラムを提供することにある。
 本発明によれば、ユーザの顔を撮像して生成された画像データを取得し、前記画像データ内における前記顔の位置を算出する位置算出手段と、
 左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する立体画像生成手段と、
 前記位置算出手段の算出値に基づいて、前記パラメータを設定するパラメータ設定手段と、
を備える画像処理装置が提供される。
 本発明によれば、コンピュータが、
  ユーザの顔を撮像して生成された画像データを取得し、前記画像データにおける前記顔の位置を算出し、
  左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成し、
  前記顔の位置に基づいて、前記パラメータを設定する画像処理方法が提供される。
 本発明によれば、コンピュータに、
  ユーザの顔を撮像して生成された画像データを取得し、前記画像データにおける前記顔の位置を算出する機能と、
  左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する機能と、
  前記顔の位置に基づいて、前記パラメータを設定する機能と、
を持たせるためのプログラムが提供される。
 本発明によれば、ユーザは、立体画像表示用のパラメータを設定しやすい。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
第1の実施形態に係る画像処理装置の機能構成を示す図である。 第2の実施形態に係る画像処理装置の機能構成を示す図である。 画像処理装置における撮像部及び表示部のレイアウトを示す平面図である。 パラメータ設定部が行う動作の一例を示す図である。 パラメータ設定部が行う動作の一例を示す図である。 画像処理装置のユーザが行う動作の一例を示す図である。 図4の変形例を示す図である。 画像処理装置の動作を説明するためのフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 なお、以下に示す説明において、各装置の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。各装置の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。
(第1の実施形態)
 図1は、第1の実施形態に係る画像処理装置10の機能構成を示す図である。画像処理装置10は、位置算出部110、パラメータ設定部120、及び立体画像生成部130を備えている。位置算出部110は、ユーザの顔を撮像して生成された画像データを取得する。そして位置算出部110は、画像データ内における顔の位置を算出する。立体画像生成部130は、左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する。パラメータ設定部120は、位置算出部110の算出値に基づいて、上記したパラメータを設定する。このパラメータは、例えば左目用画像及び右目用画像の少なくとも一方のずらし量である。
 本実施形態によれば、ユーザは、画像データを生成する撮像デバイスに対する顔の相対位置をずらすのみで、立体画像表示用のパラメータを設定することができる。従って、ユーザは、立体画像表示用のパラメータを設定しやすい。
(第2の実施形態)
 図2は、第2の実施形態に係る画像処理装置10の機能構成を示す図である。本実施形態に係る画像処理装置10は、撮像部140、画像データ記憶部150、及び表示部160を備える点を除いて、第1の実施形態に係る画像処理装置10と同様の構成である。
 撮像部140は、画像データを生成する。画像データ記憶部150は、立体画像表示用の左目用画像及び右目用画像を記憶している。これらの画像は、例えばマルチピクチャフォーマット形式である。画像データ記憶部150は、通信手段(図示せず)を介して左目用画像及び右目用画像を取得しても良いし、記憶媒体を介して左目用画像及び右目用画像を取得しても良い。また画像データ記憶部150は、パラメータの設定値を記憶していても良い。表示部160は、立体画像データを用いて立体画像を表示する。表示部160は、例えば視差バリア方式やレンチキュラー方式など、裸眼で立体視可能な表示デバイスである。ただし表示部160は、メガネなどの補助機器を用いて立体画像を表示するデバイスであっても良い。
 図3は、画像処理装置10における撮像部140及び表示部160のレイアウトを示す平面図である。画像処理装置10は、例えば携帯型の電子機器であり、通信機能を有していても良い。画像処理装置10の筐体の一面には、表示部160が設けられている。そして撮像部140は、表示部160と同一面に設けられている。このため、ユーザは、表示部160で表示される立体画像を見ながら、撮像部140と顔の相対位置をずらして立体画像用のパラメータを調節することができる。
 図4及び図5は、パラメータ設定部120が行う動作の一例を示している。本図に示す例において、パラメータ設定部120は、画像データ内に基準エリアを設けている。そしてパラメータ設定部120は、基準エリア内に顔が含まれている間のみ、パラメータの設定動作を行う。
 詳細には、パラメータ設定部120は、図4(a)に示すように、基準エリア内において顔の傾きが基準値以下の場合、パラメータの設定を開始する。またパラメータ設定部120は、図4(b)に示すように、基準エリア内に顔があっても、顔の傾きが基準値以上の場合には、パラメータの設定を始めない。この理由については、図6を用いて後述する。
 そして図5に示すように、パラメータ設定部120は、基準エリアに顔が含まれなくなったとき、パラメータの設定を終了する。このようにすると、パラメータの設定終了が簡単になる。パラメータ設定部120は、顔のうち基準割合以上の部分が基準エリアから外れたときに、パラメータの設定を終了してもよい。
 図6は、画像処理装置10のユーザが行う動作の一例を示している。本図に示す例では、画像処理装置10のユーザは、画像処理装置10の傾きを変えることで、基準エリア内における顔の位置を上下に変化させる。パラメータ設定部120は、この顔の表示位置の高さに基づいて、立体画像用のパラメータの値を変化させる。例えばパラメータ設定部120は、顔の表示位置の高さが基準位置より高くなった場合、パラメータをデフォルト値から+の方向に変化させる。またパラメータ設定部120は、顔の表示位置の高さが基準位置より低くなった場合、パラメータをデフォルト値から-の方向に変化させる。このようにすると、ユーザが行う動作は簡単になる。なおこの処理において、パラメータの値が上限又は下限になった場合、パラメータ設定部120はパラメータの設定動作を終了しても良い。
 なお、画像処理装置10のユーザは、画像処理装置10の横方向の傾きを変えることで、基準エリア内における顔の位置を左右に変化させることも考えられる。この場合、パラメータ設定部120は、顔の表示位置が基準位置より右に移動した場合、パラメータをデフォルト値から+(又は-)の方向に変化させる。またパラメータ設定部120は、顔の表示位置が基準位置より左に移動した場合、パラメータをデフォルト値から-(又は+)の方向に変化させる。ただし、表示部160が視差バリア方式で立体画像を表示する場合、画像処理装置10を横方向に傾けると、ユーザは立体画像を視認しにくくなる。このため、表示部160が視差バリア方式の場合、パラメータ設定部120は、顔の表示位置の高さに基づいて、立体画像用のパラメータの値を変化させるのが好ましい。
 図4に示した基準エリア内において顔が傾いている状態で図6を用いて説明した処理を行うと、パラメータの修正方向は、ユーザの意図とは異なる可能性が出てくる。このため、図4を用いて説明した処理が必要になる。
 また、図7に示すように、図4で説明したパラメータの設定開始における基準エリアは、パラメータの設定動作を行っている間の基準エリアよりも狭くても良い。
 図8は、画像処理装置10の動作を説明するためのフローチャートである。まず立体画像生成部130は、撮像部140が撮像した画像データを、2次元の画像データとして表示部160に表示させる(ステップS10)。画像処理装置10のユーザは、表示部160の表示を見ながら、顔を基準エリア内に位置させる(ステップS20:Yes)。これにより、パラメータの設定処理が開始される。
 まず立体画像生成部130は、画像データ記憶部150から左目用画像、右目用画像、及びデフォルトのパラメータ値を読み出し、読み出したデータを用いて表示部160に立体画像を表示させる(ステップS30)。ユーザは、表示部160で表示された立体画像の見やすさに基づいて、画像処理装置10を傾ける。すると、撮像部140が生成した画像データ内における顔の位置が変化する。パラメータ設定部120は、この顔の位置を判断し(ステップS40)、判断結果に基づいて、立体画像表示用のパラメータを修正する(ステップS50)。立体画像生成部130は、パラメータ設定部120が修正したパラメータを用いて立体画像データを修正する(ステップS60)。表示部160は、修正後の立体画像データを用いて立体画像を表示する(ステップS70)。
 ユーザは、パラメータの修正が終了すると、顔が基準エリアから外れるように、顔又は画像処理装置10を移動させる(ステップS80:No)。これにより、パラメータの設定処理が終了する。なお、設定されたパラメータは、画像データ記憶部150に記憶されても良い。
 以上、本実施形態によっても、第1の実施形態と同様の効果を得ることができる。また、画像処理装置10の傾きを変えることで、基準エリア内における顔の位置を上下に変化させ、これによりパラメータの値を変えている。このようにすると、パラメータの設定はさらに容易になる。そして本実施形態では、この設定が正常に行われるようにするために、画像データ内において顔が傾いている場合にはパラメータの設定処理が行われないようになっている。このため、ユーザの意図と反した方向にパラメータが変化することを抑制できる。
 また、撮像部140は、表示部160と同一面に設けられている。このため、ユーザは、表示部160で表示される立体画像を見ながら、撮像部140と顔の相対位置をずらして立体画像用のパラメータを調節することができる。
 また、パラメータ設定部120は、基準エリアに顔が含まれなくなったとき、パラメータの設定を終了する。このようにすると、パラメータの設定終了が簡単になる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 なお、上記した実施形態によれば、以下の発明が開示されている。
(付記1)
 ユーザの顔を撮像して生成された画像データを取得し、前記画像データ内における前記顔の位置を算出する位置算出手段と、
 左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する立体画像生成手段と、
 前記位置算出手段の算出値に基づいて、前記パラメータを設定するパラメータ設定手段と、
を備える画像処理装置。
(付記2)
 付記1に記載の画像処理装置において、
 前記パラメータは、前記左目用画像及び前記右目用画像の少なくとも一方のずらし量である画像処理装置。
(付記3)
 付記1又は2に記載の画像処理装置において、
 前記画像処理装置の一面に設けられ、前記画像データを生成する撮像手段と、
 前記一面に設けられ、前記立体画像データを表示する表示手段と、
を備える画像処理装置。
(付記4)
 付記1~3のいずれか一つに記載の画像処理装置において、
 前記パラメータ設定手段は、前記画像データ内の基準エリアに前記顔が含まれなくなったとき、前記パラメータの設定を終了する画像処理装置。
(付記5)
 付記1~4のいずれか一つに記載の画像処理装置において、
 前記パラメータ設定手段は、前記画像データにおいて前記顔の傾きが基準値以下の場合、前記パラメータの設定を開始する画像処理装置。
(付記6)
 コンピュータが、
  ユーザの顔を撮像して生成された画像データを取得し、前記画像データにおける前記顔の位置を算出し、
  左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成し、
  前記顔の位置に基づいて、前記パラメータを設定する画像処理方法。
(付記7)
 付記6に記載の画像処理方法において、
 前記パラメータは、前記左目用画像及び前記右目用画像の少なくとも一方のずらし量である画像処理方法。
(付記8)
 付記6又は7に記載の画像処理方法において、
 前記コンピュータは、前記画像データ内の基準エリアに前記顔が含まれなくなったとき、前記パラメータの設定を終了する画像処理方法。
(付記9)
 付記6~8のいずれか一つに記載の画像処理方法において、
 前記コンピュータは、前記画像データにおいて前記顔の傾きが基準値以下の場合、前記パラメータの設定を開始する画像処理方法。
(付記10)
 コンピュータに、
  ユーザの顔を撮像して生成された画像データを取得し、前記画像データにおける前記顔の位置を算出する機能と、
  左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する機能と、
  前記顔の位置に基づいて、前記パラメータを設定する機能と、
を持たせるためのプログラム。
(付記11)
 付記10に記載のプログラムにおいて、
 前記パラメータは、前記左目用画像及び前記右目用画像の少なくとも一方のずらし量であるプログラム。
(付記12)
 付記10又は11に記載のプログラムにおいて、
 前記コンピュータに、前記画像データ内の基準エリアに前記顔が含まれなくなったとき、前記パラメータの設定を終了する機能を持たせるプログラム。
(付記13)
 付記10~12のいずれか一つに記載のプログラムにおいて、
 前記コンピュータに、前記画像データにおいて前記顔の傾きが基準値以下の場合、前記パラメータの設定を開始する機能を持たせるプログラム。
 この出願は、2012年3月22日に出願された日本出願特願2012-64894を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (7)

  1.  ユーザの顔を撮像して生成された画像データを取得し、前記画像データ内における前記顔の位置を算出する位置算出手段と、
     左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する立体画像生成手段と、
     前記位置算出手段の算出値に基づいて、前記パラメータを設定するパラメータ設定手段と、
    を備える画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記パラメータは、前記左目用画像及び前記右目用画像の少なくとも一方のずらし量である画像処理装置。
  3.  請求項1又は2に記載の画像処理装置において、
     前記画像処理装置の一面に設けられ、前記画像データを生成する撮像手段と、
     前記一面に設けられ、前記立体画像データを表示する表示手段と、
    を備える画像処理装置。
  4.  請求項1~3のいずれか一項に記載の画像処理装置において、
     前記パラメータ設定手段は、前記画像データ内の基準エリアに前記顔が含まれなくなったとき、前記パラメータの設定を終了する画像処理装置。
  5.  請求項1~4のいずれか一項に記載の画像処理装置において、
     前記パラメータ設定手段は、前記画像データにおいて前記顔の傾きが基準値以下の場合、前記パラメータの設定を開始する画像処理装置。
  6.  コンピュータが、
      ユーザの顔を撮像して生成された画像データを取得し、前記画像データにおける前記顔の位置を算出し、
      左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成し、
      前記顔の位置に基づいて、前記パラメータを設定する画像処理方法。
  7.  コンピュータに、
      ユーザの顔を撮像して生成された画像データを取得し、前記画像データにおける前記顔の位置を算出する機能と、
      左目用画像、右目用画像、及び立体画像表示用のパラメータに基づいて、立体画像を表示するための立体画像データを生成する機能と、
      前記顔の位置に基づいて、前記パラメータを設定する機能と、
    を持たせるためのプログラム。
PCT/JP2013/000045 2012-03-22 2013-01-10 画像処理装置、画像処理方法、及びプログラム WO2013140702A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/386,894 US20150054822A1 (en) 2012-03-22 2013-01-10 Image processing device, image processing method, and program
EP13765272.3A EP2830315A4 (en) 2012-03-22 2013-01-10 IMAGE PROCESSING DEVICE, IMAGE PROCESSING AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-064894 2012-03-22
JP2012064894 2012-03-22

Publications (1)

Publication Number Publication Date
WO2013140702A1 true WO2013140702A1 (ja) 2013-09-26

Family

ID=49222188

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/000045 WO2013140702A1 (ja) 2012-03-22 2013-01-10 画像処理装置、画像処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20150054822A1 (ja)
EP (1) EP2830315A4 (ja)
JP (1) JPWO2013140702A1 (ja)
WO (1) WO2013140702A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635707A (zh) * 2014-11-06 2016-06-01 福州瑞芯微电子股份有限公司 一种图像生成方法和装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107343193B (zh) * 2017-07-31 2019-08-06 深圳超多维科技有限公司 一种裸眼立体显示方法、装置及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04253281A (ja) 1991-01-29 1992-09-09 Nec Corp 3次元図形表示装置
JPH0862534A (ja) 1994-08-24 1996-03-08 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2005210155A (ja) * 2004-01-20 2005-08-04 Sanyo Electric Co Ltd 携帯型視聴装置
JP2007181071A (ja) * 2005-12-28 2007-07-12 Shunkosha:Kk コンテンツ注目評価装置及び評価方法
JP2011082649A (ja) * 2009-10-05 2011-04-21 Nikon Corp 画像生成装置、画像生成方法、および、プログラム
JP2012010084A (ja) * 2010-06-24 2012-01-12 Sony Corp 立体表示装置及び立体表示装置の制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09289655A (ja) * 1996-04-22 1997-11-04 Fujitsu Ltd 立体画像表示方法及び多視画像入力方法及び多視画像処理方法及び立体画像表示装置及び多視画像入力装置及び多視画像処理装置
AU2003221143A1 (en) * 2003-03-20 2004-10-11 Seijiro Tomita Stereoscopic video photographing/displaying system
US20070052703A1 (en) * 2005-09-06 2007-03-08 Denso Corporation Display device
JP4569670B2 (ja) * 2008-06-11 2010-10-27 ソニー株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04253281A (ja) 1991-01-29 1992-09-09 Nec Corp 3次元図形表示装置
JPH0862534A (ja) 1994-08-24 1996-03-08 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2005210155A (ja) * 2004-01-20 2005-08-04 Sanyo Electric Co Ltd 携帯型視聴装置
JP2007181071A (ja) * 2005-12-28 2007-07-12 Shunkosha:Kk コンテンツ注目評価装置及び評価方法
JP2011082649A (ja) * 2009-10-05 2011-04-21 Nikon Corp 画像生成装置、画像生成方法、および、プログラム
JP2012010084A (ja) * 2010-06-24 2012-01-12 Sony Corp 立体表示装置及び立体表示装置の制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635707A (zh) * 2014-11-06 2016-06-01 福州瑞芯微电子股份有限公司 一种图像生成方法和装置

Also Published As

Publication number Publication date
EP2830315A4 (en) 2015-11-04
JPWO2013140702A1 (ja) 2015-08-03
EP2830315A1 (en) 2015-01-28
US20150054822A1 (en) 2015-02-26

Similar Documents

Publication Publication Date Title
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
JP5426785B2 (ja) 画像処理装置および画像処理方法
JP5501474B2 (ja) 立体画像生成装置および立体画像生成方法
US20110243388A1 (en) Image display apparatus, image display method, and program
US9210407B2 (en) Image processing apparatus and method, and program
JP5849811B2 (ja) 裸眼立体視用映像データ生成方法
JP5739624B2 (ja) 光学機器、撮像装置、及び制御方法
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
TW201225640A (en) Apparatus and method for displaying stereoscopic images
JP2015520961A (ja) 立体視ディスプレイにおける調節効果による歪み誤差を補正する方法および装置
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
JP2006333400A (ja) 立体視画像生成装置及び立体視画像生成プログラム
WO2013140702A1 (ja) 画像処理装置、画像処理方法、及びプログラム
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2011176822A (ja) 画像処理装置、立体表示装置及び画像処理方法
JP5868055B2 (ja) 画像処理装置および画像処理方法
KR100893381B1 (ko) 실시간 입체영상 생성방법
KR102242923B1 (ko) 스테레오 카메라의 정렬장치 및 스테레오 카메라의 정렬방법
JP2011180779A (ja) 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
JP2010066754A (ja) 映像表示装置および映像表示方法
JP2012169822A (ja) 画像処理方法及び画像処理装置
JP5604173B2 (ja) 再生装置、表示装置、記録装置及び格納媒体
JP2015056796A (ja) 立体画像処理装置、撮像装置、立体画像処理方法および立体画像処理プログラム
TWI523491B (zh) 影像擷取裝置及其三維影像擷取方法
JP2015029215A (ja) 立体画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13765272

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014505979

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2013765272

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013765272

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14386894

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE