JP2012244196A - 画像処理装置及び方法 - Google Patents
画像処理装置及び方法 Download PDFInfo
- Publication number
- JP2012244196A JP2012244196A JP2011108843A JP2011108843A JP2012244196A JP 2012244196 A JP2012244196 A JP 2012244196A JP 2011108843 A JP2011108843 A JP 2011108843A JP 2011108843 A JP2011108843 A JP 2011108843A JP 2012244196 A JP2012244196 A JP 2012244196A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- user
- display
- equivalent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Abstract
【課題】 任意の角度から見た自身の姿を確認することができるようにする。
【解決手段】 表示画像生成部は、被写体の注目部分の変化量に連動させて、異なる視点で被写体が撮影された画像又はそれと等価な画像を、被写体画像として生成する。画像表示制御部は、表示画像生成部により生成された被写体画像を表示画面に表示させる。本技術は、被写体の画像を表示する画像処理装置に適用することができる。
【選択図】図6
【解決手段】 表示画像生成部は、被写体の注目部分の変化量に連動させて、異なる視点で被写体が撮影された画像又はそれと等価な画像を、被写体画像として生成する。画像表示制御部は、表示画像生成部により生成された被写体画像を表示画面に表示させる。本技術は、被写体の画像を表示する画像処理装置に適用することができる。
【選択図】図6
Description
本技術は、画像処理装置及び方法に関し、特に、任意の角度から見た姿を確認することができる、画像処理装置及び方法に関する。
従来から、人は、自身の姿を確認するために鏡を用いる。人は、1つの鏡を用いるだけでは自身の側面や背面の姿を確認することは困難であるため、2枚の鏡を合わせた合わせ鏡又は三面鏡を用いる。近年では、合わせ鏡又は三面鏡を用いる手法の代替として、カメラで撮影した人の側面や背面の姿を、正面の姿と共に同時にディスプレイに表示させる手法も存在する(例えば、特許文献1参照)。
しかしながら、特許文献1の従来の手法では、人は、カメラが設置されていない角度からの自身の姿を確認することはできない。また、特許文献1の従来の手法では、正面以外の人の姿は、表示位置や大きさが制限される場合があることから、人は、正面以外の姿を確認することが困難である。
本技術は、このような状況に鑑みてなされたものであり、任意の角度から見た自身の姿を確認することができるようにしたものである。
本技術の一側面の画像処理装置は、被写体の注目部分の変化量に連動させて、異なる視点で前記被写体が撮影された画像又はそれと等価な画像を、被写体画像として生成する画像生成部と、前記画像生成部により生成された前記被写体画像を表示画面に表示させる表示制御部とを備える。
前記画像生成部は、基準となる位置及び方向の視点で前記被写体を撮影した画像又はそれと等価な画像を、基準被写体画像として生成し、前記被写体の注目部分が前記基準被写体画像が生成された初期状態から変化した場合、前記変化量に連動させて、前記視点の位置と方向の少なくとも一方を変化させ、変化後の視点で前記被写体が撮影された画像又はそれと等価な画像を、前記被写体画像として生成することができる。
前記被写体の注目部分の変化量を検出する検出部を更に備え、前記画像生成部は、前記検出部により検出された変化量に連動させて、前記被写体画像を生成することができる。
異なる位置にそれぞれ設置され、別々の撮影方向で前記被写体を撮影して、撮影画像のデータをそれぞれ出力する複数の撮像部をさらに備え、前記画像生成部は、前記変化後の視点の位置及び方向が、前記複数の撮像部のうちの何れの撮像部の設置位置及び撮影方向とも一致しない場合、前記複数の撮像部から選択したものから出力された撮影画像のデータを合成することによって、前記変化後の視点で前記被写体が撮影されたのと等価な画像を、前記被写体画像として生成することができる。
前記被写体の注目部分の変化量は、前記被写体の注目部分が前記初期状態から回転移動した場合の回転角度とすることができる。
前記回転方向は、水平方向とすることができる。
前記回転方向は、垂直方向とすることができる。
前記合成画像が静止画である場合の前記変化量は、前記被写体のジェスチャの動作内容の変化量とすることができる。
前記合成画像が動画である場合の前記変化量は、前記被写体の顔の位置または視線の方向の変化量とすることができる。
前記画像生成部は、前記被写体画像の大きさ及び前記表示画面上の前記被写体画像の表示領域が、前記基準被写体画像の大きさ及び前記表示画面上の前記基準被写体画像の表示領域と一致するように前記被写体画像を生成することができる。
前記被写体画像は、過去の前記被写体が撮影された画像またはそれと等価な画像とすることができる。
前記被写体画像は、前記被写体とは異なる被写体が撮影された画像またはそれと等価な画像とすることができる。
前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を重ね合わせて表示させることができる。
前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を並べて表示させることができる。
前記表示制御部は、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のそれぞれの透過率を変えて表示させることができる。
本技術の一側面の画像処理方法は、上述した本技術の一側面の画像処理装置に対応する方法である。
本技術の一側面の画像処理装置及び方法においては、被写体の注目部分の変化量に連動させて、異なる視点で前記被写体が撮影された画像又はそれと等価な画像が、被写体画像として生成され、生成された前記被写体画像が表示画面に表示される。
以上のごとく、本技術によれば、任意の角度から見た自身の姿を確認することができる。
[本技術の概要]
はじめに、本技術の理解を容易なものとすべく、その概略について説明する。
はじめに、本技術の理解を容易なものとすべく、その概略について説明する。
図1は、本技術の概略について説明する図である。
本技術のディスプレイ型ミラー装置1は、ディスプレイ11と、当該ディスプレイ11と対向する位置に存在する人であるユーザUの正面画像を撮影するためのカメラ(図1に図示せず)とを有している。
なお、ここでいうユーザUの正面画像とは、1台のカメラにより撮影された撮影画像のみならず、複数台のカメラの各々により撮影された複数の撮影画像が加工されて、その結果得られた合成画像なども含む。換言すると、ユーザUの正面画像を撮影するためのカメラとは、ユーザUを正面から撮影する1台のカメラのみならず、ユーザUを様々な方向から撮影する複数台のカメラも含む。そこで、以下、1台のカメラにより撮影された撮影画像をそのまま正面画像としたものの他、複数台のカメラにより撮影された複数の撮影画像が加工され、その結果として得られた合成画像などを正面画像としたものも含めて、カメラにより撮影された正面画像と称する。
ディスプレイ11は、その対向する位置にユーザUが立つと、初期状態の画像として、図1の左の図に示すように、カメラにより撮影された正面画像、すなわちディスプレイ11を鏡とした場合の鏡像と等価な画像を、ユーザ画像UPとして表示する。なお、ディスプレイ11の形式は特に限定されず、通常の2次元画像を表示する形式であってもよいし、3次元立体視が可能な形式であってもよい。
ユーザUが自身の顔を移動させると、ディスプレイ11に表示されるユーザ画像UPの姿が変化していく。具体的には、ディスプレイ11には、所定視点からユーザUが撮影された場合に得られるユーザ画像UPが表示される。例えば初期状態の場合には、ディスプレイ11の背面から正面(すなわち、表示面)に向かう方向が所定視点の方向とされ、その結果、ユーザUの正面画像がユーザ画像UPとしてディスプレイ11に表示される。
ユーザUを撮影する所定視点の位置及び方向は、ユーザUの顔の移動方向及び移動量(以下、移動方向と移動量をまとめて変化量と称する)に連動して変化する。すなわち、ユーザUがディスプレイ11に対向して立った後に自身の顔を移動させると、その変化量に連動して所定視点の位置及び方向も変化する。そして、位置及び方向が変化した後の所定視点からユーザUが撮影された場合に得られる画像が、ユーザ画像UPとしてディスプレイ11に表示される。
例えば、所定視点がユーザUの側面を撮影するようになるまで、その位置及び方向が変化した場合には、図1の中央の図に示すように、ユーザUの側面画像が、ユーザ画像UPとしてディスプレイ11に表示される。
さらに、ユーザUの顔が移動して、その変化量がさらに増大すると、それに連動して、所定視点の位置及び方向もさらに変化する。例えば、所定視点がユーザUの背面を撮影するようになるまで、その位置及び方向が変化した場合には、図1の右の図に示すように、ユーザUの背面画像が、ユーザ画像UPとしてディスプレイ11に表示される。
ここで、図1には図示しないが、ディスプレイ型ミラー装置1には、上述のユーザUの正面画像を撮影するカメラとは別に、様々な位置にユーザUを撮影する複数のカメラが設置されている(後述する図5参照)。したがって、これら複数のカメラのうち一のカメラの設置位置及び撮影方向(すなわち、レンズの光軸の方向)と、所定視点の位置及び方向とが一致した場合には、当該一のカメラがユーザUを実際に撮影した結果得られる撮影画像が、ユーザ画像UPとしてディスプレイ11に表示される。
ただし、複数のカメラの設置台数には限度があるため、自在に変化する所定視点の位置及び方向と、カメラの設置位置及び撮影方向とが一致することは稀である。そこで、所定視点の位置及び方向が何れのカメラの設置位置及び撮影方向とも一致しない場合には、ディスプレイ型ミラー装置1は、所定視点の近傍の位置に設置された複数のカメラを選択する。次に、ディスプレイ型ミラー装置1は、選択した複数のカメラがユーザUを実際に撮影した結果得られる複数の撮影画像の各データを合成することによって、所定視点からユーザUを仮想的に撮影したのと等価な合成画像のデータを生成する。そして、ディスプレイ型ミラー装置1は、当該合成画像をユーザ画像UPとしてディスプレイ11に表示させる。
このように、ディスプレイ型ミラー装置1は、ユーザUの顔が移動すると、その変化量に連動して所定視点の位置及び方向を更新し、所定視点が更新後の位置及び方向からユーザUを撮影した場合に得られる画像をディスプレイ11に表示させる。したがって、ユーザUは、ディスプレイ型ミラー装置1のディスプレイ11の前に立ち、その後、視線はディスプレイ11に向けたまま顔を所定の方向に所定の量だけ移動させるという簡便で直感的な操作をするだけで、任意の位置及び方向の所定視点から自身をあたかも見た姿を確認することができる。
以下、このような本技術に係るディスプレイ型ミラー装置1の実施形態について説明する。
[顔の変化量と所定のカメラの撮影角度の関係]
図2は、ユーザUの顔の変化量と所定視点の関係について説明する図である。
図2は、ユーザUの顔の変化量と所定視点の関係について説明する図である。
ここで、ユーザUの後頭部から顔に向かう方向であって、中心(同図中鼻の箇所)を通る方向を、以下、ユーザ視向方向と称する。また、ユーザUが、ディスプレイ11の表示面と対向する位置に立っており、ディスプレイ11の法線方向とユーザ視向方向が略一致する状態が、初期状態であるとする。すなわち、初期状態の場合、上述した図1の左の図に示されるように、ユーザUの正面画像がユーザ画像UPとしてディスプレイ11に表示される。
ユーザUは、頭部の中心を通る鉛直方向の軸axを中心に、顔を水平方向(すなわち、図2の紙面に対して平行な方向)に例えば左回りに回転させるものとする。この場合、ユーザUの顔の移動量Δxは、図2に示されるように、初期状態のユーザ視向方向(すなわち、ディスプレイ11の法線方向と略一致の方向)と、顔の移動後のユーザ視向方向とのなす角度で表すことができる。また、移動量Δxに連動して変化する視点Pが既定され、その変化量Δθは、例えば次の式(1)のように表わされる。
Δθ=a×Δx+b・・・(1)
式(1)において、係数aと係数bは、調整用のパラメータであり、ディスプレイ型ミラー装置1の設計者、製造者又はユーザUが自由に設定変更することが可能である。
すなわち、視点Pは、ディスプレイ11に表示されるユーザUの画像を撮影するカメラを仮想的に配置する位置に対応し、ユーザUの頭部中心の軸axを中心とする所定の円周rpの上に沿って移動するものとされている。具体的には、初期状態の視点Pの円周rp上の位置A1が初期位置とするならば、移動量Δx分のユーザUの顔の移動に連動して、視点Pも、初期位置A1から、変化量Δθの回転に対応する円周rp上の位置A2まで移動する。この場合、視点Pは、当該視点Pから、ユーザUの頭部中心の軸axを結ぶ線分に沿ってユーザUを指向することになる。したがって、円周rp上の位置A2に存在する視点Pが、ユーザUの頭部中心の軸axの方向を向いてユーザUが撮影された場合に得られる画像が、ユーザ画像UPとしてディスプレイ11に表示される。
ここで、上述したように、変化量Δθにより特定される視点Pの位置A2及び方向が、ディスプレイ型ミラー装置1において実際に配置されているカメラの設置位置及び撮影方向と一致することは稀である。したがって、通常、ディスプレイ型ミラー装置1は、視点Pの近傍の位置に設置された複数のカメラを選択し、選択した複数のカメラがユーザUを実際に撮影した結果得られる複数の撮影画像の各データを合成することで、視点Pからのユーザ画像UPのデータを生成する。
以下、変化量Δθにより特定される視点Pの位置A2及び方向が、ディスプレイ型ミラー装置1の何れのカメラの設置位置とも一致しない場合のユーザ画像UPのデータの生成手法について、図3及び図4を用いて説明する。
[ユーザ画像UPのデータの生成手法の前提条件]
図3は、ユーザ画像UPのデータの生成手法の概略を説明する図であって、説明の前提条件を示す図である。
図3は、ユーザ画像UPのデータの生成手法の概略を説明する図であって、説明の前提条件を示す図である。
図3の例では、カメラC1が、ユーザUの正面を撮影できる位置、すなわち円周rp上の初期位置A1に対応する位置に設置されている。また、カメラC2が、ユーザUの左側面を撮影できる位置、すなわち、円周rp上に沿って初期位置A1から左方向に90度分だけ移動した位置に対応する位置に設置されている。
ここで、視点Pが、カメラC1及びC2の設置位置以外に移動した場合の例として、図3に示されるように、変化量Δθ1に対応する円周rp上の第1の位置A21に移動した場合と、変化量Δθ2に対応する円周rp上の第2の位置A22に移動した場合との各々を想定する。
[ユーザ画像UPのデータの生成手法の具体例]
図4は、ユーザ画像UPのデータの生成手法の概略を説明する図であって、図3の前提条件に基づいて生成されたユーザ画像UPのデータの具体例を示す図である。
図4は、ユーザ画像UPのデータの生成手法の概略を説明する図であって、図3の前提条件に基づいて生成されたユーザ画像UPのデータの具体例を示す図である。
図4において、撮影画像CP1は、カメラC1によりユーザUが実際に撮影された結果得られる画像であり、撮影画像CP2は、カメラC2によりユーザUが実際に撮影された結果得られる画像である。
視点Pが変化量Δθ1だけ移動して円周rp上の位置A21に存在する場合、ディスプレイ型ミラー装置1は、カメラC1の撮影画像CP1とカメラC2の撮影画像CP2との各データを合成することによって、図4の右上に示されるように、視点PからユーザUを仮想的に撮影したのと等価な合成画像のデータを、ユーザ画像UP21のデータとして生成する。
一方、視点Pが変化量Δθ2だけ移動して円周rp上の位置A22に存在する場合、ディスプレイ型ミラー装置1は、カメラC1の撮影画像CP1とカメラC2の撮影画像CP2との各データを合成する。これにより、図4の右下に示されるように、視点PからユーザUを仮想的に撮影したのと等価な合成画像のデータが、ユーザ画像UP22のデータとして生成される。なお、ユーザUが顔を逆方向、すなわち水平方向に右回りに回転させた場合は、ユーザUを右方向の視点PからユーザUを仮想的に撮影したのと等価な合成画像のデータが、ユーザ画像UPのデータとして生成される。すなわち、ディスプレイ型ミラー装置1は、ユーザUの右方向に設置されている所定のカメラの撮影画像を用いて、ユーザ画像UPのデータを生成する。
このように、視点Pの位置及び方向が何れのカメラの設置位置及び撮影方向とも一致しない場合であっても、複数のカメラにより得られた撮影画像のデータから生成された合成画像のデータを、ユーザ画像UPのデータとして採用することができる。これにより、ディスプレイ型ミラー装置1におけるカメラの設置台数を抑制し、ひいてはディスプレイ型ミラー装置1の製造コストを削減することが可能になる。
また、ディスプレイ11に表示されるユーザ画像UPは、ユーザUの顔の移動に応じて滑らかに変化していくので、ユーザUは違和感なく自己の姿の変化を視認することが可能になる。
なお、ディスプレイ11に表示されるユーザ画像UPは、静止画であっても、動画であってもよい。また、ディスプレイ11に表示されるユーザ画像UPのフレームレートは、ユーザUが任意に設定することができる。また、ユーザUの顔の移動量Δxに所定の閾値を設定して、移動量Δxに連動して変化する視点Pの変化量Δθに上限値が設定されるようにしてもよい。この場合、ユーザUの顔の移動量Δxが所定の閾値よりも大きくなると、移動量Δxに連動して変化する視点Pに基づいて生成されるユーザ画像UPの表示内容が、それ以上変化しないようにしてもよい。
また、ディスプレイ型ミラー装置1は、ユーザUの顔の移動量Δxに連動して変化するユーザ画像UPの表示内容を、ユーザUによる所定の操作に従って、停止させるようにしてもよい。これにより、ユーザUは、ユーザ画像UPの表示内容を停止させた後、任意の姿勢、例えばディスプレイ11の正面に顔を向けた姿勢で、任意の位置及び方向の所定視点から自身をあたかも見た姿を確認することができる。
また、ディスプレイ型ミラー装置1は、複数のカメラにより得られた撮影画像のデータからユーザ画像UPを生成する場合、人体の形状を拘束条件として用いてもよい。
次に、ディスプレイ型ミラー装置1の外観について説明する。
[ディスプレイ型ミラー装置1の外観構成例]
図5は、ディスプレイ型ミラー装置1の外観構成例を示す図である。
図5は、ディスプレイ型ミラー装置1の外観構成例を示す図である。
図5に示されるようにディスプレイ型ミラー装置1は、上述したディスプレイ11に加えて、カメラ12−1乃至12−10(図3のカメラC1やC2も適宜含む)と、主制御装置13とを有する。カメラ12−1及び12−2は、ディスプレイ11の側面に設置され、カメラ12−3乃至12−10は、カメラ保持用フレームCFにより略均等間隔で保持されるように設置される。なお、以下、カメラ12−1乃至12−10を個々に区別する必要がない場合、これらをまとめてカメラ12と称する。
カメラ保持用フレームCFは、ユーザUの行動を邪魔しない位置、例えば図5の例ではユーザUの立ち位置の上方(ユーザUの身長より高い位置)に設置されている。この場合、カメラ保持用フレームCFに設置されたカメラ12−3乃至12−10の撮影方向は、矢印に示されるように斜め下方向になる。その結果、カメラ12−3乃至12−10がユーザUを撮影した結果得られる撮影画像は、上方からユーザUを見下ろした様子が写った画像になる。一方、ディスプレイ11の側面であって、ユーザUの身長の略1/2の高さに設置されたカメラ12−1及び12−2については、撮影方向は水平方向であるが、設置位置はユーザUの顔に比較して下方になる。その結果、カメラ12−1及び12−2がユーザUを撮影した結果得られる撮影画像は、ユーザUの顔の下方の胴体が中心に移った画像になる。したがって、ディスプレイ型ミラー装置1は、カメラ保持用フレームCFに設置されたカメラ12−3乃至12−10のうちの幾つかから出力された撮影画像のデータに加えて、カメラ12−1及び12−2から出力された撮影画像のデータを適宜合成することによって、ユーザUの全体の姿を水平方向から見た画像のデータを、ユーザ画像UPのデータとして生成することができる。このため、ユーザUが立つ床の近傍にユーザUを囲むようにカメラ12を配置し、上下のカメラ12から出力された撮影画像のデータを合成するようにしてもよい。
なお、カメラ保持用フレームCFの形状は、図5の例では正方形の形状とされたが、図5の例に限定されず、長方形や円形等の他の形状であってもよい。また、カメラ12の設置位置は図5の例に限定されず、例えば可動式であってもよい。また、カメラ12の設置台数は、図5の例に限定されない。また、カメラ12は、通常の一眼式のカメラであっても、ステレオカメラであってもよい。
また、ディスプレイ11、カメラ12、及び主制御装置13の間の各通信方式は、特に限定されず、有線方式であっても無線方式であってもよい。また、ディスプレイ11と主制御装置13とは、図5の例では物理的に分離されて構成されているが、特に図5の例に限定されず、一体化されて構成されてもよい。
次に、図5に示されるディスプレイ型ミラー装置1の主制御装置13が有する機能のうち、ディスプレイ11にユーザ画像UPを表示させるための各種機能を実現させるための機能的構成例を、図6を用いて説明する。
[ディスプレイ型ミラー装置1の主制御装置13の機能的構成例]
図6は、ディスプレイ型ミラー装置1の主制御装置13の機能的構成例を示すブロック図である。
図6は、ディスプレイ型ミラー装置1の主制御装置13の機能的構成例を示すブロック図である。
図6のディスプレイ型ミラー装置1の主制御装置13は、画像処理部31、機器位置情報記録部32、及び画像情報記録部33を有する。画像処理部31は、カメラ制御部51、画像取得部52、顔位置検出部53、表示画像生成部54、及び画像表示制御部55から構成される。
カメラ制御部51は、カメラ12−1乃至12−10のうちの少なくとも1台がユーザUを撮影するように制御する。
画像取得部52は、カメラ制御部51の制御により、カメラ12−1乃至12−10のうち1台以上の各々から撮影画像の各データが出力された場合、当該撮影画像の各データを取得して、画像情報記録部33に記憶させる。
機器位置情報記録部32は、カメラ12−1乃至カメラ12−10の各々についての、ディスプレイ11との相対的な位置関係を示す情報(以下、機器位置情報と称する)を予め記録している。そこで、画像取得部52は、カメラ12−K(Kは1乃至10のうち、任意の整数値)の撮影画像のデータを取得すると、当該カメラ12−Kの機器位置情報を機器位置情報記録部32から読み出して、カメラ12−Kの撮影画像のデータとともに画像情報記録部33に記録させる。
顔位置検出部53は、画像情報記録部33から撮影画像のデータを読み出して、当該撮影画像からユーザUの顔の位置を検出する。顔位置検出部53の検出結果は、表示画像生成部54に供給される。なお、顔位置検出部53の検出結果は、必要に応じて、カメラ制御部51にも供給される。この場合、カメラ制御部51は、当該検出結果に基づいて、カメラ12−1乃至12−10のうち動作させる対象、すなわち画像取得部52によって取得される撮影画像のデータを出力させる対象を絞り込むこともできる。
表示画像生成部54は、時間的に離間して撮影された複数の撮影画像のデータの各々から検出したユーザUの顔の各位置から、ユーザUの顔の移動量Δxを算出する。そして、表示画像生成部54は、当該移動量Δxを式(1)に代入して演算することによって、視点Pの変化量Δθを算出する。さらに、表示画像生成部54は、撮影画像のデータを画像情報記録部33から読み出して、当該変化量Δθだけ移動した視点PからユーザUを撮影した場合と等価な画像のデータを、ユーザ画像UPのデータとして生成する。
画像表示制御部55は、表示画像生成部54により生成されたデータに対応する当該ユーザ画像UPを、ディスプレイ11に表示させる。
なお、機器位置情報は、機器位置情報記録部32に予め記録させずに、画像取得部52が、カメラ12−Kの撮影画像のデータとともに常時取得するようにしてもよい。
次に、このような構成のディスプレイ型ミラー装置1がユーザ画像UPを表示する処理(以下、表示処理と称する)の例について説明する。
[表示処理]
図7は、表示処理の一例を説明するフローチャートである。
図7は、表示処理の一例を説明するフローチャートである。
ディスプレイ型ミラー装置1は、ユーザUがディスプレイ11の対向する位置に立つと、処理を開始する。
ステップS1において、表示画像生成部54は、カメラ12の撮影画像のデータを読み出す。すなわち、表示画像生成部54は、カメラ制御部51の制御に従って、ユーザUの正面画像のデータを生成するのに必要なカメラ12により撮影された結果得られる撮影画像のデータを、画像情報記録部33から読み出す。この場合、例えば、カメラ12−1,12−2,12−10により撮影された結果得られる撮影画像のデータが読み出される。
ステップS2において、表示画像生成部54は、ステップS1で読み出した各画像データからユーザUの正面画像のデータを生成する。
ステップS3において、画像表示制御部55は、ユーザUの正面画像をディスプレイ11に表示させる。すなわち、画像表示制御部55は、ステップS2で表示画像生成部54により生成されたデータに対応するユーザUの正面画像を、ユーザ画像UPとしてディスプレイ11に表示させる。
ステップS4において、顔位置検出部53は、画像情報記録部33から撮影画像のデータを読み出して、当該撮影画像のデータから、ユーザUの顔の位置を検出する。
ステップS5において、表示画像生成部54は、前回からの移動後(0移動を含む)の視点Pの位置及び方向を算出する。すなわち、表示画像生成部54は、顔位置検出部53により検出されたユーザUの顔の位置から、ユーザUの顔の移動量Δxを算出する。そして、表示画像生成部54は、当該移動量Δxを式(1)に代入して演算することによって、視点Pの変化量Δθを算出し、視点Pの位置及び方向を特定する。
ステップS6において、表示画像生成部54は、視点Pの位置と一致またはその近傍にある1台以上のカメラ12により出力された撮影画像のデータを、画像情報記録部33から読み出す。
ステップS7において、表示画像生成部54は、ステップS6で読み出した1以上の撮影画像のデータから、ユーザ画像UPのデータを生成する。すなわち、表示画像生成部54は、ステップS5で算出した変化量Δθだけ移動した視点PからユーザUを撮影した場合と等価な画像のデータを、ユーザ画像UPのデータとして生成する。
ステップS8において、表示画像生成部54は、ユーザ画像UPのデータを補正する。すなわち、表示画像生成部54は、ステップS7により生成されたユーザ画像UPのデータにより表されるユーザUの全身のサイズ(すなわち、ディスプレイ11の表示画面のうちユーザUの全身の領域の占有率)を、ステップS2により生成された正面画像のデータによるものと対応させる(すなわち、表示される身長が一致する)ように、ユーザ画像UPのデータを補正する。また、表示画像生成部54は、ステップS7により生成されたユーザ画像UPのデータにより表されるユーザ画像UPのディスプレイ11上での表示領域を、ステップS2により生成されたユーザUの正面画像のデータによるものと対応させる。当該補正は、ユーザUに違和感を与えないためである。
ステップS9において、画像表示制御部55は、補正が施されたユーザ画像UPを、ディスプレイ11に表示させる。このとき、ユーザUは、顔の位置を移動させたまま視線だけをディスプレイ11に向けることにより、ユーザ画像UPを確認することができる。
ステップS10において、画像処理部31は、処理の終了が指示されたかを判定する。ここで、処理の終了の指示は特に限定されず、例えば、ユーザUがディスプレイ11の前から存在しなくなったとカメラ12が検知したのを処理の終了の指示としてもよい。また、例えば、ユーザUが処理の終了を指示するための明示の操作をしたことを処理の終了の指示としてもよい。
処理の終了が指示されていない場合、ステップS10においてNOであると判定されて、処理はステップS4に戻され、それ以降の処理が繰り返される。すなわち、処理の終了が指示されるまでの間、ステップS4乃至S10のループ処理が繰り返される。
その後、処理の終了が指示された場合、ステップS10においてYESであると判定されて、表示処理は終了する。
なお、ステップS3,S9においてディスプレイ11に表示される、ユーザ画像UPのサイズは、ユーザUが任意に設定可能である。例えば、ユーザUは、自身の実際の姿よりも細身や長身にユーザ画像UPを表示させることも可能である。また、ステップS3,S9においてディスプレイ11に表示されるユーザ画像UPの表示領域は、常にディスプレイ11の表示領域の中央であっても、任意の領域であってもよい。例えば、ディスプレイ型ミラー装置1は、ユーザUが、所定の時間(例えば、数秒間)以上、ディスプレイ11の対向する位置に立って静止したと認識した場合に、当該位置に正対するディスプレイ11の表示領域にユーザ画像UPを表示させるようにしてもよい。
上述の例では、ユーザUの顔の移動量Δxに連動して視点Pの位置及び方向が変化することにより、ディスプレイ11に表示されるユーザ画像UPの表示内容(すなわち、ユーザUの姿勢)が切り替えられた。しかしながら、ユーザ画像UPの表示内容の切り替えは、他の対象の変化に連動させて視点Pの位置及び方向を変化させることにより行ってもよい。
[ユーザ画像UPの表示内容の切り替えの手法]
図8は、ユーザ画像UPの表示内容の切り替えの手法について説明する図である。
図8は、ユーザ画像UPの表示内容の切り替えの手法について説明する図である。
ユーザ画像UPの表示内容を切り替えるための手法として、ユーザUの動作の種類に応じて幾つかの手法を適用することができる。図8の例では、ユーザUの顔の位置の移動動作、ユーザUの視線の方向の移動動作、手や指のジェスチャ動作、別途設けられたゲームパッドの操作動作に連動させて、視点Pの位置及び方向を変化させる手法が存在する。
以下、これらの手法について、「正面を向いたまま視認可能」、「手ぶらで動作可能」、「姿勢の拘束がない」といった3つの特徴の点の比較をしつつ個別に説明する。なお、「正面を向いたまま視認可能」とは、ユーザUがディスプレイ11に対して正面を向いたまま、表示されるユーザ画像UPを視認することが可能な状態で、各手法で採用される動作が可能であることを意味する。「手ぶらで動作可能」とは、ユーザUが手ぶらの状態で、各手法で採用される動作が可能であることを意味する。「姿勢の拘束がない」とは、ユーザUが姿勢の拘束がない状態で、各手法で採用される動作が可能であることを意味する。
顔の位置の移動動作に連動させてユーザ画像UPの表示内容を切り替える手法とは、上述したように、ユーザUが顔の位置を移動させる動作をすると、顔の位置の移動量Δxに連動して、視点Pの位置及び方向が変化し、これにより、ディスプレイ11に表示されるユーザ画像UPの表示内容が切り替えられる手法である。図8において、各項目内に丸印が示されているように、当該手法を用いる場合、ユーザUは、正面を向いたままディスプレイ11に表示されるユーザ画像UPを視認可能な状態で、手ぶらな状態で、かつ姿勢が拘束されない状態で、顔の移動動作を行うことができる。
視線の方向の移動動作に連動させてユーザ画像UPの表示内容を切り替える手法とは、ユーザUが視線の方向を移動させる動作をすると、視線の移動量Δxに連動して、視点Pの位置及び方向が変化し、これにより、ディスプレイ11に表示されるユーザ画像UPの表示内容が切り替えられる手法である。図8において、各項目内に丸印で示されているように、当該手法を用いる場合、ユーザUは、正面を向いたままディスプレイ11に表示されるユーザ画像UPを視認可能な状態で、手ぶらな状態で、かつ姿勢が拘束されない状態で、視線の方向の移動動作を行うことができる。なお、上述したように、ユーザUは、所定の操作を行うことにより、ユーザ画像UPの表示内容を停止させることができる。ここで、所定の操作として、例えば、ユーザUによる所定時間以上の瞬きの動作を採用することができる。したがって、ユーザUは、所定時間以上の瞬きの動作等によりユーザ画像UPの表示内容を停止させた後、視線をディスプレイ11の正面に向けた状態で、任意の位置及び方向の所定視点から自身をあたかも見た姿を確認することができる。
手や指のジェスチャ動作に連動させてユーザ画像UPの表示内容を切り替える手法とは、ユーザUが、予め規定された手や指のジェスチャ動作をすると、その動作内容の変化に連動して、視点Pの位置及び方向が変化し、これにより、ディスプレイ11に表示されるユーザ画像UPの表示内容が切り替えられる手法である。図8において、各項目内に丸印、またはバツ印で示されているように、当該手法を用いる場合、ユーザUは、正面を向いたままディスプレイ11に表示されるユーザ画像UPを視認可能な状態で、かつ手ぶらな状態で、手や指のジェスチャ動作を行うことができる。しかしながら、ユーザUは、姿勢の拘束がある状態で、手や指のジェスチャ動作を行うことになる。
ゲームパッドの操作動作に連動させてユーザ画像UPの表示内容を切り替える手法とは、ユーザUが、ゲームパッドに対する操作の動作をすることにより、その操作内容の変化に連動して、視点Pの位置及び方向が変化し、これにより、ディスプレイ11に表示されるユーザ画像UPの表示内容が切り替えられる手法である。図8において、各項目内に丸印、バツ印、又は三角印で示されているように、当該手法を用いる場合、ユーザUは、正面を向いたままディスプレイ11に表示されるユーザ画像UPを視認可能な状態で、ゲームパッドに対する操作の動作をすることができる。しかしながら、ユーザUは、手ぶらな状態で、ゲームパッドに対する操作の動作をすることができない。また、ユーザUは、姿勢が拘束されない状態で、ゲームパッドに対する操作の動作を行うことは不可能ではないが、多少の困難を伴う。
このように、ユーザ画像UPの表示内容の切り替えるためのユーザUの動作としては、「正面を向いたまま視認可能」、「手ぶらで動作可能」、「姿勢の拘束がない」といった3つの特徴の点をすべて満足する動作、すなわち上述の顔の位置の移動動作又は視線の方向の移動動作を採用すると好適である。また、3つの特徴の点のうちの幾つかを犠牲にしてもよいならば、ユーザ画像UPの表示内容の切り替えるためのユーザUの動作として、さらに、手や指のジェスチャ動作、ゲームパッドの操作動作といった各種各様の種類を採用することができる。
なお、ディスプレイ11に表示されるユーザ画像UPが静止画である場合には、ユーザ画像UPの表示内容を切り替えるための手法として、手や指のジェスチャ動作が採用されると好適である。これに対して、ディスプレイ11に表示されるユーザ画像UPが動画である場合には、ユーザ画像UPの表示内容を切り替えるための手法として、ユーザUの顔の位置や視線の方向の移動動作が採用されると好適である。
いずれにしても、ユーザ画像UPの表示内容を切り替えるためのユーザUの動作として、ユーザにとって負担とならない簡便で直感的な動作を採用することができる。なお、ユーザ画像UPの表示内容を切り替えるためのユーザUの動作は、上述の例に限定されない。
[ディスプレイ型ミラー装置1の他の外観構成例]
上述の例では、ディスプレイ型ミラー装置1には、カメラ保持用フレームCFに複数のカメラ12が設置された。しかしながら、ディスプレイ型ミラー装置1の外観構成は、これに限定されない。
上述の例では、ディスプレイ型ミラー装置1には、カメラ保持用フレームCFに複数のカメラ12が設置された。しかしながら、ディスプレイ型ミラー装置1の外観構成は、これに限定されない。
図9は、ディスプレイ型ミラー装置1の他の外観構成例を示す図である。
図9に示されるように、ディスプレイ型ミラー装置1は、ディスプレイ11、周囲鏡71、及びカメラ72−1乃至72−3を有する。カメラ72−1,72−2は、ディスプレイ11の側面に設置され、カメラ72−3は、ディスプレイ11の上面に設置される。周囲鏡71は、ユーザUの行動を邪魔しない位置、例えば図9の例ではユーザUの立ち位置の上方に設置される。なお、以下、カメラ72−1乃至72−3を個々に区別する必要がない場合、これらをまとめてカメラ72と称する。
カメラ72−3は、周囲鏡71に映し出されるユーザUを撮影する。すなわち、カメラ72−3は、撮影方向を適宜移動させて、周囲鏡71により反射された光束を取り込むことで、複数の方向からユーザUを撮影したのと等価な撮影画像のデータを出力することができる。すなわち、カメラ72−3は、1台で、図5のカメラ保持用フレームCFに設置された複数のカメラ12−3乃至12−10と同一の機能を発揮することができる。さらに、カメラ72−3の撮影方向の移動を緻密に制御することにより、複数の撮影画像のデータを合成せずとも、1枚の撮影画像のデータをそのまま、任意の方向からユーザUを撮影したユーザ画像UPのデータとして採用することも可能になる。
なお、周囲鏡71の形状は、図9の例では正方形の形状とされたが、図9の例に限定されず、円形やドーム型等の他の形状であってもよい。また、カメラ72の設置位置は図9の例に限定されず、例えば可動式であってもよい。また、カメラ72の設置台数は、図9の例に限定されない。
上述の例では、現在のユーザUの姿が、ユーザ画像UPとしてディスプレイ11に表示された。しかしながら、ユーザ画像UPは、過去や未来のユーザUの姿であっても、ユーザUとは異なる他人の姿であってもよい。この場合、ユーザUは、過去や未来のユーザUの姿のユーザ画像UPや、他人の姿のユーザ画像UPを、現在のユーザUの姿のユーザ画像UPに重ね合わせて表示させることも、並べて表示させることもできる。以下、前者のユーザ画像UPの表示手法を重ね合わせ表示モード、後者のユーザ画像UPの表示手法を並列表示モードと称する。ユーザ画像UPの表示例について、図10と図11を用いて説明する。
[重ね合わせ表示モードの表示例]
図10は、重ね合わせ表示モードの表示例を示す図である。
図10は、重ね合わせ表示モードの表示例を示す図である。
ディスプレイ11に表示されている、実線で示されるユーザ画像UP41、点線で示されるユーザ画像UP42、一点鎖線で示されるユーザ画像UP43は、それぞれ現在、過去、未来のユーザUの姿を示している。図10に示されるように、重ね合わせ表示モードにおいては、ユーザ画像UP41の表示領域を基準にして、ユーザ画像UP42とユーザ画像UP43が、ユーザ画像UP41の表示領域に、身体の中心が一致しるようにして重ね合わせて表示される。
なお、過去のユーザUの姿であるユーザ画像UP42は、表示画像生成部54によって、画像情報記録部33に記録された過去のユーザUの撮影画像のデータを用いて生成される。また、未来のユーザUの姿であるユーザ画像UP43は、表示画像生成部54によって、画像情報記録部33に記録された過去のユーザUの撮影画像のデータと現在のユーザUの撮影画像のデータとを用いて予測された未来のユーザUの撮影画像のデータを用いて生成される。具体的には例えば、表示画像生成部54は、所定の関数、例えば相関関数や予測関数等を用いて、過去と現在のそれぞれのユーザUの撮影画像のデータに含まれるユーザUの形状の差分から未来のユーザUの形状を予測し、ユーザ画像UP43を生成する。
重ね合わせ表示モードにおいて、ユーザ画像UP41乃至43は、それぞれが時系列で識別可能な状態で表示される。具体的には例えば、ユーザ画像UP42、ユーザ画像UP41、ユーザ画像UP43の順、すなわち、ユーザUの過去、現在、未来の姿の順に透過率が高くなるように表示する。当然のことながら、この逆の順に透過率が高くなるように表示してもよい。
また、同じ過去のユーザUの姿であるユーザ画像UP42であっても、より過去の撮影画像のデータにより生成されたユーザ画像UP42の透過率が高く、より現在に近い撮影画像のデータにより生成されたユーザ画像UP42の透過率が低くなるように表示されてもよい。同様に、同じ未来のユーザUの姿であるユーザ画像UP43であっても、より未来の予測に基づき生成されたユーザ画像UP43の透過率が高く、より現在に近い撮影画像のデータにより生成されたユーザ画像UP43の透過率が低くなるように表示されてもよい。
このように、ユーザUの現在、過去、及び未来の姿であるユーザ画像UP41乃至43が、時系列で識別できる状態で重ね合わせてディスプレイ11に表示されるので、ユーザUは、自身の体型の変化を容易に把握することができる。
なお、ユーザ画像UP41乃至43は、それぞれユーザUとは異なる他人の現在、過去、未来の姿であってもよい。また、ユーザ画像UP41乃至43は、全てが同一の被写体(すなわち、全てがユーザU又は全てがユーザUとは異なる他人)の画像であっても、その中の一部が別の被写体(すなわち、ユーザUとユーザUとは異なる他人が混在)の画像であってもよい。また、ユーザ画像UP41乃至43の全てが重ね合わせて表示されずに、任意の2つが重ね合わせて表示されるようにしてもよい。
[並列表示モードの表示例]
図11は、並列表示モードの表示例を示す図である。
図11は、並列表示モードの表示例を示す図である。
図11に示されるように、並列表示モードにおいては、現在のユーザUの姿であるユーザ画像UP41の横に、過去のユーザUの姿であるユーザ画像UP42が並べられて表示される。なお、並列表示モードにおいて表示されるユーザ画像UPは、これに限定されず、ユーザ画像UP41乃至43のうち、任意の2つ、または全てが表示されるようにしてもよい。
このように、ユーザUの現在、過去、及び未来の姿であるユーザ画像UP41乃至43が、時系列で識別できる状態で並べられてディスプレイ11に表示されるので、ユーザUは、現在、過去、及び未来のそれぞれの自身の体型を詳細に確認しながら、自身の体型の変化を把握することができる。
並列表示モードにおいても、重ね合わせ表示モードの場合と同様に、ユーザ画像UP41乃至43は、それぞれユーザUとは異なる他人の現在、過去、未来の姿であってもよい。また、ユーザ画像UP41乃至43は、全てが同一の被写体(すなわち、全てがユーザU又は全てがユーザUとは異なる他人)の画像であっても、その中の一部が別の被写体(すなわち、ユーザUとユーザUとは異なる他人が混在)の画像であってもよい。なお、ユーザUとは異なる他人の姿であるユーザ画像UP42は、表示画像生成部54によって、画像情報記録部33に記録されたユーザUとは異なる他人の撮影画像のデータを用いて生成される。
上述の例では、ユーザUの顔の移動量Δxに基づいてユーザ画像UPのデータが更新されたが、さらに、ユーザUの顔の移動速度に基づいてユーザ画像UPのデータが更新されてもよい。すなわち、ディスプレイ型ミラー装置1は、ユーザUの顔の移動速度が速いほど、視点Pの変化量Δθが大きくなるようにして、ユーザ画像UPのデータを生成してもよい。
また、上述の例では、ユーザUの顔の移動量Δxは、ユーザUの顔が水平方向に回転移動した場合の回転角度とされたが、回転方向は、垂直方向であってもよい。この場合、例えば、ディスプレイ型ミラー装置1は、ユーザUが上方向を見上げたり背伸びをすると、ユーザUの頭頂部をディスプレイ11に表示させ、ユーザUが下方向を見下げたりしゃがむと、ユーザUを下方向から見た姿をディスプレイ11に表示させるようにしてもよい。
また、上述の例では、ユーザUの全身がディスプレイ11に表示されたが、当然のことながら、ユーザUの顔、上半身、または下半身だけが表示されるようにしてもよい。
また、上述の例では、ディスプレイ11を鏡とした場合の鏡像と等価な画像を、ユーザ画像UPとして表示したが、これに限定されず、他者からみたユーザUの姿(すなわち、鏡像と等価な画像とは左右対称の画像)をユーザ画像UPとして表示してもよい。この場合、前者のユーザ画像UPが表示される表示モードを鏡モード、後者のユーザ画像UPが表示される表示モードを通常モードとして、ユーザUが、任意の表示モードを選択可能とする。
また、上述の例では、顔位置検出部53によりユーザUの顔の移動量Δxが検出されて、当該移動量Δxに基づいてユーザ画像UPのデータが更新されたが、特に顔位置検出部53を採用することは必須ではない。すなわち、被写体の画像のデータの更新をする場合に利用することができ、かつ、当該被写体の注目部分の変化量を検出することが可能な検出部を、顔位置検出部53の代わりに採用してもよい。換言すると、ディスプレイ型ミラー装置1にこのような検出部が採用されていれば足り、顔位置検出部53とは、被写体としてユーザUが採用されており、撮影画像に含まれるユーザUの顔の領域が注目部分として採用された検出部の一例に過ぎない。
[本技術のプログラムへの適用]
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
この場合、上述した画像処理装置の少なくとも一部として、例えば、図10に示されるパーソナルコンピュータを採用してもよい。
図10において、CPU101は、ROM102に記録されているプログラムに従って各種の処理を実行する。または記憶部108からRAM103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU101、ROM102、及びRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。
入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイなどよりなる出力部107が接続されている。また、ハードディスクなどより構成される記憶部108、及び、モデム、ターミナルアダプタなどより構成される通信部109が接続されている。通信部109は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
入出力インタフェース105にはまた、必要に応じてドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着される。そして、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部108にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図10に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア(パッケージメディア)211により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は、以下のような構成もとることができる。
(1)
被写体の注目部分の変化量に連動させて、異なる視点で前記被写体が撮影された画像又はそれと等価な画像を、被写体画像として生成する画像生成部と、
前記画像生成部により生成された前記被写体画像を表示画面に表示させる表示制御部と
を備える画像処理装置。
(2)
前記画像生成部は、
基準となる位置及び方向の視点で前記被写体を撮影した画像又はそれと等価な画像を、基準被写体画像として生成し、
前記被写体の注目部分が前記基準被写体画像が生成された初期状態から変化した場合、前記変化量に連動させて、前記視点の位置と方向の少なくとも一方を変化させ、変化後の視点で前記被写体が撮影された画像又はそれと等価な画像を、前記被写体画像として生成する
前記(1)に記載の画像処理装置。
(3)
前記被写体の注目部分の変化量を検出する検出部を更に備え、
前記画像生成部は、前記検出部により検出された変化量に連動させて、前記被写体画像を生成する
前記(1)または(2)に記載の画像処理装置。
(4)
異なる位置にそれぞれ設置され、別々の撮影方向で前記被写体を撮影して、撮影画像のデータをそれぞれ出力する複数の撮像部をさらに備え、
前記画像生成部は、前記変化後の視点の位置及び方向が、前記複数の撮像部のうちの何れの撮像部の設置位置及び撮影方向とも一致しない場合、前記複数の撮像部から選択したものから出力された撮影画像のデータを合成することによって、前記変化後の視点で前記被写体が撮影されたのと等価な画像を、前記被写体画像として生成する
前記(1)、(2)、または(3)に記載の画像処理装置。
(5)
前記被写体の注目部分の変化量は、前記被写体の注目部分が前記初期状態から回転移動した場合の回転角度である
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記回転方向は、水平方向である
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記回転方向は、垂直方向である
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記合成画像が静止画である場合の前記変化量は、前記被写体のジェスチャの動作内容の変化量である
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記合成画像が動画である場合の前記変化量は、前記被写体の顔の位置または視線の方向の変化量である
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記画像生成部は、前記被写体画像の大きさ及び前記表示画面上の前記被写体画像の表示領域が、前記基準被写体画像の大きさ及び前記表示画面上の前記基準被写体画像の表示領域と一致するように前記被写体画像を生成する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
前記被写体画像は、過去の前記被写体が撮影された画像またはそれと等価な画像である
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記被写体画像は、前記被写体とは異なる被写体が撮影された画像またはそれと等価な画像である
前記(1)乃至(11)のいずれかに記載の画像処理装置。
(13)
前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を重ね合わせて表示させる
前記(1)乃至(12)のいずれかに記載の画像処理装置。
(14)
前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を並べて表示させる
前記(1)乃至(13)のいずれかに記載の画像処理装置。
(15)
前記表示制御部は、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のそれぞれの透過率を変えて表示させる
前記(1)乃至(14)のいずれかに記載の画像処理装置。
(1)
被写体の注目部分の変化量に連動させて、異なる視点で前記被写体が撮影された画像又はそれと等価な画像を、被写体画像として生成する画像生成部と、
前記画像生成部により生成された前記被写体画像を表示画面に表示させる表示制御部と
を備える画像処理装置。
(2)
前記画像生成部は、
基準となる位置及び方向の視点で前記被写体を撮影した画像又はそれと等価な画像を、基準被写体画像として生成し、
前記被写体の注目部分が前記基準被写体画像が生成された初期状態から変化した場合、前記変化量に連動させて、前記視点の位置と方向の少なくとも一方を変化させ、変化後の視点で前記被写体が撮影された画像又はそれと等価な画像を、前記被写体画像として生成する
前記(1)に記載の画像処理装置。
(3)
前記被写体の注目部分の変化量を検出する検出部を更に備え、
前記画像生成部は、前記検出部により検出された変化量に連動させて、前記被写体画像を生成する
前記(1)または(2)に記載の画像処理装置。
(4)
異なる位置にそれぞれ設置され、別々の撮影方向で前記被写体を撮影して、撮影画像のデータをそれぞれ出力する複数の撮像部をさらに備え、
前記画像生成部は、前記変化後の視点の位置及び方向が、前記複数の撮像部のうちの何れの撮像部の設置位置及び撮影方向とも一致しない場合、前記複数の撮像部から選択したものから出力された撮影画像のデータを合成することによって、前記変化後の視点で前記被写体が撮影されたのと等価な画像を、前記被写体画像として生成する
前記(1)、(2)、または(3)に記載の画像処理装置。
(5)
前記被写体の注目部分の変化量は、前記被写体の注目部分が前記初期状態から回転移動した場合の回転角度である
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記回転方向は、水平方向である
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記回転方向は、垂直方向である
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記合成画像が静止画である場合の前記変化量は、前記被写体のジェスチャの動作内容の変化量である
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記合成画像が動画である場合の前記変化量は、前記被写体の顔の位置または視線の方向の変化量である
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記画像生成部は、前記被写体画像の大きさ及び前記表示画面上の前記被写体画像の表示領域が、前記基準被写体画像の大きさ及び前記表示画面上の前記基準被写体画像の表示領域と一致するように前記被写体画像を生成する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
前記被写体画像は、過去の前記被写体が撮影された画像またはそれと等価な画像である
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記被写体画像は、前記被写体とは異なる被写体が撮影された画像またはそれと等価な画像である
前記(1)乃至(11)のいずれかに記載の画像処理装置。
(13)
前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を重ね合わせて表示させる
前記(1)乃至(12)のいずれかに記載の画像処理装置。
(14)
前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を並べて表示させる
前記(1)乃至(13)のいずれかに記載の画像処理装置。
(15)
前記表示制御部は、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のそれぞれの透過率を変えて表示させる
前記(1)乃至(14)のいずれかに記載の画像処理装置。
本技術は、被写体の画像を表示する画像処理装置に適用することができる。
1 ディスプレイ型ミラー装置, 11 ディスプレイ, 12 カメラ, 13 主制御装置, 31 画像処理部, 32 機器位置情報記録部, 33 画像情報記録部, 51 カメラ制御部, 52 画像取得部, 53 顔位置検出部, 54 表示画像生成部, 55 画像表示制御部, 71 周囲鏡
Claims (16)
- 被写体の注目部分の変化量に連動させて、異なる視点で前記被写体が撮影された画像又はそれと等価な画像を、被写体画像として生成する画像生成部と、
前記画像生成部により生成された前記被写体画像を表示画面に表示させる表示制御部と
を備える画像処理装置。 - 前記画像生成部は、
基準となる位置及び方向の視点で前記被写体を撮影した画像又はそれと等価な画像を、基準被写体画像として生成し、
前記被写体の注目部分が前記基準被写体画像が生成された初期状態から変化した場合、前記変化量に連動させて、前記視点の位置と方向の少なくとも一方を変化させ、変化後の視点で前記被写体が撮影された画像又はそれと等価な画像を、前記被写体画像として生成する
請求項1に記載の画像処理装置。 - 前記被写体の注目部分の変化量を検出する検出部を更に備え、
前記画像生成部は、前記検出部により検出された変化量に連動させて、前記被写体画像を生成する
請求項2に記載の画像処理装置。 - 異なる位置にそれぞれ設置され、別々の撮影方向で前記被写体を撮影して、撮影画像のデータをそれぞれ出力する複数の撮像部をさらに備え、
前記画像生成部は、前記変化後の視点の位置及び方向が、前記複数の撮像部のうちの何れの撮像部の設置位置及び撮影方向とも一致しない場合、前記複数の撮像部から選択したものから出力された撮影画像のデータを合成することによって、前記変化後の視点で前記被写体が撮影されたのと等価な画像を、前記被写体画像として生成する
請求項3に記載の画像処理装置。 - 前記被写体の注目部分の変化量は、前記被写体の注目部分が前記初期状態から回転移動した場合の回転角度である
請求項4に記載の画像処理装置。 - 前記回転方向は、水平方向である
請求項5に記載の画像処理装置。 - 前記回転方向は、垂直方向である
請求項5に記載の画像処理装置。 - 前記合成画像が静止画である場合の前記変化量は、前記被写体のジェスチャの動作内容の変化量である
請求項6に記載の画像処理装置。 - 前記合成画像が動画である場合の前記変化量は、前記被写体の顔の位置または視線の方向の変化量である
請求項6に記載の画像処理装置。 - 前記画像生成部は、前記被写体画像の大きさ及び前記表示画面上の前記被写体画像の表示領域が、前記基準被写体画像の大きさ及び前記表示画面上の前記基準被写体画像の表示領域と一致するように前記被写体画像を生成する
請求項8に記載の画像処理装置。 - 前記被写体画像は、過去の前記被写体が撮影された画像またはそれと等価な画像である
請求項10に記載の画像処理装置。 - 前記被写体画像は、前記被写体とは異なる被写体が撮影された画像またはそれと等価な画像である
請求項10に記載の画像処理装置。 - 前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を重ね合わせて表示させる
請求項10に記載の画像処理装置。 - 前記表示制御部は、前記被写体画像として、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のうちの2つ以上を並べて表示させる
請求項10に記載の画像処理装置。 - 前記表示制御部は、過去の前記被写体が撮影された画像またはそれと等価な画像、現在の前記被写体が撮影された画像またはそれと等価な画像、及び未来の前記被写体が撮影された画像またはそれと等価な画像のそれぞれの透過率を変えて表示させる
請求項13に記載の画像処理装置。 - 被写体の注目部分の変化量に連動させて、異なる視点で前記被写体が撮影された画像又はそれと等価な画像を、被写体画像として生成する画像生成ステップと、
前記画像生成ステップの処理により生成された前記被写体画像を表示画面に表示させる表示制御ステップと
を含む画像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011108843A JP2012244196A (ja) | 2011-05-13 | 2011-05-13 | 画像処理装置及び方法 |
US13/456,265 US20120287153A1 (en) | 2011-05-13 | 2012-04-26 | Image processing apparatus and method |
CN2012101472710A CN102780873A (zh) | 2011-05-13 | 2012-05-07 | 图像处理装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011108843A JP2012244196A (ja) | 2011-05-13 | 2011-05-13 | 画像処理装置及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012244196A true JP2012244196A (ja) | 2012-12-10 |
Family
ID=47125618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011108843A Withdrawn JP2012244196A (ja) | 2011-05-13 | 2011-05-13 | 画像処理装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120287153A1 (ja) |
JP (1) | JP2012244196A (ja) |
CN (1) | CN102780873A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016509683A (ja) * | 2012-12-18 | 2016-03-31 | ヴィルコフスキー,ニッシ | 外観を撮像及び表示する装置、システム及び方法 |
JP2016161835A (ja) * | 2015-03-03 | 2016-09-05 | シャープ株式会社 | 表示装置、制御プログラム、および制御方法 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101839473B1 (ko) * | 2011-08-03 | 2018-03-19 | 삼성전자주식회사 | 비교 영상 제공 방법 및 이를 적용한 영상 촬영 장치 |
US20130321669A1 (en) * | 2012-05-29 | 2013-12-05 | James Wayne Youngs | Hindsight Mirror Apparatus |
US9189884B2 (en) * | 2012-11-13 | 2015-11-17 | Google Inc. | Using video to encode assets for swivel/360-degree spinners |
CN103985330A (zh) * | 2013-04-07 | 2014-08-13 | 迟鹏 | 物品或视频的镜像制作方法 |
JP5886242B2 (ja) * | 2013-06-10 | 2016-03-16 | ヤフー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
KR101773116B1 (ko) * | 2013-07-26 | 2017-08-31 | 삼성전자주식회사 | 영상 촬영 장치 및 이의 촬영 방법 |
JP5695809B1 (ja) * | 2013-10-16 | 2015-04-08 | オリンパスイメージング株式会社 | 表示装置、表示方法およびプログラム |
JP2015186021A (ja) * | 2014-03-24 | 2015-10-22 | オリンパス株式会社 | 撮影機器、撮像観察機器、画像比較表示方法、画像比較表示プログラム及び画像比較表示システム |
CN104243831A (zh) * | 2014-09-30 | 2014-12-24 | 北京金山安全软件有限公司 | 通过移动终端进行拍摄的方法、装置及移动终端 |
US10972371B2 (en) | 2015-03-27 | 2021-04-06 | Intel Corporation | Technologies for GPU assisted network traffic monitoring and analysis |
WO2017017898A1 (ja) * | 2015-07-28 | 2017-02-02 | パナソニックIpマネジメント株式会社 | 移動方向決定方法および移動方向決定装置 |
JP6757184B2 (ja) * | 2016-03-24 | 2020-09-16 | キヤノン株式会社 | 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム |
JP6904263B2 (ja) * | 2018-01-10 | 2021-07-14 | オムロン株式会社 | 画像処理システム |
CN110266926B (zh) * | 2019-06-28 | 2021-08-17 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端以及存储介质 |
JP7443100B2 (ja) * | 2020-03-10 | 2024-03-05 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0935878B1 (en) * | 1997-09-03 | 2011-09-28 | Casio Computer Co., Ltd. | Electronic still camera having photographed image reproducing function |
CA2369648A1 (en) * | 1999-04-16 | 2000-10-26 | Matsushita Electric Industrial Co., Limited | Image processing device and monitoring system |
US20030063102A1 (en) * | 2001-10-01 | 2003-04-03 | Gilles Rubinstenn | Body image enhancement |
US6922201B2 (en) * | 2001-12-05 | 2005-07-26 | Eastman Kodak Company | Chronological age altering lenticular image |
JP2003296713A (ja) * | 2002-04-04 | 2003-10-17 | Mitsubishi Electric Corp | 顔画像合成装置、顔画像合成方法およびその方法を実行するプログラムならびに顔画像合成装置を備えた通信用端末およびその通信用端末による通信方法 |
GB0315116D0 (en) * | 2003-06-27 | 2003-07-30 | Seos Ltd | Image display apparatus for displaying composite images |
US7643025B2 (en) * | 2003-09-30 | 2010-01-05 | Eric Belk Lange | Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates |
JP4517664B2 (ja) * | 2004-02-12 | 2010-08-04 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
JP2006054504A (ja) * | 2004-08-09 | 2006-02-23 | Olympus Corp | 画像生成方法および装置 |
WO2006112308A1 (ja) * | 2005-04-15 | 2006-10-26 | The University Of Tokyo | モーションキャプチャシステム、及びモーションキャプチャシステムにおける特徴点の三次元再構成法 |
AU2006352758A1 (en) * | 2006-04-10 | 2008-12-24 | Avaworks Incorporated | Talking Head Creation System and Method |
JP5013773B2 (ja) * | 2006-08-18 | 2012-08-29 | パナソニック株式会社 | 車載画像処理装置及びその視点変換情報生成方法 |
WO2008118113A1 (en) * | 2007-03-23 | 2008-10-02 | Thomson Licensing | System and method for region classification of 2d images for 2d-to-3d conversion |
US7972266B2 (en) * | 2007-05-22 | 2011-07-05 | Eastman Kodak Company | Image data normalization for a monitoring system |
US8223192B2 (en) * | 2007-10-31 | 2012-07-17 | Technion Research And Development Foundation Ltd. | Free viewpoint video |
JP4513906B2 (ja) * | 2008-06-27 | 2010-07-28 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び記録媒体 |
JP2010087569A (ja) * | 2008-09-29 | 2010-04-15 | Panasonic Electric Works Co Ltd | 姿見装置 |
CN101581874B (zh) * | 2009-03-27 | 2011-01-05 | 北京航空航天大学 | 基于多摄像机采集的远程沉浸协同工作装置 |
CN102349304B (zh) * | 2009-03-30 | 2015-05-06 | 日本电气株式会社 | 图像显示装置、图像生成装置、图像显示方法、图像生成方法和存储程序的非暂时计算机可读介质 |
JP5278133B2 (ja) * | 2009-04-17 | 2013-09-04 | 住友電装株式会社 | ワイヤーハーネス外観検査用画像生成装置およびワイヤーハーネス外観検査用画像生成方法 |
KR101615238B1 (ko) * | 2009-07-21 | 2016-05-12 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US8428368B2 (en) * | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
TW201129084A (en) * | 2010-02-02 | 2011-08-16 | Hon Hai Prec Ind Co Ltd | Controlling system and method for camera, adjusting apparatus for camera including the same |
US8379134B2 (en) * | 2010-02-26 | 2013-02-19 | Research In Motion Limited | Object detection and selection using gesture recognition |
-
2011
- 2011-05-13 JP JP2011108843A patent/JP2012244196A/ja not_active Withdrawn
-
2012
- 2012-04-26 US US13/456,265 patent/US20120287153A1/en not_active Abandoned
- 2012-05-07 CN CN2012101472710A patent/CN102780873A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016509683A (ja) * | 2012-12-18 | 2016-03-31 | ヴィルコフスキー,ニッシ | 外観を撮像及び表示する装置、システム及び方法 |
JP2016161835A (ja) * | 2015-03-03 | 2016-09-05 | シャープ株式会社 | 表示装置、制御プログラム、および制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20120287153A1 (en) | 2012-11-15 |
CN102780873A (zh) | 2012-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012244196A (ja) | 画像処理装置及び方法 | |
US8976255B2 (en) | Imaging apparatus | |
JP3847753B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
WO2014016987A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP2013076924A5 (ja) | ||
US11367260B2 (en) | Video synthesis device, video synthesis method and recording medium | |
JP6348665B2 (ja) | ヘッドマウントディスプレイ、表示制御方法及びプログラム | |
US11625858B2 (en) | Video synthesis device, video synthesis method and recording medium | |
US9478068B2 (en) | Computer-readable medium, image processing device, image processing system, and image processing method | |
WO2021044745A1 (ja) | 表示処理装置、表示処理方法及び記録媒体 | |
WO2017122270A1 (ja) | 画像表示装置 | |
US20220351444A1 (en) | Animation production method | |
JP2006294066A (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
US20230260235A1 (en) | Information processing apparatus, information processing method, and information processing system | |
JP6467039B2 (ja) | 情報処理装置 | |
JP6964302B2 (ja) | アニメーション制作方法 | |
JP2022025463A (ja) | アニメーション制作システム | |
US20220351443A1 (en) | Animation production system | |
JP7390542B2 (ja) | アニメーション制作システム | |
JP7241628B2 (ja) | 動画合成装置、動画合成方法、および動画合成プログラム | |
JP7427739B2 (ja) | 表示装置 | |
WO2023228600A1 (ja) | 情報処理装置、情報処理方法および記憶媒体 | |
JP7218872B2 (ja) | アニメーション制作システム | |
US20220414991A1 (en) | Video generation apparatus, method for generating video, and program of generating video | |
WO2021241110A1 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140805 |