JP2013222190A - カメラと顔認識システムで画面へ立体を表現する方法 - Google Patents
カメラと顔認識システムで画面へ立体を表現する方法 Download PDFInfo
- Publication number
- JP2013222190A JP2013222190A JP2012105494A JP2012105494A JP2013222190A JP 2013222190 A JP2013222190 A JP 2013222190A JP 2012105494 A JP2012105494 A JP 2012105494A JP 2012105494 A JP2012105494 A JP 2012105494A JP 2013222190 A JP2013222190 A JP 2013222190A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- camera
- image
- observer
- recognition system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】この発明は、カメラ(1)と顔認識システムを用いて、任意の位置から見た立体を画面(2)へ表現する方法に関するものである。
【解決手段】カメラ(1)と画面(2)と顔認識システムが実装されている機器(4)で本発明による方法を用いることにより、観察者(3)が任意の角度からみたときの立体を画面(2)へ表示する。本手段は、対象となるカメラ(1)と観察者(3)との相対的な位置関係が、画像または映像(5)で特定できることを利用している。具体的には以下のステップによる。
S10 カメラ(1)により、観察者(3)の画像または映像(5)を撮影。
S20 顔認識システムにより、画像または映像(5)に写っている観察者(3)の顔サイズ等を検出し計測。
S30 実際の顔のサイズ、撮影された位置から画面(2)と観察者(3)との位置関係を推定。
S40 観察者から見た像の計算し、像(8)を画面(2)へ表示。
【選択図】図1
【解決手段】カメラ(1)と画面(2)と顔認識システムが実装されている機器(4)で本発明による方法を用いることにより、観察者(3)が任意の角度からみたときの立体を画面(2)へ表示する。本手段は、対象となるカメラ(1)と観察者(3)との相対的な位置関係が、画像または映像(5)で特定できることを利用している。具体的には以下のステップによる。
S10 カメラ(1)により、観察者(3)の画像または映像(5)を撮影。
S20 顔認識システムにより、画像または映像(5)に写っている観察者(3)の顔サイズ等を検出し計測。
S30 実際の顔のサイズ、撮影された位置から画面(2)と観察者(3)との位置関係を推定。
S40 観察者から見た像の計算し、像(8)を画面(2)へ表示。
【選択図】図1
Description
この発明は、カメラ(1)と顔認識システムを用いて、任意の位置から見た立体を画面(2)へ表現する方法に関するものである。
画面で何か表示するとき、一般的には、観察者(3)は画面の中心から見ることを前提としている。視差バリアを用いて3Dで表示をする場合においても、一般的には、観察者(3)は画面の中心から見ることを前提としている。
また、視差バリアを用いることにより、他の角度からみたときに違う画像を表示する方法も広く知られている。この方法を用いて、他の角度からみたときの立体を表示すれば、いくつかの角度からみたときの立体を表現することができる。
また、視差バリアを用いることにより、他の角度からみたときに違う画像を表示する方法も広く知られている。この方法を用いて、他の角度からみたときの立体を表示すれば、いくつかの角度からみたときの立体を表現することができる。
視差バリアを用いずに、様々な角度から画面をみたときの立体を表現する方法は大掛かりな機器を必要とする。一方、視差バリアを用いることにより、複数の方向から見たときの画像を画面へ表示することは可能であるが、数パターン程度の向きに限られる。本発明は、大掛かりな機器や視差バリアを用いなくても、任意の位置から見た立体を画面へ表現することができる方法である。
本発明では、カメラ(1)、画面(2)、顔認識システムを実装した機器(4)が必要である。さらに以下の手順により課題を解決する。
(イ)本方法は、対象物の大きさが予めわかっていれば、画像または映像(5)に写る対象物の位置と大きさで、カメラ(1)と対象物との相対位置が特定できることを利用している。予め、以下の作業をしておく必要がある。
a)カメラ(1)から顔を撮影し、画像または映像(5)に写る顔の大きさ・位置・角度などの情報を顔認識システムにより検出して入力値とし、実際のカメラ(1)と顔との相対位置関係を出力値とする。入力値と出力値のサンプルを収集し、任意の顔の位置で入力値から出力値を内挿できるようにしておく。
b)カメラ(1)から標準の位置(L0)へ観察者(3)の顔を固定し、観察者(3)の顔のパーツ等を計測する(以下、キャリブレーションと呼ぶ)。ただし、予め観察者(3)の顔の大きさがわかっている場合や、精度を求めない場合は、b)を省略しても良い。
(ロ)カメラ(1)が観察者(3)を撮影する。
(ハ)カメラ(1)により写した画像または映像(5)から顔認識システムにより観察者(3)の顔の位置・顔の大きさ・顔の角度などを検出する。続いて(イ)を用いてカメラ(1)から観察者(3)の位置を計算(内挿)する。この計算により画面(2)と観察者(3)の相対的な位置関係を推定する。
(ニ)(ハ)により計算した観察者(3)の目の位置から、画面(2)を見たときの像(画面へ投影した像)(8)を画面(2)へ表示する。画面(2)へ投影した像(8)は、計算より求めて描画しても良いが、様々な角度から見た像を予め用意しておき表示しても良い。
(ホ)観察者(3)と画面との相対位置を検出する精度を向上させるには、以下の方法が有効である。
a)(イ)a)のサンプルを多くとり内挿の精度を向上させる。
b)複数のカメラ(1)により本手段を用いる。
c)画角の広いカメラ(1)を採用し、死角を減らす。
d)人物を見分けられる顔認識システムを用いる。
e)カメラ(1)と観察者(3)との相対位置関係を複数のパターンとしたキャリブレーションを行う。
(イ)本方法は、対象物の大きさが予めわかっていれば、画像または映像(5)に写る対象物の位置と大きさで、カメラ(1)と対象物との相対位置が特定できることを利用している。予め、以下の作業をしておく必要がある。
a)カメラ(1)から顔を撮影し、画像または映像(5)に写る顔の大きさ・位置・角度などの情報を顔認識システムにより検出して入力値とし、実際のカメラ(1)と顔との相対位置関係を出力値とする。入力値と出力値のサンプルを収集し、任意の顔の位置で入力値から出力値を内挿できるようにしておく。
b)カメラ(1)から標準の位置(L0)へ観察者(3)の顔を固定し、観察者(3)の顔のパーツ等を計測する(以下、キャリブレーションと呼ぶ)。ただし、予め観察者(3)の顔の大きさがわかっている場合や、精度を求めない場合は、b)を省略しても良い。
(ロ)カメラ(1)が観察者(3)を撮影する。
(ハ)カメラ(1)により写した画像または映像(5)から顔認識システムにより観察者(3)の顔の位置・顔の大きさ・顔の角度などを検出する。続いて(イ)を用いてカメラ(1)から観察者(3)の位置を計算(内挿)する。この計算により画面(2)と観察者(3)の相対的な位置関係を推定する。
(ニ)(ハ)により計算した観察者(3)の目の位置から、画面(2)を見たときの像(画面へ投影した像)(8)を画面(2)へ表示する。画面(2)へ投影した像(8)は、計算より求めて描画しても良いが、様々な角度から見た像を予め用意しておき表示しても良い。
(ホ)観察者(3)と画面との相対位置を検出する精度を向上させるには、以下の方法が有効である。
a)(イ)a)のサンプルを多くとり内挿の精度を向上させる。
b)複数のカメラ(1)により本手段を用いる。
c)画角の広いカメラ(1)を採用し、死角を減らす。
d)人物を見分けられる顔認識システムを用いる。
e)カメラ(1)と観察者(3)との相対位置関係を複数のパターンとしたキャリブレーションを行う。
画面とカメラとコンピュータで構成されている機器は、比較的安価に製造できる状況にあり、様々な形態で普及している。これらの組合せを実装した機器で本発明による方法を用いることにより、任意の位置からみたときの立体を画面(2)へ表現することができる。
図1に、この発明の一実施形態を示す。機器(タブレット型情報端末)(4)には画面(2)と、観察者(3)を撮影するためのカメラ(1)が取り付いている。観察者(3)は少し上から画面(2)を見ている。以下、ステップの順に沿って説明する。
S10 カメラ(1)により、観察者(3)の画像または映像(5)を撮影する。
S20 顔認識システムを活用することにより、画像または映像(5)に写っている観察者(3)の顔のサイズや位置、角度などを検出し計測する。
S30 S20により得られた情報を元に観察者(3、6)の位置を推定する。
S40 観察者(3、6)から見た像を計算し、像(8)を画面へ表示する。
S50 観察者(3、6)は、3Dモデル(7)を少し上から見た像(8)として見える。
観察者(3)の目の位置や角度が変わったら、S10〜S40を繰り返すことにより、任意の位置から3Dモデル(7)を見たときの像(8)を画面(2)へ表示する。
図2に「画面へ投影した像」(8)の計算方法を示す平面図を示す。計算方法は、透視投影と呼ばれる図法で確立されている。一般的なコンピュータグラフィックスでは、観察者(視点)と画面との関係を仮想空間内で計算するが、本発明での観察者(3)と画面(2)との位置関係は、現実の位置関係を反映している点が異なる。ここでは簡単に説明するために、2次元で説明する。観察者(3)からL1だけ離れたところに画面(2)がある。3Dモデル(7)は、正方形であり、1辺は観察者(3)からL1だけ離れたところ、もう1辺は観察者(3)からL2だけ離れた箇所にあるとする。観察者(3)が画面(2)を通して見える幅は、画面(2)の幅W1と一致する。続いて、観察者(3)からL2だけ離れた先の空間は、W2の幅だけ見えることとなる。これにより、観察者(3)からL2だけ離れた空間は、W1/W2だけ小さく見えることとなり、それだけ小さく表示する。図2では2次元で説明したが、実際には幅方向のほかに高さ方向も幾何計算を行い、遠方ほど小さくなるように画面(2)へ表示する。なお、観察者(3)と画面(2)との相対位置関係は実際には任意の位置となるが、計算方法は同じである。
図3に、図1に示した一実施形態でキャリブレーションするときの概念図を示す。カメラ(1)から標準の長さだけ離れた位置L0で写した画像または映像(5)へ写る対象物から、実際の大きさを予め推定できるにしておく。以降、下記のステップにより進める。
S60 観察者(3)は、カメラ(1)から標準の長さだけ離れた位置L0へ顔を固定する。
S70 画像または映像(5)から、顔認識システムを用いて、観察者(3、6)の目の距離、目から口までの距離を計測し、実際の顔の寸法を推定する。
図4に、画像または映像(5)からカメラ(1)と被写体との位置を推定するサンプルデータを作成するときの、一実施形態を示す。カメラ(1)からL3だけ離れた距離で、方眼状の定規(9)を撮影する。このときの、画像または映像(5)に写る方眼状の定規(9)の位置の情報をインプットデータとし、実際のカメラ(1)と方眼状の定規(9)との距離の情報をアウトプットデータとして、データ収集を行い、任意の位置で撮影した被写体の相対位置を線形補間により内挿できるようにする。
「実施形態の効果」
一実施形態により、観察者(3)が任意の位置から見たときの3Dモデル(7)を画面(2)へ表示することができる。
「他の実施形態」
前述の図1の説明では、機器(4)をタブレット型情報端末としたが、カメラ(1)、画面(2)、顔認識システムの機能があれば別の形態であっても構わない。また、本発明は、立体視が可能な画面と組み合わせて表現することも可能である。
前述の図4の説明では、方眼状の定規を用いて説明したが、実際にはどんな形状の被写体を用いてもデータ収集は可能である。また、内挿の方法も、代表的な方法として線形補間としたが、内挿ができれば、他の方法を用いても良い。
S10 カメラ(1)により、観察者(3)の画像または映像(5)を撮影する。
S20 顔認識システムを活用することにより、画像または映像(5)に写っている観察者(3)の顔のサイズや位置、角度などを検出し計測する。
S30 S20により得られた情報を元に観察者(3、6)の位置を推定する。
S40 観察者(3、6)から見た像を計算し、像(8)を画面へ表示する。
S50 観察者(3、6)は、3Dモデル(7)を少し上から見た像(8)として見える。
観察者(3)の目の位置や角度が変わったら、S10〜S40を繰り返すことにより、任意の位置から3Dモデル(7)を見たときの像(8)を画面(2)へ表示する。
図2に「画面へ投影した像」(8)の計算方法を示す平面図を示す。計算方法は、透視投影と呼ばれる図法で確立されている。一般的なコンピュータグラフィックスでは、観察者(視点)と画面との関係を仮想空間内で計算するが、本発明での観察者(3)と画面(2)との位置関係は、現実の位置関係を反映している点が異なる。ここでは簡単に説明するために、2次元で説明する。観察者(3)からL1だけ離れたところに画面(2)がある。3Dモデル(7)は、正方形であり、1辺は観察者(3)からL1だけ離れたところ、もう1辺は観察者(3)からL2だけ離れた箇所にあるとする。観察者(3)が画面(2)を通して見える幅は、画面(2)の幅W1と一致する。続いて、観察者(3)からL2だけ離れた先の空間は、W2の幅だけ見えることとなる。これにより、観察者(3)からL2だけ離れた空間は、W1/W2だけ小さく見えることとなり、それだけ小さく表示する。図2では2次元で説明したが、実際には幅方向のほかに高さ方向も幾何計算を行い、遠方ほど小さくなるように画面(2)へ表示する。なお、観察者(3)と画面(2)との相対位置関係は実際には任意の位置となるが、計算方法は同じである。
図3に、図1に示した一実施形態でキャリブレーションするときの概念図を示す。カメラ(1)から標準の長さだけ離れた位置L0で写した画像または映像(5)へ写る対象物から、実際の大きさを予め推定できるにしておく。以降、下記のステップにより進める。
S60 観察者(3)は、カメラ(1)から標準の長さだけ離れた位置L0へ顔を固定する。
S70 画像または映像(5)から、顔認識システムを用いて、観察者(3、6)の目の距離、目から口までの距離を計測し、実際の顔の寸法を推定する。
図4に、画像または映像(5)からカメラ(1)と被写体との位置を推定するサンプルデータを作成するときの、一実施形態を示す。カメラ(1)からL3だけ離れた距離で、方眼状の定規(9)を撮影する。このときの、画像または映像(5)に写る方眼状の定規(9)の位置の情報をインプットデータとし、実際のカメラ(1)と方眼状の定規(9)との距離の情報をアウトプットデータとして、データ収集を行い、任意の位置で撮影した被写体の相対位置を線形補間により内挿できるようにする。
「実施形態の効果」
一実施形態により、観察者(3)が任意の位置から見たときの3Dモデル(7)を画面(2)へ表示することができる。
「他の実施形態」
前述の図1の説明では、機器(4)をタブレット型情報端末としたが、カメラ(1)、画面(2)、顔認識システムの機能があれば別の形態であっても構わない。また、本発明は、立体視が可能な画面と組み合わせて表現することも可能である。
前述の図4の説明では、方眼状の定規を用いて説明したが、実際にはどんな形状の被写体を用いてもデータ収集は可能である。また、内挿の方法も、代表的な方法として線形補間としたが、内挿ができれば、他の方法を用いても良い。
1 カメラ
2 画面
3 観察者
4 機器
5 画像または映像
6 観察者を簡易表示するための記号
7 3Dモデル
8 (画面へ投影した)像
9 方眼状の定規
L1,L2,W1,W2 図2を説明するときの寸法
L0 キャリブレーションするときに指定する長さ
L3 図4を説明するときの寸法
S10 写真または映像の撮影するステップ
S20 顔認識システムを活用することにより顔サイズ等を計測するステップ
S30 観察者位置を推定するステップ
S40 観察者から見た像を計算し像を表示するステップ
S50 観察者が視聴するステップ
S60 カメラから指定された位置に観察者が顔を固定するステップ
S70 画像または映像から観察者の大きさを推定するステップ
2 画面
3 観察者
4 機器
5 画像または映像
6 観察者を簡易表示するための記号
7 3Dモデル
8 (画面へ投影した)像
9 方眼状の定規
L1,L2,W1,W2 図2を説明するときの寸法
L0 キャリブレーションするときに指定する長さ
L3 図4を説明するときの寸法
S10 写真または映像の撮影するステップ
S20 顔認識システムを活用することにより顔サイズ等を計測するステップ
S30 観察者位置を推定するステップ
S40 観察者から見た像を計算し像を表示するステップ
S50 観察者が視聴するステップ
S60 カメラから指定された位置に観察者が顔を固定するステップ
S70 画像または映像から観察者の大きさを推定するステップ
Claims (1)
- カメラ(1)、画面(2)、顔認識システムから成り、カメラ(1)が写した画像または映像(5)から顔認識システムを用いて観察者(3)とカメラ(1)との相対位置を推定し、観察者(3)から画面(2)を見たときの像(8)を画面(2)へ表示することにより、観察者(3)が任意の位置からみた立体を画面(2)へ表現する方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012105494A JP2013222190A (ja) | 2012-04-12 | 2012-04-12 | カメラと顔認識システムで画面へ立体を表現する方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012105494A JP2013222190A (ja) | 2012-04-12 | 2012-04-12 | カメラと顔認識システムで画面へ立体を表現する方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013222190A true JP2013222190A (ja) | 2013-10-28 |
Family
ID=49593152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012105494A Pending JP2013222190A (ja) | 2012-04-12 | 2012-04-12 | カメラと顔認識システムで画面へ立体を表現する方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013222190A (ja) |
-
2012
- 2012-04-12 JP JP2012105494A patent/JP2013222190A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9916689B2 (en) | Apparatus and method for estimating camera pose | |
US20170132806A1 (en) | System and method for augmented reality and virtual reality applications | |
TWI496108B (zh) | AR image processing apparatus and method | |
JP2020184795A (ja) | 映像監視システム、映像監視方法、及びプログラム | |
EP2807629B1 (en) | Mobile device configured to compute 3d models based on motion sensor data | |
US9696543B2 (en) | Information processing apparatus and information processing method | |
US9813693B1 (en) | Accounting for perspective effects in images | |
CN111164971A (zh) | 用于3d内容的视差观察器系统 | |
JP2017058843A (ja) | 画像処理装置、画像処理方法および画像処理用プログラム | |
KR20190027079A (ko) | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 | |
US20150279042A1 (en) | Method and apparatus for determining a depth of a target object | |
TWI501193B (zh) | Computer graphics using AR technology. Image processing systems and methods | |
TWI694719B (zh) | 影像處理方法,電子裝置及非暫態電腦可讀取儲存媒體 | |
JP6515022B2 (ja) | 観察領域推定方法、観察領域推定装置、及びプログラム | |
JP6405539B2 (ja) | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 | |
JP6168597B2 (ja) | 情報端末装置 | |
JP2014123208A (ja) | 3次元復元装置 | |
TWI662694B (zh) | 三維影像攝取方法及系統 | |
JP6625654B2 (ja) | 投影装置、投影方法、および、プログラム | |
JP2017040542A (ja) | 情報処理装置、情報処理方法、プログラム | |
EP2866446A1 (en) | Method and multi-camera portable device for producing stereo images | |
JP2013222190A (ja) | カメラと顔認識システムで画面へ立体を表現する方法 | |
JP2014179958A5 (ja) | ||
KR101358432B1 (ko) | 디스플레이 장치 및 방법 | |
JP2014135006A (ja) | 画像処理装置、画像処理方法、およびプログラム |