JP2003141510A - ポインティング対象画像出力方法及びその装置 - Google Patents

ポインティング対象画像出力方法及びその装置

Info

Publication number
JP2003141510A
JP2003141510A JP2001339659A JP2001339659A JP2003141510A JP 2003141510 A JP2003141510 A JP 2003141510A JP 2001339659 A JP2001339659 A JP 2001339659A JP 2001339659 A JP2001339659 A JP 2001339659A JP 2003141510 A JP2003141510 A JP 2003141510A
Authority
JP
Japan
Prior art keywords
region
image
dimensional position
stereo
stereo image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001339659A
Other languages
English (en)
Inventor
Hiromi Watanabe
博己 渡辺
Kazuhiko Yamamoto
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Gifu Prefecture
Original Assignee
Gifu Prefecture
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gifu Prefecture, Japan Science and Technology Corp filed Critical Gifu Prefecture
Priority to JP2001339659A priority Critical patent/JP2003141510A/ja
Publication of JP2003141510A publication Critical patent/JP2003141510A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】室内空間でどの位置をポインティングしても、
その指し示した方向にある周辺環境の画像を出すことが
できるポインティング対象画像出力方法及びその装置を
提供する。 【解決手段】S10で人物及びその周辺環境を撮像した
ステレオ画像を入力し、S20で統合画像を生成する。
S30,S40で人の頭部領域及び手部領域を抽出す
る。S50で頭部領域に関する3次元位置をステレオ画
像に基づいて算出するとともに手部領域に関する3次元
位置をステレオ画像に基づいて算出する。S60で頭部
領域に関する3次元位置をカメラ位置とし、頭部領域に
関する3次元位置から、手部領域に関する3次元位置を
見た方向をカメラ方向として設定する。さらに、カメラ
方向に存在するポインティング対象物を含む透視投影画
像を周辺環境のステレオ画像に基づいて生成し、外部に
出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、室内空間でどの位
置をポインティング(指さし)しても、その指し示した
方向にある周辺環境の画像を出すことができるポインテ
ィング対象画像出力方法及びその装置に関するものであ
る。
【0002】
【従来の技術】従来より、人間とその周辺環境を同時に
センシングする方法には、複数のカメラを周囲に配置す
る方法と、全方位ビジョンを用いる方法がある。
【0003】これらの方法を用いて人間とその周辺環境
を同時にセンシングし、より自然な人間と周辺環境との
インタラクションを理解することが可能となる。このよ
うな中で、人物の視線や動作など、人間をセンシングし
て得られる情報と、物体センシングにより構築された周
辺環境とから、その人の要望を察知し、その人の意図に
適したサービスを提供することが提案されている。これ
らを実現するためには、人間とその周辺環境をセンシン
グし、その人が何を見て、どのような動作を行っている
かを知ることが重要なこととなる。特に動作は、相手に
意図を伝えるためには欠かせない情報の1つである。
【0004】動作には、頭や手、或いは体全体などを使
った動作があるが、特に手の動作は、動作している人の
意図を伝達することができる有効な手段である。手の動
きによる日常的な動作の1つにポインティングジェスチ
ャがあるが、これは人の関心領域を相手に伝えるために
は欠かせない動作である。
【0005】すでにポインティングジェスチャを対象と
した検出方法や装置は、例えば、「実空間強化とヒュー
マン・ロボットインタフェース−実空間にマークを投影
する指さしポインタの拡張−」(第17回日本ロボット
学会学術講演会、pp.417−418,1999)等
により提案されている。
【0006】
【発明が解決しようとする課題】しかしながら、これら
はポインティング方向が限定されているため、その限定
された領域内のオブジェクトしか扱うことができない問
題がある。
【0007】又、実際に、そのポインティング方向に対
応する画像を、他の人が確認する方法及び装置について
は、未だ提案されていない。本発明は上記問題点を解決
するためになされたものであって、その目的は、室内空
間でどの位置をポインティング(指さし)しても、その
指し示した方向にある周辺環境の画像を出すことができ
るポインティング対象画像出力方法及びその装置を提供
することにある。
【0008】
【課題を解決するための手段】上記問題点を解決するた
め、請求項1記載の発明は、人物及びその周辺環境を撮
像したステレオ画像データから、人の頭部領域及び手部
領域を抽出する抽出手段と、頭部領域に関する3次元位
置を前記ステレオ画像に基づいて第1算出する手段と、
手部領域に関する3次元位置を前記ステレオ画像に基づ
いて算出する第2算出手段と、前記頭部領域に関する3
次元位置をカメラ位置とし、頭部領域に関する3次元位
置から、手部領域に関する3次元位置を見た方向をカメ
ラ方向として設定する設定手段と、前記カメラ方向に存
在するポインティング対象物を含む透視投影画像を前記
周辺環境のステレオ画像データに基づいて生成し、外部
に出力する画像生成出力手段とを備えたことを特徴とす
るポインティング対象画像出力装置を要旨とするもので
ある。
【0009】請求項2の発明は、請求項1において、前
記画像生成出力手段は、前記ステレオ画像と対応して同
ステレオ画像と同時に得られた周辺環境のカラー画像に
基づき、カラー情報を付加して、透視投影画像を生成出
力するものであることを特徴とする。
【0010】請求項3の発明は、請求項1又は請求項2
において、前記頭部領域に関する3次元位置は顔領域の
重心の3次元位置であることを特徴とする。請求項4の
発明は、請求項1乃至請求項3のうちいずれか1項にお
いて、前記手部領域に関する3次元位置は手部領域の重
心の3次元位置であることを特徴とする。
【0011】請求項5の発明は、請求項1乃至請求項4
のうちいずれか1項において、前記抽出手段は、人の頭
部領域を抽出する際、人がいない周辺環境のステレオ画
像データと、人がいる周辺環境のステレオ画像データと
の差分に基づいて動領域の抽出を行い、その動領域中の
所定の高さ部分から頭部領域を抽出することを特徴とす
る。
【0012】請求項6の発明は、請求項1乃至請求項5
のうちいずれか1項において、前記抽出手段は、手部領
域を抽出する際、腕が動作する前のステレオ画像データ
と、腕が動作した後のステレオ画像データとの差分に基
づいて腕領域を抽出を行い、そのうち、頭部領域から最
も遠い部分を手部領域の端点として探索し、同端点に基
づいて手部領域を抽出することを特徴とする。
【0013】請求項7の発明は、人物及びその周辺環境
を撮像したステレオ画像データから、人の頭部領域及び
手部領域を抽出する工程と、頭部領域に関する3次元位
置を前記ステレオ画像に基づいて算出する工程と、手部
領域に関する3次元位置を前記ステレオ画像に基づいて
算出する工程と、前記頭部領域に関する3次元位置をカ
メラ位置とし、頭部領域に関する3次元位置から、手部
領域に関する3次元位置を見た方向をカメラ方向として
設定する工程と、前記カメラ方向に存在するポインティ
ング対象物を含む透視投影画像を前記周辺環境のステレ
オ画像データに基づいて生成し、外部に出力する工程と
を備えたことを特徴とするポインティング対象画像出力
方法を要旨とするものである。
【0014】請求項8の発明は、請求項7において、前
記画像を生成して出力する工程は、前記ステレオ画像と
対応して同ステレオ画像と同時に得られた周辺環境のカ
ラー画像に基づき、カラー情報を付加して、透視投影画
像を生成出力することを特徴とする。
【0015】請求項9の発明は、請求項7又は請求項8
において、前記頭部領域に関する3次元位置は顔領域の
重心の3次元位置であることを特徴とする。請求項10
の発明は、請求項7乃至請求項9のうちいずれか1項に
おいて、前記手部領域に関する3次元位置は手部領域の
重心の3次元位置であることを特徴とする。
【0016】請求項11の発明は、請求項7乃至請求項
10のうちいずれか1項において、前記抽出工程は、人
の頭部領域を抽出する際、人がいない周辺環境のステレ
オ画像データと、人がいる周辺環境のステレオ画像デー
タとの差分に基づいて動領域の抽出を行い、その動領域
中の所定の高さ部分から頭部領域を抽出することを特徴
とする。
【0017】請求項12の発明は、請求項7乃至請求項
11のうちいずれか1項において、前記抽出工程は、手
部領域を抽出する際、腕が動作する前のステレオ画像デ
ータと、腕が動作した後のステレオ画像データとの差分
に基づいて腕領域を抽出を行い、そのうち、頭部領域か
ら最も遠い部分を手部領域の端点として探索し、同端点
に基づいて手部領域を抽出することを特徴とする。
【0018】
【発明の実施の形態】以下、本発明のポインティング対
象画像出力装置(以下、画像出力装置という)を具体化
した一実施形態を図1〜図13を参照して説明する。
【0019】図1は画像出力装置の構成を示すブロック
図である。図2は全方向ステレオシステム11の概略図
である。画像出力装置10は、複数のビデオカメラV
C,VCsを備えた全方向ステレオシステム11、メモ
リユニット15、コンピュータ16、同期信号発生器1
7等を備えている。
【0020】前記コンピュータ16は、抽出手段、第1
算出、第2算出手段、設定手段、及び画像生成出力手段
を構成している。全方向ステレオシステム11は、3次
元空間内の、全ての方向におけるカラー画像と3次元情
報を、同時刻にリアルタイムで取得することが可能なシ
ステムである。同システム11は、3個のビデオカメラ
からなる3眼ステレオユニット12を正20面体の各面
上にそれぞれ配置した構成を備えている。そして、各ユ
ニット12は同特性を備え、各面に配置したステレオユ
ニット12により、全方向のカラー画像と白黒画像(距
離画像)を同一時刻にリアルタイムで取得可能なシステ
ムである。これによって、3次元空間上の全ての方向に
おけるカラー画像と3次元情報を同一時刻に得ることが
できる。又、同じ特性を持つステレオユニット12を正
20面体60(図8参照)の各面上に配置したことによ
り、3次元空間を均等に分割し、高解像度の情報の取得
が可能である。なお、この全方向ステレオシステム11
は、「”実環境センシングのための全方向ステレオシス
テム(SOS)”、電気学会論文誌C.Vol.121-C,No.5,p
p.876-881.2001」に記載されている。
【0021】3眼ステレオユニット12では、図1に示
すように、1つの基準ビデオカメラVCsと、一対の参
照用ビデオカメラVCとからなる。そして、参照用ビデ
オカメラVCは前記基準ビデオカメラVCsの光軸を交
線として、互いに直交する一対の平面に含ませるように
配置されている。そして、これらのカメラにより、2つ
のステレオペアを構成するように配置されている。この
2つのステレオペアを構成を用いることにより、濃度パ
ターンが一方のエピポーラ線に平行な場合でも、もう一
方のステレオペアにより、対応付けが可能となる。又、
エピポーラ線が画像に対して水平、垂直であるため、ス
テレオペアにおける対応点探索が高速に行うことが可能
である。
【0022】各ステレオユニット12からは、1枚のカ
ラー画像と2枚の白黒画像とからなるステレオ画像が取
得され、全方向の20枚のカラー画像と40枚の白黒画
像を1セットとして15セット/秒でメモリユニット1
5に転送する。メモリユニット15は、転送されてきた
画像データを記憶する。
【0023】コンピュータ16はそれぞれ図示しないキ
ーボード等の入力手段を備えており、作業者が種々の操
作信号を入力可能にされている。従って、コンピュータ
16は入力したその操作信号に応じて、各パソコンが備
えている図示しないROMに予め格納したポインティン
グジェスチャ検出のためのプログラムを実行する。
【0024】各ステレオユニット12の各ビデオカメラ
には、同期信号発生器17から共通の外部同期信号が供
給されている。このことにより、ディジタル化されたフ
レームにおいて、完全に同期した画像データが得られ
る。
【0025】(作用)以下、図3〜図7のフローチャー
トを参照して詳細に説明する。なお、以下のフローチャ
ートは、下記の人間の動作を全方向ステレオシステム1
1で撮像していることを前提としている。
【0026】すなわち、図2に示すように全方向ステレ
オシステム11が設置された室内空間Kにおいて、人間
Hが歩行移動し、その後、静止した後に、腕Arを上げ
て、任意の方向に向かって手(指)Fを指し示す動作
(ポインティング)を行っている。
【0027】(S10:カラー画像、ステレオ画像の入
力)ステップ(以下、ステップをSという)10では、
メモリユニット15を介して全ステレオユニット12、
すなわち、正20面体の各面上に配置したステレオユニ
ット12から、それぞれ1枚のカラー画像と一対の白黒
画像からなるステレオ画像を入力する。
【0028】(S20:統合画像の生成)S20では、
同時刻に得られた画像に基づいて統合画像の生成を行
う。まず、統合画像では、正20面体60(図8参照)
における展開図面上(図9(a)参照)にそれぞれのス
テレオユニット12から得られた画像を得るように投射
する。この正20面体60での統合画像では、正20面
体を展開することにより、分割される領域が存在し、人
物領域を取得するためには、分割された領域間の対応付
けが必要となる。そこで、さらに、正20面体60を円
筒61(図8、図9(b)参照)の面62に投影した投
影画像となるように座標変換する。
【0029】円筒61の面62に投影された統合画像で
は、分割される領域は、画像の両端にまたがる領域のみ
となるため、分割領域間の対応付けは容易に行うことが
できる。この統合画像には、それぞれの画素がカラー画
像の画素と対応しているため、対応する画素のカラー情
報が付与されたカラー画像である。
【0030】又、同様に同時刻に得られたステレオ画像
から得られる視差画像に対しても統合視差画像を生成す
る。 (S30:頭部領域の抽出)S30では、頭部領域の抽
出を行う。すなわち、人物の歩行動作から静止状態の遷
移時において、人物の頭部領域は、人物領域の最上部に
存在する。このため、歩行動作時や、歩行動作から静止
状態への遷移時の背景差分画像において、人物領域の上
部領域を抽出することにより、頭部領域を抽出する。す
なわち、遷移時において得られる動領域の抽出を行い、
その動領域の中から、頭部領域の抽出を行う。
【0031】具体的には、図4に示すように、S31に
おいて、人Hがこの室内空間Kに入る前(遷移前)の統
合視差画像と人Hが室内空間Kに入った後(遷移後)の
統合視差画像とに基づいて視差画像の背景差分(背景差
分画像)を求める。さらに、遷移前の統合画像と遷移後
の統合画像とに基づいてカラー画像の背景差分(背景差
分画像)を求める。
【0032】そして、前記得られた両背景差分画像との
論理積を求めることにより、遷移前後におけるノイズの
除去を行う。以上のようにして、ノイズの除去を行い、
ノイズの少ない差分画像とする。
【0033】なお、カラー画像を用いた背景差分のみを
用いる場合には、動領域と背景の色が同じ場合、動領域
の抽出が困難となるだけでなく、光源による影響や環境
に左右されやすい。
【0034】又、視差画像を用いた背景差分のみを用い
る場合では、光源の全体的な変化にはあまり左右されな
いが、光源のちらつきにより得られる対応点が異なるた
め、そのまま背景との差分をとるとノイズとなって現れ
る。
【0035】次のS32では、ノイズが除去された差分
画像を基に、適当な閾値を用いて公知の2値化処理を行
い、又、公知の膨張処理、或いは縮小処理を行って2値
画像を得る(図10参照)。
【0036】続くS33では、得られた2値画像から、
最も大きい領域を人物領域M1と判定し、頭部領域の抽
出処理を行う。S34では、コンピュータ16が備えて
いる図示しない記憶装置から人物領域M1の上部の1/
7を頭部領域の高さThと設定する。
【0037】S35において、S34で設定した頭部領
域の設定値に基づいて人物領域の上部から頭部領域の高
さThに相当する幅を抽出する。 (S40:手部領域の抽出)S40では、ポインティン
グジェスチャ時の動領域を検出することにより、手部領
域の抽出を行う。
【0038】ここでは、背景差分だけでは検出できない
手部領域の抽出を行うために、フレーム間差分を用いて
動領域の検出を行う。このフレーム間差分も視差画像と
カラー画像を用いることにより行う。
【0039】すなわち、S41において、腕が動く前の
統合視差画像と動いた後の統合視差画像とに基づいて視
差画像のフレーム間差分(フレーム間差分画像)を求め
る。さらに、腕が動く前の統合画像と腕が動いた後の統
合画像とに基づいてカラー画像のフレーム間差分(フレ
ーム間差分画像)を求める。
【0040】そして、前記得られた両フレーム間差分画
像の論理積を求めることにより、動きによるノイズの除
去を行う。以上のようにして、ノイズの除去を行い、ノ
イズの少ない差分画像とする。
【0041】次のS42では、ノイズが除去された差分
画像を基に、適当な閾値を用いて公知の2値化処理を行
い、又、公知の膨張処理、或いは縮小処理を行って2値
画像を得る(図11参照)。
【0042】S43では、得られた2値画像から、最も
大きい領域を動領域M2と見なし、手部領域の抽出を行
う。S44では、前記得られた動領域中には腕領域も含
まれるため、前記頭部領域を基準に、動領域中の最も離
れた点を手部領域の端点として求める。すなわち、動領
域中の各点(画素)と頭部領域の重心との距離を演算
し、そのうち最も距離が長いのが最も離れた点とし、こ
れを手部の端点Eとする。
【0043】S45では、前記手部の端点を基準とし
て、同端点から延びる腕領域に対して予め所定の大きさ
に設定された固定領域W(窓)を当てはめ、その固定領
域W内の動領域を手部領域として抽出する(図11参
照)。
【0044】(S50:頭部・手部領域の3次元位置の
算出)S50では、ポインティング方向を推定するため
に、頭部及び手部のそれぞれの3次元位置を算出する。
本実施形態では、全方向ステレオシステム11から得ら
れるステレオ情報を基に前記頭部領域及び手部領域の3
次元位置を算出する。
【0045】さて、上記のS50での処理を図6を参照
して説明する。S51では、マルチベースラインステレ
オ法により、視差画像の評価を行う。すなわち、本実施
形態の全方向ステレオシステム11では、正20面体の
各面方向に対して2つのステレオペアが得られている。
これらのステレオ画像から、マルチベースラインステレ
オ法をベースにして、視差画像の評価を行う。このマル
チベースステレオライン法については文献「M. Okutom
i, T. Kanade,"A Multi-Baseline Stereo." IEEE Tran
s. PAMI,Vol.15,No.4,pp353-363,1993」にて公知である
ので、簡単に説明する。各3眼ステレオユニット12毎
に下記の処理を行う。
【0046】1.各ステレオ画像に対して、レンズ歪み
を補正し、エッジ画像を生成する。 2.ステレオ画像中の基本画像の各画素に対し、2つの
参照画像におけるそれぞれの予め設定された所定の探索
範囲内で相関をとる。なお、基本画像は、3眼ステレオ
ユニット12のうち、基準ビデオカメラVCsで撮像さ
れた画像である。又、参照画像は、参照用ビデオカメラ
VCで撮像された画像である。
【0047】ここでは相関演算として、SAD(Sum of
Absolute Differnce)を用いる。 3.2つの参照画像から得られる相関値から、相関の高
い方の視差をその画素における視差とする。
【0048】S51では、このようにして前記各画素に
おける視差が算出される。一方、基準ビデオカメラVC
s及び参照用ビデオカメラVCの焦点距離、及び基準ビ
デオカメラVCsと参照用ビデオカメラVC間の基線長
は既知である。すなわち、これらの値は、予めコンピュ
ータ16の図示しないROMに記憶されている。
【0049】従って、S52では、前記各画素の視差、
焦点距離、及び基線長に基づいて基準画像における各画
素の3次元位置の算出を行う。図12は、ステレオ画像
による距離算出の仕方及び各画素の3次元位置の算出に
ついての説明図である。
【0050】同図に示すように、基準ビデオカメラVC
s、参照用ビデオカメラVCの光軸をOl、及びOrと
する。又、両カメラは、光軸Ol,Or間に一定の距離
(=基線長)Bをおいて配置されているものとする。
【0051】なお、説明の便宜上、基準ビデオカメラV
Cs及び参照用ビデオカメラVCを同図に示すように左
右に配置したものとする。まず、対象物体50上の点P
(x,y,z)とし、基準ビデオカメラVCs、参照用
ビデオカメラVCにて撮像された一対のステレオ画像に
おける対応画素のX−Y座標平面上の座標Pl(Xl,
Yl),Pr(Xr,Yr)を求める。
【0052】そして、その視差Pl−Pr=(Xl−X
r,Yl−Yr)を用いて、対応画素に対応する対象物
体50上の測定点までの距離Zを求める。ここで、ステ
レオ画像を処理する画像出力装置10は、基準ビデオカ
メラVCsと参照用ビデオカメラVCは光軸Ol,Or
が同一X−Z平面上に含まれるように配置されている。
【0053】このため、Yl=Yrであり、対応点探索
はエピポーラ線Epl,Eprである同じ走査線上で行
えば良い。すなわち、基準ビデオカメラVCsと参照用
ビデオカメラVCの光軸Ol,Or間の距離をB、焦点
距離をfとすると、対象物体50上の点P(x,y,
z)が左右のカメラ画面上の点Pl(Xl,Yl)、点
Pr(Xr,Yr)にそれぞれ投影された時、対象物体
2の点P(x,y,z)までの距離Zは、 Z=B*f/( Xl−Xr) で表される。
【0054】なお、Xl−Xrは視差を表し、左画像を
基準画像とした場合、右画像の対応点Pr(Xr,Y
r)における視差ベクトルは一般にVp(Xl−Xr,
Yl−Yr)と表される。
【0055】上記のようにして、基準画像における各画
素の3次元位置の算出が行われる。S53では、前記基
準画像における3次元情報が付与された各画素を基に、
頭部領域及び手部領域の重心の3次元位置を算出する。
【0056】(S60:ポインティング対象物の画像生
成及び出力)S60では、全方向ステレオシステム11
から得られた3次元情報を統合することにより、3次元
空間を構築し、頭部の3次元位置から手部の3次元位置
を見た透視投影画像を生成する。この生成した画像、す
なわち、ポインティング対象物を外部の図示しない表示
装置に出力する。
【0057】図7は、S60の詳細なフローチャートで
ある。S61では、各画素の視差画像より、前記と同様
に各画素の3次元位置を算出し、各画素に対応する頂点
の座標値(3次元座標値)を定義する。合わせて、カラ
ー画像における各画素の色情報を対応する前記各頂点の
色情報(カラー情報)として設定する。
【0058】3次元空間において、透視投影画像を生成
するためには、カメラ位置(仮想視点)と、カメラ方向
(仮想視点からみる視線方向)を設定する必要がある。
このため、S62では、カメラ位置に頭部の重心位置の
3次元位置を設定し、カメラ方向に頭部の重心位置の3
次元位置から手部の重心位置の3次元位置を見た方向L
(ポインティング方向:図13参照)を設定する。
【0059】S63では、このようにして、S62にお
いて、構築された3次元空間のうち、設定されたカメラ
位置及びカメラ方向に基づいて、透視投影画像を生成す
る。そして、生成した画像を外部の図示しない表示装置
に出力する。
【0060】上記実施の形態によれば、下記に示す効果
を有する。 (1) 本実施形態の画像出力装置10のコンピュータ
16は、人物及びその周辺環境を撮像したステレオ画像
(ステレオ画像データ)から、人の頭部領域及び手部領
域を抽出する抽出手段としている。又、画像出力装置1
0のコンピュータ16は、頭部領域に関する3次元位置
を前記ステレオ画像に基づいて算出する第1算出手段と
している。さらに、画像出力装置10のコンピュータ1
6は、手部領域に関する3次元位置を前記ステレオ画像
に基づいて算出する第2算出手段としている。加えて、
画像出力装置10のコンピュータ16は、前記頭部領域
に関する3次元位置をカメラ位置とし、頭部領域に関す
る3次元位置から、手部領域に関する3次元位置を見た
方向をカメラ方向として設定する設定手段ともした。
【0061】さらに、コンピュータ16は、前記カメラ
方向に存在するポインティング対象物を含む透視投影画
像を前記周辺環境のステレオ画像データに基づいて生成
し、外部に出力する画像生成出力手段とした。
【0062】この結果、室内空間でどの位置をポインテ
ィング(指さし)しても、その指し示した方向にあるポ
インティング対象物がある周辺環境の画像を出すことが
できる。
【0063】このように、本実施形態では、人の位置情
報と、動き情報とを用いて、顔部領域と手部領域とを抽
出している。すなわち、人が直立状態のように停止して
いる状態では、顔部は人の一番上に存在するという位置
情報と、手部領域は、動く域(動領域)の先端に存在す
るという動き情報及び位置情報を用いている。
【0064】(2) 本実施形態の画像出力装置10
は、画像生成出力手段として、ステレオ画像と対応して
同ステレオ画像と同時に得られた周辺環境のカラー画像
に基づき、カラー情報を付加して、透視投影画像を生成
出力するようにした。
【0065】この結果、カラー画像にて、ポインティン
グ対象物がある周辺環境の画像を出すことができる。 (3) 本実施形態では、頭部領域に関する3次元位置
を顔領域の重心の3次元位置とした。
【0066】この結果、顔領域の重心位置から延びるポ
インティング方向にある周辺環境の画像を出すことがで
きる。 (4) 本実施形態では、手部領域に関する3次元位置
を手部領域の重心の3次元位置とした。
【0067】この結果、手部領域の重心を通過する方向
のポインティング方向にある周辺環境の画像を出すこと
ができる。特に本実施形態では、顔領域の重心位置と手
部領域の重心それぞれの3次元位置を結んだ方向のポイ
ンティング方向にある周辺環境の画像を出すことができ
る。
【0068】(5) 本実施形態の画像出力装置10の
コンピュータ16では、抽出手段として、人の頭部領域
を抽出する際、人がいない周辺環境のステレオ画像デー
タと、人がいる周辺環境のステレオ画像データとの差分
に基づいて動領域の抽出を行う。さらに、その動領域中
の所定の高さ部分から頭部領域を抽出するようにした。
【0069】この結果、上記(1)の効果を好適に得る
ことができる。 (6) 本実施形態の画像出力装置10では、抽出手段
として、腕が動作する前のステレオ画像(ステレオ画像
データ)と、腕が動作した後のステレオ画像(ステレオ
画像データ)との差分に基づいて腕領域を抽出を行う。
そして、画像出力装置10は、そのうち、頭部領域から
最も遠い部分を手部領域の端点として探索し、同端点に
基づいて手部領域を抽出するようにした。
【0070】この結果、上記(1)の効果を好適に得る
ことができる。 (7) 本実施形態のポインティング対象画像出力方法
では、人物及びその周辺環境を撮像したステレオ画像デ
ータから、人の頭部領域及び手部領域を抽出する工程
(S30,S40)を備えた。又、頭部領域に関する3
次元位置をステレオ画像に基づいて算出する工程(S5
3)と、手部領域に関する3次元位置をステレオ画像に
基づいて算出する工程(S53)とを備えた。
【0071】さらに、頭部領域に関する3次元位置をカ
メラ位置とし、頭部領域に関する3次元位置から、手部
領域に関する3次元位置を見た方向をカメラ方向として
設定する工程(S62)を備えた。
【0072】又、カメラ方向に存在するポインティング
対象物を含む透視投影画像を前記周辺環境のステレオ画
像(ステレオ画像データ)に基づいて生成し、外部に出
力する工程(S63)とを備えた。
【0073】この結果、上記(1)の効果と同様の効果
を奏する。 (8) 本実施形態のポインティング対象画像出力方法
では、画像を生成して出力する工程は、前記ステレオ画
像と対応して同ステレオ画像と同時に得られた周辺環境
のカラー画像に基づき、カラー情報を付加した。そし
て、透視投影画像を生成出力するようにした。
【0074】この結果、上記(2)の効果を奏する。 (9) 本実施形態のポインティング対象画像出力方法
では、頭部領域に関する3次元位置は顔領域の重心の3
次元位置とした。
【0075】この結果、上記(3)の効果を奏する。 (10) 本実施形態のポインティング対象画像出力方
法では、手部領域に関する3次元位置は手部領域の重心
の3次元位置とした。
【0076】この結果、上記(4)の効果を奏する。 (11) 本実施形態の抽出工程(S30,S40)
は、人の頭部領域を抽出する際、人がいない周辺環境の
ステレオ画像データと、人がいる周辺環境のステレオ画
像データとの差分に基づいて動領域の抽出を行う要にし
た、そして、その動領域中の所定の高さ部分から頭部領
域を抽出するようにした。
【0077】この結果、上記(5)の効果を奏する。 (12) 本実施形態の抽出工程(S30,S40)
は、手部領域を抽出する際、腕が動作する前のステレオ
画像データと、腕が動作した後のステレオ画像データと
の差分に基づいて腕領域を抽出を行うようにした。そし
て、そのうち、頭部領域から最も遠い部分を手部領域の
端点として探索し、同端点に基づいて手部領域を抽出す
るようにした。
【0078】この結果、上記(6)の効果を奏する。な
お、本発明の実施形態は上記実施形態に限定されるもの
ではなく、発明の趣旨を逸脱しない範囲で、適宜に変更
して次のように実施することもできる。
【0079】(1) 前記実施形態では、全方向ステレ
オシステム11として、「”実環境センシングのための
全方向ステレオシステム(SOS)”、電気学会論文誌
C.Vol.121-C,No.5,pp.876-881.2001」に記載されている
ものを使用した。これに限らず、他の全方向ステレオシ
ステムから得られたステレオ画像を入力するようにして
もよい。
【0080】(2) 前記実施形態においては、顔領域
の重心を求める代わりに、顔領域と眼部領域の色情報が
異なるところに着目し、前記色情報を基に、顔領域から
眼部領域を抽出し、眼部領域の重心を求めて実施しても
良い。この場合には、さらに、眼部領域の重心と手部領
域の重心とを結ぶ方向がポインティング方向となる。
【0081】(3) 前記実施形態において、手領域の
重心位置の3次元位置を算出する代わりに、手部領域の
端点位置の3次元位置を算出し、この位置を使用しても
よい。この場合、顔領域の重心位置と手部領域の端点位
置とを結ぶ結ぶ方向がポインティング方向となる。
【0082】或いは、上記(2)の場合には、眼部領域
の重心位置と、手部領域の端点位置がポインティング方
向となる。 (4) 前記実施形態では、人の動きを検出するために
動領域を検出し、その動領域の中から、頭部領域、手部
領域を検出するようにした。この代わりに、色情報を用
いてもよい。
【0083】この場合、人の頭部領域及び手部領域は、
その領域内にある肌色領域を検出することにより、容易
に行うことができる。又、顔と手の識別は、動き情報を
用いれば、容易である。すなわち、大きく動く肌色領域
が手部領域と識別できる。
【0084】
【発明の効果】以上詳述したように請求項1乃至請求項
12に記載の発明によれば、室内空間でどの位置をポイ
ンティング(指さし)しても、その指し示した方向にあ
る周辺環境の画像を出すことができる。
【図面の簡単な説明】
【図1】 画像出力装置の構成を示すブロック図であ
る。
【図2】 全方向ステレオシステムの概略図である。
【図3】 画像出力装置が実行するポインティング対象
画像出力のフローチャート。
【図4】 同じく頭部領域の抽出のフローチャート。
【図5】 同じく手部領域の抽出のフローチャート。
【図6】 同じく頭部・手部の3次元位置の算出のフロ
ーチャート。
【図7】 同じくポインティング対象物の画像出力のフ
ローチャート。
【図8】 正20面体及び円筒の説明図。
【図9】 (a)は正20面体の展開図、(b)は円筒
の展開図面。
【図10】 2値画像を示す説明図。
【図11】 2値画像を示す説明図。
【図12】ステレオ画像による距離算出及び各画素の3
次元位置の算出についての説明図。
【図13】ポインティング方向を示す説明図。
【符号の説明】
10…画像出力装置 11…全方向ステレオシステム 12…3眼ステレオユニット 16…コンピュータ(抽出手段、第1算出、第2算出手
段、設定手段、及び画像生成出力手段) VC…参照用ビデオカメラ VCs…基準ビデオカメラ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 渡辺 博己 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン 内 (72)発明者 山本 和彦 岐阜県岐阜市則武中1丁目9番地18−202 号 Fターム(参考) 5B050 BA06 DA02 DA04 EA27 FA06 5B057 CA01 CA08 CA13 CA16 CB01 CB08 CB12 CB16 CD01 CD05 CD14 CE12 DA08 DB03 DB09 DC06 DC08 DC32 5L096 AA02 AA06 EA05 EA43 FA59 FA60 FA66 FA69 HA03

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 人物及びその周辺環境を撮像したステレ
    オ画像データから、人の頭部領域及び手部領域を抽出す
    る抽出手段と、 頭部領域に関する3次元位置を前記ステレオ画像に基づ
    いて算出する第1算出手段と、 手部領域に関する3次元位置を前記ステレオ画像に基づ
    いて算出する第2算出手段と、 前記頭部領域に関する3次元位置をカメラ位置とし、頭
    部領域に関する3次元位置から、手部領域に関する3次
    元位置を見た方向をカメラ方向として設定する設定手段
    と、 前記カメラ方向に存在するポインティング対象物を含む
    透視投影画像を前記周辺環境のステレオ画像データに基
    づいて生成し、外部に出力する画像生成出力手段とを備
    えたことを特徴とするポインティング対象画像出力装
    置。
  2. 【請求項2】 前記画像生成出力手段は、前記ステレオ
    画像と対応して同ステレオ画像と同時に得られた周辺環
    境のカラー画像に基づき、カラー情報を付加して、透視
    投影画像を生成出力するものである請求項1に記載のポ
    インティング対象画像出力装置。
  3. 【請求項3】 前記頭部領域に関する3次元位置は顔領
    域の重心の3次元位置である請求項1又は請求項2に記
    載のポインティング対象画像出力装置。
  4. 【請求項4】 前記手部領域に関する3次元位置は手部
    領域の重心の3次元位置である請求項1乃至請求項3の
    うちいずれか1項に記載のポインティング対象画像出力
    装置。
  5. 【請求項5】 前記抽出手段は、人の頭部領域を抽出す
    る際、人がいない周辺環境のステレオ画像データと、人
    がいる周辺環境のステレオ画像データとの差分に基づい
    て動領域の抽出を行い、その動領域中の所定の高さ部分
    から頭部領域を抽出することを特徴とする請求項1乃至
    請求項4のうちいずれか1項に記載のポインティング対
    象画像出力装置。
  6. 【請求項6】 前記抽出手段は、手部領域を抽出する
    際、腕が動作する前のステレオ画像データと、腕が動作
    した後のステレオ画像データとの差分に基づいて腕領域
    を抽出を行い、そのうち、頭部領域から最も遠い部分を
    手部領域の端点として探索し、同端点に基づいて手部領
    域を抽出するものである請求項1乃至請求項5のうちい
    ずれか1項に記載のポインティング対象画像出力装置。
  7. 【請求項7】 人物及びその周辺環境を撮像したステレ
    オ画像データから、人の頭部領域及び手部領域を抽出す
    る工程と、 頭部領域に関する3次元位置を前記ステレオ画像に基づ
    いて算出する工程と、 手部領域に関する3次元位置を前記ステレオ画像に基づ
    いて算出する工程と、 前記頭部領域に関する3次元位置をカメラ位置とし、頭
    部領域に関する3次元位置から、手部領域に関する3次
    元位置を見た方向をカメラ方向として設定する工程と、 前記カメラ方向に存在するポインティング対象物を含む
    透視投影画像を前記周辺環境のステレオ画像データに基
    づいて生成し、外部に出力する工程とを備えたことを特
    徴とするポインティング対象画像出力方法。
  8. 【請求項8】 前記画像を生成して出力する工程は、前
    記ステレオ画像と対応して同ステレオ画像と同時に得ら
    れた周辺環境のカラー画像に基づき、カラー情報を付加
    して、透視投影画像を生成出力するものである請求項7
    に記載のポインティング対象画像出力方法。
  9. 【請求項9】 前記頭部領域に関する3次元位置は顔領
    域の重心の3次元位置である請求項7又は請求項8に記
    載のポインティング対象画像出力方法。
  10. 【請求項10】 前記手部領域に関する3次元位置は手
    部領域の重心の3次元位置である請求項7乃至請求項9
    のうちいずれか1項に記載のポインティング対象画像出
    力方法。
  11. 【請求項11】 前記抽出工程は、人の頭部領域を抽出
    する際、人がいない周辺環境のステレオ画像データと、
    人がいる周辺環境のステレオ画像データとの差分に基づ
    いて動領域の抽出を行い、その動領域中の所定の高さ部
    分から頭部領域を抽出することを特徴とする請求項7乃
    至請求項10のうちいずれか1項に記載のポインティン
    グ対象画像出力方法。
  12. 【請求項12】 前記抽出工程は、手部領域を抽出する
    際、腕が動作する前のステレオ画像データと、腕が動作
    した後のステレオ画像データとの差分に基づいて腕領域
    を抽出を行い、そのうち、頭部領域から最も遠い部分を
    手部領域の端点として探索し、同端点に基づいて手部領
    域を抽出するものである請求項7乃至請求項11のうち
    いずれか1項に記載のポインティング対象画像出力方
    法。
JP2001339659A 2001-11-05 2001-11-05 ポインティング対象画像出力方法及びその装置 Pending JP2003141510A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001339659A JP2003141510A (ja) 2001-11-05 2001-11-05 ポインティング対象画像出力方法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001339659A JP2003141510A (ja) 2001-11-05 2001-11-05 ポインティング対象画像出力方法及びその装置

Publications (1)

Publication Number Publication Date
JP2003141510A true JP2003141510A (ja) 2003-05-16

Family

ID=19153980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001339659A Pending JP2003141510A (ja) 2001-11-05 2001-11-05 ポインティング対象画像出力方法及びその装置

Country Status (1)

Country Link
JP (1) JP2003141510A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011096216A (ja) * 2009-09-29 2011-05-12 Panasonic Corp ステレオ画像処理を用いた車両検出装置
JP2013134706A (ja) * 2011-12-27 2013-07-08 Canon Inc 情報処理装置、情報処理方法、及びそのプログラム
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011096216A (ja) * 2009-09-29 2011-05-12 Panasonic Corp ステレオ画像処理を用いた車両検出装置
JP2013134706A (ja) * 2011-12-27 2013-07-08 Canon Inc 情報処理装置、情報処理方法、及びそのプログラム
US9141873B2 (en) 2011-12-27 2015-09-22 Canon Kabushiki Kaisha Apparatus for measuring three-dimensional position, method thereof, and program
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法
JP7370531B2 (ja) 2019-02-26 2023-10-30 株式会社日立製作所 応答装置および応答方法

Similar Documents

Publication Publication Date Title
US10977818B2 (en) Machine learning based model localization system
CN106503671B (zh) 确定人脸姿态的方法和装置
US7825948B2 (en) 3D video conferencing
Tian et al. Handling occlusions in augmented reality based on 3D reconstruction method
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
Auvinet et al. Multiple depth cameras calibration and body volume reconstruction for gait analysis
US20130335535A1 (en) Digital 3d camera using periodic illumination
WO2013175700A1 (ja) 情報処理装置および情報処理方法
JP2008535116A (ja) 3次元レンダリング用の方法及び装置
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
Jia et al. 3D image reconstruction and human body tracking using stereo vision and Kinect technology
EP3813019A1 (en) Method and system for estimating the geometry of a scene
TW201408041A (zh) 將二維影像轉換爲三維影像的方法與系統及電腦可讀媒體
US20180227575A1 (en) Depth map generation device
Mahdy et al. Projector calibration using passive stereo and triangulation
IL299465A (en) An object recognition neural network for predicting a missing visual information center
KR100574227B1 (ko) 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
Okuma et al. An augmented reality system using a real-time vision based registration
JP2017037426A (ja) 情報処理装置、情報処理方法、プログラム
JP2004220312A (ja) 多視点カメラシステム
US20200211275A1 (en) Information processing device, information processing method, and recording medium
JP7341736B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2002032744A (ja) 3次元モデリング及び3次元画像作成のための装置及び方法
JP2003141510A (ja) ポインティング対象画像出力方法及びその装置
Wang et al. Im2fit: Fast 3d model fitting and anthropometrics using single consumer depth camera and synthetic data

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129