JP2013041338A - 画像処理装置及びプログラム - Google Patents
画像処理装置及びプログラム Download PDFInfo
- Publication number
- JP2013041338A JP2013041338A JP2011176227A JP2011176227A JP2013041338A JP 2013041338 A JP2013041338 A JP 2013041338A JP 2011176227 A JP2011176227 A JP 2011176227A JP 2011176227 A JP2011176227 A JP 2011176227A JP 2013041338 A JP2013041338 A JP 2013041338A
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- area
- closed region
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
【課題】撮像手段によって撮像された撮像画像に含まれる人物の画像が貼り付けられるオブジェクトと撮像画像に含まれる背景の画像が貼り付けられるオブジェクトとが配置される仮想空間を仮想カメラから見た画像、がユーザに与える違和感を緩和する。
【解決手段】制御部は、カメラにより撮像された撮像画像のうちで人物が写っている人物領域を特定し(S102)、人物領域の画像を示す人物テクスチャ画像を生成し(S103)、人物領域の少なくとも一部を内部に含むスポット領域を設定し、スポット領域のうち人物領域を除く領域の画像を示す背景テクスチャ画像を生成する(S107)。
【選択図】図6
【解決手段】制御部は、カメラにより撮像された撮像画像のうちで人物が写っている人物領域を特定し(S102)、人物領域の画像を示す人物テクスチャ画像を生成し(S103)、人物領域の少なくとも一部を内部に含むスポット領域を設定し、スポット領域のうち人物領域を除く領域の画像を示す背景テクスチャ画像を生成する(S107)。
【選択図】図6
Description
本発明は、画像処理装置及びプログラムに関する。
下記特許文献1には、対象の写真を照明条件を変えて撮影し、撮影した画像に基づいて任意の照明条件での写真を生成すること、が記載されている。
本発明の目的は、撮像手段によって撮像された撮像画像に含まれる人物の画像が貼り付けられる物体と撮像画像に含まれる背景の画像が貼り付けられる物体とが配置される仮想空間を仮想カメラから見た画像、がユーザに与える違和感を緩和することである。
上記課題を解決するための請求項1の発明は、第1画像が貼付される第1物体と、第2画像が貼付される第2物体と、が配置された仮想空間を所与の仮想カメラから見た画像を表示手段に表示させる表示制御手段と、実空間に配置された撮像手段により撮像された撮像画像のうちで、前記実空間に存在する人物が写っている領域である人物領域を特定する人物領域特定手段と、前記人物領域の少なくとも一部を内部に含む閉領域を設定する閉領域設定手段と、前記撮像画像に基づいて、前記人物領域の画像を示す前記第1画像を生成する第1画像生成手段と、前記撮像画像に基づいて、前記閉領域のうちの前記人物領域を除く領域の画像を示す前記第2画像を生成する第2画像生成手段と、を含むことを特徴とする画像処理装置である。
また、請求項2の発明は、請求項1の発明において、複数ある前記人物の注目部位それぞれの前記撮像画像における位置を特定する位置特定手段をさらに含み、前記閉領域設定手段は、前記位置特定手段により特定された複数の位置の少なくとも一部に基づいて、前記閉領域を設定することを特徴とする。
また、請求項3の発明は、請求項2の発明において、前記閉領域は予め定められた形状を有し、前記複数の注目部位の各々には重要度が設定され、前記閉領域設定手段は、前記複数の位置の少なくとも一部を注目位置として仮設定する仮設定手段と、注目位置が仮設定された場合に、前記仮設定された注目位置に基づいて設定される閉領域が予め定められた条件を満足するか否かを判定する判定手段と、前記仮設定された注目位置に基づいて設定される閉領域が前記条件を満足すると判定される場合に、前記仮設定された注目位置に基づいて前記閉領域を設定する手段と、を含み、前記仮設定手段は、前記仮設定された注目位置に基づいて設定される閉領域が前記条件を満足しないと判定される場合に、重要度に基づいて、前記仮設定された注目位置の一部を新たな注目位置として再び仮設定すること、を特徴とする。
また、請求項4の発明は、請求項1の発明において、前記実空間における前記撮像手段の位置を取得する撮像位置取得手段と、前記実空間における前記人物の位置を取得する人物位置取得手段と、前記撮像位置取得手段により取得された位置と、前記人物位置取得手段により取得された位置と、の位置関係が所与の位置関係にある場合に、前記第1テクスチャ画像を加工する加工手段と、をさらに含むことを特徴とする。
また、請求項5の発明は、請求項1の発明において、前記第2画像生成手段は、前記撮像画像のうちの、前記閉領域外の部分及び前記人物領域内の部分、を加工することによって、前記第2画像を生成し、前記画像処理装置は、前記実空間における前記撮像手段の位置を取得する撮像位置取得手段と、前記実空間における前記撮像手段の位置に対応する前記仮想空間内の位置を取得する仮想空間位置取得手段と、をさらに含み、前記第2画像生成手段は、前記仮想空間位置取得手段により取得された位置と、前記仮想カメラの位置と、の位置関係に応じた度合いで、前記閉領域外の部分を加工することを特徴とする。
上記課題を解決するための請求項6の発明は、第1画像が貼付される第1物体と、第2画像が貼付される第2物体と、が配置された仮想空間を所与の仮想カメラから見た画像を表示手段に表示させる表示制御手段、実空間に配置された撮像手段により撮像された撮像画像を示す撮像画像のうちで、前記実空間に存在する人物が写っている領域である人物領域を特定する人物領域特定手段、前記人物領域の少なくとも一部を内部に含む閉領域を設定する閉領域設定手段、前記撮像画像に基づいて、人物領域内の画像を示す前記第1画像を生成する第1画像生成手段、前記撮像画像に基づいて、前記閉領域のうちの前記人物領域を除く領域内の画像を示す前記第2画像を生成する第2画像生成手段、としてコンピュータを機能させるためのプログラムである。
請求項1及び6の発明によれば、撮像手段によって撮像された撮像画像に含まれる人物の画像が貼り付けられる物体と撮像画像に含まれる背景の画像が貼り付けられる物体とが配置される仮想空間を仮想カメラから見た画像、がユーザに与える違和感を緩和することができる。
請求項2の発明によれば、本構成を有しない場合に比して、上記画像がユーザに与える違和感をより緩和することができる。
請求項3の発明によれば、本構成を有しない場合に比して、上記画像がユーザに与える違和感をより緩和することができる。
請求項4の発明によれば、本構成を有しない場合に比して、上記画像がユーザに与える違和感をより緩和することができる。
請求項5の発明によれば、仮想カメラの位置がどの位置であっても、上記画像がユーザに与える違和感をより緩和することができる。
以下、本発明の実施形態の例について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る画像処理装置2の構成の一例を示す図である。同図に示すように、画像処理装置2は、制御部4と、記憶部6と、入出力インタフェース8と、ネットワークインタフェース10と、を含む。
制御部4は、記憶部6に記憶されるプログラムに従って各種情報処理を実行する。記憶部6は、上記プログラムを格納する。このプログラムは、DVD(登録商標)−ROM等のコンピュータ読取可能な情報記憶媒体から読み出されて記憶部6に格納されてもよいし、ネットワーク等の通信網から供給されて記憶部6に格納されてもよい。また、記憶部6には、情報処理の過程で必要となる各種データも格納される。
入出力インタフェース8は、画像処理装置2を外部機器と接続するためのインタフェースである。本実施形態の場合、画像処理装置2は、入出力インタフェース8を介して、デジタルカメラであるカメラ12と接続されている。カメラ12が所定時間間隔で撮像を行う毎に、入出力インタフェース8を介して撮像画像が入力される。また、ネットワークインタフェース10は、画像処理装置2をネットワークと接続するためのインタフェースである。画像処理装置2は、ネットワークを介して、クライアント端末14とデータ授受可能である。
なお、クライアント端末14は、液晶ディスプレイなどの表示手段を備えたコンピュータであり、画像処理装置2から受信した画像を表示手段に表示させる。
画像処理装置2及びカメラ12とは下記に説明する作業空間に設置されている。図2は、作業空間の一例を示す図である。同図に示すように、作業空間には、予め定められた位置にカメラ12が固定されている。カメラ12の視線方向及び視野範囲は予め決まっている。一点鎖線が、カメラ12の視野範囲の境界を示している。カメラ12は、作業空間にいるユーザ15を撮像する。図3に、カメラ12により撮像された撮像画像を例示した。撮像画像には、ユーザ15の画像と背景の画像とが含まれる。また、撮像画像には、互いに直交する2つの座標軸(すなわち、X2軸、Y2軸)が設定されており、座標軸により、撮像画像のおける任意の位置が表される。なお、図2では、ユーザ15が一人しか描かれていないが、実際にはユーザ15が複数存在する。また、図2では、ユーザ15以外の物体が描かれていないが、実際には、例えば机、椅子などが存在する。
また、作業空間には、互いに直交する3つの座標軸(すなわち、X1軸、Y1軸、及びZ1軸)が設定されており、座標値により、作業空間における任意の位置が表される。
この画像処理装置2では、作業空間をカメラ12以外の視点から見た様子を示す空間画像が、カメラ12により撮像された撮像画像から生成され、ユーザ15を監視する監視者のクライアント端末14へと送信されるようになっている。空間画像の生成のため、記憶部6には下記に説明する仮想空間が構築される。
図4は、仮想空間の一例を示す図である。同図に示すように、仮想空間には、互いに直交する3つの座標軸(すなわち、X3軸、Y3軸、及びZ3軸)が設定される。この座標値により、仮想空間における任意の位置が表される。また、仮想空間には、人物オブジェクト16(第1物体)と、背景オブジェクト18(第2物体)と、が設置される。人物オブジェクト16は、垂直方向に伸びる平板オブジェクトであり、ユーザ15の作業空間における位置、に対応する位置に設置される。なお、人物オブジェクト16は、人物モデルと呼ばれる場合もある。背景オブジェクト18は、水平に伸びる平板オブジェクトである。背景オブジェクト18は、背景モデルと呼ばれる場合もある。
また、仮想空間には、仮想カメラ14が設置される。仮想カメラ14は、カメラ12の作業空間における位置に対応する位置Qとは異なる位置に設置され、その視線方向及び視野範囲が予め決まっている。なお、一点鎖線は、カメラ12の視野範囲に対応する仮想空間内の範囲を示している。
図4では、図示していないが、人物オブジェクト16及び背景オブジェクト18には、それぞれ、撮像画像から生成された、人物テクスチャ画像20(図8参照)及び背景テクスチャ画像22が貼り付けられる。人物テクスチャ画像20が「第1画像」に相当し、背景テクスチャ画像22が「第2画像」に相当する。この画像処理装置2では、仮想空間を仮想カメラ14から見た様子を示す画像が上記空間画像として繰り返し生成され、クライアント端末14へと送信されるようになっており、監視者は空間画像を頼りにユーザ15の監視を行う。
以下、画像処理装置2の具体的構成について説明する。なお、以下、作業空間内の位置を示す座標値(X1,Y1,Z1)のことを第1座標値と表記し、撮像画像内の位置を示す座標値(X2,Z2)のことを第2座標値と表記し、仮想空間内の位置を示す座標値(X3,Y3,Z3)のことを第3座標値と表記する。
図5は、記憶部6に記憶される状況データの一例を示す図である。状況データは、現況を示すデータであり、ユーザ15ごとに、そのユーザの作業空間における現在位置を示す第1座標値と、そのユーザの仮想空間における現在位置を示す第3座標値と、を保持している。また、ここでは、図示していないが、状況データには、仮想カメラ14の位置、視線方向、及び視野範囲を示す第3座標値や、カメラ12の位置、視線方向、及び視野範囲を示す第1座標値や、カメラ12の位置、視線方向、及び視野範囲を示す第3座標値等も保持される。なお、各ユーザ15の作業空間における現在位置は、公知の位置検出手法によって検出される。例えば、作業空間の各所にその場所の第1座標値を格納したRFIDタグを配置しておき、各ユーザが携帯しているRFIDリーダがRFIDタグから第1座標値を読み取るようにしてよい。また、本実施形態の場合、各ユーザ15の仮想空間における現在位置は、そのユーザ15の作業空間における現在位置を用いて所定の演算をすることにより算出される。
図6は、画像処理装置2に撮像画像が入力された場合に制御部4が実行する処理を例示するフロー図である。この処理は、制御部4が上記プログラムに従って動作することにより実行される。
まず、制御部6(撮像位置取得手段、人物位置取得手段、仮想空間位置取得手段)は、記憶部6から上記状況データを読み出す(S101)。
そして、制御部6は、撮像画像のうちでユーザ15が写っている領域である人物領域を特定する(S102)。本実施形態の場合、制御部6は、作業空間にユーザ15が一人もいない状態でカメラ12により撮像された画像(以下、基準画像と表記する)を記憶部6から読み出し、撮像画像と基準画像との差分画像を生成する。そして、制御部6は、生成した差分画像に基づいて、人物領域を示す第1座標値を特定する。図7に人物領域を例示した。点線で示す領域が人物領域を示している。なお、人物領域は、撮像画像に写っているユーザ15ごとに特定される。
そして、制御部6(第1画像生成手段)は、撮像画像に基づいて、人物領域の画像を示す人物テクスチャ画像20を生成する(S103)。具体的には、制御部6は、撮像画像の複製画像を生成し、複製画像の人物領域を除く部分を透明に設定することにより、人物テクスチャ画像20を生成する。図8に、人物テクスチャ画像20を例示した。
そして、制御部6は、人物テクスチャ画像20のうちに、足部分が欠けた状態で写っているユーザの画像があるか否かを判定する(S104)。例えば、制御部6は、カメラ12の視野範囲内にいるユーザ15を特定することにより、撮像画像に写っているユーザ15(以下、撮像ユーザと表記する)を特定する。そして、制御部6は、撮像ユーザの各々について、足部分が欠けた状態で写っているか否かを判定するために、カメラ12の位置からその撮像ユーザの位置へと伸びる直線とX1−Y1平面とのなす角度ω1が、カメラ12の視線方向とX1−Y1平面とのなす角度ω2より所定値Δω以上大きいか否かを判定する。いずれかの撮像ユーザに関し、角度ω1が角度ω2よりΔω以上大きいと判定した場合、すなわち、足部分が欠けた状態で写っていると判定した場合、制御部6は、人物テクスチャ画像20のうちに、足部分が欠けた状態で写っているユーザの画像があると判定する。図9Aに、足部分が欠けた状態で写っているユーザ15の画像を含む人物テクスチャ画像20を例示した。一方、いずれの撮像ユーザに関しても、角度ω1が角度ω2よりΔω以上大きいと判定しなかった場合、すなわち、足部分が欠けた状態で写っていると判定しなかった場合、制御部6は、人物テクスチャ画像20のうちに、足部分が欠けた状態で写っているユーザの画像がないと判定する。
人物テクスチャ画像20のうちに、足部分が欠けた状態で写っているユーザの画像がある場合(S104のY)、制御部6(加工手段)は、人物テクスチャ画像20を加工する(S105)。本実施形態の場合、制御部6は、各撮像ユーザの作業空間における位置と各人物領域の位置とから、足部分が欠けた状態で写っている撮像ユーザの人物領域を特定する。そして、制御部6は、人物テクスチャ画像20の底辺を下に所定距離だけ下に移動させるとともに、移動した後の底辺と上記特定した人物領域の底部との間の領域の色を所定色(例えば、灰色)に設定する。図9Bに加工された後の人物テクスチャ画像20を例示した。
S104のステップ又はS105のステップにより、人物テクスチャ画像20を生成すると、制御部6は、人物テクスチャ画像20を、人物オブジェクト16に貼り付ける(S106)。本実施形態の場合、制御部6は、点Q(図4及び図18参照)を投影中心として人物テクスチャ画像20を透視投影変換することによって、人物テクスチャ画像20を、撮像ユーザのうちから選択される注目ユーザの位置に配置された人物オブジェクト16に貼り付ける。なお、制御部6は、例えば、撮像ユーザのうち予め定められた優先順位が最も上位の撮像ユーザを注目ユーザとして選択する。
人物テクスチャ画像20を人物オブジェクト16に貼り付けると、制御部6(第2画像生成手段)は、図10に示す処理を実行して、背景テクスチャ画像22(図16参照)を生成する(S107)。
すなわち、制御部6は、撮像画像の複製画像を生成し、複製画像のうちの各人物領域の色を黒色に設定する(S201)。図11に、各人物領域の色が黒色に設定された後の複製画像を例示した。人物領域以外の領域には背景の画像が含まれる。
S201の後、人物領域の色が黒色に設定された上記複製画像を背景テクスチャ画像22として用いててもよいように思われる。しかしながら、この場合、黒色に設定された部分が目立ってしまい、上記空間画像が監視者に違和感を与えてしまう可能性がある。
この点、この画像処理装置2では、制御部6が、上記複製画像をさらに加工することで背景テクスチャ画像22を生成するようになっている。こうすることにより、ユーザ15にスポットライトが当たっているような演出がなされ、その結果として、黒色に設定された部分が目立ちにくくなるようになっている。
すなわち、まず、制御部6(閉領域設定手段)は、S202のステップで、少なくとも一部の撮像ユーザの各々について図13に示す処理を実行することにより、当該撮像ユーザが写っている人物領域ごとに、当該人物領域を少なくとも一部に含むスポット領域を設定する。例えば、制御部6は、全撮像ユーザについて図13に示す処理を実行する。また、例えば、制御部6は、注目ユーザのみについて図13に示す処理を実行する。なお、ここでは、注目ユーザのみについて図13に示す処理が実行する場合を例に取り上げる。図12に、ある人物領域を少なくとも一部に含むスポット領域を例示した。一点鎖線内の領域23がスポット領域を示している。本実施形態の場合、スポット領域は円形状を有しているが、スポット領域の形状はどのような形状であってもよく、例えば楕円形状であってもよい。なお、「r」は、スポット領域の半径を示し、点Oは、スポット領域の中心を表している。
以下、図13に示す処理について説明する。なお、図13に示す処理対象となっている撮像ユーザ(ここでは、注目ユーザ)のことを、処理対象ユーザと表記する。
すなわち、制御部6(位置特定手段)は、まず、上記複製画像のうちの処理対象ユーザが写っている人物領域の画像に基づいて、予め定められた複数の注目部位それぞれの位置を示す第2座標値を特定する(S301)。各注目部位に位置の特定方法はどのような方法であってもよい。ここでは、制御部6は、いわゆる肌色検出処理を行って複数の肌色部分を検出し、上から一番目に位置する肌色部分の代表位置(例えば、重心)を、注目部位である頭部の位置として特定し、上から二番目に位置する肌色部分の代表位置と上から三番目に位置する肌色部分の代表位置とをそれぞれ、注目部位である手の位置として特定する。
そして、制御部6(仮設定手段)は、S301の特定した位置の集合Sを注目位置Fの集合S1として設定する(S302)。そして、制御部6(閉領域設定手段)は、集合S1に属する注目位置Fに基づいて、スポット領域を設定するための基礎となる基準矩形領域を特定する(S303)。図14に基準矩形領域を例示した。点線で示す領域が基準矩形領域を示す。同図に示すように、基準矩形領域は、人物領域の少なくとも一部を含む。本実施形態の場合、基準矩形領域の左上の頂点P1の第2座標値は、左から一番目に位置する注目位置FのX2座標値「Xmin」と、上から一番目に位置する注目位置FのY2座標値「Ymax」と、で表され、右下の頂点P2の第2座標値は、右から一番目に位置する注目位置FのX2座標値「Xmax」と、下から一番目に位置する注目位置FのY2座標値「Ymin」と、で表される。
そして、制御部6(判定手段)は、この基準矩形領域を基礎に設定されるスポット領域全体が背景テクスチャ画像22に収まるか否かを判定するために、下記に説明する距離aが下記に説明する距離b以下であるか否かを判定する(S304)。図15は、上記距離aと上記距離bとを説明するための図である。点線で示す領域は基準矩形領域を示し、点O1は、基準矩形領域の中心を表している。同図に示すように、距離aは、点O1から基準矩形領域のいずれかの頂点までの距離であり、距離bは、点O1から画像の枠までの最短距離である。後に説明するように、点O1がスポット領域の中心Oとして設定され、距離aがスポット領域の半径rとして設定される。そのため、距離aが距離b以下である場合、スポット領域全体が背景テクスチャ画像22に収まることになる。
距離aが距離b以下である場合(S304のY)、制御部6(閉領域設定手段)は、点O1をスポット領域の中心Oとして設定し、距離aをスポット領域の半径rとして設定する(S305)。
なお、距離aが距離bより長い場合(S304のN)、制御部6(仮設定手段)は、注目位置の集合S1から一つの注目位置Fを削除する(S306)。本実施形態の場合、各注目部位には重要度が設定されており、制御部6は、集合S1に属する注目位置Fのうち、重要度が最も低い注目部位の注目位置Fを集合S1から削除する。そして、制御部6は、S303以降のステップを再実行する。
こうして、制御部6は、S202のステップで処理対象ユーザが写っている人物領域ごとにスポット領域を設定すると、制御部6(第1テクスチャ画像生成手段)は、S201のステップでの加工が施された上記複製画像のうちの、各スポット領域外の部分の明度を下げる(S203)。こうすることにより、制御部6は、背景テクスチャ画像22を生成する。図16に、背景テクスチャ画像22を例示した。
本実施形態の場合、制御部6は、S203のステップで図17に示す処理を実行する。こうすることにより、制御部6は、スポット領域外の部分の明度の下げ具合を、点Qと仮想カメラ14の位置との位置関係に応じて調整する。すなわち、制御部6は、点Q(図4参照)と仮想カメラ14との位置関係を示す位置関係情報θを算出する(S401)。本実施形態の場合、制御部6は、点Qから人物オブジェクト16の位置(ここでは、注目ユーザの仮想空間における位置)へと伸びるベクトルの水平方向の成分と、仮想カメラ14から人物オブジェクト16の位置へと伸びるベクトルの水平方向の成分と、がなす角度を位置関係情報θとして算出する。なお、制御部6は、点Qと仮想カメラ14との距離を位置関係情報θとして算出してもよい。
そして、制御部6は、記憶部6に記憶される明度制御データを読み出し、位置関係情報θと、明度制御データと、に基づいて明度の減少量Δを決定する(S402)。本実施形態の場合、明度制御データは、位置関係情報θに関する条件と、減少量Δの候補値と、を対応付けてなるデータであり、位置関係情報θが大きいほど減少量Δの候補値が大きくなるように設定されている。制御部6は、S402のステップにおいて、位置関係情報θが満足する条件に対応付けられた候補値を特定し、特定した候補値を減少量Δとして決定する。
そして、制御部6は、スポット領域外の部分の明度を減少量Δだけ下げる(S403)。なお、制御部6は、S403のステップの後、スポット領域内に含まれる背景の画像に所定のシェーディング処理を施してもよい。
S107のステップにおいて背景テクスチャ画像22を生成すると、制御部6は、点Q(図4及び図18参照)を投影中心として背景テクスチャ画像22を透視投影変換することによって、背景テクスチャ画像22を、背景オブジェクト18に貼り付ける(S108)。図18に、人物テクスチャ画像20に人物オブジェクト16に貼り付けられ、且つ、背景テクスチャ画像22が背景オブジェクト18に貼り付けられたときの仮想空間を例示した。
そして、制御部6は、仮想カメラ14から仮想空間を見たときの様子を示す空間画像を生成する(S109)。また、制御部6(表示制御手段)は、空間画像をクライアント端末14に表示させるために、空間画像をクライアント端末14へと送信する(S110)。
なお、本発明の実施形態は上記実施形態だけに限らない。
例えば、制御部6は、人物領域の外接矩形を含むの領域をスポット領域として設定してもよい。
また、例えば、記憶部6には、最近の複数個の撮像画像が記憶されてもよい。そして、制御部6は、これら撮像画像の各々から特定される人物領域全部を含む領域をスポット領域として設定してもよい。
また、以上では、点Q(図4参照)と仮想カメラ14との位置関係に応じて各スポット領域外の部分の明度の下げ具合を調整しているが、点Qと仮想カメラ14との位置関係に関わらず、各スポット領域外の部分の色を黒色に設定してもよい。
また、以上では、例えば、人物テクスチャ画像20が注目ユーザの仮想空間における位置に配置された人物オブジェクト16のみに貼り付けられていたが、人物テクスチャ画像20が各撮像ユーザの仮想空間における位置に配置された人物オブジェクト16それぞれに貼り付けられてもよい。この場合、人物テクスチャ画像20の部分部分が、それぞれの人物オブジェクト16に貼り付けられることになる。
2 画像処理装置、4 制御部、6 記憶部、8 入出力インタフェース、10 ネットワークインタフェース、12 カメラ、14 クライアント端末、15 ユーザ、16 人物オブジェクト、18 背景オブジェクト、20 人物テクスチャ画像、22 背景テクスチャ画像、23 領域、P1,P2,Q,O,O1 点、F 注目位置。
Claims (6)
- 第1画像が貼付される第1物体と、第2画像が貼付される第2物体と、が配置された仮想空間を所与の仮想カメラから見た画像を表示手段に表示させる表示制御手段と、
実空間に配置された撮像手段により撮像された撮像画像のうちで、前記実空間に存在する人物が写っている領域である人物領域を特定する人物領域特定手段と、
前記人物領域の少なくとも一部を内部に含む閉領域を設定する閉領域設定手段と、
前記撮像画像に基づいて、前記人物領域の画像を示す前記第1画像を生成する第1画像生成手段と、
前記撮像画像に基づいて、前記閉領域のうちの前記人物領域を除く領域の画像を示す前記第2画像を生成する第2画像生成手段と、
を含むことを特徴とする画像処理装置。 - 複数ある前記人物の注目部位それぞれの前記撮像画像における位置を特定する位置特定手段をさらに含み、
前記閉領域設定手段は、
前記位置特定手段により特定された複数の位置の少なくとも一部に基づいて、前記閉領域を設定すること、
を特徴とする請求項1に記載の画像処理装置。 - 前記閉領域は予め定められた形状を有し、
前記複数の注目部位の各々には重要度が設定され、
前記閉領域設定手段は、
前記複数の位置の少なくとも一部を注目位置として仮設定する仮設定手段と、
注目位置が仮設定された場合に、前記仮設定された注目位置に基づいて設定される閉領域が予め定められた条件を満足するか否かを判定する判定手段と、
前記仮設定された注目位置に基づいて設定される閉領域が前記条件を満足すると判定される場合に、前記仮設定された注目位置に基づいて前記閉領域を設定する手段と、を含み、
前記仮設定手段は、
前記仮設定された注目位置に基づいて設定される閉領域が前記条件を満足しないと判定される場合に、重要度に基づいて、前記仮設定された注目位置の一部を新たな注目位置として再び仮設定すること、
を特徴とする請求項2に記載の画像処理装置。 - 前記実空間における前記撮像手段の位置を取得する撮像位置取得手段と、
前記実空間における前記人物の位置を取得する人物位置取得手段と、
前記撮像位置取得手段により取得された位置と、前記人物位置取得手段により取得された位置と、の位置関係が所与の位置関係にある場合に、前記第1テクスチャ画像を加工する加工手段と、
をさらに含むことを特徴とする請求項1に記載の画像処理装置。 - 前記第2画像生成手段は、
前記撮像画像のうちの、前記閉領域外の部分及び前記人物領域内の部分、を加工することによって、前記第2画像を生成し、
前記画像処理装置は、
前記実空間における前記撮像手段の位置を取得する撮像位置取得手段と、
前記実空間における前記撮像手段の位置に対応する前記仮想空間内の位置を取得する仮想空間位置取得手段と、をさらに含み、
前記第2画像生成手段は、
前記仮想空間位置取得手段により取得された位置と、前記仮想カメラの位置と、の位置関係に応じた度合いで、前記閉領域外の部分を加工すること、
を特徴とする請求項1に記載の画像処理装置。 - 第1画像が貼付される第1物体と、第2画像が貼付される第2物体と、が配置された仮想空間を所与の仮想カメラから見た画像を表示手段に表示させる表示制御手段、
実空間に配置された撮像手段により撮像された撮像画像を示す撮像画像のうちで、前記実空間に存在する人物が写っている領域である人物領域を特定する人物領域特定手段、
前記人物領域の少なくとも一部を内部に含む閉領域を設定する閉領域設定手段、
前記撮像画像に基づいて、人物領域内の画像を示す前記第1画像を生成する第1画像生成手段、
前記撮像画像に基づいて、前記閉領域のうちの前記人物領域を除く領域内の画像を示す前記第2画像を生成する第2画像生成手段、
としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011176227A JP2013041338A (ja) | 2011-08-11 | 2011-08-11 | 画像処理装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011176227A JP2013041338A (ja) | 2011-08-11 | 2011-08-11 | 画像処理装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013041338A true JP2013041338A (ja) | 2013-02-28 |
Family
ID=47889703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011176227A Withdrawn JP2013041338A (ja) | 2011-08-11 | 2011-08-11 | 画像処理装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013041338A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016159165A1 (ja) * | 2015-03-31 | 2016-10-06 | 大和ハウス工業株式会社 | 映像表示システム及び映像表示方法 |
-
2011
- 2011-08-11 JP JP2011176227A patent/JP2013041338A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016159165A1 (ja) * | 2015-03-31 | 2016-10-06 | 大和ハウス工業株式会社 | 映像表示システム及び映像表示方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101816041B1 (ko) | 시스루 스마트 안경 및 그 투시 방법 | |
KR102461232B1 (ko) | 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체 | |
JP2017525052A (ja) | 表示のためにキャプチャ画像の視野を調整する技術 | |
US8648924B2 (en) | Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for generating a combination image on a display of the capturing apparatus | |
US9779699B2 (en) | Image processing device, image processing method, computer readable medium | |
JP2013206322A (ja) | 情報処理装置、情報処理システム及び情報処理方法 | |
JP7182920B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6126501B2 (ja) | カメラ設置シミュレータ及びそのコンピュータプログラム | |
JP6821646B2 (ja) | 動的領域分解能を有する仮想/拡張現実システム | |
JP2010087569A (ja) | 姿見装置 | |
JP2015114905A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP4580678B2 (ja) | 注視点位置表示装置 | |
JP6723743B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2005312605A5 (ja) | ||
JP6500570B2 (ja) | 画像表示装置および画像表示方法 | |
JPWO2016174942A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7341736B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11589001B2 (en) | Information processing apparatus, information processing method, and program | |
US10634891B2 (en) | Medical observation device, lens driving control device, lens driving control method, and video microscope device | |
JP6690637B2 (ja) | 医療用観察装置、情報処理方法、プログラム、及びビデオ顕微鏡装置 | |
US10402939B2 (en) | Information processing device, information processing method, and program | |
JP2013041338A (ja) | 画像処理装置及びプログラム | |
WO2019230169A1 (ja) | 表示制御装置、プログラムおよび表示制御方法 | |
WO2015198478A1 (ja) | 画像歪み補正装置、情報処理装置および画像歪み補正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |