JP2014103479A - 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム - Google Patents

画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム Download PDF

Info

Publication number
JP2014103479A
JP2014103479A JP2012252924A JP2012252924A JP2014103479A JP 2014103479 A JP2014103479 A JP 2014103479A JP 2012252924 A JP2012252924 A JP 2012252924A JP 2012252924 A JP2012252924 A JP 2012252924A JP 2014103479 A JP2014103479 A JP 2014103479A
Authority
JP
Japan
Prior art keywords
image
unit
camera unit
use state
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012252924A
Other languages
English (en)
Other versions
JP6058978B2 (ja
Inventor
Yusuke Sakai
祐介 阪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012252924A priority Critical patent/JP6058978B2/ja
Priority to US14/067,172 priority patent/US9250698B2/en
Priority to CN201310562387.5A priority patent/CN103826057B/zh
Publication of JP2014103479A publication Critical patent/JP2014103479A/ja
Application granted granted Critical
Publication of JP6058978B2 publication Critical patent/JP6058978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】カメラの撮影画像から人物の顔画像などの物体を効率的に検出する。
【解決手段】上下方向が0度、±45度、±90度、180度だけそれぞれ傾いた複数のテンプレート画像を、顔や手など、検出対象毎に用意する。画像認識部504は、情報処理装置100の実際の使用状態に応じて、複数のテンプレート画像の各々に優先順位を付け、各テンプレート画像を優先順位に応じた頻度で用いて撮像画像をスキャンして、ユーザーの顔や手など所望する物体の検出処理を行なう。出現する確率の高い傾きのテンプレートを高い頻度で使用することで、検出効率や検出精度を向上する。
【選択図】 図12

Description

本明細書で開示する技術は、カメラの撮影画像を処理する画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラムに係り、特に、画像に含まれる人物の顔画像などの物体を検出する画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラムに関する。
人が生活する環境には、家電製品や情報機器など、ユーザーが制御対象とするさまざまな製品が存在している。この種の機器をユーザーが遠隔操作する方法の1つとして、ジェスチャー操作が挙げられる。
例えば、操作ボタン又はメニューを表示する操作表示手段を操作する操作者を撮像し、撮像画像から検出した手の領域の形と動きと操作表示手段の表示を基に操作者による操作を検出する遠隔操作装置について提案がなされている(例えば、特許文献1を参照のこと)。この先行技術によると、手先の輪郭を使ってユーザーのジェスチャーを認識することができる。
また、仮想操作面に対する操作者の動作を3次元的に読み取り、操作者の一部と仮想操作面との位置関係に基づいて動作が操作であるか否かを判定し、仮想操作面との位置関係に基づいて定められる2つ以上の仮想操作階層のいずれかの領域内で操作者の動作が行なわれると、仮想操作階層にあらかじめ割当てられた操作種別及び仮想操作階層内での操作者の動作に基づいて操作の内容を決定する画像認識装置について提案がなされている(例えば、特許文献2を参照のこと)。
ジェスチャー操作は、ユーザーをカメラで撮影した画像から、ユーザーの顔や手を認識してジェスチャーを理解することを基本とする。したがって、カメラを搭載したさまざまな家電製品や情報機器にジェスチャー操作を採り入れることができると考えられる。
顔認識システムは、例えば、顔画像の位置を検出して検出顔として抽出する顔検出処理と、検出顔の識別(人物の特定)を行なう顔識別処理で構成される。このうち顔検出処理は、顔などのテンプレート画像を入力画像上でスキャンさせ、パターン・マッチングにより検出顔を抽出するのが一般的である(例えば、特許文献3を参照のこと)。
ところが、入力画像中の顔画像がカメラの光軸を中心として回転しているなど、テンプレート画像の姿勢と適切にパターン・マッチングしないため、顔検出精度が低下するという問題がある。例えば、ジェスチャー操作を行なう機器にカメラが搭載され、且つ、機器本体が回転機構で支持されているような場合には(例えば、特許文献4〜6を参照のこと)、内部カメラで撮影された顔画像が回転することが想定される。
あるいは、カメラを搭載した機器がハンディー・タイプなどの場合も、操作するユーザーの腕の動きに応じてカメラの姿勢が変化して、撮影する被写体画像が回転することが想定される。
例えば、入力画像データを縮小させ、且つ複数の角度に回転させた複数の縮小回転画像データを用いて、顔画像の変化に追従して顔検出を行なう顔画像検出装置について提案がなされている(例えば、特許文献7を参照のこと)。しかしながら、複数(n枚)の縮小回転画像データに対してテンプレート画像とのパターン・マッチングを行なうと、処理量がn倍に増大してしまう。
また、加速度センサー(傾き角度検出手段)を用いて携帯電話の傾きを検出し、撮影された画像から顔検出処理を行なう際には、検出された携帯電話の傾き情報に基づいて顔検出用の被写体画像を回転させて、あるいは画素の読出し順序を変更して顔検出を行なうカメラ付携帯型電子機器について提案がなされている(例えば、特許文献8を参照のこと)。しかしながら、検出処理自体の効率は上がるものの、被写体画像を回転させる処理が増えてしまう。また、回転処理した後の被写体画像に対してしかテンプレート画像とのパターン・マッチングを行なわないのであれば、被写体の顔の傾きが携帯電話の傾き情報と一致しない場合には、検出精度が低下することが懸念される。
本明細書で開示する技術の目的は、カメラの撮影画像から人物の顔画像などの物体を効率的に検出することができる、優れた画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
カメラ部の使用状態を判定する使用状態判定部と、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部と、
を具備し、
前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
画像処理装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の画像処理装置の前記物体検出部は、前記物体の複数のテンプレート画像を備え、前記使用状態に基づいて前記複数のテンプレート画像を優先順位付けし、優先順位に応じた頻度で各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出するように構成されている。
本願の請求項3に記載の技術によれば、請求項2に記載の画像処理装置の前記使用状態判定部は、前記カメラ部が前記物体を撮影する際の姿勢を判定し、前記物体検出部は、前記物体の傾きの異なる複数のテンプレート画像を前記カメラ部の前記姿勢に基づいて優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出するように構成されている。
本願の請求項4に記載の技術によれば、請求項3に記載の画像処理装置の前記使用状態判定部は、前記カメラ部が前記物体を撮影する際の光軸の方向を判定し、前記物体検出部は、各テンプレート画像を前記判定された光軸の方向に基づいて優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出するように構成されている。
本願の請求項5に記載の技術によれば、請求項4に記載の画像処理装置の前記使用状態判定部は、前記カメラ部の光軸のロール回りの回転角度を判定し、前記物体検出部は、前記カメラ部の光軸のロール回りの回転角度に近い傾きを持つテンプレート画像により高い優先順位を付与するように構成されている。
本願の請求項6に記載の技術によれば、請求項3に記載の画像処理装置の前記物体検出部は、前記撮影画像の領域毎に各テンプレート画像を優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出するように構成されている。
本願の請求項7に記載の技術によれば、請求項6に記載の画像処理装置は、前記カメラ部の光軸が鉛直方向を向いているときに、前記物体検出部が、前記撮影画像の領域毎に、前記撮像装置の光軸に対する前記領域の角度位置に応じて、各テンプレート画像を優先順位付けするように構成されている。
また、本願の請求項8に記載の技術は、
カメラ部の使用状態を検出する使用状態検出部と、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部と、
を具備する画像処理装置である。
本願の請求項9に記載の技術によれば、請求項8に記載の画像処理装置は、前記撮影画像を画面に表示する表示部をさらに備えている。そして、前記最適化部は、ユーザーを撮影した前記撮影画像を前記画面上で前記ユーザーに正対して表示するように最適化するように構成されている。
本願の請求項10に記載の技術によれば、請求項9に記載の画像処理装置の前記使用状態検出部は、前記カメラ部の光軸の方向と、前記画面の光軸の方向を検出し、前記最適化部は、前記カメラ部の光軸の方向と前記画面の光軸の方向に基づいて、前記撮影画像を最適化するように構成されている。
本願の請求項10に記載の技術によれば、請求項9に記載の画像処理装置の前記使用状態検出部は、前記カメラ部の光軸のロール軸回りの回転Δψcと、前記画面の光軸のロール回りの回転Δψdを検出し、前記最適化部は、前記撮影画像をψ軸回りに−(Δψc+Δψd)だけ回転させるように構成されている。
また、本願の請求項12に記載の技術は、
カメラ部の使用状態を判定する使用状態判定ステップと、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出ステップと、
を有し、
前記物体検出ステップでは、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
画像処理方法である。
また、本願の請求項13に記載の技術は、
カメラ部の使用状態を検出する使用状態検出ステップと、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化ステップと、
を有する画像処理方法である。
また、本願の請求項14に記載の技術は、
カメラ部と、
前記カメラ部の使用状態を判定する使用状態判定部と、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部と、
を具備し、
前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
撮影装置である。
また、本願の請求項15に記載の技術は、
カメラ部と、
前記カメラ部の使用状態を検出する使用状態検出部と、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部と、
を具備する撮影装置である。
また、本願の請求項16に記載の技術は、
カメラ部の使用状態を判定する使用状態判定部、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
コンピューター・プログラムである。
また、本願の請求項17に記載の技術は、
カメラ部の使用状態を検出する使用状態検出部、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
本願の請求項16、17に係る各コンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項16、17に係る各コンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1、8に係る各画像処理装置と同様の作用効果をそれぞれ得ることができる。
本明細書で開示する技術によれば、カメラの撮影画像から人物の顔画像などの物体を効率的に検出することができる、優れた画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラムを提供することができる。
本明細書で開示する技術を適用した画像処理装置は、カメラによる撮影画像上でテンプレート画像をスキャンさせて顔などの物体を検索するが、傾きの異なる複数のテンプレート画像を用意するとともに、各テンプレート画像の使用頻度や、撮影画像内でテンプレート画像をスキャンする領域の優先順位を、カメラの姿勢に応じてコントロールすることによって、効率的にオブジェクトを検出することができる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、大画面を有する情報処理装置100の使用形態の一例(Wall)を示した図である。 図2Aは、大画面を有する情報処理装置100の使用形態の他の例(Tabletop)を示した図である。 図2Bは、テーブルトップ状態の表示画面の利用形態を示した図である。 図3Aは、大画面を有する情報処理装置100の使用形態の他の例を示した図である。 図3Bは、大画面を有する情報処理装置100の使用形態の他の例を示した図である。 図3Cは、大画面を有する情報処理装置100の使用形態の他の例を示した図である。 図4は、情報処理装置100の機能的構成を模式的に示した図である。 図5は、入力インターフェース部110の内部構成を示した図である。 図6は、出力インターフェース部130の内部構成を示した図である。 図7Aは、カメラ部503の光軸の方向(φc,θc,ψc)の定義を示した図である。 図7Bは、カカメラ部503の光軸並びに大画面の光軸の基準方向(0,0,0)を示した図である。 図8は、大画面の前に直立したユーザーを、光軸の方向が(φc,θc,ψc)=(0,0,0)に設定されたカメラ部503で撮影する様子を示した図である。 図9は、大画面の前に直立したユーザーを、光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定されたカメラ部503で撮影する様子を示した図である。 図10は、光軸の方向が(φc,θc,ψc)=(0,90°,0)に設定されたカメラ部503で、大画面の四方から表示映像を覗き込む複数のユーザーを撮影する様子を示した図である。 図11は、上下方向が0度、±45度、±90度、180度だけそれぞれ傾いた複数のテンプレート画像を例示した図である。 図12は、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下で、各テンプレート画像に設定する優先度を示した図である。 図13は、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定された使用状態下で、各テンプレート画像に設定する優先度を示した図である。 図14は、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,90°,0)に設定された使用状態下で、各テンプレート画像に設定する優先度を示した図である。 図15は、画像認識部504内において、カメラ部503の撮像画像からユーザーの顔や手などの物体を検出する物体検出部1500の機能的構成を模式的に示した図である。 図16は、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下で、テンプレート画像供給部1503から各テンプレート画像が優先度に応じた頻度で供給される様子を示した図である。 図17は、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定された使用状態下で、テンプレート画像供給部1503から各テンプレート画像が優先度に応じた頻度で供給される様子を示した図である。 図18は、情報処理装置100本体を壁から取り外して平置きにされた使用状態下で、テンプレート画像供給部1503から各テンプレート画像が優先度に応じた頻度で供給される様子を示した図である。 図19は、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下で想定される撮影画像を例示した図である。 図20は、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定された使用状態下で想定される撮影画像を例示した図である。 図21は、情報処理装置100本体を壁から取り外して平置きにした使用状態下で想定される撮影画像を例示した図である。 図22は、物体検出部1500が撮影画像から所望の物体を検出するための処理手順を示したフローチャートである。 図23は、大画面が横置き姿勢となるように情報処理装置100本体の回転位置を設定した状態で、カメラ部503による撮影画像の上下方向が正しくなるように表示する様子を示した図である。 図24は、大画面が縦置き姿勢となるように情報処理装置100本体の回転位置を設定した状態で、カメラ部503による撮影画像の上下方向が正しくなるように表示する様子を示した図である。 図25は、光軸の方向が(φc,θc,ψc)=(0,0,90°)の状態のカメラ部503で自分撮りした撮影画像を例示した図である。 図26は、図25に示した撮影画像を、光軸方向が(φd,θd,ψd)=(0,0,90°)の大画面に表示した様子を示した図である。表示した様子を示した図である。 図27は、図25に示した撮影画像を最適化して表示した様子を示した図である。 図28は、カメラ部503の撮影画像を最適化処理する機能的構成を模式的に示した図である。 図29は、カメラ部503の撮影画像を最適化処理するための処理手順を示したフローチャートである。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム構成
本実施形態に係る情報処理装置100は、大画面を有するが、主な使用形態として、図1に示すように壁に掛ける「Wall」、並びに、図2に示すように卓上に設置する「Tabletop」が想定される。
図1に示す「Wall」状態では、情報処理装置100は、例えば回転・取り付け機構部180によって壁面上で回転可能且つ着脱可能な状態で取り付けられている。図示の例では、大画面が横置きとなる姿勢に回転位置が設定されている。
回転・取り付け機構部180は情報処理装置100と外部との電気的接点を兼ねており、この回転・取り付け機構部180を介して情報処理装置100に電源ケーブルやネットワーク・ケーブル(いずれも図示しない)が接続されているものとし、情報処理装置100は、商用AC電源から駆動電力を受電できるとともに、インターネット上の各種サーバーにもアクセスすることができる。
情報処理装置100は、カメラや距離センサー、近接センサー、並びにタッチ・センサーを備えており、画面に正対しているユーザーの位置(距離、方位)を把握することができる。また、情報処理装置100は、ユーザーの位置に応じた最適なインタラクションを自動選択するようになっている。例えば、情報処理装置100は、ユーザーの位置に応じて、被操作オブジェクト枠組み、情報密度などのGUI(Graphical User Interface)表示を自動で選択し又は調整する。また、情報処理装置100は、画面へのタッチ、近接、手などを用いたジェスチャー、リモコン、ユーザー状態による間接操作など複数の入力手段の中から、ユーザーの位置若しくはユーザーまでの距離に応じて自動で選択することができる。
また、情報処理装置100は、1台以上のカメラも備えている。図示の例では、大画面を横置きにした状態で、上端縁のほぼ中央にカメラが設置されている。この状態では、カメラは、光軸が水平方向を向いており、大画面に正対しているユーザーの姿を撮影することができる。カメラの撮像画像を処理することで、ユーザーの位置を測定できる他、人物、物体、機器などさまざまな物体の認識を行なうことができる。顔や手などの人物の認識結果に基づいて、ジェスチャー入力を行なうこともできる。また、情報処理装置100は、超近距離通信部も備えており、超近距離まで接近したユーザーが所持する機器との間で直接且つ自然なデータ送受信を行なうこともできる。
Wall状態では、大画面上に、ユーザーが操作する対象となる被操作オブジェクトが定義されている。被操作オブジェクトは、動画、静止画、テキスト・コンテンツを始め、任意のインターネット・サイト、アプリケーションやウィジェットなどの機能モジュールの特定の表示領域を有する。被操作オブジェクトには、テレビ放送の受信コンテンツ、記録メディアからの再生コンテンツ、ネットワークを介して取得したストリーミング動画、ユーザーが所持するモバイル端末など他の機器から取り込んだ動画、静止画コンテンツなどが含まれる。
図1に示すように大画面が横置きとなるように、壁に掛けた情報処理装置100の回転位置を設定すると、画面全体の大きさを持つ被操作オブジェクトとして、ほぼムービーで描写する世界観そのままに映像を表示することができる。
情報処理装置100を回転・取り付け機構部180に取り付け、壁に掛けた状態のままで回転させると、図3に示すように大画面が縦置きとなる姿勢にすることができる。情報処理装置100本体と一体となって、カメラの位置が、画面の右端縁のほぼ中央に移動する。この状態では、カメラは、光軸が水平方向を向いたままであり、大画面に正対しているユーザーの姿を撮影することができる。但し、カメラの光軸はロール軸回りに90度回転するので、その撮影画像も90度だけ回転する。
情報処理装置100が備える大画面のアスペクト比は、ハイビジョン映像相当の16:9を想定している。大画面を縦置きの姿勢にすると、図3Aに示すように、アスペクト比が16:9の画面を垂直方向に3つ配置することができる。例えば、異なる放送局から同時受信する放送コンテンツ、記録メディアからの再生コンテンツ、ネットワーク上のストリーミング動画など、3種類のコンテンツ#1〜#3を上下方向に並べて同時に表示することができる。さらに、ユーザーが例えば指先で画面上を上下方向に操作すると、図3Bに示すように、コンテンツが上下方向にスクロールする。また、ユーザーが3段のうちいずれかの場所で指先により左右方向に操作すると、図3Cに示すように、その段で画面が水平方向にスクロールする。
一方、図2Aに示す「Tabletop」状態では、情報処理装置100は卓上に平置きにされている。図1に示した使用形態では回転・取り付け機構部180が電気的接点を兼ねているのに対し(前述)、図2Aに示すように卓上に設置された状態では、情報処理装置100への電気的接点が見当たらない。そこで、図示のTabletop状態では、情報処理装置100は、内蔵バッテリーにより無電源で動作可能に構成してもよい。また、情報処理装置100が例えば無線LAN(Local Area Network)の移動局機能に相当する無線通信部を備えるとともに、回転・取り付け機構部180が無線LANのアクセスポイント機能に相当する無線通信部を備えるようにすれば、情報処理装置100は、Tabletop状態においても、アクセスポイントとしての回転・取り付け機構部180との無線通信を通じてインターネット上の各種サーバーにアクセスすることができる。
TableTop状態では、大画面の四方から複数のユーザーが表示映像を覗き込むことになる。また、カメラの光軸は鉛直方向を向き、大画面の上空の風景を撮影する。この場合、撮影画像内のユーザーの顔や手の上下方向は、画面を覗き込むユーザーの立ち位置、すなわち撮影画像内で映る領域毎にまちまちになる。
Tabletop状態の大画面上には、被操作対象となる複数の被操作オブジェクトが定義されている。被操作オブジェクトは、動画、静止画、テキスト・コンテンツを始め、任意のインターネット・サイト、アプリケーションやウィジェットなどの機能モジュールの特定の表示領域を有する。
情報処理装置100は、大画面の4つの側縁部の各々に、ユーザーの存在又は状態を検出する近接センサーを備えている。上述と同様に、大画面に接近したユーザーをカメラで撮影して人物認識してもよい。また、超近距離通信部は、存在を検出したユーザーがモバイル端末などの機器を所持しているか否かを検出したり、ユーザーが所持する他端末からのデータ送受信要求を検出したりする。
情報処理装置100は、近接センサーなどでユーザーの存在を検出すると、その検出結果をUI制御に利用する。ユーザーの存在の有無だけでなく、ユーザーの胴体や両手足、頭の位置などを検出するようにすれば、より詳細なUI制御に利用することもできる。また、情報処理装置100は、超近距離通信部も備えており、超近距離まで接近したユーザーが所持する機器との間で直接且つ自然なデータ送受信を行なうこともできる。
情報処理装置100の画面を大型化すれば、Tabletop状態では、複数のユーザーが同時にタッチ入力するだけのスペースの余裕が生じる。また、複数のユーザーが大画面越しに向き合い、画面の表示を見ながら会話やディスカッションを行なうことができる(図2Bを参照のこと)。
図4には、情報処理装置100の機能的構成を模式的に示している。情報処理装置100は、外部からの情報信号を入力する入力インターフェース部110と、入力された情報信号に基づいて表示画面の制御などのための演算処理を行なう演算部120と、演算結果に基づいて外部への情報出力を行なう出力インターフェース部130と、ハード・ディスク・ドライブ(HDD)などからなる大容量の記憶部140と、外部ネットワークと接続する通信部150と、駆動電力を扱う電源部160と、テレビ・チューナー部170を備えている。記憶部140には、演算部120で実行する各種処理アルゴリズムや、演算部120で演算処理に使用する各種データベースが格納されている。
入力インターフェース部110の主な機能は、ユーザーの存在の検出、検出したユーザーによる画面すなわちタッチパネルへのタッチ操作の検出、ユーザーが所持するモバイル端末などの機器の検出並びに機器からの送信データの受信処理である。図5には、入力インターフェース部110の内部構成を示している。
リモコン受信部501は、リモコンやモバイル端末からのリモコン信号を受信する。信号解析部502は、受信したリモコン信号を復調、復号処理して、リモコン・コマンドを得る。
カメラ部503はCMOS(Complememtary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子を備え、単眼式、又は、2眼式若しくはアクティブ型のうち一方又は両方を採用する。また、カメラ部503は、パンやチルト、ズームなどのカメラ制御部を備えている。カメラ部503は、パンやチルト、ズームなどのカメラ情報を演算部120に通知するとともに、演算部120からのカメラ制御情報に従ってカメラ部503のパン、チルト、ズームを制御できるものとする。
画像認識部504は、カメラ部503による撮影画像を認識処理する。具体的には、背景差分によりユーザーの顔や手の動きを検出してジェスチャー認識したり、撮影画像に含まれるユーザーの顔や手などの物体を認識したり、ユーザーまでの距離を認識したりする。
画像認識部504は、画像認識処理に際して、カメラ部503によるカメラによる撮影画像上でテンプレート画像をスキャンさせて、パターン・マッチングを行なうことにより、顔などの認識対象となる物体を検出する。本実施形態では、傾きの異なる複数のテンプレート画像を用意しておき、画像認識部504は、各テンプレート画像の使用頻度や、撮影画像内の各領域でテンプレート画像をスキャンする優先順位を、情報処理装置100本体(すなわち、本体と一体となったカメラ部503)の姿勢に応じてコントロールすることによって、撮影画像内の物体検出処理の効率化並びに誤検出の防止を図るようにしている。物体検出処理の詳細については後述に譲る。
マイク部505は、音やユーザーが発する会話を音声入力する。音声認識部506は、マイク部505から入力された音声信号を音声認識する。
距離センサー507は、例えばPSD(Position Sensitive Detector)などからなり、ユーザーやその他の物体から返ってくる信号を検出する。信号解析部508は、その検出信号を解析して、ユーザーや物体までの距離を測定する。PDSセンサー以外に、焦電センサーや簡易カメラなどを距離センサー507に用いることができる。距離センサー507は、情報処理装置100から例えば5〜10メートルの半径内にユーザーが存在するかどうかを常時監視している。このため、距離センサー507には、消費電力の小さなセンサー素子を用いることが好ましい。
タッチ検出部509は、画面に重畳されたタッチ・センサーなどからなり、画面にユーザーの指先が触れた場所から検出信号を出力する。信号解析部510は、タッチ検出部509の検出信号を解析して、位置情報を得る。
近接センサー511は、大画面の4つの側縁部の各々に設置され、例えば静電容量式によりユーザーの身体が画面に近接したことを検出する。信号解析部512は、近接センサー511の検出信号を解析する。
超近距離通信部513は、例えばNFC(Near Field Communication)により、ユーザーが所持する機器などからの非接触通信信号を受信する。信号解析部514は、超近距離通信部513の受信信号を復調、復号処理して、受信データを得る。
3軸センサー部515は、ジャイロなどで構成され、情報処理装置100のxyz各軸回りの姿勢を検出する。GPS(Global Positioning System)受信部516は、GPS衛星からの信号を受信する。信号解析部517は、3軸センサー部515並びにGPS受信部516からの信号を解析して、情報処理装置100の位置情報や姿勢情報を得る。
入力インターフェース統合部520は、上記の情報信号の入力を統合して演算部120に渡す。また、入力インターフェース統合部520は、各信号解析部508、510、512、514の解析結果を統合して、情報処理装置100の周囲にいるユーザーの位置情報を取得して演算部120に渡す。
演算部120の主な機能は、入力インターフェース部110によるユーザー検出結果、画面のタッチ検出結果、及びユーザーが所持する機器からの受信データに基づくUI画面の生成処理などの演算処理と、演算結果の出力インターフェース部130への出力である。演算部120は、例えば記憶部140にインストールされているアプリケーション・プログラムをロードし、実行することで、アプリケーション毎の演算処理を実現することができる。
出力インターフェース部130の主な機能は、演算部120の演算結果に基づく画面上へのコンテンツやUIの表示と、ユーザーが所持する機器へのデータ送信である。図6には、出力インターフェース部130の内部構成を示している。
出力インターフェース統合部610は、演算部120による演算結果に基づく情報出力を統合して扱う。
出力インターフェース統合部610は、コンテンツ表示部601に対して、受信したTV放送コンテンツや、ブルーレイ・ディスクなどの記録メディアから再生したコンテンツなど、動画又は静止画コンテンツの表示部603、スピーカー部604への画像及び音声出力を指示する。
また、出力インターフェース統合部610は、GUI表示部602に対して、被操作オブジェクトなどのGUIの表示部603への表示を指示する。
また、出力インターフェース統合部610は、超近距離通信部513に対して、ユーザーが所持する機器などへの、非接触通信によるデータ送信を指示する。
情報処理装置100は、カメラ部503の撮影画像の認識や、距離センサー507、タッチ検出部509、近接センサー511、超近距離通信部513などの検出信号に基づいて、ユーザーを検出することができる。また、カメラ部503の撮影画像の顔認識や、超近距離通信部513でユーザーが所持する機器を認識することで、検出したユーザーの人物を特定することができる。特定されたユーザーは情報処理装置100にログインすることができる。勿論、ログインできるアカウントを特定のユーザーに限定することもできる。また、情報処理装置100は、ユーザーの位置やユーザーの状態に応じて、距離センサー507、タッチ検出部509、近接センサー511を使い分けて、ユーザーからの操作を受け取ることができる。
また、情報処理装置100は、通信部150を通じて外部ネットワークに接続している。外部ネットワークとの接続形態は、有線、無線を問わない。情報処理装置100は、通信部150を通じて、ユーザーが所持するスマートフォンなどのモバイル端末や、タブレット端末などの他の機器と通信することができる。情報処理装置100、モバイル端末、タブレット端末の3種類の装置の組み合わせにより、いわゆる「3スクリーン」を構成することができる。情報処理装置100は、他の2スクリーンよりも大画面上で、3スクリーンを連携させるUIを提供することができる。
例えば、ユーザーが画面上でタッチ操作する、あるいは所持端末を情報処理装置100に接近させるなどのアクションを行なっているバックグランドで、情報処理装置100と対応する所持端末との間で、被操作オブジェクトの実体である動画、静止画、テキスト・コンテンツなどのデータ送受信が行なわれる。さらに外部ネットワーク上にはクラウド・サーバーなどが設置されており、3スクリーンは、クラウド・サーバーの演算能力を利用するなど、情報処理装置100を通じてクラウド・コンピューティングの恩恵を受けることができる。
B.物体検出処理
本実施形態に係る情報処理装置100では、画像認識部504がカメラ部503による撮影画像を画像認識して、顔認識に基づく人物認証や、顔の表情や手の形状認識に基づくジェスチャー入力を行なうことができる。
画像認識部504は、画像認識処理に際して、カメラ部503によるカメラによる撮影画像上でテンプレート画像をスキャンさせて、パターン・マッチングを行なうことにより、顔などの認識対象となる物体を検出する(前述)。
ところが、撮影画像内の顔画像が、顔画像がカメラの光軸を中心として回転しているなど、姿勢が適当でないと、テンプレート画像とパターン・マッチングがとれなくなり、顔検出精度が低下するという問題がある。
とりわけ、本実施形態に係る情報処理装置100は、回転・取り付け機構部180によって壁面上で回転可能且つ着脱可能な状態で取り付けられるので、装置100本体に搭載されたカメラ部503の光軸は任意の回転角度で回転する。そして、情報処理装置100の大画面に正対したユーザーをカメラ部503で撮影した場合、ユーザー自体は顔の姿勢を変えなくても、撮影画像内のユーザーの顔画像は、カメラ部503の光軸の回転角度に応じて傾斜する。回転・取り付け機構部180に対し、情報処理装置100本体が回転すると、カメラ部503の光軸や大画面の光軸はロール軸回りに回転することになる。
ここで、図7Aに示すように、xyz平面上でカメラ部503の光軸の方向(φc,θc,ψc)を定義する。但し、φcはxz平面上でz軸正方向を0度とし、θcはyz平面上でz軸正方向を0度とし、ψcはxy平面上でy軸正方向を0度とする。図1に示したように、情報処理装置100の大画面を横置きにした状態で、画面の上端縁のほぼ中央の場所に、カメラ部503が固定されている。以下では、カメラ部503の光軸の方向(φc,θc,ψc)は、大画面の光軸の方向(φd,θd,ψd)と一致するものとして扱う。図7Bに示すように、情報処理装置100の大画面を横置きにした状態での正面を向く方向を、カメラ部503の光軸、並びに、大画面の光軸の基準方向(0,0,0)を定義する。
情報処理装置100本体を壁に掛けた状態で、図1に示したように大画面が横置きとなる姿勢に回転位置が設定されていると、カメラ部503の光軸の方向は、基準方向(φc,θc,ψc)=(0,0,0)である。また、図3に示したように大画面が縦置きとなる姿勢に回転位置が設定されると、カメラ部503の光軸の方向は(φc,θc,ψc)=(0,0,90°)である。
大画面の前に直立したユーザーを、光軸の方向が(φc,θc,ψc)=(0,0,0)に設定されたカメラ部503で撮影すると、図8に示すように、横置きにした撮影画像内のユーザーの顔や手の上下方向は、撮影画像の上下方向と一致する。したがって、画像認識部504では、規定の(すなわち、傾きのない)テンプレート画像とのパターン・マッチングをとることにより、ユーザーの顔や手を検出することができる。
一方、大画面の前に直立したユーザーを、光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定されたカメラ部503で撮影すると、図9に示すように、横置きにした撮影画像内のユーザーの顔や手の上下方向は、撮影画像の上下方向からロール軸回り(図面上で時計回り)に90度だけ回転する。したがって、画像認識部504では、規定の(すなわち、傾きが一定の)テンプレート画像とのパターン・マッチングをとっても、マッチング度が低く、ユーザーの顔や手を検出することができなくなる。
また、情報処理装置100本体を壁から取り外して、TableTop、すなわち大画面を平置きにした状態では、カメラ部503の光軸の方向は(φc,θc,ψc)=(0,90°,0)であるが、大画面の四方から複数のユーザーが表示映像を覗き込むことになる。このときのカメラ部503の撮影画像を図10に例示するが、撮影画像内のユーザーの顔や手の上下方向は、画面を覗き込むユーザーの立ち位置、すなわち撮影画像内で映る領域毎にまちまちである。このため、規定の(すなわち、傾きが一定の)テンプレート画像とのパターン・マッチングをとっても、マッチング度が低く、ユーザーの顔や手を検出することができない領域が存在する。
演算処理量に制限が厳しくないシステムにおいては、想定し得るすべての顔の傾きや手の向きをすべて考慮して検出処理を行なえばよいが、想定する角度によって非常に高い処理負荷がかかる。
情報処理装置100の実際の使用状態では、撮影画像内での顔画像や手の画像の上下方向は、一様の頻度でそれぞれの角度に傾くのではなく、頻度の高い傾きと、頻度の低い傾きや、ほとんど皆無の傾きがあると考えられる。したがって、想定するすべての角度を考慮して顔画像や手の画像の検出処理を行なうのは非効率的である。また、低い頻度の傾きについても、高い頻度の傾きと同様に検出処理を行なうのは、処理負荷をいたずらに増大することになる。
例えば、情報処理装置100本体が壁に掛けられ大画面が横置きとなるように配置された使用状態(すなわちカメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0))では、ユーザーが通常は床面に直立していることを考慮すると、撮影画像内の顔画像並びに手の画像のほとんどは、その上下方向が撮影画像の上下方向と一致する。ユーザーが首をかしげるしぐさやジェスチャーを行なって、顔画像の上下方向が45度程度まで傾くことは、比較的高い頻度で発生する。また、顔画像の上下方向が90度程度傾くことは、ユーザーが寝転がっている場合などであり、発生する頻度は低くなる。ところが、顔画像の上下方向が真逆すなわち180度傾くことは皆無に等しいと言える。
また、情報処理装置100本体が壁に掛けられ画面が縦置きとなるように配置された使用状態(すなわちカメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)の場合)では、ユーザーが通常は床面に直立していることを考慮すると、撮影画像内の顔画像並びに手の画像のほとんどは、その上下方向が撮影画像の上下方向に対し(すなわち、ロール軸回りに)90度だけ傾いている。ユーザーが首をかしげるしぐさやジェスチャーを行なって、顔画像の上下方向が45度程度まで傾くことは、比較的高い頻度で発生する。また、顔画像の上下方向が90度程度傾くことは、ユーザーが寝転がっている場合などであり、発生する頻度は低くなる。ところが、顔画像の上下方向が撮像画像の上下方向と一致し又は真逆になること(すなわち、傾きが0度又は180度になること)は、ユーザーが寝転がっている場合などであり、発生する頻度は低くなると言える。
他方、情報処理装置100本体を壁から取り外して、TableTop、すなわち平置きにした使用状態(すなわちカメラ部503の光軸の方向が(φc,θc,ψc)=(0,90°,0)の場合)では、大画面の四方から複数のユーザーが表示映像を覗き込むことを考慮すると、撮影画像内の顔画像並びに手の画像のほとんどは、その上下方向がそのユーザーが大画面(言い換えればカメラ部503の撮像面)を覗き込む方向と一致する。ユーザーがカメラ部503の撮像面を覗き込む方向は、カメラ部503の光軸の方向ψcに対するユーザーの角度位置(仮に角度αとする)に相当する。ユーザーが首をかしげるしぐさやジェスチャーを行なって、顔画像の上下方向がαに対し±45度程度まで傾くことは、比較的高い頻度で発生する。ところが、顔画像の上下方向がαに対し±90度程度傾くことは、ユーザーが寝転がっている場合などであり、発生する頻度は低くなる。また、顔画像の上下方向がαと真逆すなわち180度傾くことは皆無に等しいと言える。
そこで、本実施形態では、図11に例示するように、上下方向が0度、±45度、±90度、180度だけそれぞれ傾いた複数のテンプレート画像を、顔や手など、検出対象毎に用意する。そして、画像認識部504は、情報処理装置100の実際の使用状態に応じて、複数のテンプレート画像の各々に優先順位を付け、各テンプレート画像を優先順位に応じた頻度で用いて撮像画像をスキャンして、ユーザーの顔や手など所望する物体の検出処理を行なうようにしている。出現する確率の高い傾きのテンプレートを高い頻度で使用することで、検出効率や検出精度を向上することができる。また、出現する確率の低い傾きのテンプレートを低い頻度で使用することにより、処理負荷を低減することができる。
ここで言う、情報処理装置100の使用状態とは、情報処理装置100本体の大画面をWallすなわち壁掛け状態にしているか、あるいは、TableTopすなわち平置き状態にしているかどうかを意味する。また、情報処理装置100本体が壁掛け状態の場合、大画面が横置き又は縦置きであるか、すなわちカメラ部503の光軸の(ロール軸回りの)回転位置ψcも使用状態を意味する。また、情報処理装置100本体が平置き状態の場合、ユーザーが大画面を覗き込む方向も使用状態を意味し、カメラ部503の光軸の方向ψcに対するユーザーの角度位置αで表わされる。要するに、情報処理装置100の使用状態は、カメラ部503の光軸の方向(φc,θc,ψc)と言い換えることもできる。
例えば、情報処理装置100本体が壁に掛けられ、大画面が横置きとなるように配置され、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下では、撮影画像内の顔画像並びに手の画像のほとんどは、その上下方向が撮影画像の上下方向と一致する。そこで、傾きが0度のテンプレートを最も高い優先度に設定する。また、ユーザーが首をかしげるしぐさやジェスチャーを行なって、顔画像の上下方向が45度程度まで傾くことは、比較的高い頻度で発生する。したがって、傾きが±45度のテンプレート画像を高い優先度に設定する。また、顔画像の上下方向が90度程度傾くことは、ユーザーが寝転がっている場合などであり、発生する頻度は低くなる。そこで、傾きが±90度のテンプレート画像を低い優先度に設定する。また、顔画像の上下方向が真逆すなわち180度傾くことは皆無に等しい。そこで、傾きが180度のテンプレートを最低の優先度に設定する。図12には、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下で、各テンプレート画像に設定する優先度を示している。画像認識部504は、各テンプレート画像をそれぞれの優先度に応じた頻度で使用して、カメラ部503の撮影画像から顔や手などの物体の検出処理を行なう。
情報処理装置100本体が壁に掛けられ、大画面が縦置きとなるように配置され、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定された使用状態下では、撮影画像内の顔画像並びに手の画像のほとんどは、その上下方向が撮影画像の上下方向に対し(若しくはロール軸回りに)90度だけ傾いている。そこで、傾きが90度のテンプレートを最も高い優先度に設定する。また、ユーザーが首をかしげるしぐさやジェスチャーを行なって、顔画像の上下方向が45度程度まで傾くことは、比較的高い頻度で発生する。したがって、傾きが45度(並びに135度)のテンプレート画像を高い優先度に設定する。また、顔画像の上下方向が90度程度傾くことは、ユーザーが寝転がっている場合などであり、発生する頻度は低くなる。そこで、傾きが0度並びに180度のテンプレート画像を低い優先度に設定する。また、顔画像の上下方向が撮像画像の上下方向と一致し又は真逆になることは、ユーザーが寝転がっている場合などであり、発生する頻度は低くなる。そこで、傾きが270度のテンプレートを最低の優先度に設定する(図13を参照のこと)。
他方、情報処理装置100本体を壁から取り外して平置きにし、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,90°,0)に設定された使用状態下では、撮影画像内の顔画像並びに手の画像のほとんどは、その上下方向がそのユーザーが大画面(言い換えればカメラ部503の撮像面)を覗き込む方向と一致する。
ここで言う、ユーザーがカメラ部503の撮像面を覗き込む方向とは、カメラ部503の光軸の方向ψcに対するユーザーの角度位置αに相当する。ユーザーが首をかしげるしぐさやジェスチャーを行なって、顔画像の上下方向がαに対し±45度程度まで傾くことは、比較的高い頻度で発生する。ところが、顔画像の上下方向がαに対し±90度程度傾くことは、ユーザーが寝転がっている場合などであり、発生する頻度は低くなる。また、顔画像の上下方向がαと真逆すなわち180度傾くことは皆無に等しい。
例えば、ユーザーの角度位置αが0度付近となる領域では、傾きが0度のテンプレートを最も高い優先度に設定し、傾きが±45度のテンプレート画像を高い優先度に設定し、傾きが±90度のテンプレート画像を低い優先度に設定し、傾きが180度のテンプレートを最低の優先度に設定する。また、ユーザーの角度位置αが−90度付近となる領域では、傾きが−90度のテンプレートを最も高い優先度に設定し、傾きが−45度並びに−135度のテンプレート画像を高い優先度に設定し、傾きが0度並びに180度のテンプレート画像を低い優先度に設定し、傾きが90度のテンプレートを最低の優先度に設定する。また、ユーザーの角度位置αが45度付近となる領域では、傾きが45度のテンプレートを最も高い優先度に設定し、傾きが0度並びに90度のテンプレート画像を高い優先度に設定し、傾きが−45度並びに135度のテンプレート画像を低い優先度に設定し、傾きが225度のテンプレートを最低の優先度に設定する(図14を参照のこと)。要するに、カメラ部503の撮影画像上で、ユーザーの角度位置がαの領域では、傾きがαのテンプレートを最も高い優先度に設定し、傾きがθ±45度のテンプレート画像を高い優先度に設定し、傾きがα±90度のテンプレート画像を低い優先度に設定し、傾きがα+180度のテンプレートを最低の優先度に設定する、と一般化することができる。
図15には、画像認識部504内において、カメラ部503の撮像画像からユーザーの顔や手などの物体を検出する物体検出部1500の機能的構成を模式的に示している。
カメラ部503は、情報処理装置100が備える大画面の正面にいるユーザーを撮影し(例えば、図8〜10を参照のこと)、その撮影画像を物体検出部1200に供給する。カメラ部503は、例えば1秒間にN回撮影を行ない、撮影画像を物体検出部1500に出力する。そして、物体検出部1500は、顔や手などの複数のテンプレート画像の各々を、情報処理装置100の使用状態に応じた頻度で用いて、1秒当たりN枚の画像フレームから、ユーザーの顔や手などの物体を検出する。
図15に示すように、物体検出部1500は、使用状態判定部1501と、テンプレート画像保持部1502と、テンプレート画像供給部1503と、パターン・マッチング処理部1504を備えている。
使用状態判定部1501は、情報処理装置100の実際の使用状態を判定する。情報処理装置100の使用状態とは、情報処理装置100本体の大画面をWallすなわち壁掛け状態にしているか(例えば図1、図8を参照のこと)、あるいは、TableTopすなわち平置き状態にしているか(例えば図3A、図9を参照のこと)どうかを意味する。情報処理装置100本体が壁掛け状態の場合、大画面が横置き又は縦置きであるか、すなわちカメラ部503の光軸の(ロール軸回りの)回転位置ψcも使用状態を意味する。また、情報処理装置100本体が平置き状態の場合(例えば、図2A、図10を参照のこと)、ユーザーが大画面を覗き込む方向も使用状態を意味し、覗きこむ方向はカメラ部503の光軸の方向ψcに対するユーザーの角度位置αで表わされる。使用状態判定部1501は、例えば3軸センサー515の出力情報や、カメラ部503の撮影画像の解析結果などに基づいて、使用状態を判定することができる。
テンプレート画像保持部1502は、図11に示したように、人の顔や手などの検出対象となる物体毎の、上下方向の傾きが異なる複数のテンプレート画像を保持している。なお、遠近に応じて撮影画像内での被写体の画像サイズが相違するため、撮影画像を正規化処理するか、又は、上下方向の傾きが同じでサイズの異なるテンプレート画像を用意する必要がある。但し、本明細書では、説明の簡素化のため、撮影画像に含まれるユーザーの顔などの物体の画像の大きさは正規化されているものとして扱う。
テンプレート画像供給部1503は、使用状態判定部1501が判定した情報処理装置100の使用状態に応じて、顔などの特定の検出対象の物体の各テンプレート画像を優先順位付けし、優先順位に応じた頻度でパターン・マッチング処理部1504に供給する。
使用状態判定部1501が、情報処理装置100本体は壁に掛けられ大画面が横置きとなるように配置されていること、すなわち、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下であると判定したとする。この場合、テンプレート画像供給部1503は、図12に示したように、傾きが0度のテンプレートを最も高い優先度、傾きが±45度のテンプレート画像を次に高い優先度、傾きが±90度のテンプレート画像を低い優先度に設定、傾きが180度のテンプレートを最低の優先度に、それぞれ設定する。
また、使用状態判定部1501が、情報処理装置100本体は壁に掛けられ大画面が縦置きとなるように配置されていること、すなわち、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定された使用状態下であると判定したとする。この場合、テンプレート画像供給部1503は、図13に示したように、傾きが90度のテンプレートを最も高い優先度、傾きが45度(並びに135度)のテンプレート画像を次に高い優先度、傾きが0度並びに180度のテンプレート画像を低い優先度に設定、傾きが270度のテンプレートを最低の優先度に、それぞれ設定する。
また、使用状態判定部1501が、情報処理装置100本体は壁から取り外され平置きにされていること、すなわち、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,90°,0)に設定された使用状態下であると判定したとする。この場合、テンプレート画像供給部1503は、図14に示したように、カメラ部503の撮影画像上で、ユーザーの角度位置がαの領域では、傾きがαのテンプレートを最も高い優先度、傾きがθ±45度のテンプレート画像を高い優先度、傾きがα±90度のテンプレート画像を低い優先度、傾きがα+180度のテンプレートを最低の優先度に、それぞれ設定する。
そして、テンプレート画像供給部1503は、各テンプレート画像をそれぞれの優先度に応じた頻度で、各テンプレート画像をそれぞれの優先度に応じた頻度でパターン・マッチング処理部1504に出力する。例えば、最も高い優先度のテンプレート画像を10分の4の頻度、次に高い優先度の各テンプレート画像を10分の2の頻度、低い優先度の各テンプレート画像を10分の1の頻度で出力するとともに、最も優先度の低いテンプレート画像をまったく出力しない。
カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下では、テンプレート画像供給部1503は、例えば図16に示すように、傾きが0度のテンプレートを10回当たり4回、傾きが±45度のテンプレート画像をそれぞれ10回当たり2回、傾きが±90度のテンプレート画像をそれぞれ10回当たり1回の頻度で出力する。
また、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定された使用状態下では、テンプレート画像供給部1503は、例えば図17に示すように、傾きが90度のテンプレートを10回当たり4回、傾きが45度(並びに135度)のテンプレート画像をそれぞれ10回当たり2回、傾きが0度並びに180度のテンプレート画像をそれぞれ10回当たり1回の頻度で出力する。
また、情報処理装置100本体を壁から取り外して平置きにし、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,90°,0)に設定された使用状態下では、テンプレート画像供給部1503は、カメラ部503の撮影画像上で、ユーザーの角度位置αに応じた頻度で、各テンプレート画像を出力する。例えば、図18中でグレーにより示した、ユーザーの角度位置αが−90度となる領域で、顔画像(物体)を検出するときには、傾きが−90度のテンプレートを10回当たり4回、傾きが−45度並びに−135度のテンプレート画像をそれぞれ10回当たり2回、傾きが0度並びに180度のテンプレート画像をそれぞれ10回当たり1回の頻度で出力する。
パターン・マッチング処理部1504には、カメラ部503から例えば1秒間にN回のフレーム・レートで撮影画像が入力される。例えばN=10とする。また、テンプレート画像供給部1503からパターン・マッチング処理部1504には、図16〜図18に示したように、情報処理装置100本体の使用状態に応じた頻度で各テンプレート画像が供給される。パターン・マッチング処理部1504は、カメラ部503から10fpsで入力される撮影画像を、テンプレート画像供給部1503から供給されるテンプレート画像を使ってパターン・マッチングして、顔画像の検出を逐次行なう。
例えば、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,0)に設定された使用状態下では、図19に示すように、撮影画像中の顔画像の傾きは0度付近であることが想定される。したがって、図16に示したように、傾きが0度のテンプレートを10回当たり4回、傾きが±45度のテンプレート画像をそれぞれ10回当たり2回、傾きが±90度のテンプレート画像をそれぞれ10回当たり1回の頻度で使用して、カメラ部503から10fpsで入力される撮影画像に対してパターン・マッチングを行なうと、パターン・マッチング処理部1504は、顔画像を効率的に検出するとともに、処理負荷を軽減することができる。
また、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,0,90°)に設定された使用状態下では、図20に示すように、撮影画像中の顔画像の傾きは90度付近であることが想定される。したがって、図17に示したように、傾きが90度のテンプレートを10回当たり4回、傾きが45度(並びに135度)のテンプレート画像をそれぞれ10回当たり2回、傾きが0度並びに180度のテンプレート画像をそれぞれ10回当たり1回の頻度で使用して、カメラ部503から10fpsで入力される撮影画像に対してパターン・マッチングを行なうと、パターン・マッチング処理部1504は、顔画像を効率的に検出するとともに、処理負荷を軽減することができる。
また、情報処理装置100本体を壁から取り外して平置きにし、カメラ部503の光軸の方向が(φc,θc,ψc)=(0,90°,0)に設定された使用状態下では、例えば図21中に示した撮影画像中のグレーで示す、ユーザーの角度位置αが−90度となる領域で顔検出を行なう際、顔画像の傾きは−90度付近であることが想定される。したがって、図18に示したように、傾きが−90度のテンプレートを10回当たり4回、傾きが−45度並びに−135度のテンプレート画像をそれぞれ10回当たり2回、傾きが0度並びに180度のテンプレート画像をそれぞれ10回当たり1回の頻度で使用して、カメラ部503から10fpsで入力される撮影画像に対してパターン・マッチングを行なうと、パターン・マッチング処理部1504は、顔画像を効率的に検出するとともに、処理負荷を軽減することができる。
画像認識部504は、物体検出部1500における顔画像などの物体検出結果を、入力インターフェース統合部520を介して演算部120に出力する。演算部120では、検出した顔画像に基づいて、顔認識や個人認証、ジェスチャー入力を行なうなど、物体検出結果をさまざまな用途に利用することができる。
図22には、物体検出部1500が撮影画像から所望の物体を検出するための処理手順をフローチャートの形式で示している。
使用状態判定部1501は、例えば3軸センサー515の出力情報や、カメラ部503の撮影画像の解析結果などに基づいて、カメラ部503が撮影する際の情報処理装置100の使用状態を判定する(ステップS2201)。
テンプレート画像供給部1503は、使用状態判定部1501が判定した情報処理装置100の使用状態に応じて、顔などの特定の検出対象の物体の各テンプレート画像を優先順位付けし、優先順位に応じた頻度でパターン・マッチング処理部1504に供給する(ステップS2202)。
パターン・マッチング処理部1504は、カメラ部503から例えば10fpsで入力される撮影画像に対して、テンプレート画像供給部1503から優先順位に応じた頻度で供給されるテンプレート画像とのマッチング処理を行なう(ステップS2203)。
そして、パターン・マッチング処理部1504は、テンプレート画像とマッチングする領域を撮影画像から検出すると(ステップS2204のYes)、その検出結果を演算部120に出力して(ステップS2205)、本処理ルーチンを終了する。
また、パターン・マッチング処理部1504がテンプレート画像とマッチングする領域を撮影画像から検出できないときには(ステップS2204のNo)、ステップS2202に戻り、テンプレート画像供給部1503から次に供給される(傾きの異なる)テンプレート画像を用いて、カメラ部503から入力される撮影画像に対して繰り返しマッチング処理を行なう。
C.使用状態に応じた撮影画像の最適化処理
本実施形態に係る情報処理装置100のように装置本体とカメラが一体となった情報端末の利用形態の1つとして、ユーザーがカメラ部530のレンズを自分自身に向けて被写体とする「自分撮り」が知られている(例えば、特許文献9を参照のこと)。
一般的なカメラでは、ユーザーがレンズを自分自身に向けた状態では、ファインダーが反対側を向くため、構図を確認できないため、意図した通りに撮影するのは難しい。これに対し、本実施形態に係る情報処理装置100のように、カメラ部503の光軸が大画面の光軸と同じ方向を向いている場合には、ユーザーは、大画面に表示されている撮影画像を見て、構図を確認しながら自分撮りすることができる。
上述したように、情報処理装置100本体は、回転・取り付け機構部180によって壁面上で回転可能且つ着脱可能な状態で取り付けられており、大画面が横置きとなる姿勢や縦置きとなる姿勢に回転位置を設定することができる。ユーザーが自分撮りの際に大画面を見て構図を確認することを考慮すると、大画面が横置き及び縦置きのいずれの回転位置においても、カメラ部503による撮影画像の上下方向を揃え、撮影画像内のユーザーの姿を正対して表示する必要がある。
例えば、大画面が横置き姿勢となるように情報処理装置100本体の回転位置を設定した状態では、図23に示すように、カメラ部503による撮影画像の上下方向が正しくなるように表示する必要がある。同様に、大画面が縦置き姿勢となるように情報処理装置100本体の回転位置を設定した状態では、図24に示すように、カメラ部503による撮影画像の上下方向が正しくなるように表示する必要がある。
しかしながら、大画面が縦置き姿勢となるように情報処理装置100本体の回転位置を設定した状態では、カメラ部503の光軸の方向は(φc,θc,ψc)=(0,0,90°)となることから、その撮影画像は図25に示す通りとなる。また、大画面が縦置き姿勢となるように情報処理装置100本体の回転位置を設定した状態では、大画面の光軸も(ロール軸回りに)90度回転して、(φd,θd,ψd)=(0,0,90°)となっている。このため、図25に示した撮影画像を、光軸(φd,θd,ψd)=(0,0,90°)を向く大画面にそのまま表示すると、撮影画像の光軸は(0,0,90+90°)となり、図26に示すように上下方向が真逆になってしまう。
そこで、本実施形態では、ユーザーを自分撮りするカメラ部503の光軸の方向の変位と、カメラ部503が自分撮りした撮影画像を表示する大画面の光軸の方向の変位に基づいて、大画面に表示する撮影画像の上下方向が正しくして、ユーザーの姿を正対表示するように、情報処理装置100内部で撮影画像の表示を最適化するようにしている。
例えば、カメラ部503の光軸がψ軸回りにΔψcだけ変位して(φc,θc,ψc)=(0,0,Δψc)に設定されるとともに、大画面の光軸がψ軸回りにΔψdだけ変位して(φd,θd,ψd)=(0,0,Δψd)に設定される場合には、撮影画像をψ軸回りに−(Δψc+Δψd)だけ回転させて、図27に示すように、その光軸が(φp,θp,ψp)=(0,0,0)に設定された状態で表示されるようにする。
本実施形態のように、情報処理装置100本体とカメラ部503が一体である場合には、Δψc=Δψdが成り立つ。また、図25並びに図26に示した例では、Δψc=Δψd=−90°である。したがって、自分撮りした撮影画像に対して、ψ軸回りに−(Δψc+Δψd)=−180°だけ回転させて、大画面に表示すれば、撮影画像の上下方向が正しくなるように最適化することができる。
自分撮りなどを行なう際のカメラ部の撮影画像の最適化処理は、例えば演算部120内で実行される。図28には、カメラ部503の撮影画像を最適化処理する機能的構成を模式的に示している。
使用状態検出部2801は、カメラ部503で自分撮りなどを行なう際の情報処理装置100の使用状態を検出する。ここで言う使用状態は、具体的には、自分撮りするカメラ部503の光軸の方向(φc,θc,ψc)と、その撮影画像を表示する大画面の光軸の方向(φd,θd,ψd)である。使用状態検出部2801は、例えば3軸センサー515の出力情報や、カメラ部503の撮影画像の解析結果などに基づいて、使用状態を検出することができる。
最適化部2802は、使用状態検出部2801からカメラ部503の光軸の方向(φc,θc,ψc)と大画面の光軸の方向(φd,θd,ψd)を入力すると、カメラ部503の撮影画像を大画面に表示する際に上下方向が正しくなるように最適化処理する。
図29には、カメラ部503の撮影画像を最適化処理するための処理手順をフローチャートの形式で示している。図示の処理手順は、例えば演算部120が所定の画像処理アプリケーションを実行するという形態で実現する。
使用状態検出部2801は、例えば3軸センサー515の出力情報や、カメラ部503の撮影画像の解析結果などに基づいて、情報処理装置100の実際の使用状態を検出する(ステップS2901)。使用状態として、具体的には、カメラ部503の光軸方向(φc,θc,ψc)と、情報処理装置100の大画面の光軸方向(φd,θd,ψd)を検出する。
また、カメラ部503からは撮影画像が入力される(ステップS2902)。
最適化部2802は、使用状態検出部2801からカメラ部503の光軸方向(φc,θc,ψc)と、情報処理装置100の大画面の光軸方向(φd,θd,ψd)を入力すると、撮影画像に対する補正量を算出する(ステップS2903)。
例えば、カメラ部503の光軸がψ軸回りにΔψcだけ変位して(φc,θc,ψc)=(0,0,Δψc)に、大画面の光軸がψ軸回りにΔψdだけ変位して(φd,θd,ψd)=(0,0,Δψd)になっていることが検出された場合には、撮影画像の補正量として、ψ軸回りに−(Δψc+Δψd)を算出する。
そして、最適化部2802は、算出した補正量に基づいて撮影画像を補正する(ステップS2904)。補正後の撮影画像は、大画面に表示される(ステップS2905)。大画面に表示される撮影画像は、図27に示したように、上下方向が正しくなったユーザーの姿を表示するので、ユーザーは正対して観察することができる。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)カメラ部の使用状態を判定する使用状態判定部と、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部と、
を具備し、
前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
画像処理装置。
(2)前記物体検出部は、前記物体の複数のテンプレート画像を備え、前記使用状態に基づいて前記複数のテンプレート画像を優先順位付けし、優先順位に応じた頻度で各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
上記(1)に記載の画像処理装置。
(3)前記使用状態判定部は、前記カメラ部が前記物体を撮影する際の姿勢を判定し、
前記物体検出部は、前記物体の傾きの異なる複数のテンプレート画像を前記カメラ部の前記姿勢に基づいて優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
上記(2)に記載の画像処理装置。
(4)前記使用状態判定部は、前記カメラ部が前記物体を撮影する際の光軸の方向を判定し、
前記物体検出部は、各テンプレート画像を前記判定された光軸の方向に基づいて優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
上記(3)に記載の画像処理装置。
(5)前記使用状態判定部は、前記カメラ部の光軸のロール回りの回転角度を判定し、
前記物体検出部は、前記カメラ部の光軸のロール回りの回転角度に近い傾きを持つテンプレート画像により高い優先順位を付与する、
上記(4)に記載の画像処理装置。
(6)前記物体検出部は、前記撮影画像の領域毎に各テンプレート画像を優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
上記(3)に記載の画像処理装置。
(7)前記カメラ部の光軸が鉛直方向を向いているときに、
前記物体検出部は、前記撮影画像の領域毎に、前記撮像装置の光軸に対する前記領域の角度位置に応じて、各テンプレート画像を優先順位付けする、
上記(6)に記載の画像処理装置。
(8)カメラ部の使用状態を検出する使用状態検出部と、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部と、
を具備する画像処理装置。
(9)前記撮影画像を画面に表示する表示部をさらに備え、
前記最適化部は、ユーザーを撮影した前記撮影画像を前記画面上で前記ユーザーに正対して表示するように最適化する、
上記(8)に記載の画像処理装置。
(10)前記使用状態検出部は、前記カメラ部の光軸の方向と、前記画面の光軸の方向を検出し、
前記最適化部は、前記カメラ部の光軸の方向と前記画面の光軸の方向に基づいて、前記撮影画像を最適化する、
上記(9)に記載の画像処理装置。
(11)前記使用状態検出部は、前記カメラ部の光軸のロール軸回りの回転Δψcと、前記画面の光軸のロール回りの回転Δψdを検出し、
前記最適化部は、前記撮影画像をψ軸回りに−(Δψc+Δψd)だけ回転させる、
上記(9)に記載の画像処理装置。
(12)カメラ部の使用状態を判定する使用状態判定ステップと、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出ステップと、
を有し、
前記物体検出ステップでは、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
画像処理方法。
(13)カメラ部の使用状態を検出する使用状態検出ステップと、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化ステップと、
を有する画像処理方法。
(14)カメラ部と、
前記カメラ部の使用状態を判定する使用状態判定部と、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部と、
を具備し、
前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
撮影装置。
(15)カメラ部と、
前記カメラ部の使用状態を検出する使用状態検出部と、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部と、
を具備する撮影装置。
(16)カメラ部の使用状態を判定する使用状態判定部、
前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
コンピューター・プログラム。
(17)カメラ部の使用状態を検出する使用状態検出部、
前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
特開2010−79332号公報 特開2010−15553号公報 特許第4389956号公報 特開平11−24577号公報 特開2003−157016号公報 特開2011−17738号公報 特開2008−287704号公報 特開2009−105559号公報 特開2011−19051号公報
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、本明細書で開示する技術を適用した情報処理装置100として、大画面を有するTV受像機を想定した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。パーソナル・コンピューター、タブレットやスマートフォンなどの多機能端末を始め、TV受像機以外のさまざまなタイプの情報処理装置に対しても、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
100…情報処理装置
110…入力インターフェース部
120…演算部
130…出力インターフェース部
140…記憶部
150…通信部
160…電源部
170…テレビ・チューナー部
180…回転・取り付け機構部
501…リモコン受信部、502…信号解析部
503…カメラ部、504…画像認識部
505…マイク部、506…音声認識部
507…距離センサー、508…信号解析部
509…タッチ検出部、510…信号解析部
511…近接センサー、512…信号解析部
513…超近距離通信部、514…信号解析部
515…3軸センサー部、516…GPS受信部、517…信号解析部
520…入力インターフェース統合部
601…コンテンツ表示部、602…GUI表示部
603…表示部、604…スピーカー部
1500…物体検出部
1501…使用状態判定部、1502…テンプレート画像保持部
1503…テンプレート画像供給部、1504…パターン・マッチング処理部
2801…使用状態検出部、2802…最適化部

Claims (17)

  1. カメラ部の使用状態を判定する使用状態判定部と、
    前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部と、
    を具備し、
    前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
    画像処理装置。
  2. 前記物体検出部は、前記物体の複数のテンプレート画像を備え、前記使用状態に基づいて前記複数のテンプレート画像を優先順位付けし、優先順位に応じた頻度で各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
    請求項1に記載の画像処理装置。
  3. 前記使用状態判定部は、前記カメラ部が前記物体を撮影する際の姿勢を判定し、
    前記物体検出部は、前記物体の傾きの異なる複数のテンプレート画像を前記カメラ部の前記姿勢に基づいて優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
    請求項2に記載の画像処理装置。
  4. 前記使用状態判定部は、前記カメラ部が前記物体を撮影する際の光軸の方向を判定し、
    前記物体検出部は、各テンプレート画像を前記判定された光軸の方向に基づいて優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
    請求項3に記載の画像処理装置。
  5. 前記使用状態判定部は、前記カメラ部の光軸のロール回りの回転角度を判定し、
    前記物体検出部は、前記カメラ部の光軸のロール回りの回転角度に近い傾きを持つテンプレート画像により高い優先順位を付与する、
    請求項4に記載の画像処理装置。
  6. 前記物体検出部は、前記撮影画像の領域毎に各テンプレート画像を優先順位付けし、優先順位に応じた頻度で傾きの異なる各テンプレート画像を前記撮影画像とパターン・マッチングして前記物体を検出する、
    請求項3に記載の画像処理装置。
  7. 前記カメラ部の光軸が鉛直方向を向いているときに、
    前記物体検出部は、前記撮影画像の領域毎に、前記撮像装置の光軸に対する前記領域の角度位置に応じて、各テンプレート画像を優先順位付けする、
    請求項6に記載の画像処理装置。
  8. カメラ部の使用状態を検出する使用状態検出部と、
    前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部と、
    を具備する画像処理装置。
  9. 前記撮影画像を画面に表示する表示部をさらに備え、
    前記最適化部は、ユーザーを撮影した前記撮影画像を前記画面上で前記ユーザーに正対して表示するように最適化する、
    請求項8に記載の画像処理装置。
  10. 前記使用状態検出部は、前記カメラ部の光軸の方向と、前記画面の光軸の方向を検出し、
    前記最適化部は、前記カメラ部の光軸の方向と前記画面の光軸の方向に基づいて、前記撮影画像を最適化する、
    請求項9に記載の画像処理装置。
  11. 前記使用状態検出部は、前記カメラ部の光軸のロール軸回りの回転Δψcと、前記画面の光軸のロール回りの回転Δψdを検出し、
    前記最適化部は、前記撮影画像をψ軸回りに−(Δψc+Δψd)だけ回転させる、
    請求項9に記載の画像処理装置。
  12. カメラ部の使用状態を判定する使用状態判定ステップと、
    前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出ステップと、
    を有し、
    前記物体検出ステップでは、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
    画像処理方法。
  13. カメラ部の使用状態を検出する使用状態検出ステップと、
    前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化ステップと、
    を有する画像処理方法。
  14. カメラ部と、
    前記カメラ部の使用状態を判定する使用状態判定部と、
    前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部と、
    を具備し、
    前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
    撮影装置。
  15. カメラ部と、
    前記カメラ部の使用状態を検出する使用状態検出部と、
    前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部と、
    を具備する撮影装置。
  16. カメラ部の使用状態を判定する使用状態判定部、
    前記カメラ部による撮影画像から複数の方法で物体を検出する物体検出部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述され、
    前記物体検出部は、前記複数の方法を前記使用状態に基づいて優先順位付けして前記撮影画像から前記物体を検出する、
    コンピューター・プログラム。
  17. カメラ部の使用状態を検出する使用状態検出部、
    前記使用状態に基づいて前記カメラ部の撮影画像を最適化する最適化部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
JP2012252924A 2012-11-19 2012-11-19 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム Active JP6058978B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012252924A JP6058978B2 (ja) 2012-11-19 2012-11-19 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
US14/067,172 US9250698B2 (en) 2012-11-19 2013-10-30 Image processing apparatus, image processing method, image capture apparatus and computer program
CN201310562387.5A CN103826057B (zh) 2012-11-19 2013-11-12 图像处理设备、图像处理方法和图像拍摄设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012252924A JP6058978B2 (ja) 2012-11-19 2012-11-19 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム

Publications (2)

Publication Number Publication Date
JP2014103479A true JP2014103479A (ja) 2014-06-05
JP6058978B2 JP6058978B2 (ja) 2017-01-11

Family

ID=50727451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012252924A Active JP6058978B2 (ja) 2012-11-19 2012-11-19 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム

Country Status (3)

Country Link
US (1) US9250698B2 (ja)
JP (1) JP6058978B2 (ja)
CN (1) CN103826057B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018084170A1 (ja) * 2016-11-07 2019-02-28 Groove X株式会社 人を識別する自律行動型ロボット
WO2019234877A1 (ja) * 2018-06-07 2019-12-12 マクセル株式会社 携帯情報端末
JP2022105601A (ja) * 2018-06-07 2022-07-14 マクセル株式会社 携帯情報端末

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
CN104798129B (zh) * 2012-11-27 2018-10-19 索尼公司 显示装置、显示方法和计算机可读介质
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
WO2015064144A1 (ja) * 2013-10-30 2015-05-07 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
KR20150130808A (ko) * 2014-05-14 2015-11-24 삼성전자주식회사 사용자의 공간 제스처를 식별하는 방법 및 장치
JP2016038889A (ja) 2014-08-08 2016-03-22 リープ モーション, インコーポレーテッドLeap Motion, Inc. モーション感知を伴う拡張現実
KR20160028272A (ko) * 2014-09-03 2016-03-11 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP6332212B2 (ja) * 2015-09-18 2018-05-30 カシオ計算機株式会社 姿勢推定装置、姿勢推定方法及びプログラム
JP6713185B2 (ja) * 2015-10-15 2020-06-24 株式会社日立ハイテク テンプレートマッチングを用いた検査装置および検査方法
CN106020448B (zh) * 2016-05-06 2019-03-29 深圳市国华识别科技开发有限公司 基于智能终端的人机交互方法和系统
KR102383134B1 (ko) * 2017-11-03 2022-04-06 삼성전자주식회사 우선 순위에 기반하여 이미지를 처리하는 전자 장치 및 그 동작 방법
CN108399325A (zh) * 2018-02-01 2018-08-14 广东欧珀移动通信有限公司 解锁控制方法及相关产品
CN111582180B (zh) * 2020-05-09 2023-04-18 浙江大华技术股份有限公司 车牌定位方法、图像处理装置及具有存储功能的装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053925A (ja) * 2006-08-23 2008-03-06 Nikon Corp 撮影装置
JP2010088093A (ja) * 2008-09-05 2010-04-15 Ricoh Co Ltd 撮像装置、撮像方法、プログラムおよび記録媒体

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124577A (ja) 1997-07-04 1999-01-29 Fujitsu General Ltd Pdpの取付け装置
JP2003157016A (ja) 2001-11-20 2003-05-30 Fujitsu General Ltd ディスプレイ回転機構
US7019742B2 (en) * 2003-11-20 2006-03-28 Microsoft Corporation Dynamic 2D imposters of 3D graphic objects
US7535481B2 (en) * 2004-06-28 2009-05-19 Microsoft Corporation Orienting information presented to users located at different sides of a display surface
US7755629B2 (en) * 2004-06-30 2010-07-13 Canon Kabushiki Kaisha Method of rendering graphic objects
JP4389956B2 (ja) 2007-04-04 2009-12-24 ソニー株式会社 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム
JP2008287704A (ja) 2007-04-20 2008-11-27 Panasonic Corp 顔画像検出装置、顔画像検出方法及び撮影装置
JP2009105559A (ja) 2007-10-22 2009-05-14 Nec Saitama Ltd 撮影画像からの認識対象検出処理方法およびカメラ付き携帯型電子機器
US8539357B2 (en) * 2007-11-21 2013-09-17 Qualcomm Incorporated Media preferences
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
JP2010079332A (ja) 2008-09-24 2010-04-08 Mitsubishi Electric Corp 遠隔操作装置及び遠隔操作方法
EP2384465A1 (en) * 2009-01-21 2011-11-09 Thomson Licensing Method to control media with face detection and hot spot motion
WO2011002775A1 (en) * 2009-06-29 2011-01-06 Bosch Security Systems Inc. Omni-directional intelligent autotour and situational aware dome surveillance camera system and method
JP2011017738A (ja) 2009-07-07 2011-01-27 Miyoshi:Kk ディスプレイ支持装置
JP5385032B2 (ja) 2009-07-08 2014-01-08 ソニーモバイルコミュニケーションズ株式会社 撮影装置および撮影制御方法
JP5418093B2 (ja) * 2009-09-11 2014-02-19 ソニー株式会社 表示装置および制御方法
JP5568929B2 (ja) * 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
GB2474536B (en) * 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8457353B2 (en) * 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US20110298722A1 (en) * 2010-06-04 2011-12-08 Smart Technologies Ulc Interactive input system and method
JP5829390B2 (ja) * 2010-09-07 2015-12-09 ソニー株式会社 情報処理装置、および情報処理方法
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
JP2012068713A (ja) * 2010-09-21 2012-04-05 Sony Corp 情報処理装置、および情報処理方法
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
US8577092B2 (en) * 2010-11-11 2013-11-05 Lg Electronics Inc. Multimedia device, multiple image sensors having different types and method for controlling the same
US9239849B2 (en) * 2011-06-08 2016-01-19 Qualcomm Incorporated Mobile device access of location specific images from a remote database
JP2013055424A (ja) * 2011-09-01 2013-03-21 Sony Corp 撮影装置、パターン検出装置、および電子機器
US9393908B2 (en) * 2011-11-01 2016-07-19 Aisin Seiki Kabushiki Kaisha Obstacle alarm device
US9423994B2 (en) * 2012-02-22 2016-08-23 Citrix Systems, Inc. Hierarchical display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053925A (ja) * 2006-08-23 2008-03-06 Nikon Corp 撮影装置
JP2010088093A (ja) * 2008-09-05 2010-04-15 Ricoh Co Ltd 撮像装置、撮像方法、プログラムおよび記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018084170A1 (ja) * 2016-11-07 2019-02-28 Groove X株式会社 人を識別する自律行動型ロボット
WO2019234877A1 (ja) * 2018-06-07 2019-12-12 マクセル株式会社 携帯情報端末
JPWO2019234877A1 (ja) * 2018-06-07 2021-06-03 マクセル株式会社 携帯情報端末
JP7075995B2 (ja) 2018-06-07 2022-05-26 マクセル株式会社 携帯情報端末
JP2022105601A (ja) * 2018-06-07 2022-07-14 マクセル株式会社 携帯情報端末
US11627007B2 (en) 2018-06-07 2023-04-11 Maxell, Ltd. Mobile information terminal
JP7286838B2 (ja) 2018-06-07 2023-06-05 マクセル株式会社 携帯情報端末

Also Published As

Publication number Publication date
JP6058978B2 (ja) 2017-01-11
US9250698B2 (en) 2016-02-02
CN103826057B (zh) 2018-10-23
US20140139425A1 (en) 2014-05-22
CN103826057A (zh) 2014-05-28

Similar Documents

Publication Publication Date Title
JP6058978B2 (ja) 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
US10261589B2 (en) Information processing apparatus, information processing method, and computer program
US20190121458A1 (en) Information Processing Apparatus, Information Processing Method, And Computer Program
US9811910B1 (en) Cloud-based image improvement
JP6257329B2 (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
US20180367732A1 (en) Visual cues for managing image capture
JP5957892B2 (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
US20050104848A1 (en) Image processing device and method
US20130181948A1 (en) Information processing apparatus and information processing method and computer program
JP6200270B2 (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
WO2020020134A1 (zh) 拍摄方法及移动终端
CN102104767A (zh) 具有透视失真校正的脸部姿势改进
TW201441916A (zh) 螢幕旋轉控制方法及系統
US10462358B2 (en) Information processing apparatus, information processing system, and information processing method
JP2017188766A (ja) カメラを備える電子機器、撮影映像の補正方法および記憶媒体
US8537246B2 (en) View angle feedback device and method
JP2019117378A (ja) 電子機器、情報システム、サーバ、及びプログラム
TW201403454A (zh) 顯示畫面旋轉的方法及系統
WO2022037215A1 (zh) 摄像头、显示设备和摄像头控制方法
KR101965310B1 (ko) 단말기, 영상 통화 제어 서버, 및 이를 이용한 영상 통화 시스템 및 방법
JP6093074B2 (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2016018448A (ja) 入力装置およびその制御方法、制御プログラム、並びに入力システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161208

R150 Certificate of patent or registration of utility model

Ref document number: 6058978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250