WO2014103732A1 - 画像処理装置および画像処理方法、並びにプログラム - Google Patents

画像処理装置および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2014103732A1
WO2014103732A1 PCT/JP2013/083297 JP2013083297W WO2014103732A1 WO 2014103732 A1 WO2014103732 A1 WO 2014103732A1 JP 2013083297 W JP2013083297 W JP 2013083297W WO 2014103732 A1 WO2014103732 A1 WO 2014103732A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
line
user
tracking
Prior art date
Application number
PCT/JP2013/083297
Other languages
English (en)
French (fr)
Inventor
大久保 厚志
下村 秀樹
一美 青山
周藤 泰広
章愛 田中
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201380067240.7A priority Critical patent/CN104871525A/zh
Priority to EP13869165.4A priority patent/EP2940985A4/en
Priority to JP2014554311A priority patent/JPWO2014103732A1/ja
Priority to US14/652,519 priority patent/US20150331486A1/en
Publication of WO2014103732A1 publication Critical patent/WO2014103732A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • H04N23/531Constructional details of electronic viewfinders, e.g. rotatable or detachable being rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

 本技術は、使用者が注視する物体の画像を適切に撮像できるようにする画像処理装置および画像処理方法、並びにプログラムに関する。 使用者は、眼鏡型フレーム35からなる撮像装置11を装着し、視線検出部32-1,32-2は、使用者の瞳を撮像して制御部33に供給する。制御部33は、視線検出部32-1,32-2により撮像された使用者の瞳の位置に基づいて視線方向を特定する。撮像機構部34は、撮像した画像を制御部33に供給する。制御部33は、視線方向に特定される注視領域を推定する。さらに、制御部33は、時系列の注視領域より、制御対象となる被写体からなる対象領域を特定する。そして、制御部33は、撮像機構部34の光学系ブロックを制御して、対象領域の中心が合焦するように撮像させる。本技術は、眼鏡型撮像装置に適用することができる。

Description

画像処理装置および画像処理方法、並びにプログラム
 本技術は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、使用者が注視する物体の画像をより適切に撮像、または表示できるようにした画像処理装置および画像処理方法、並びにプログラムに関する。
 画像を撮像、または表示するに当たり、使用者を支援する支援技術が提案されている。
 この支援技術としては、例えば、画像を撮像する際、自動的に画像内の所定の物体に対して、焦点を合わせる技術が提案されている(特許文献1参照)。この他にも、使用者が視聴する画像内における所定の物体が中心となるように画像をズームさせる技術なども提案されている。
特開2012-137600号公報
 しかしながら、上述した技術においては、制御対象となる所定の物体が、使用者の意図した被写体とは異なることがあり、使用者が意図しない制御対象に基づいた画像処理が施された状態で画像が撮像される、または、表示されることがあった。
 本技術はこのような状況に鑑みてなされたものであり、特に、使用者の視線方向を検出することで、使用者が意図する被写体を、画像内における制御対象として的確に捕らえ、捕らえた制御対象に基づいて適切に画像を処理することで、使用者の意図を適切に反映した画像の撮像、および表示を実現するものである。
 本技術の一側面の画像処理装置は、画像に対する使用者の視線方向を検出する視線方向検出部と、前記視線方向検出部により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定部と、前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出部と、前記追跡物体検出部により検出された追跡物体を検索してトラッキングするトラッキング部と、前記トラッキング部によりトラッキングされた前記追跡物体の画像を制御する画像制御部とを含む。
 前記追跡物体検出部には、前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体として、顔画像を検出させるようにすることができる。
 前記追跡物体検出部には、前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体として、特定物体を検出させるようにすることができる。
 前記画像処理装置は、眼鏡型の撮像装置とすることができ、前記眼鏡型の撮像装置を掛けたとき、前記使用者が見ることができる視野からなる画像を撮像する撮像部をさらに含ませるようにすることができ、前記視線方向検出部には、前記眼鏡型の撮像装置を掛けたときに、前記使用者が見ることができる視野からなる画像に対する使用者の視線方向を検出させ、前記画像制御部には、前記トラッキング部によりトラッキングされた前記追跡物体の画像を前記撮像部で最適に撮像できるように制御させるようにすることができる。
 前記画像処理装置には、前記使用者により手持ちで撮像に使用される撮像装置とすることができ、前記画像を撮像する撮像部と、前記撮像部により撮像される画像を覗くビューファインダとをさらに含ませるようにすることができ、前記視線方向検出部には、前記撮像部により撮像された画像に対する、ビューファインダを覗く、前記使用者の視線方向を検出させ、前記画像制御部には、前記トラッキング部によりトラッキングされた前記追跡物体の画像を前記撮像部で最適に撮像できるように制御させるようにすることができる。
 画像を再生する再生部と、前記再生部により再生された画像を処理して表示部に表示させる画像処理部とをさらに含ませるようにすることができ、前記視線方向検出部には、前記表示部に表示された画像を前記使用者が視聴するときの、前記使用者の視線方向を検出させ、前記画像処理部には、前記トラッキング部によりトラッキングされた前記追跡物体の画像を最適に表示できるように前記再生部により再生された画像を処理して前記表示部に表示させるようにすることができる。
 前記視線方向検出部は、前記眼鏡型の装置とすることができ、前記眼鏡型の装置を掛けたときに、前記使用者が見ることができる視野からなる画像に対する使用者の視線方向を検出させるようにすることができる。
 本技術の一側面の画像処理方法は、画像に対する使用者の視線方向を検出する視線方向検出処理をし、前記視線方向検出処理により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定処理をし、前記推定処理により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出処理をし、前記追跡物体検出処理により検出された追跡物体を検索してトラッキングするトラッキング処理をし、前記トラッキング処理によりトラッキングされた前記追跡物体の画像を制御する画像制御処理をするステップを含む。
 本技術の一側面のプログラムは、画像に対する使用者の視線方向を検出する視線方向検出ステップと、前記視線方向検出ステップの処理により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定ステップと、前記推定ステップの処理により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出ステップと、前記追跡物体検出ステップの処理により検出された追跡物体を検索してトラッキングするトラッキングステップと、前記トラッキングステップの処理によりトラッキングされた前記追跡物体の画像を制御する画像制御ステップとを含む処理をコンピュータに実行させる。
 本技術の一側面においては、画像に対する使用者の視線方向が検出され、検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域が推定され、推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体が検出され、検出された追跡物体が検索されてトラッキングされ、トラッキングされた前記追跡物体の画像が制御される。
 本技術の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
 本技術の一側面によれば、使用者が意図する被写体を適切に選択し、画像内における制御対象として、画像を処理することで、使用者の意図を適切に反映した画像の撮像、および表示を実現することが可能となる。
本技術を適用した撮像装置の第1の実施の形態の外観構成例を示す図である。 図1の撮像装置の構成例を説明する機能ブロック図である。 図1,図2の撮像装置によるトラッキング撮像処理を説明するフローチャートである。 図1,図2の撮像装置によるトラッキング撮像処理を説明する図である。 図1の撮像装置の変形例となる構成例を示す外観図である。 本技術を適用した再生処理システムの第2の実施の形態の構成例を示す外観図である。 図6の再生処理システムを構成する各装置の構成例を説明する機能ブロック図である。 図6,図7の再生処理システムによるトラッキング再生処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
 以下、発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1. 第1の実施の形態(眼鏡型の撮像装置を用いた一例)
2. 変形例(通常の撮像装置を用いたときの一例)
3. 第2の実施の形態(再生装置を用いたときの一例)
<1.第1の実施の形態>
<撮像装置の構成例>
 図1は、本技術を適用した撮像装置の外観構成例を示す図である。また、図2は、本技術を適用した撮像装置を実現するための機能を示す機能ブロック図である。図1の撮像装置は、眼鏡型の撮像装置であり、使用者は、眼鏡を掛けるようにして装着すると、装着した眼鏡越しに見える視界の画像を撮像する。この際、図1の撮像装置は、使用者の視線方向を検出することで、使用者の画像内における注視領域を推定し、推定した注視領域の情報から、使用者が注視している被写体を制御対象として特定し、特定した制御対象となる被写体をトラッキングしながら焦点を合わせて画像を撮像する。
 より詳細には、図1の撮像装置11は、透過型ディスプレイ31-1,31-2、視線検出部32-1,32-2、制御部33、撮像機構部34、および眼鏡型フレーム35より構成されている。尚、透過型ディスプレイ31-1,31-2、および視線検出部32-1,32-2について、特に区別する必要が無い場合、単に、透過型ディスプレイ31、および、視線検出部32と称するものとし、その他の構成についても同様に称するものとする。
 透過型ディスプレイ31は、通常の眼鏡型フレーム35における眼鏡レンズに代えて設けられた構成であり、例えば、有機EL(Electro-Luminescence)などで構成されており、動作の全体が制御部33により制御されている。透過型ディスプレイ31は、使用者が眼鏡型の撮像装置11を、眼鏡を掛ける場合と同様の要領で使用することにより、使用者は、透過型ディスプレイ31を透過する光、すなわち、透過型ディスプレイ31を透過する景色を見ることができる。また、透過型ディスプレイ31は、視線検出部32により検出される視線方向に基づいて、使用者が注視する注視領域を示す注視枠を表示する。このように注視枠が表示されることにより、使用者は、透過して視聴できる景色と対応して、視聴できる景色のうち、どの領域が注視領域となっているのかを認識することができる。さらに、透過型ディスプレイ31は、時系列に検出される注視領域に基づいて、特定される使用者が注視している被写体となる対象物体からなり、制御対象として特定された物体が存在する領域について対象枠を表示する。このように制御対象となる被写体として特定された物体の存在する領域を示す対象枠が表示されることにより、使用者は、透過して視聴できる景色と対応して、視聴できる景色のうち、どの領域が制御対象として特定された被写体であるのかを認識することができる。すなわち、透過型ディスプレイ31は、原則的に注視枠、または対象枠を表示するが、その他の領域については透明なままである。
 視線検出部32は、使用者が眼鏡型フレーム35を、眼鏡を使用するように掛けたとき、使用者の目の瞳孔の位置を撮像できる撮像装置であり、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)より構成される。視線検出部32は、例えば、視線方向を認識するために必要となる瞳孔の位置の動きが捕らえられた視線画像を制御部33に供給する。
 撮像機構部34は、眼鏡型フレーム35における左右の透過型ディスプレイ31-1,31-2の間であって、装着する使用者に対して対向する方向を撮像するように設けられている。撮像機構部34は、撮像した画像を制御部33に供給する。また、撮像機構部34により撮像される画像の画角は、使用者が眼鏡型の撮像装置11を装着したとき、透過型ディスプレイ32-1,32-2越しに見える視野と同様である。従って、使用者は、この撮像装置11を装着する場合、透過型ディスプレイ31-1,31-2越しの視野そのものを視聴することで、撮像機構部34により撮像される画像をモニタすることができる。
 さらに、制御部33は、図2で示されるように、視線認識部51、注視領域推定部52、注視領域特定部53、制御対象検出部54、制御対象トラッキング部55、および光学系ブロック制御部56を備えている。また、撮像機構部34は、絞り、および各種のレンズからなる光学系ブロック71、並びに、CCDやCMOSなどからなる撮像部72を備えている。
 また、視線認識部51は、視線検出部32-1,32-2より供給されてくる使用者の瞳孔の位置を示す視線画像を取得して、視線方向を認識し、視線方向の情報を注視領域推定部52に供給する。
 より詳細には、視線認識部51は、視線移動時系列パターン解析部61を備えており、時系列の視線画像に基づいて、視線方向の移動パターンを時系列に解析し、解析結果である視線方向の移動パターンの情報と、視線方向の情報とを注視領域推定部52に供給する。
 視線方向の時系列のパターンには、複数のパターンがあり、例えば、固視(fixation)、滑動性追従運動(pursuit)、および衝動性眼球運動(saccade)などがある。ここで、固視とは、眼球が動かずじっとしている状態を示すパターンである。また、滑動性追従運動とは、視覚対象物が動いているとき、眼球がその動きを追従してゆっくり動き、注視を続けるパターンである。さらに、衝動性眼球運動は、素早く視線を切り替える視線方向のパターンである。
 これらのパターンのうち、固視、および滑動性追従運動からなるパターンは、使用者が自らの目で自らが興味を持った被写体を注視している時系列パターンであるものと見なされている。そこで、注視領域推定部52は、この視線方向の時系列のパターンが固視、または滑動性追従運動である場合、そのときに対象物を注視しているものとみなし、そのときの視線方向に基づいて注視領域を推定する。
 より詳細には、注視領域推定部52は、視線方向の移動パターンが固視、または滑動性追従運動である場合、視線認識部51より供給されてくる視線方向の情報に基づいて、撮像機構部34のうち、CCDやCMOSなどから構成されている撮像部72により撮像された視線画像により、注視領域を推定し、推定結果となる注視領域の情報を注視領域特定部53に供給する。
 注視領域特定部53は、注視領域推定部52により供給されてくる推定結果である注視領域の情報に基づいて、注視領域を特定し、特定した注視領域の位置を示す情報を制御対象検出部54、および枠表示制御部57に供給する。
 制御対象検出部54は、注視領域として特定された情報に基づいて、画像内における制御対象となる被写体の存在する領域を検出し、制御対象となる被写体の存在する領域からなる画像を制御対象トラッキング部55に供給する。
 制御対象トラッキング部55は、画像内における制御対象となる被写体の存在する領域の情報を、撮像機構部34の撮像部72により撮像された画像内から時系列に検索することによりトラッキングする。そして、制御対象トラッキング部55は、トラッキングしている制御対象となる画像内の物体の領域の位置を示す情報を光学系ブロック制御部56、および枠表示制御部57に供給する。
 光学系ブロック制御部56は、制御対象となる画像内の被写体に焦点が合うように、撮像機構部34に設けられている光学系ブロック71を制御して、制御対象となる画像内の被写体に合焦した状態で撮像部72により画像が撮像されるように制御する。
 枠表示制御部57は、注視領域特定部53より供給されてくる注視領域の情報、および撮像部72により撮像された画像に基づいて、透過型ディスプレイ31を制御して、注視領域に対応する透過型ディスプレイ上の位置に点線からなる矩形状の注視枠を表示する。また、枠表示制御部57は、制御対象トラッキング部55より制御対象となる画像内の被写体の位置の情報、および撮像部72により撮像された画像に基づいて、透過型ディスプレイ31を制御して、制御対象となる被写体の存在する位置に対応する透過型ディスプレイ31上の位置に実線からなる矩形状の対象枠を表示する。
 記憶部58は、例えば、半導体メモリなどからなり、撮像機構部34の撮像部72により撮像された画像のデータを所定の圧縮形式で圧縮すると共に、記憶する。また、記憶部58は、必要に応じて、記憶した画像のデータを読み出して図示せぬ表示部等に表示する。
<図1,図2の撮像装置によるトラッキング撮像処理>
 次に、図3のフローチャートを参照して、図1,図2の撮像装置11によるトラッキング撮像処理について説明する。
 ステップS11において、撮像機構部34は、撮像部72を制御して、光学系ブロック71を介して入射する光により構成される画像を撮像し、撮像した画像を順次記憶部58に記憶させると共に、注視領域推定部52、制御対象トラッキング部55、および枠表示制御部57に供給する。この際、撮像された画像は、所定の圧縮方式で圧縮されて記憶部58に記憶される。
 ステップS12において、枠表示制御部57は、制御対象トラッキング部55より制御対象となる被写体の画像が存在する画像内における領域の情報が供給されてきているか否かに基づいて、制御対象がトラッキングされているか否かを判定する。ステップS12において、制御対象となる被写体の画像がトラッキングされていないと見なされた場合、処理は、ステップS13に進む。
 ステップS13において、視線検出部32-1,32-2は、それぞれ眼鏡型フレーム35を装着している使用者の左右の目の瞳の位置を示す視線画像を撮像し、撮像した視線画像を順次視線認識部51に供給する。
 ステップS14において、視線認識部51は、視線移動時系列パターン解析部61を制御して、時系列の視線画像に基づいて、視線方向の移動パターンを解析させ、視線方向の時系列の情報、および視線の移動パターンの解析結果を注視領域推定部52に供給させる。
 ステップS15において、注視領域推定部52は、視線移動のパターンが、固視、または滑動性追従運動であるか否か、すなわち、使用者が特定の被写体を注視しているか否かを判定する。ステップS15において、例えば、固視、または、滑動性追従運動であると認められた場合、使用者が特定の被写体を注視しているものとみなし、処理は、ステップS16に進む。
 ステップS16において、注視領域推定部52は、視線方向の情報に基づいて、撮像機構部34の撮像部72により撮像された画像内における注視領域を構成する中心位置を推定し、推定結果である注視領域の中心位置の情報を注視領域特定部53に供給する。
 ステップS17において、注視領域特定部53は、注視領域推定部52より供給されてくる注視領域の中心位置に基づいて、撮像部72により撮像される画像における矩形状の注視領域を特定し、制御対象検出部54、および枠表示制御部57に供給する。この処理に応じて、枠表示制御部57は、透過型ディスプレイ31上で、使用者が透過型ディスプレイ31を透過して目視する可能な範囲内において、特定された注視領域に対応する領域を囲むように、点線からなる注視枠を、所定時間だけ表示させる。
 ステップS18において、制御対象検出部54は、直近の所定数の注視領域の情報に基づいて、制御対象となる被写体、すなわち、使用者が興味を持って視線を送る被写体を検出する。制御対象検出部54は、例えば、図4の上段で示されるように、現在の時刻T=0乃至-4における各タイミングにおける撮像部72により撮像される画像P0乃至P4、および、それぞれの注視領域E0乃至E4の画像に基づいて、制御対象となる被写体の存在する領域Tを求める。尚、画像P0乃至P4は、時系列に撮像部72により撮像された画像であると同時に、使用者が眼鏡型フレーム35を装着し、透過型ディスプレイ31を介して視認される景色である。また、各注視領域E0乃至E4におけるC0乃至C4は、視線方向に基づいて推定された注視領域の中心位置である。したがって、注視領域E0乃至E4は、視線方向の位置C0乃至C4を中心として特定された矩形領域である。
 また、この注視領域E0乃至E4は、所定時間だけ透過型ディスプレイ31上に表示されることにより、使用者の視野内において、透過型ディスプレイ31を介して見える景色に対応して注視枠として視認されるものである。従って、以降においては、注視領域E0乃至E4を囲む点線の枠については、注視枠E0乃至E4とも称する。すなわち、図4の上段における画像P0乃至P4おいては、二人の人物が図中の右方向に走っている画像が示されているが、使用者には、その画像のうち、二人の人物が走っている姿と、その背景とが、透過型ディスプレイ31を透過した光により視認できる景色となる。また、この視認できる景色が、撮像部72により撮像される画像そのものとなる。そして、使用者の視線方向の情報に基づいて、透過型ディスプレイ31上に点線からなる注視枠E0乃至E4が表示されることにより、使用者は、注視枠E0乃至E4を景色に重ね合わせて注視している被写体の存在する領域として視認することができる。
 さらに、制御対象検出部54は、図4の中段部で示されるように、画像P0乃至P4から注視枠E0乃至E4で示される領域の画像を抽出し、図4の下段で示されるように、それぞれの同一部分を重ね合わせるようにして制御対象となる被写体が存在する領域、すなわち対象領域Tを検出する。このとき、制御対象検出部54は、注視枠E0乃至E4で示される領域の画像の同一部分を重ね合わせるようにして、制御対象となる被写体として、例えば、顔画像や車輌の画像などの特定物体を検出することにより、制御対象となる被写体の存在する領域を対象領域として検出する。
 ステップS19において、制御対象検出部54は、制御対象となる被写体が存在する対象領域が検出できたか否かを判定する。より詳細には、制御対象検出部54は、直近の所定数の画像より抽出される注視枠が重ね合わされる領域の面積が、対象領域Tとして設定されている大きさに対して所定の割合より大きな面積よりも小さければ、直近の複数の画像における注視枠で設定される領域が定まっている、すなわち、使用者の視線方向が制御対象となる被写体に定まっているものとみなし、対象領域が検出されているものとみなされる。
 ステップS19において、例えば、対象領域が検出されている、すなわち、使用者の視線方向が制御対象となる被写体に定まっているものとみなされた場合、処理は、ステップS20に進む。
 ステップS20において、制御対象検出部54は、検出した対象領域の画像情報を制御対象トラッキング部55に供給する。制御対象トラッキング部55は、対象領域の画像情報を取得すると共に、撮像部72より供給されてきた画像内より、対象領域の画像を検索する。そして、制御対象トラッキング部55は、対象領域の画像を検索することでトラッキングし、トラッキング結果となる対象領域の画像が検索された、画像内の領域を示す情報を光学系ブロック制御部56、および枠表示制御部57に供給する。
 ステップS21において、枠表示制御部57は、トラッキングされた対象枠の画像が検索された領域の情報に基づいて、透過型ディスプレイ31上にトラッキングされた対象枠の画像が検索された領域を囲むような実線からなる対象枠を所定時間だけ表示する。尚、対象領域Tを囲む実線の対象枠については、以降において対象枠Tとも称するものとする。すなわち、図4の場合、時刻T=0である現在の画像P0上に、対象枠Tが表示される。図4の上段においては、画像P0内の2人の右方向に走っている人物のうち、左側の人物を取り囲むように対象枠Tが表示されている。このように表示されることにより、今現在、使用者は、2人の走っている人物のうち、左側に存在する人物に興味を持って視線を送っていることを認識することが可能となる。
 ステップS22において、光学系ブロック制御部56は、撮像機構部34の光学系ブロック71を制御して、撮像される画像のうち、制御対象がトラッキングされた画像内の中心付近に合焦するように焦点を調整するように制御する。すなわち、図4の場合、対象枠Tがトラッキングされることにより、対象枠Tの中心位置T’に合焦されるように、光学系ブロック71が制御されることになり、対象枠T内の被写体に焦点があった画像を撮像することが可能となる。
 ステップS23において、図示せぬ操作部が操作されて動作の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS11に戻り、それ以降の処理が繰り返される。そして、ステップS23において、終了が指示された場合、処理は、終了する。
 一方、ステップS12において、制御対象がトラッキングされているとみなされた場合、ステップS13乃至S18の処理がスキップされて、処理は、ステップS19に進む。すなわち、制御対象がトラッキングされているということは、既に、使用者が興味を持って視線を向けている制御対象となる被写体が検出されて、焦点を調節することが可能な状態であるので、注視領域などを特定するための処理は不要となるため、ステップS13乃至S18の処理がスキップされる。
 また、ステップS15において、視線移動のパターンが固視、または滑動性追従運動ではない場合、または、ステップS19において、制御対象が検出されない場合、制御対象が検索できないとみなして、処理は、ステップS23に進む。
 以上の処理により、使用者は、自ら焦点を合わせたい制御対象となる被写体に対して視線方向を向けるだけで、焦点を合わせて、撮像することが可能となる。特に、図1,図2で示されるような眼鏡型の撮像装置11であるような場合、制御対象となる被写体を特定するための操作等をするための構成を設けるようにしても、操作し易い位置に操作部等を設けることが困難である。また、操作性を優先して操作部を設けるようにすることで、デザイン性を損なう恐れもある。そこで、このように特別な操作部を設けることなく、視線方向で合焦位置を変えられるようにすることで、操作性、およびデザイン性を低減させることなく、使用者の意図に合った合焦位置で画像を撮像することが可能となる。
 また、以上においては、使用者が興味を持つ制御対象を視線方向から特定し、特定した制御対象となる被写体が存在する位置が、合焦されるように光学系ブロックを制御する例について説明してきたが、検索された制御対象となる被写体の存在する領域に基づいて、その他の撮像制御をしてもよく、例えば、制御対象となる被写体の存在する領域をズームアップするように光学系ブロックを制御してもよい。
<2.変形例>
<撮像装置のその他の構成例>
 以上においては、眼鏡型の撮像装置を用いた例について説明してきたが、当然のことながら、一般的に使用されている手持ちの撮像装置に対して応用するようにしても同様の効果を奏するものである。
 すなわち、図5で示されるように、手持ちの撮像装置101は、LCDや有機ELなどからなる表示部131、視線検出部32と同様の機能からなる視線検出部132、制御部33と略同様の機能を備えた本体133、および撮像機構部34と同様の撮像機構部134より構成される。
 尚、図5においては、図中の右側が撮像機構部134を正面とした正面外観図であり、図中の左部が、図中右側の背面からなる背面外観図である。表示部131は、撮像機構部134により撮像された画像に、透過型ディスプレイ31により表示される注視枠、および対象枠の画像が合成された画像を表示する。また、覗き窓131’には、表示部131に表示される画像と同様の画像が、使用者が覗き見ることで視聴可能な小型の画像として表示される。表示部131は、点線Xで示される位置を軸として矢印方向に回動することが可能とされており、表示部131が本体133側に収納された状態では、表示部131の表示は停止された状態となる。
 しかしながら、覗き窓131’は、いわゆるビューファインダと呼ばれるものであり、小型のLCDまたは有機ELが設けられており、表示部131で表示される画像と同様の画像が表示されるものである。このため、使用者が右眼、または左眼で覗き窓131’を覗き込むことにより、表示部131で表示される画像と同一の画像を視聴することができる。また、この覗き窓131’には、その内側から使用者の視線方向を認識するための瞳の位置を示す視線画像を撮像する視線検出部132が設けられている。このため、使用者は、この覗き窓131’を覗きながら撮像処理を実行させると、図1,図2における撮像装置11と同様に、視線方向に基づいて注視領域が推定されて注視枠が表示された後、さらに、制御対象となる被写体が特定されて対象枠が表示される。さらに、対象枠の領域に対応する画像内の位置に存在する被写体に合焦するように、図示せぬ光学系ブロックが制御される。
 結果として、手持ち型の図5で示されるような撮像装置101においても、図1,図2で示される撮像装置11と同様の作用効果を奏することが可能となる。
 尚、図5の撮像装置101においては、基本的な機能については、図1,図2の撮像装置11と同様であるので、ブロック図については省略するものとする。また、図5の撮像装置101によるトラッキング撮像処理についても、図3のフローチャートを参照して説明した処理と略同様であるので、その説明については省略するものとする。
<3.第2の実施の形態>
<再生システムの構成例>
 以上においては、撮像装置によりトラッキング撮像処理をすることで、使用者が所望とする被写体に視線方向を変えるだけで制御対象となる被写体が特定されて、特定された被写体を示す対象枠が表示されると共に、撮像される画像内における対象枠の中心付近に合焦するように光学ブロックが制御された状態で画像を撮像することができる例について説明してきた。しかしながら、視線方向に基づいて、使用者が興味を示す対象物をトラッキングすることができるので、同様の手法により、再生処理において、再生されている画像内から使用者が興味を示す制御対象となる被写体を検索し、検索された制御対象となる被写体をトラッキングして、適切な画像処理を施して表示するようにしてもよい。
 図6は、再生処理において、使用者が興味を持つ制御対象となる被写体が存在する対象領域の中心としてズームアップした画像を生成して表示するようにした再生処理システムを示している。また、図7は、図6の再生処理システムを構成する各装置を実現させるための機能を示すための機能ブロック図である。
 図6の再生処理システムは、眼鏡型視線検出装置201、再生装置202、および表示部203より構成されている。
 眼鏡型視線検出装置201は、外観は図1の眼鏡型の撮像装置11と類似したものであるが、さらに、対象領域の情報を再生装置202に送信する機能を備えている。再生装置202は、眼鏡型視線検出装置201より送信されてきた対象領域の情報に基づいて、再生する画像における、対象領域を検索し、検索された対象領域の中心位置を中心として画像を所定の倍率だけズームアップした画像を生成して表示部203に表示させる。
 尚、透過型ディスプレイ231-1,231-2、視線検出部232-1,232-2、制御部233、および撮像機構部234は、それぞれ撮像装置11の透過型ディスプレイ31-1,31-2、視線検出部32-1,32-2、制御部33、および撮像機構部34に対応するものであり、基本的に同様の機能を備えたものであるので、その説明は省略するものとする。ただし、制御部233においては、撮像部72により撮像される画像内における表示部203の表示位置を検出する表示位置検出部251、および対象領域の情報を再生装置202に送信する通信部252が新たに設けられている。また、ここでは、撮像機構部234により撮像される画像は、制御対象となる被写体の存在する対象領域を特定するために使用される以外に使用されることはなく、撮像された画像は基本的に記録されないものとする。
 再生装置202は、再生が指示された画像を再生して、表示部203に表示する。より詳細には、再生装置202は、記憶部271、再生部272、画像処理部273、および通信部274を備えている。記憶部271は、再生すべき画像データを記憶しており、必要に応じて再生部272に供給する。再生部272は、記憶部271より読み出した画像データに基づいて、画像を再生し、再生した画像の情報を画像処理部273に供給する。画像処理部273は、再生部272より供給されてくる画像のうち、通信部274を介して眼鏡型視線検出装置201からの表示部203の表示位置の情報、および対象領域の中心位置に基づいて、対象領域の中心位置を基準として、所定の倍率で拡大した画像を生成して表示部203に表示させる。
<図6,図7の再生処理システムによるトラッキング再生処理>
 次に、図8のフローチャートを参照して、図6,図7の再生処理システムによるトラッキング再生処理について説明する。尚、図8のフローチャートにおけるステップS41乃至S52,S55の処理は、図3のフローチャートにおけるステップS11乃至S23の処理と同様であるので、その説明は省略するものとする。また、基本的には、再生装置202に対して、図示せぬ操作部等により何らかの画像データの再生指示がなされており、ステップS71の処理により、再生装置202により画像データの再生がなされ、表示部203に再生された画像が表示される処理が最初に実行される。
 すなわち、ステップS71において、再生部272は、記憶部271に記憶されている画像データのうち、図示せぬ操作部等により指定された画像データを読み出して、画像を再生し画像処理部273に供給する。画像処理部273は、再生部272より供給されてくる画像を、そのまま表示部203に表示させる。
 そして、ステップS41乃至S52の処理により、対象領域が特定されると、ステップS53において、表示位置検出部251は、撮像部72により撮像された画像より、表示部203の表示面の位置を検出し、通信部252に供給する。さらに、ステップS54において、通信部252は、表示部203の表示位置の情報、および制御対象トラッキング部55より供給されてきた対象領域の情報を再生装置202に送信する。
 ステップS72において、通信部274は、眼鏡型視線検出装置201より対象領域の情報が送信されてきたか否かを判定する。ステップS72において、眼鏡型視線検出装置201より対象領域の情報が送信されていない場合、処理は、ステップS75に進み、処理の終了が指示されているか、または再生が終了していないか否かが判定される。ステップS75において、処理の終了が指示されていない、および再生が終了していない場合、処理は、ステップS72に戻る。また、ステップS75において、処理の終了が指示されている、または再生が終了している場合、処理は終了する。
 一方、ステップS72において、例えば、ステップS54の処理により、対象領域の情報が送信されてきた場合、処理は、ステップS73に進む。
 ステップS73において、通信部274は、眼鏡型視線検出装置201より供給されてくる、撮像部72により撮像された表示部203の表示位置、および、対象領域の情報を取得して画像処理部273に供給する。
 ステップS74において、画像処理部273は、撮像部72により撮像される画像内における表示部203の表示位置と、対象領域の情報に基づいて、表示部203で表示されている画像内で、使用者の視線方向として特定された対象領域とされる位置を特定する。さらに、画像処理部273は、表示部203で表示される画像内において、対象領域として特定された領域を中心として、所定の倍率に再生画像をズームアップさせ、表示部203に表示させる。
 以上の処理により、使用者は、眼鏡型視線検出装置201を装着して、再生される画像を視聴して、自らの興味を持った被写体に対して視線を向けるだけで、興味を持った被写体付近の領域が注視領域として推定され、さらに、注視領域として設定された画像の情報から興味を持った被写体の領域が対象領域として設定される。結果として、対象領域を中心として、所定の倍率でズームアップした画像を視聴することが可能となるので、使用者は、興味を持った被写体を見ているだけで、その被写体を中心としたズームアップ画像を再生画像として視聴することが可能となる。尚、以上においては、対象領域の画像がズームアップされる例について説明してきたが、対象領域に対しては、その他の画像処理を施すようにしてもよく、例えば、対象領域の画像の解像度を高めたり、逆に、低くしたりするようにしてもよい。
 また、以上の例においては、眼鏡型視線検出装置201を用いる例について説明してきたが、別途、使用者の瞳の位置を特定する撮像装置を、例えば、表示部203の上部などの位置であって、表示部203を視聴する使用者に対向する向きに設けるようにして、撮像される画像から使用者の視線方向を特定して同様の処理を実現するようにしてもよい。さらに、注視枠、および対象枠の表示については、透過型ディスプレイ231に表示するのではなく、再生画像に合成して、表示部203で表示するようにさせてもよい。
 以上の如く、本技術によれば、使用者が注視する物体の画像をより適切に撮像、または表示することが可能となる。
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
 図9は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
 入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
 CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本技術は、以下のような構成も取ることができる。
(1) 画像に対する使用者の視線方向を検出する視線方向検出部と、
 前記視線方向検出部により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定部と、
 前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出部と、
 前記追跡物体検出部により検出された追跡物体を検索してトラッキングするトラッキング部と、
 前記トラッキング部によりトラッキングされた前記追跡物体の画像を制御する画像制御部と
 を含む画像処理装置。
(2) 前記追跡物体検出部は、前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体として、顔画像を検出する
 (1)に記載の画像処理装置。
(3) 前記追跡物体検出部は、前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体として、特定物体を検出する
 (1)または(2)に記載の画像処理装置。
(4) 前記画像処理装置は、眼鏡型の撮像装置であり、
 前記眼鏡型の撮像装置を掛けたとき、前記使用者が見ることができる視野からなる画像を撮像する撮像部をさらに含み、
 前記視線方向検出部は、前記眼鏡型の撮像装置を掛けたときに、前記使用者が見ることができる視野からなる画像に対する使用者の視線方向を検出し、
 前記画像制御部は、前記トラッキング部によりトラッキングされた前記追跡物体の画像を前記撮像部で最適に撮像できるように制御する
 (1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記画像処理装置は、前記使用者により手持ちで撮像に使用される撮像装置であり、
 前記画像を撮像する撮像部と、
 前記撮像部により撮像される画像を覗くビューファインダとをさらに含み、
 前記視線方向検出部は、前記撮像部により撮像された画像に対する、ビューファインダを覗く、前記使用者の視線方向を検出し、
 前記画像制御部は、前記トラッキング部によりトラッキングされた前記追跡物体の画像を前記撮像部で最適に撮像できるように制御する
 (1)乃至(3)のいずれかに記載の画像処理装置。
(6) 画像を再生する再生部と、
 前記再生部により再生された画像を処理して表示部に表示させる画像処理部とをさらに含み、
 前記視線方向検出部は、前記表示部に表示された画像を前記使用者が視聴するときの、前記使用者の視線方向を検出し、
 前記画像処理部は、前記トラッキング部によりトラッキングされた前記追跡物体の画像を最適に表示できるように前記再生部により再生された画像を処理して前記表示部に表示させる
 (1)に記載の画像処理装置。
(7) 前記視線方向検出部は、前記眼鏡型の装置からなり、前記眼鏡型の装置を掛けたときに、前記使用者が前記表示部を見ることができる視野からなる画像に対する使用者の視線方向を検出する
 (6)に記載の画像処理装置。
(8) 画像に対する使用者の視線方向を検出する視線方向検出処理をし、
 前記視線方向検出処理により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定処理をし、
 前記推定処理により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出処理をし、
 前記追跡物体検出処理により検出された追跡物体を検索してトラッキングするトラッキング処理をし、
 前記トラッキング処理によりトラッキングされた前記追跡物体の画像を制御する画像制御処理をする
 ステップを含む画像処理方法。
(9) 画像に対する使用者の視線方向を検出する視線方向検出ステップと、
 前記視線方向検出ステップの処理により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定ステップと、
 前記推定ステップの処理により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出ステップと、
 前記追跡物体検出ステップの処理により検出された追跡物体を検索してトラッキングするトラッキングステップと、
 前記トラッキングステップの処理によりトラッキングされた前記追跡物体の画像を制御する画像制御ステップと
 を含む処理をコンピュータに実行させるためのプログラム。
 11 撮像装置, 31,31-1,31-2 透過型ディスプレイ, 32,32-1,32-2 視線検出部, 33 制御部, 34 撮像機構部, 51 視線認識部, 52 注視領域推定部, 53 注意領域特定部, 54 制御対象検検出部, 55 制御対象トラッキング部, 56 光学系ブロック制御部, 57 枠表示制御部, 58 記憶部, 61 視線移動時系列パターン解析部, 71 光学系ブロック, 72 撮像部, 201 眼鏡型視線検出装置, 202 再生装置, 203 表示部, 231,231-1,231-2 透過型ディスプレイ, 232,232-1,232-2 視線検出部, 233 制御部, 234 撮像機構部, 251 表示位置検出部, 252 通信部, 271 記憶部, 272 再生部, 273 画像処理部, 274 通信部

Claims (9)

  1.  画像に対する使用者の視線方向を検出する視線方向検出部と、
     前記視線方向検出部により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定部と、
     前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出部と、
     前記追跡物体検出部により検出された追跡物体を検索してトラッキングするトラッキング部と、
     前記トラッキング部によりトラッキングされた前記追跡物体の画像を制御する画像制御部と
     を含む画像処理装置。
  2.  前記追跡物体検出部は、前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体として、顔画像を検出する
     請求項1に記載の画像処理装置。
  3.  前記追跡物体検出部は、前記推定部により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体として、特定物体を検出する
     請求項1に記載の画像処理装置。
  4.  前記画像処理装置は、眼鏡型の撮像装置であり、
     前記眼鏡型の撮像装置を掛けたとき、前記使用者が見ることができる視野からなる画像を撮像する撮像部をさらに含み、
     前記視線方向検出部は、前記眼鏡型の撮像装置を掛けたときに、前記使用者が見ることができる視野からなる画像に対する使用者の視線方向を検出し、
     前記画像制御部は、前記トラッキング部によりトラッキングされた前記追跡物体の画像を前記撮像部で最適に撮像できるように制御する
     請求項1に記載の画像処理装置。
  5.  前記画像処理装置は、前記使用者により手持ちで撮像に使用される撮像装置であり、
     前記画像を撮像する撮像部と、
     前記撮像部により撮像される画像を覗くビューファインダとをさらに含み、
     前記視線方向検出部は、前記撮像部により撮像された画像に対する、ビューファインダを覗く、前記使用者の視線方向を検出し、
     前記画像制御部は、前記トラッキング部によりトラッキングされた前記追跡物体の画像を前記撮像部で最適に撮像できるように制御する
     請求項1に記載の画像処理装置。
  6.  画像を再生する再生部と、
     前記再生部により再生された画像を処理して表示部に表示させる画像処理部とをさらに含み、
     前記視線方向検出部は、前記表示部に表示された画像を前記使用者が視聴するときの、前記使用者の視線方向を検出し、
     前記画像処理部は、前記トラッキング部によりトラッキングされた前記追跡物体の画像を最適に表示できるように前記再生部により再生された画像を処理して前記表示部に表示させる
     請求項1に記載の画像処理装置。
  7.  前記視線方向検出部は、前記眼鏡型の装置からなり、前記眼鏡型の装置を掛けたときに、前記使用者が前記表示部を見ることができる視野からなる画像に対する使用者の視線方向を検出する
     請求項6に記載の画像処理装置。
  8.  画像に対する使用者の視線方向を検出する視線方向検出処理をし、
     前記視線方向検出処理により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定処理をし、
     前記推定処理により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出処理をし、
     前記追跡物体検出処理により検出された追跡物体を検索してトラッキングするトラッキング処理をし、
     前記トラッキング処理によりトラッキングされた前記追跡物体の画像を制御する画像制御処理をする
     ステップを含む画像処理方法。
  9.  画像に対する使用者の視線方向を検出する視線方向検出ステップと、
     前記視線方向検出ステップの処理により検出された視線方向と、前記画像とに基づいて、前記画像内における注視領域を推定する推定ステップと、
     前記推定ステップの処理により推定された時系列の注視領域に基づいて、前記使用者の視線により追跡している、前記画像内の追跡物体を検出する追跡物体検出ステップと、
     前記追跡物体検出ステップの処理により検出された追跡物体を検索してトラッキングするトラッキングステップと、
     前記トラッキングステップの処理によりトラッキングされた前記追跡物体の画像を制御する画像制御ステップと
     を含む処理をコンピュータに実行させるためのプログラム。
PCT/JP2013/083297 2012-12-26 2013-12-12 画像処理装置および画像処理方法、並びにプログラム WO2014103732A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201380067240.7A CN104871525A (zh) 2012-12-26 2013-12-12 图像处理装置、以及图像处理方法及程序
EP13869165.4A EP2940985A4 (en) 2012-12-26 2013-12-12 IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING METHOD AND PROGRAM
JP2014554311A JPWO2014103732A1 (ja) 2012-12-26 2013-12-12 画像処理装置および画像処理方法、並びにプログラム
US14/652,519 US20150331486A1 (en) 2012-12-26 2013-12-12 Image processing device, image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-282612 2012-12-26
JP2012282612 2012-12-26

Publications (1)

Publication Number Publication Date
WO2014103732A1 true WO2014103732A1 (ja) 2014-07-03

Family

ID=51020821

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/083297 WO2014103732A1 (ja) 2012-12-26 2013-12-12 画像処理装置および画像処理方法、並びにプログラム

Country Status (5)

Country Link
US (1) US20150331486A1 (ja)
EP (1) EP2940985A4 (ja)
JP (1) JPWO2014103732A1 (ja)
CN (1) CN104871525A (ja)
WO (1) WO2014103732A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208380A (ja) * 2015-04-27 2016-12-08 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2018507432A (ja) * 2014-12-30 2018-03-15 ノキア テクノロジーズ オサケユイチア 個人的コンテンツの表示法
JP2018110399A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、装置、およびカメラ
US11361540B2 (en) 2020-02-27 2022-06-14 Samsung Electronics Co., Ltd. Method and apparatus for predicting object of interest of user
JP2022546081A (ja) * 2019-08-29 2022-11-02 株式会社ソニー・インタラクティブエンタテインメント パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化
JP7346654B2 (ja) 2017-02-08 2023-09-19 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム、及び記憶媒体

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106464959B (zh) * 2014-06-10 2019-07-26 株式会社索思未来 半导体集成电路和具备该半导体集成电路的显示装置及控制方法
US10750080B2 (en) * 2015-04-28 2020-08-18 Sony Corporation Information processing device, information processing method, and program
US9898865B2 (en) * 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
CN105892634A (zh) * 2015-11-18 2016-08-24 乐视致新电子科技(天津)有限公司 防眩晕方法及虚拟现实显示输出设备
CN106557167B (zh) * 2016-11-23 2020-08-04 上海擎感智能科技有限公司 智能眼镜及其控制设备的方法、系统及控制器
TWI632395B (zh) * 2016-12-27 2018-08-11 廣達電腦股份有限公司 虛擬實境裝置以及其畫面產生方法
JP6953247B2 (ja) * 2017-09-08 2021-10-27 ラピスセミコンダクタ株式会社 ゴーグル型表示装置、視線検出方法及び視線検出システム
US10943115B2 (en) * 2018-07-24 2021-03-09 Apical Ltd. Processing image data to perform object detection
US10996751B2 (en) * 2018-12-21 2021-05-04 Tobii Ab Training of a gaze tracking model
CN112215120B (zh) * 2020-09-30 2022-11-22 山东理工大学 视觉搜索区域的确定方法、装置及驾驶模拟器
KR20220058194A (ko) 2020-10-30 2022-05-09 삼성전자주식회사 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템
US20240045496A1 (en) * 2022-08-03 2024-02-08 Sony Interactive Entertainment Inc. Improving accuracy of interactions for gaze-enabled ar objects when in motion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01241511A (ja) * 1988-03-23 1989-09-26 Canon Inc 視線検出手段を備えるカメラ
JP2011053587A (ja) * 2009-09-04 2011-03-17 Sharp Corp 画像処理装置
JP2012029209A (ja) * 2010-07-27 2012-02-09 Hitachi Ltd 音処理システム
JP2012137600A (ja) 2010-12-27 2012-07-19 Sony Corp 撮像システム、撮像装置、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5333029A (en) * 1990-10-12 1994-07-26 Nikon Corporation Camera capable of detecting eye-gaze
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7396129B2 (en) * 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US7697827B2 (en) * 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
JP4961914B2 (ja) * 2006-09-08 2012-06-27 ソニー株式会社 撮像表示装置、撮像表示方法
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
JP4915420B2 (ja) * 2006-12-11 2012-04-11 株式会社ニコン 電子カメラ
US8553936B2 (en) * 2009-03-03 2013-10-08 The Ohio State University Gaze tracking measurement and training system and method
WO2011008793A1 (en) * 2009-07-13 2011-01-20 Emsense Corporation Systems and methods for generating bio-sensory metrics
US9197736B2 (en) * 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
JP2011150594A (ja) * 2010-01-22 2011-08-04 Sony Corp 画像処理装置および方法、並びにプログラム
US20110273369A1 (en) * 2010-05-10 2011-11-10 Canon Kabushiki Kaisha Adjustment of imaging property in view-dependent rendering
US8379981B1 (en) * 2011-08-26 2013-02-19 Toyota Motor Engineering & Manufacturing North America, Inc. Segmenting spatiotemporal data based on user gaze data
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
EP2774353A4 (en) * 2011-11-03 2015-11-18 Intel Corp PICTURES BASED ON EYE PERSONALIZATION
US20130155309A1 (en) * 2011-12-20 2013-06-20 Research In Motion Limited Method and Apparatus for Controlling Camera Functions Using Facial Recognition and Eye Tracking
CN104395857A (zh) * 2012-05-09 2015-03-04 英特尔公司 显示器的部分的基于眼球追踪的选择性强调
US8854447B2 (en) * 2012-12-21 2014-10-07 United Video Properties, Inc. Systems and methods for automatically adjusting audio based on gaze point

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01241511A (ja) * 1988-03-23 1989-09-26 Canon Inc 視線検出手段を備えるカメラ
JP2011053587A (ja) * 2009-09-04 2011-03-17 Sharp Corp 画像処理装置
JP2012029209A (ja) * 2010-07-27 2012-02-09 Hitachi Ltd 音処理システム
JP2012137600A (ja) 2010-12-27 2012-07-19 Sony Corp 撮像システム、撮像装置、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2940985A4

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018507432A (ja) * 2014-12-30 2018-03-15 ノキア テクノロジーズ オサケユイチア 個人的コンテンツの表示法
JP2016208380A (ja) * 2015-04-27 2016-12-08 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US11089289B2 (en) 2015-04-27 2021-08-10 Sony Semiconductor Solutions Corporation Image processing device, imaging device, image processing method and program
JP2018110399A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、装置、およびカメラ
JP7353015B2 (ja) 2016-12-30 2023-09-29 アクシス アーベー 方法、装置、およびカメラ
JP7346654B2 (ja) 2017-02-08 2023-09-19 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム、及び記憶媒体
JP2022546081A (ja) * 2019-08-29 2022-11-02 株式会社ソニー・インタラクティブエンタテインメント パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化
JP7339435B2 (ja) 2019-08-29 2023-09-05 株式会社ソニー・インタラクティブエンタテインメント パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化
US11361540B2 (en) 2020-02-27 2022-06-14 Samsung Electronics Co., Ltd. Method and apparatus for predicting object of interest of user

Also Published As

Publication number Publication date
EP2940985A4 (en) 2016-08-17
JPWO2014103732A1 (ja) 2017-01-12
US20150331486A1 (en) 2015-11-19
EP2940985A1 (en) 2015-11-04
CN104871525A (zh) 2015-08-26

Similar Documents

Publication Publication Date Title
WO2014103732A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
US11860511B2 (en) Image pickup device and method of tracking subject thereof
US10567641B1 (en) Gaze-directed photography
US9245389B2 (en) Information processing apparatus and recording medium
US8249305B2 (en) Information processing apparatus, information processing method, program, and recording medium
US20150036999A1 (en) Viewer Attention Controlled Video Playback
EP2720464B1 (en) Generating image information
US20120026364A1 (en) Image pickup apparatus
US11172158B2 (en) System and method for augmented video production workflow
JP2014168126A (ja) 画像処理装置、画像処理方法、プログラム
JP7467114B2 (ja) 撮像装置およびその制御方法
JP2013162333A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JPWO2014046184A1 (ja) 複数被写体の距離計測装置及び方法
US20210132682A1 (en) User signal processing method and device for performing method
WO2022137928A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2012124767A (ja) 撮像機器
JP6087615B2 (ja) 画像処理装置およびその制御方法、撮像装置、および表示装置
KR101810671B1 (ko) 전방향 영상의 방향 정보를 생성하는 방법 및 이러한 방법을 수행하는 장치
WO2018074262A1 (ja) 通信装置および通信方法、並びにプログラム
US20230328355A1 (en) Information processing apparatus, information processing method, and program
JP2021105850A (ja) 画像処理装置及び方法、及び撮像装置
US20220309992A1 (en) Head-mounted display, display control system, information processor, and method for controlling head-mounted display
US20230345122A1 (en) Imaging apparatus, imaging method, and imaging program
US20160172004A1 (en) Video capturing apparatus
JP5659856B2 (ja) 撮像装置、撮像方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13869165

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014554311

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2013869165

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013869165

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14652519

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE