JP2013207356A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2013207356A
JP2013207356A JP2012071331A JP2012071331A JP2013207356A JP 2013207356 A JP2013207356 A JP 2013207356A JP 2012071331 A JP2012071331 A JP 2012071331A JP 2012071331 A JP2012071331 A JP 2012071331A JP 2013207356 A JP2013207356 A JP 2013207356A
Authority
JP
Japan
Prior art keywords
user
image
composition
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012071331A
Other languages
English (en)
Inventor
Ryo Fukazawa
遼 深澤
Shunichi Kasahara
俊一 笠原
Shu Shigeta
脩 繁田
Seiji Suzuki
誠司 鈴木
Maki Mori
麻紀 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012071331A priority Critical patent/JP2013207356A/ja
Priority to PCT/JP2013/001868 priority patent/WO2013145639A1/en
Priority to EP19173080.3A priority patent/EP3557386B1/en
Priority to IN7841DEN2014 priority patent/IN2014DN07841A/en
Priority to BR112014023288A priority patent/BR112014023288A2/pt
Priority to EP13714003.4A priority patent/EP2831702B1/en
Priority to CN201380015427.2A priority patent/CN104185830A/zh
Priority to EP17171374.6A priority patent/EP3239814B1/en
Priority to US14/386,120 priority patent/US10303936B2/en
Publication of JP2013207356A publication Critical patent/JP2013207356A/ja
Priority to US16/390,485 priority patent/US10713480B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/63Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C11/00Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere

Abstract

【課題】ユーザにとってより利便性が高い表示画像を決定する。
【解決手段】撮像画像を取得する画像取得部と、前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定する構図判定部と、前記構図判定部により判定された前記構図に基づいて表示画像を決定する画像決定部と、を備える、情報処理装置が提供される。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、撮像方向を制御する技術が開発されている。例えば、被写体に所定パターンの点滅信号を発光する発光体を取り付け、この所定パターンの点滅信号を検出した場合に、検出結果に基づいて被写体の位置を特定し、被写体の位置を用いて撮像方向を制御する技術が開示されている(例えば、特許文献1参照)。この技術によれば、被写体が撮像画像内に収まる構図となるように撮像画像が生成される。
発光体を被写体に取り付ける技術だけではなく、被写体が撮像画像内に収まる構図となるように撮像画像を生成する技術には、様々な技術が存在する。
特開2004−153674号公報
しかしながら、携帯端末のユーザが撮像される場合、ユーザが撮像画像内に収まる構図とするだけでは構図として十分ではない場合も想定される。例えば、ユーザが目的地に向かって移動する場合、目的地の位置も考慮された上で構図が判定されれば、ユーザにとって利便性が高い表示画像が決定されることが期待される。したがって、ユーザにとってより利便性が高い表示画像を決定するための技術が実現されることが望ましい。
本開示によれば、撮像画像を取得する画像取得部と、前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定する構図判定部と、前記構図判定部により判定された前記構図に基づいて表示画像を決定する画像決定部と、を備える、情報処理装置が提供される。
また、本開示によれば、撮像画像を取得することと、前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定することと、前記構図に基づいて表示画像を決定することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータを、撮像画像を取得する画像取得部と、前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定する構図判定部と、前記構図判定部により判定された前記構図に基づいて表示画像を決定する画像決定部と、を備える情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザにとってより利便性が高い表示画像を決定することが可能である。
本実施形態の概要を説明するための図である。 本実施形態に係る情報処理システムの構成を示す図である。 本実施形態に係る情報処理装置の機能構成例を示すブロック図である。 情報処理装置が有するユーザ特定機能の概要を示す図である。 ユーザ特定に失敗した場合における携帯端末の表示例を示す図である。 ユーザ特定に成功した場合における携帯端末の表示例を示す図である。 ユーザ特定に失敗した場合における携帯端末の表示例を示す図である。 ユーザ特定に失敗した場合における携帯端末の表示例を示す図である。 ユーザ特定に失敗した場合における携帯端末の表示例を示す図である。 情報処理装置が有する構図判定機能の概要を示す図である。 第1のモード設定時における表示画像について説明するための図である。 第2のモード設定時における表示画像について説明するための図である。 表示画像の決定手法のバリエーションについて説明するための図である。 決定された表示画像の一例を示す図である。 情報処理装置による構図判定動作の流れを示すフローチャートである。 情報処理装置による表現変更機能の一例を示す図である。 情報処理装置による表現変更機能の一例を示す図である。 情報処理装置による表現変更機能の一例を示す図である。 情報処理装置による表現変更機能の一例を示す図である。 情報処理装置による表現変更機能の一例を示す図である。 情報処理装置による表現変更機能の一例を示す図である。 情報処理装置による表現変更機能の一例を示す図である。 情報処理装置による表現変更動作の流れを示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.ユーザ特定機能
2.構図判定機能
3.表現変更機能
4.むすび
本実施形態に係る情報処理装置が有する機能は、ユーザ特定機能、構図判定機能および表現変更機能に大別される。まず、各機能について説明する前に、各機能の前提となる条件について説明する。
図1は、本実施形態の概要を説明するための図である。図1に示すように、携帯端末20を有するユーザUが実空間に存在している。ユーザUは実空間内のどこに存在していてもよい。また、携帯端末20には画像を表示する機能が設けられており、ユーザUは携帯端末20により表示された画面を閲覧することが可能である。ユーザUは、携帯端末20とは別に設けられている撮像装置30により撮像される。撮像装置30が設けられる位置は特に限定されないが、例えば、監視カメラのように建物内に取り付けられていてもよいし、乗り物などの移動体に取り付けられていてもよい。また、撮像装置30の種類は特に限定されないが、例えば、赤外線カメラなどであってもよい。
図2は、本実施形態に係る情報処理システムの構成を示す図である。図2に示すように、情報処理システム1は、情報処理装置10と携帯端末20と撮像装置30とを備えている。図2には、情報処理装置10と携帯端末20とがネットワーク40を介して接続されている例が示されているが、ネットワーク40に接続される携帯端末20は1つでなくてもよい。例えば、携帯端末20が複数存在し、複数の携帯端末20の各々がネットワーク40に接続されていてもよい。
また、図2に示したように、情報処理装置10と撮像装置30とも接続されている。図2に示した例では、1つの撮像装置30が情報処理装置10に接続されているが、撮像装置30は1つでなくてもよい。例えば、撮像装置30が複数存在し、複数の撮像装置30の各々が情報処理装置10に接続されていてもよい。
また、図2に示した例では、情報処理装置10は、携帯端末20および撮像装置30と別体に構成されているが、携帯端末20に組み込まれていてもよいし、撮像装置30に組み込まれていてもよい。撮像装置30により撮像された撮像画像は情報処理装置10を介して携帯端末20に提供され、携帯端末20は撮像画像を表示することが可能である。情報処理装置10は、撮像装置30から提供される撮像画像を用いて、ユーザ特定機能、構図判定機能および表現変更機能を発揮することができる。
図3は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図3に示したように、情報処理装置10は、処理制御部100、表示制御部160および記憶部50を備える。また、処理制御部100は、画像取得部111、パラメータ取得部112、候補抽出部113、特定部114および認証部115を備える。画像取得部111、パラメータ取得部112、候補抽出部113、特定部114および認証部115は、主に、情報処理装置10が有するユーザ特定機能に関わるブロックである。
また、処理制御部100は、認識部121、条件判定部122、情報付加部123、モード設定部124、構図判定部125および画像決定部126を備える。処理制御部100は、認識部121、条件判定部122、情報付加部123、モード設定部124、構図判定部125および画像決定部126は、主に、情報処理装置10が有する構図判定機能に関わるブロックである。
また、処理制御部100は、変更検出部131および表現変更部132を備える。変更検出部131および表現変更部132は、主に、情報処理装置10が有する表現変更機能に関わるブロックである。
処理制御部100および表示制御部160は、CPU(Central Processing Unit)またはDSP(Digital Signal Processor)などのプロセッサに相当する。処理制御部100および表示制御部160は、記憶部50または他の記憶媒体に記憶されるプログラムを実行することにより、処理制御部100および表示制御部160が有する様々な機能を発揮する。
記憶部50は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、処理制御部100および表示制御部160による処理のためのプログラムおよびデータを記憶する。例えば、記憶部50は、物体認識のために使用される特徴量辞書を記憶する。さらに、記憶部50は、物体認識の結果として生成される認識結果を記憶することもできる。図3に示した例では、記憶部50が情報処理装置10に組み込まれているが、記憶部50と情報処理装置10とは別体に構成されてもよい。
以上、各機能の前提について説明した。以下では、これらの各機能について順を追って説明する。
<1.ユーザ特定機能>
まず、情報処理装置10が有するユーザ特定機能について説明する。図4は、情報処理装置10が有するユーザ特定機能の概要を示す図である。まず、画像取得部111は、撮像装置30により撮像された撮像画像を取得する。図4に示した例では、撮像画像の例として、図1に示された実空間が撮像された撮像画像Imgが画像取得部111により取得されている。画像取得部111により取得された撮像画像は、携帯端末20により表示されるように表示制御部160により制御される。
ユーザ特定機能によれば、画像取得部111により取得された撮像画像に映っている被写体からユーザが特定される。ユーザ特定の目的は特に限定されないが、ここでは、情報処理装置10により何らかのネットワークサービスが提供されており、ユーザUが携帯端末20を介してネットワークサービスにログインするためにユーザの特定がなされることを想定している。
ネットワークサービスの種類も特に限定されないが、ここでは、ネットワークサービスへのログインが完了している携帯端末を用いて、ユーザ自身がメッセージの書き込みを行ったりユーザ自身や他のユーザが書き込んだメッセージを閲覧したりすることができるサービスを想定している。ユーザの特定がなされるタイミングは特に限定されないが、例えば、ユーザによってユーザ特定を要求するための操作が携帯端末20に対してなされたときであってもよい。ユーザ特定を要求するための操作は、ネットワークサービスへのログインを要求するための操作であってもよい。
撮像画像に映っている被写体からユーザを特定するため、パラメータ取得部112は、特定すべきユーザに関するパラメータを取得する。パラメータ取得部112によりパラメータが取得されるタイミングは特に限定されないが、例えば、ユーザが有する携帯端末20からあらかじめ取得されてもよいし、ユーザの特定がなされる際に携帯端末20から取得されてもよい。
パラメータ取得部112により取得されるパラメータの種類は特に限定されない。例えば、図4に示すように、パラメータ取得部112は、ユーザの顔画像をパラメータP1として取得してもよいし、ユーザの動きを示すセンサデータをパラメータP2として取得してもよい。ユーザの顔画像を撮像する装置は特に限定されない。ユーザの顔画像は、例えば、携帯端末20により撮像された顔画像であってもよいし、他の装置によって撮像された顔画像であってもよい。
また、ユーザの動きを検出するセンサは特に限定されない。ユーザの動きを検出するセンサは、加速度センサであってもよいし、GPS信号の受信センサであってもよいし、Wi−fi基地局から送信される電波の受信センサであってもよい。また、ユーザの動きを検出するセンサは、携帯端末20に組み込まれていてもよいし、ユーザの身体に取り付けられていてもよい。
特定部114によるユーザの特定がなされる前に、候補抽出部113によりユーザの候補の特定がなされてもよい(ステップS11)。例えば、携帯端末20に入力されるユーザ操作(例えば、タッチパネルへのタッチ操作)により携帯端末20に表示されている撮像画像上の座標が指定された場合、パラメータ取得部112はその座標を取得し、候補抽出部113は、その座標により選択される被写体(例えば、その座標に存在する被写体)をユーザの候補として特定してもよい。ユーザの候補を特定しておくことによりユーザの特定に要する負荷が軽減される。
特定部114は、パラメータ取得部112により取得されたパラメータに基づいて撮像画像からユーザの特定を試みる(ステップS12)。例えば、特定部114は、パラメータ取得部112によりユーザの顔画像がパラメータP1として取得された場合には、画像取得部111により取得された撮像画像に映る被写体の顔領域とユーザの顔画像との照合に基づいて抽出される被写体をユーザとして特定すればよい。例えば、特定部114は、ユーザの顔画像と閾値を超える類似度の顔領域を有する被写体をユーザとして特定すればよい。
また、例えば、特定部114は、パラメータ取得部112によりユーザの動きを示すセンサデータがパラメータP2として取得された場合には、画像取得部111により取得された撮像画像から検出される被写体の動きとセンサデータとの照合に基づいて抽出される被写体をユーザとして特定すればよい。例えば、特定部114は、撮像画像におけるユーザの動きと閾値を超える類似度のセンサデータが検出された被写体をユーザとして特定すればよい。なお、ユーザの候補が特定されている場合には、特定部114は、ユーザの候補からパラメータに基づいてユーザを特定すればよい。
特定部114によりユーザの特定が試みられた結果、ユーザが特定されない状況も想定される。例えば、類似度が閾値を超えない場合などがそのような状況に該当する。したがって、表示制御部160は、特定部114によりユーザが特定されない場合、ユーザの特定に必要なユーザの動作を示す情報が携帯端末20に表示されるように携帯端末20を制御する。表示制御部160の制御に従って、携帯端末20にはユーザの動作を示す情報が表示される(ステップS13)。
図5は、ユーザ特定に失敗した場合における携帯端末20の表示例を示す図である。例えば、表示制御部160は、特定部114によりユーザが特定されない場合、撮像装置側に顔を向けることを促す情報が携帯端末20に表示されるように携帯端末20を制御してもよい。図5には、撮像装置30が監視カメラである場合を想定し、表示制御部160は、「監視カメラの方に顔を向けてください」というメッセージM1が携帯端末20に表示されるように携帯端末20を制御している例が示されている。
図4に戻って説明を続ける。特定部114によりユーザが特定された場合、ステップS15に移行される前に、認証部115は、特定部114により特定された携帯端末20に対する認証処理を行ってもよい(ステップS14)。具体的には、認証部115は、例えば、図4に示したように、携帯端末20に入力されるユーザ操作によりパスワードが入力された場合、入力されたパスワードとあらかじめ登録されているパスワードとが一致するか否かにより認証の成否を決めてもよい。認証が成功した場合にはステップS15に移行されるが、認証が失敗した場合にはステップS15に移行されずに再度認証処理が行われてもよい。
ステップS15に移行された場合、例えば、ネットワークサービスへのログインを完了させ(ステップS15)、表示制御部160は、携帯端末20により撮像画像および付加情報が表示されるように携帯端末20を制御する。表示制御部160の制御に従って、携帯端末20には撮像画像および付加情報が表示される(ステップS16)。付加情報は特に限定されないが、例えば、ユーザ自身や他のユーザが書き込んだメッセージであってもよい。
図6は、ユーザ特定に成功した場合における携帯端末20の表示例を示す図である。例えば、表示制御部160は、特定部114によりユーザが特定された場合、撮像画像および付加情報が表示されるように携帯端末20を制御する。図6には、表示制御部160が、付加情報として他のユーザが書き込んだメッセージが表示されるように携帯端末20を制御している例が示されている。
なお、撮像装置側に顔を向けることを促す情報は、図5に示した例に限定されない。図7は、ユーザ特定に失敗した場合における携帯端末20の表示例を示す図である。表示制御部160は、候補抽出部113により抽出されたユーザの候補の位置とあらかじめ設定された撮像装置30の位置とに基づいて、ユーザの特定に必要なユーザの動作を示す情報が携帯端末20に表示されるように携帯端末20を制御してもよい。
例えば、図7に示すように、表示制御部160は、ユーザの候補の位置を基準として、ユーザの候補の向いている方向への直線および撮像装置30の存在する方向への直線が携帯端末20に表示されるように携帯端末20を制御してもよい。また、図7に示すように、表示制御部160は、ユーザの候補の向いている方向への直線から撮像装置30の存在する方向への直線への回転方向を示す矢印が携帯端末20に表示されるように携帯端末20を制御してもよい。また、図7に示すように、表示制御部160は、ユーザから見た場合の回転方向を示すメッセージとして「Turn Left」というメッセージM2が携帯端末20に表示されるように携帯端末20を制御してもよい。
また、特定部114によりユーザが特定されない場合、ユーザを特定する手法が切り換えられてもよい。図8は、ユーザ特定に失敗した場合における携帯端末20の表示例を示す図である。表示制御部160は、特定部114によりユーザが特定されない場合、他の特定手法によりユーザを特定する旨を示す情報が携帯端末20に表示されるように制御してもよい。例えば、表示制御部160は、他の特定手法によりユーザを特定する旨を示す情報として「ユーザを特定する手法を切り換えます」というメッセージM3が携帯端末20に表示されるように携帯端末20を制御してもよい。特定部114は、他の特定手法により抽出される被写体をユーザとして特定すればよい。
例えば、特定部114は、撮像画像に映る被写体の顔領域とユーザの顔画像との照合に基づいて抽出される被写体をユーザとして特定するように試みたとする。この場合に、ユーザが特定されなかった場合には、特定部114は、撮像画像から検出される被写体の動きとセンサデータとの照合に基づいて抽出される被写体をユーザとして特定するように試みてもよい。また、逆の順序でユーザ特定が試みられてもよい。
また、特定部114によりユーザが特定されない場合、撮像画像に映る他の被写体とユーザとの動きの違いが明確になるようにユーザを促してもよい。このように促すことにより、特定部114は、規定されている正常な範囲を逸脱した動きの被写体が撮像画像から検出された場合に、その被写体をユーザと特定することができる。
図9は、ユーザ特定に失敗した場合における携帯端末20の表示例を示す図である。例えば、表示制御部160は、特定部114によりユーザが特定されない場合、携帯端末20を動かすことを促す情報がユーザの特定に必要なユーザの動作を示す情報として携帯端末20に表示されるように携帯端末20を制御してもよい。例えば、図9に示したように、表示制御部160は、携帯端末20を動かすことを促す情報として「携帯端末を動かして下さい」というメッセージM4が携帯端末20に表示されるように携帯端末20を制御してもよい。
以上に説明したように、情報処理装置10が有するユーザ特定機能によれば、携帯端末のユーザに関するパラメータに基づいて撮像画像からユーザを特定することが試みられ、表示制御部160は、ユーザが特定されない場合、ユーザの特定に必要なユーザの動作を示す情報が携帯端末20に表示されるように制御される。このような制御により、撮像画像からユーザが容易に特定されることが期待される。
<2.構図判定機能>
続いて、情報処理装置10が有する構図判定機能について説明する。図10は、情報処理装置10が有する構図判定機能の概要を示す図である。上記したように、撮像装置30により撮像画像が撮像されると、撮像画像がユーザの携帯端末20に表示される。ユーザは携帯端末20に表示された撮像画像を閲覧することが可能である。ここでは、ユーザが撮像画像を閲覧しながら目的地に向かう場面を想定し、このようなユーザが閲覧する撮像画像として好ましい構図の判定について説明する。
まず、ユーザの目的地を示す情報が設定される。ユーザの目的地を示す情報は、携帯端末20に入力されるユーザ操作により入力されてもよいし、携帯端末20により実行されるアプリケーションにより設定されてもよい。ユーザの目的地を示す情報は、例えば、実空間における位置で表現される。ユーザの目的地を示す情報は、情報処理装置10により取得される。構図判定部125は、画像取得部111により取得された撮像画像をもとにしたユーザの認識結果とユーザの目的地を示す情報とに基づいて構図を判定する。構図は、画像における物体の理想的な位置(あるいは物体の理想的な向き)を示す図である。
ユーザの認識結果は、ユーザの進行方向とユーザの実空間における位置とを少なくとも含んでいる。例えば、ユーザの認識結果は、認識部121により取得される。すなわち、認識部121は、撮像画像をもとにしてユーザを認識することにより認識結果を得る。図10に示した例では、ユーザの実空間における位置がPuとして示され、ユーザの進行方向がV1として示され、ユーザの位置Puを基準としたユーザの目的地の方向がV2として示されている。
例えば、構図判定部125は、認識結果としてユーザの位置が認識された場合、ユーザの位置を基準としたユーザの目的地の方向に基づいて構図を判定すればよい。例えば、図10に示した例では、構図判定部125は、ユーザの位置Puを基準としたユーザの目的地の方向V2に基づいて構図を判定すればよい。構図判定部125は、例えば、V2に基づいて構図を判定する場合には、ユーザの位置Puを基準としてV2と逆方向の領域よりもユーザの位置Puを基準としてV2の方向の領域が広く収まるような画像を構図として判定すればよい。図10には、このようにして判定される構図の例がK2として示されている。点C2は、構図K2の中央の点を示している。
また、構図判定部125は、例えば、認識結果としてユーザの進行方向が認識された場合、ユーザの進行方向に基づいて構図を判定すればよい。例えば、図10に示した例では、構図判定部125は、ユーザの進行方向V1に基づいて構図を判定すればよい。構図判定部125は、例えば、V1に基づいて構図を判定する場合には、ユーザの位置Puを基準としてV1と逆方向の領域よりもユーザの位置Puを基準としてV1の方向の領域が広く収まるような画像を構図として判定すればよい。図10には、このようにして判定される構図の例がK1として示されている。点C1は、構図K1の中央の点を示している。
構図判定部125は、画一的にユーザの進行方向V1に基づいて構図を判定してもよいし、画一的にユーザの位置Puを基準としたユーザの目的地の方向V2に基づいて構図を判定してもよいが、各々の判定手法のいずれかの手法を選択的に用いてもよい。すなわち、ユーザの進行方向V1に基づいて構図を判定するモードを第1のモードとし、ユーザの位置Puを基準としたユーザの目的地の方向V2に基づいて構図を判定するモードを第2のモードとした場合、モード設定部124は、この2つのモードのいずれかを設定してもよい。その場合、構図判定部125は、モード設定部124により設定されたモードに従って構図を判定してもよい。モードは、携帯端末20に入力されるユーザ操作に基づいて設定されてもよいし、携帯端末20により実行されるアプリケーションにより設定されてもよい。
画像決定部126は、構図判定部125により判定された構図に基づいて表示画像を決定する。画像決定部126は、例えば、構図判定部125により判定された構図に合致する画像を表示画像として決定してもよいし、選択可能な範囲内において構図判定部125により判定された構図に最も近い画像を表示画像として決定してもよい。表示制御部160は、画像決定部126により決定された表示画像が携帯端末20に表示されるように携帯端末20を制御する。
図11は、第1のモード設定時における表示画像について説明するための図である。例えば、図10に示したような撮像画像Imgが取得され、モード設定部124により第1のモードが設定されている場合、ユーザの進行方向V1に基づいて構図K1が判定される。この場合、図11に示すように、例えば、画像決定部126は、この構図K1に合致する画像を表示画像D1として決定してもよい。なお、構図判定部125は、ユーザが中央に存在する構図を判定してもよいが、図11に示すように、ユーザが中央から所定距離d1だけ離れた位置に存在する構図を判定してもよい。
なお、現在の撮像条件が判定されてもよい。すなわち、条件判定部122は、ユーザを撮像するための条件が整っているか否かを判定し、情報付加部123は、条件判定部122により条件が整っていないと判定された場合には、表示画像に対して条件が整っていない旨を示す情報を付加してもよい。例えば、条件判定部122により撮像可能領域が判定された場合には、情報付加部123は、撮像可能領域の限界を示すオブジェクトを表示画像に付加してもよい。
また、条件判定部122によりユーザの位置Puを基準としたユーザの進行方向V1に撮像可能領域の限界が判定された場合に、情報付加部123は、撮像可能領域の限界を示すオブジェクトを表示画像に付加してもよい。図11には、ユーザの位置Puを基準としたユーザの進行方向V1に撮像可能領域の限界が判定されたため、撮像可能領域の限界を示すオブジェクトがA1として表示画像D1に付加されている。あるいは、条件判定部122によりユーザの位置Puと撮像可能領域の限界との距離が閾値よりも小さくなった場合に、情報付加部123は、撮像可能領域の限界を示すオブジェクトを表示画像に付加してもよい。
また、条件判定部122により撮像画像の輝度が閾値よりも小さくなった場合に、情報付加部123は、撮像条件の悪化を示すオブジェクトを表示画像に付加してもよい。このような処理により、進行方向を変更するようにユーザを促すことができるが、ユーザに提供される情報は、付加されるオブジェクトに限定されない。例えば、情報付加部123は、携帯端末20が振動するように制御してもよいし、携帯端末20からアラーム音が発せられるように制御してもよい。
図12は、第2のモード設定時における表示画像について説明するための図である。例えば、図10に示したような撮像画像Imgが取得され、モード設定部124により第2のモードが設定されている場合、ユーザの位置Puを基準としたユーザの目的地の方向V2に基づいて構図K2が判定される。この場合、図12に示すように、例えば、画像決定部126は、この構図K2に合致する画像を表示画像D2として決定してもよい。なお、構図判定部125は、ユーザが中央に存在する構図を判定してもよいが、図12に示すように、ユーザが中央から所定距離d2だけ離れた位置に存在する構図を判定してもよい。
以上においては、画像決定部126が、構図判定部125により判定された構図に基づいて、撮像装置30により撮像された撮像画像の一部領域を切り出すことにより表示画像を決定する手法を用いることにした。撮像装置30が固定カメラ1台であれば、このような手法しか採りえないが、撮像装置30が、向き変更カメラである場合や、画角変更カメラである場合、撮像装置30が複数台ある場合には、他の手法を採用することもできる。
ここで、固定カメラとは、撮像方向の変更や画角の変更が不可能なカメラを意味している。向き変更カメラは、可動カメラを意味しており、パン機能を有しているカメラでもよいし、チルト機能を有しているカメラでもよい。画角変更カメラは、画角を変更することが可能なカメラを意味している。図13は、表示画像の決定手法のバリエーションについて説明するための図である。図13に示すように、撮像装置30が固定カメラである場合には、画像決定部126は、撮像画像から選択される領域を表示画像として決定するという手法を採る。
また、図13に示すように、撮像装置30が向き変更カメラである場合には、画像決定部126は、撮像画像を提供する撮像装置30の撮像方向を決定し、決定した撮像方向により撮像される撮像画像を表示画像として決定する。例えば、画像決定部126は、構図判定部125により判定された構図に基づいて、撮像装置30の撮像方向を決定する。より詳細には、画像決定部126は、構図判定部125により判定された構図に最も近い画像を撮像できる方向を、撮像装置30の撮像方向として決定すればよい。
また、図13に示すように、撮像装置30が画角変更カメラである場合には、画像決定部126は、撮像画像を提供する撮像装置30の画角を決定し、決定した画角により撮像される撮像画像を表示画像として決定する。例えば、画像決定部126は、構図判定部125により判定された構図に基づいて、撮像装置30の画角を決定する。より詳細には、画像決定部126は、構図判定部125により判定された構図に最も近い画像を撮像できる画角を、撮像装置30の画角として決定すればよい。
また、図13に示すように、画像取得部111により複数の撮像装置30の各々から提供される撮像画像が取得された場合、画像決定部126は、複数の撮像装置30の各々から提供される撮像画像の中から選択される撮像画像を表示画像として決定する。例えば、画像決定部126は、構図判定部125により判定された構図に基づいて、複数の撮像装置30の各々から提供される撮像画像の中から選択される撮像画像を表示画像として決定する。より詳細には、画像決定部126は、構図判定部125により判定された構図に最も近い撮像画像を、複数の撮像装置30の各々から提供される撮像画像の中から選択し、選択した撮像画像を表示画像として決定すればよい。
なお、上記した例では、構図判定部125により判定された構図に最も近い画像を表示画像として用いることにしたが、構図との差分が閾値を超えてしまう画像しか取得されない場合には、表示画像が決定されないようにすることもできる。このような場合には、画像決定部126は、構図判定部125により判定された構図に基づいて表示画像を決定できない場合も想定される。したがって、かかる場合、画像決定部126は、構図以外の検出データに基づいて表示画像を決定してもよい。
検出データは特に限定されない。例えば、画像決定部126は、上記したようなセンサデータに基づいて特定部114により特定されたユーザの位置に最も近い位置を撮像した画像を表示画像として決定することもできる。また、画像決定部126は、映っている人物の数が最も少ない画像を表示画像として決定してもよいし、映っている人物の密度が最も小さい画像を表示画像として決定してもよい。さらに、画像決定部126は、最も広い範囲が撮像された画像を表示画像として決定してもよいし、最もよく利用される撮像画像を表示画像として決定してもよい。
また、撮像装置30が存在しない場合などには、画像取得部111により撮像画像が取得されない場合も想定される。かかる場合、画像決定部126は、撮像画像以外のデータに基づいて検出されるユーザの位置とユーザの目的地を示す情報とに応じた画像を表示画像として決定してもよい。
例えば、GPS信号の受信センサにより受信された信号に基づいてユーザの位置情報が取得された場合には、画像決定部126は、その位置情報とユーザの目的地を示す情報とを用いて、Webページなどから画像を検索してもよい。画像は、描画された地図であってもよいし、撮像された写真であってもよい。また、画像決定部126は、検索により複数の画像を取得した場合には、複数の画像を合成することにより生成される新たな画像を表示画像として決定してもよい。
図14は、決定された表示画像の一例を示す図である。図14に示すように、表示制御部160は、表示画像D2に、ユーザの位置Puを基準としたユーザの目的地までの距離を示すオブジェクトObj1、目的地までの距離および目的地に到着する予定時刻を示すオブジェクトObj2などを付加してもよい。
また、図14に示すように、表示制御部160は、表示画像D2に、方角を示すオブジェクトObj3、ユーザの位置Puを基準としたユーザの目的地の方向を示すオブジェクトObj4などを付加してもよい。また、図14に示すように、表示制御部160は、表示画像D2に、ユーザの位置Puを基準としたユーザの目的地の方向を示すオブジェクトObj5をユーザの位置Puに付加してもよいし、ユーザの位置Puを示すオブジェクトObj6をユーザの位置に付加してもよい。
続いて、情報処理装置10による構図判定動作の流れについて説明する。図15は、情報処理装置10による構図判定動作の流れを示すフローチャートである。図15に示すように、画像取得部111により撮像画像が取得されない場合には(ステップS21で「No」)、認識部121は、撮像画像以外のデータからユーザを認識して(ステップS22)、ステップS26に動作が移行される。
一方、画像取得部111により撮像画像が取得された場合には(ステップS21で「Yes」)、認識部121は、撮像画像からユーザを認識して(ステップS23)、条件判定部122は、撮像するための条件が整っているか否かを判定する(ステップS24)。条件判定部122により撮像するための条件が整っていると判定された場合には(ステップS24で「Yes」)、ステップS26に動作が移行される。一方、条件判定部122により撮像するための条件が整っていないと判定された場合には(ステップS24で「No」)、情報付加部123は、条件が整っていない旨を示す情報を撮像画像に付加し(ステップS25)、ステップS26に動作が移行される。
ステップS26に動作が移行された場合、モード設定部124は、第1のモードおよび第2のモードのいずれかを設定し(ステップS26)、構図判定部125は、認識部121による認識結果に基づいて、モード設定部124により設定されたモードに従って、構図を判定する(ステップS27)。続いて、画像決定部126は、構図判定部125により判定された構図に基づいて表示画像を決定することを試みる(ステップS28)。
ここで、画像決定部126により表示画像が決定された場合には(ステップS29で「Yes」)、ステップS31に動作が移行される。一方、画像決定部126により表示画像が決定されない場合には(ステップS29で「No」)、画像決定部126は、構図以外の検出データに基づいて表示画像を決定し(ステップS30)、ステップS31に動作が移行される。表示制御部160は、画像決定部126により決定された表示画像が携帯端末20に表示されるように携帯端末20を制御し(ステップS31)、動作が終了される。
以上に説明したように、情報処理装置10が有する構図判定機能によれば、撮像画像をもとにしたユーザの認識結果とユーザの目的地を示す情報とに基づいた構図が判定される。また、このように判定された構図に基づいて表示画像が決定される。このような制御により、ユーザにとってより利便性が高い表示画像が決定されることが期待される。
<3.表現変更機能>
続いて、情報処理装置10が有する表現変更機能について説明する。上記したように、情報処理装置10により何らかのネットワークサービスが提供されており、ユーザUが携帯端末20を介してネットワークサービスにログインすると、携帯端末20に対してネットワークサービスが提供されていることを想定している。
ネットワークサービスへのログインは、ユーザUに限らず、他のユーザも行うことができる。すなわち、撮像画像に映る人物(以下では、「被写体」とも言う。)は、ネットワークサービスを享受する可能性がある。そこで、以下では、撮像画像に映っている被写体のネットワークサービスにおける状態の変更を容易に把握する機能について説明する。なお、撮像画像に映る被写体は、ユーザが特定される手法と同様の手法により、認識部121により認識され得る。
変更検出部131は、画像取得部111により取得された撮像画像から認識された被写体のネットワークサービスにおける状態の変更を検出する。ネットワークサービスにおける状態は、特に限定されないが、例えば、被写体の携帯端末がネットワークサービスにログインしているか否かを示す情報であってもよい。すなわち、表現変更部132は、被写体の携帯端末がネットワークサービスにログインした旨が変更検出部131により検出された場合に、撮像画像に映っている被写体の表現を変更してもよい。
また、ネットワークサービスにおける状態は、ログインされている状態で特定の処理が行ったか否かを示す情報であってもよい。すなわち、表現変更部132は、被写体の携帯端末のネットワークサービスにおける動作が所定の条件を満たした旨が変更検出部131により検出された場合に、撮像画像に映っている被写体の表現を変更してもよい。所定の条件は、特に限定されないが、例えば、メッセージの書き込みを行ったという条件であってもよく、所定時間以内にメッセージの書き込みを行ったという条件であってもよい。
表現変更部132は、変更検出部131により状態の変更が検出された場合に、撮像画像に映っている被写体の表現を変更する。表現変更部132により撮像画像に映っている被写体の領域はどのように把握されてもよいが、例えば、被写体が映る前後の撮像画像において差分が生じた場合に、その差分領域が被写体の領域として把握されてもよい。被写体の表現をどのように変更するかについても特に限定されない。
さらに、表現変更部132は、特定部114によりユーザが特定された場合には、撮像画像に映っているユーザを強調することによりユーザの表現を変更してもよい。ユーザをどのように強調するかについても特に限定されない。表示制御部160は、表現変更部132により表現が変更されて得られる表示画像が携帯端末20に表示されるように携帯端末20を制御する。
ユーザの強調の手法について以下に図面を参照しながら説明する。図16は、情報処理装置10による表現変更機能の一例を示す図である。図16に示すように、表現変更部132は、撮像画像におけるユーザU以外の被写体の鮮明度を低下させることによりユーザUを強調してもよい。
図17は、情報処理装置10による表現変更機能の一例を示す図である。図17に示すように、表現変更部132は、撮像画像におけるユーザUの輪郭L1を強調することによりユーザUを強調してもよい。例えば、撮像画像におけるユーザUの輪郭L1を太くすることによりユーザUの強調がなされてもよい。
図18は、情報処理装置10による表現変更機能の一例を示す図である。図18に示すように、表現変更部132は、撮像画像におけるユーザU以外の被写体の画素値を変更することによりユーザUを強調してもよい。例えば、撮像画像におけるユーザU以外の被写体の輝度を低下させることによりユーザUを強調してもよい。
図19は、情報処理装置10による表現変更機能の一例を示す図である。図19に示すように、表現変更部132は、撮像画像におけるユーザUに対するズームイン表示によりユーザUを強調してもよい。また、図19に示すように、表現変更部132は、ズームイン表示を行った後、ユーザUに対するズームアウト表示を行ってもよい。
図20は、情報処理装置10による表現変更機能の一例を示す図である。表現変更部132は、撮像画像におけるユーザの位置またはユーザの周辺の位置にオブジェクトを表示することによりユーザを強調してもよい。ユーザの周辺の範囲は、あらかじめ規定されていてもよい。図20に示した例では、表現変更部132は、撮像画像におけるユーザの周辺の位置にオブジェクトObj8,Obj9を付加することによりユーザUを強調している。
また、ユーザUの強調度合いは、一定であってもよいし、状況に応じて変化されてもよい。例えば、表現変更部132は、撮像画像におけるユーザのサイズに応じてユーザの強調度合いを変化させてもよい。図21は、情報処理装置10による表現変更機能の一例を示す図である。例えば、表現変更部132は、撮像画像におけるユーザのサイズが小さいほどユーザの強調度合いを強めてもよい。
図21に示した例では、撮像装置30からユーザUの位置が遠いほど、撮像画像におけるユーザUのサイズが小さくなっている。そのため、表現変更部132は、サイズの小さいユーザUの輪郭L0を、サイズの大きいユーザUの輪郭L1よりも太くすることにより、サイズの小さいユーザUの強調度合いを強めている。このように、撮像画像におけるユーザのサイズが小さいほどユーザの強調度合いが強められることにより、撮像画像においてユーザを見つけやすくなる。
また、撮像画像においてユーザUが他の物体に隠れてしまう場合もある。そこで、例えば、表現変更部132は、撮像画像においてユーザの一部または全部が他の物体により隠れて映っている場合に、ユーザの強調の手法を変化させてもよい。図22は、情報処理装置10による表現変更機能の一例を示す図である。図22に示すように、撮像画像においてユーザUの一部が他の被写体に隠れてしまっている。そこで、表現変更部132は、撮像画像におけるユーザUの周辺の位置にオブジェクトObj10を付加することにより、ユーザUの強調の手法を変化させている。ユーザUの周辺の範囲は、あらかじめ規定されていてもよい。
続いて、情報処理装置10による表現変更動作の流れについて説明する。図23は、情報処理装置10による表現変更動作の流れを示すフローチャートである。図23に示すように、画像取得部111により撮像画像が取得されない場合には(ステップS41で「No」)、動作が終了される。一方、画像取得部111により撮像画像が取得された場合には(ステップS41で「Yes」)、認識部121により撮像画像から被写体が認識される(ステップS42)。続いて、変更検出部131は、被写体のネットワークサービスにおける状態の変更を検出したか否かを判定する(ステップS43)。
変更検出部131により被写体のネットワークサービスにおける状態の変更が検出されない場合には(ステップS43で「No」)、動作が終了されるが、変更検出部131により被写体のネットワークサービスにおける状態の変更が検出された場合には(ステップS43で「Yes」)、表現変更部132は、被写体の表現を変更する(ステップS44)。表示制御部160は、表現変更部132により表現が変更されて得られる表示画像の表示を制御し(ステップS45)、動作が終了される。
以上に説明したように、情報処理装置10が有する表現変更機能によれば、撮像画像から認識された被写体のネットワークサービスにおける状態の変更が検出される。また、状態の変更が検出された場合に、撮像画像に映っている被写体の表現が変更される。このような制御によれば、撮像画像に映っている被写体のネットワークサービスにおける状態の変更が容易に把握されることが期待される。
<4.むすび>
以上説明したように、本実施形態に係る情報処理装置10のユーザ特定機能によれば、撮像画像を取得する画像取得部111と、携帯端末20のユーザに関するパラメータを取得するパラメータ取得部112と、パラメータに基づいて撮像画像からユーザを特定する特定部114と、特定部114によりユーザが特定されない場合、ユーザの特定に必要なユーザの動作を示す情報が携帯端末20に表示されるように制御する表示制御部160と、を備える、情報処理装置10が提供される。
かかる構成によれば、特定部114によりユーザが特定されない場合、ユーザの特定に必要なユーザの動作を示す情報が携帯端末20により表示され、この情報を閲覧したユーザは、撮像画像からユーザが特定されるように動作することが可能となる。したがって、撮像画像からユーザが容易に特定されることが期待される。
また、本実施形態に係る情報処理装置10の構図判定機能によれば、撮像画像を取得する画像取得部111と、撮像画像をもとにしたユーザの認識結果とユーザの目的地を示す情報とに基づいて構図を判定する構図判定部125と、構図判定部125により判定された構図に基づいて表示画像を決定する画像決定部126と、を備える、情報処理装置10が提供される。
かかる構成によれば、撮像画像をもとにしたユーザの認識結果とユーザの目的地を示す情報とに基づいて構図が判定され、この構図に基づいて表示画像が決定される。例えば、構図判定部125により、ユーザの位置を示す情報と目的地を示す情報とに基づいて構図が判定される。したがって、ユーザにとってより利便性が高い表示画像が決定されることが期待される。
また、本実施形態に係る情報処理装置10の表現変更機能によれば、撮像画像を取得する画像取得部111と、撮像画像から認識された被写体のネットワークサービスにおける状態の変更を検出する変更検出部131と、変更検出部131により状態の変更が検出された場合に、撮像画像に映っている被写体の表現を変更する表現変更部132と、を備える、情報処理装置10が提供される。
かかる構成によれば、被写体のネットワークサービスにおける状態の変更が検出された場合に、撮像画像に映っている被写体の表現が変更される。この撮像画像を閲覧したユーザは、撮像画像から被写体のネットワークサービスにおける状態の変更を容易に把握することが可能となる。
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、例えば、上記では、処理制御部100および表示制御部160のすべてを情報処理装置10が有する例を主に説明したが、かかるブロックの一部または全部は、情報処理装置10の代わりに他の装置が有していてもよい。例えば、処理制御部100および表示制御部160の一部をサーバが有し、その他の部分を携帯端末20が有してもよい。このように、本開示の技術は、クラウドコンピューティングにも適用することが可能である。
また、本明細書の情報処理装置10の動作における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理装置10の動作における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、情報処理装置10に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した情報処理装置10の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像画像を取得する画像取得部と、
前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定する構図判定部と、
前記構図判定部により判定された前記構図に基づいて表示画像を決定する画像決定部と、
を備える、情報処理装置。
(2)
前記情報処理装置は、
前記画像決定部により決定された前記表示画像が携帯端末に表示されるように制御する表示制御部をさらに備える、
前記(1)に記載の情報処理装置。
(3)
前記構図判定部は、前記認識結果としてユーザの位置が認識された場合、前記ユーザの位置を基準とした前記ユーザの目的地の方向に基づいて前記構図を判定する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記情報処理装置は、
前記ユーザの進行方向に基づいて前記構図を判定する第1のモードと前記ユーザの位置を基準とした前記ユーザの目的地の方向に基づいて前記構図を判定する第2のモードとのいずれかを設定するモード設定部をさらに備え、
前記構図判定部は、
前記モード設定部により設定されたモードに従って前記構図を判定する、
前記(1)または(2)に記載の情報処理装置。
(5)
前記構図判定部は、前記認識結果としてユーザの位置が認識された場合、前記ユーザが中央または中央から所定距離だけ離れた位置に存在する前記構図を判定する、
前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記画像決定部は、前記画像取得部により複数の撮像装置の各々から提供される撮像画像が取得された場合、前記複数の撮像装置の各々から提供される撮像画像の中から選択される撮像画像を前記表示画像として決定する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記画像決定部は、撮像画像を提供する撮像装置の撮像方向を決定し、決定した撮像方向により撮像される撮像画像を前記表示画像として決定する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(8)
前記画像決定部は、撮像画像を提供する撮像装置の画角を決定し、決定した画角により撮像される撮像画像を前記表示画像として決定する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(9)
前記画像決定部は、前記撮像画像から選択される領域を前記表示画像として決定する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(10)
前記画像決定部は、前記構図判定部により判定された前記構図に基づいて前記表示画像を決定できなかった場合、前記構図以外の検出データに基づいて前記表示画像を決定する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(11)
前記画像決定部は、前記画像取得部により前記撮像画像が取得されなかった場合、前記撮像画像以外のデータに基づいて検出されるユーザの位置と前記ユーザの目的地を示す情報とに応じた画像を前記表示画像として決定する、
前記(1)または(2)に記載の情報処理装置。
(12)
前記情報処理装置は、
前記撮像画像をもとにしてユーザを認識することにより前記認識結果を得る認識部をさらに備える、
前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、
前記ユーザを撮像するための条件が整っているか否かを判定する条件判定部と、
前記条件判定部により条件が整っていないと判定された場合には、前記表示画像に対して条件が整っていない旨を示す情報を付加する情報付加部と、
をさらに備える、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
撮像画像を取得することと、
前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定することと、
前記構図に基づいて表示画像を決定することと、
を含む、情報処理方法。
(15)
コンピュータを、
撮像画像を取得する画像取得部と、
前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定する構図判定部と、
前記構図判定部により判定された前記構図に基づいて表示画像を決定する画像決定部と、
を備える情報処理装置として機能させるためのプログラム。
1 情報処理システム
10 情報処理装置
20 携帯端末
30 撮像装置
40 ネットワーク
50 記憶部
100 処理制御部
111 画像取得部
112 パラメータ取得部
113 候補抽出部
114 特定部
115 認証部
121 認識部
122 条件判定部
123 情報付加部
124 モード設定部
125 構図判定部
126 画像決定部
131 変更検出部
132 表現変更部
160 表示制御部


Claims (15)

  1. 撮像画像を取得する画像取得部と、
    前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定する構図判定部と、
    前記構図判定部により判定された前記構図に基づいて表示画像を決定する画像決定部と、
    を備える、情報処理装置。
  2. 前記情報処理装置は、
    前記画像決定部により決定された前記表示画像が携帯端末に表示されるように制御する表示制御部をさらに備える、
    請求項1に記載の情報処理装置。
  3. 前記構図判定部は、前記認識結果としてユーザの位置が認識された場合、前記ユーザの位置を基準とした前記ユーザの目的地の方向に基づいて前記構図を判定する、
    請求項1に記載の情報処理装置。
  4. 前記情報処理装置は、
    前記ユーザの進行方向に基づいて前記構図を判定する第1のモードと前記ユーザの位置を基準とした前記ユーザの目的地の方向に基づいて前記構図を判定する第2のモードとのいずれかを設定するモード設定部をさらに備え、
    前記構図判定部は、
    前記モード設定部により設定されたモードに従って前記構図を判定する、
    請求項1に記載の情報処理装置。
  5. 前記構図判定部は、前記認識結果としてユーザの位置が認識された場合、前記ユーザが中央または中央から所定距離だけ離れた位置に存在する前記構図を判定する、
    請求項1に記載の情報処理装置。
  6. 前記画像決定部は、前記画像取得部により複数の撮像装置の各々から提供される撮像画像が取得された場合、前記複数の撮像装置の各々から提供される撮像画像の中から選択される撮像画像を前記表示画像として決定する、
    請求項1に記載の情報処理装置。
  7. 前記画像決定部は、撮像画像を提供する撮像装置の撮像方向を決定し、決定した撮像方向により撮像される撮像画像を前記表示画像として決定する、
    請求項1に記載の情報処理装置。
  8. 前記画像決定部は、撮像画像を提供する撮像装置の画角を決定し、決定した画角により撮像される撮像画像を前記表示画像として決定する、
    請求項1に記載の情報処理装置。
  9. 前記画像決定部は、前記撮像画像から選択される領域を前記表示画像として決定する、
    請求項1に記載の情報処理装置。
  10. 前記画像決定部は、前記構図判定部により判定された前記構図に基づいて前記表示画像を決定できなかった場合、前記構図以外の検出データに基づいて前記表示画像を決定する、
    請求項1に記載の情報処理装置。
  11. 前記画像決定部は、前記画像取得部により前記撮像画像が取得されなかった場合、前記撮像画像以外のデータに基づいて検出されるユーザの位置と前記ユーザの目的地を示す情報とに応じた画像を前記表示画像として決定する、
    請求項1に記載の情報処理装置。
  12. 前記情報処理装置は、
    前記撮像画像をもとにしてユーザを認識することにより前記認識結果を得る認識部をさらに備える、
    請求項1に記載の情報処理装置。
  13. 前記情報処理装置は、
    前記ユーザを撮像するための条件が整っているか否かを判定する条件判定部と、
    前記条件判定部により条件が整っていないと判定された場合には、前記表示画像に対して条件が整っていない旨を示す情報を付加する情報付加部と、
    をさらに備える、請求項1に記載の情報処理装置。
  14. 撮像画像を取得することと、
    前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定することと、
    前記構図に基づいて表示画像を決定することと、
    を含む、情報処理方法。
  15. コンピュータを、
    撮像画像を取得する画像取得部と、
    前記撮像画像をもとにしたユーザの認識結果と前記ユーザの目的地を示す情報とに基づいて構図を判定する構図判定部と、
    前記構図判定部により判定された前記構図に基づいて表示画像を決定する画像決定部と、
    を備える情報処理装置として機能させるためのプログラム。


JP2012071331A 2012-03-27 2012-03-27 情報処理装置、情報処理方法およびプログラム Pending JP2013207356A (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2012071331A JP2013207356A (ja) 2012-03-27 2012-03-27 情報処理装置、情報処理方法およびプログラム
EP13714003.4A EP2831702B1 (en) 2012-03-27 2013-03-19 Information processing device, information processing method and program
EP19173080.3A EP3557386B1 (en) 2012-03-27 2013-03-19 Information processing device and information processing method
IN7841DEN2014 IN2014DN07841A (ja) 2012-03-27 2013-03-19
BR112014023288A BR112014023288A2 (pt) 2012-03-27 2013-03-19 dispositivo e sistema de processamento de informação, e, método para processamento de informação
PCT/JP2013/001868 WO2013145639A1 (en) 2012-03-27 2013-03-19 Information processing device, information processing method and program
CN201380015427.2A CN104185830A (zh) 2012-03-27 2013-03-19 信息处理装置、信息处理方法和程序
EP17171374.6A EP3239814B1 (en) 2012-03-27 2013-03-19 Information processing device, information processing method and program
US14/386,120 US10303936B2 (en) 2012-03-27 2013-03-19 Information processing device to recognize subject from captured image
US16/390,485 US10713480B2 (en) 2012-03-27 2019-04-22 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012071331A JP2013207356A (ja) 2012-03-27 2012-03-27 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2013207356A true JP2013207356A (ja) 2013-10-07

Family

ID=48045626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012071331A Pending JP2013207356A (ja) 2012-03-27 2012-03-27 情報処理装置、情報処理方法およびプログラム

Country Status (7)

Country Link
US (2) US10303936B2 (ja)
EP (3) EP3239814B1 (ja)
JP (1) JP2013207356A (ja)
CN (1) CN104185830A (ja)
BR (1) BR112014023288A2 (ja)
IN (1) IN2014DN07841A (ja)
WO (1) WO2013145639A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099037A1 (ja) * 2015-12-09 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022136115A (ja) * 2018-03-29 2022-09-15 日本電気株式会社 ビデオ会議システム、ビデオ会議方法、およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD742418S1 (en) * 2012-11-13 2015-11-03 Wartsila Finland Oy Propulsion control system for ship with a display

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002107161A (ja) * 2000-10-03 2002-04-10 Matsushita Electric Ind Co Ltd 移動体用進路誘導装置
JP3908137B2 (ja) * 2002-09-18 2007-04-25 株式会社日立製作所 情報表示方法及びシステム
JP2004153674A (ja) 2002-10-31 2004-05-27 Sony Corp カメラ装置
AU2005278003B8 (en) * 2004-06-21 2011-06-23 Google Llc Single image based multi-biometric system and method
DE102007033391A1 (de) 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
JP5614014B2 (ja) * 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
KR101888082B1 (ko) * 2011-09-27 2018-09-10 엘지전자 주식회사 영상표시장치 및 그 동작방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099037A1 (ja) * 2015-12-09 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022136115A (ja) * 2018-03-29 2022-09-15 日本電気株式会社 ビデオ会議システム、ビデオ会議方法、およびプログラム
JP7400886B2 (ja) 2018-03-29 2023-12-19 日本電気株式会社 ビデオ会議システム、ビデオ会議方法、およびプログラム

Also Published As

Publication number Publication date
CN104185830A (zh) 2014-12-03
IN2014DN07841A (ja) 2015-04-24
EP3239814B1 (en) 2019-05-08
US10713480B2 (en) 2020-07-14
US20190244019A1 (en) 2019-08-08
EP3557386A1 (en) 2019-10-23
EP3239814A1 (en) 2017-11-01
EP3557386B1 (en) 2020-09-09
US10303936B2 (en) 2019-05-28
EP2831702A1 (en) 2015-02-04
BR112014023288A2 (pt) 2019-09-24
US20150062355A1 (en) 2015-03-05
EP2831702B1 (en) 2017-05-17
WO2013145639A1 (en) 2013-10-03

Similar Documents

Publication Publication Date Title
US9928422B2 (en) User terminal apparatus and IRIS recognition method thereof
US9940521B2 (en) Visibility enhancement devices, systems, and methods
US20140078164A1 (en) Unauthorized viewer detection system and method
KR20220144890A (ko) 다중 사용자 환경에서 손 제스처를 사용하여 디바이스를 제어하기 위한 방법 및 시스템
US9898090B2 (en) Apparatus, method and recording medium for controlling user interface using input image
US11222231B2 (en) Target matching method and apparatus, electronic device, and storage medium
WO2015003606A1 (en) Method and apparatus for recognizing pornographic image
JP6044633B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10713480B2 (en) Information processing device and information processing method
CN109104573B (zh) 一种确定对焦点的方法及终端设备
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP6064995B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN110232417B (zh) 图像识别方法、装置、计算机设备及计算机可读存储介质
JPWO2014156257A1 (ja) 表示制御装置、表示制御方法および記録媒体
KR101289243B1 (ko) 영상 통화 서비스 방법, 이를 위한 장치 및 시스템
JP2016021716A (ja) 追尾装置及びその制御方法
KR20110099845A (ko) 화상 통화 시스템에서 전방향 화자 인식을 위한 장치 및 방법
CN115761867A (zh) 基于人脸图像的身份检测方法、装置、介质及设备
JP5920448B2 (ja) 撮像装置、プログラム
WO2014093293A1 (en) Unauthorized viewer detection system and method
KR20180068128A (ko) 이동단말기 및 그 제어방법
JP2014013603A (ja) 撮像装置