JP2013003650A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2013003650A
JP2013003650A JP2011131158A JP2011131158A JP2013003650A JP 2013003650 A JP2013003650 A JP 2013003650A JP 2011131158 A JP2011131158 A JP 2011131158A JP 2011131158 A JP2011131158 A JP 2011131158A JP 2013003650 A JP2013003650 A JP 2013003650A
Authority
JP
Japan
Prior art keywords
display
image
processing apparatus
information processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011131158A
Other languages
English (en)
Other versions
JP5807399B2 (ja
JP2013003650A5 (ja
Inventor
Shunichi Kasahara
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011131158A priority Critical patent/JP5807399B2/ja
Priority to US13/489,652 priority patent/US8860661B2/en
Priority to CN201210185755.4A priority patent/CN102830794B/zh
Publication of JP2013003650A publication Critical patent/JP2013003650A/ja
Publication of JP2013003650A5 publication Critical patent/JP2013003650A5/ja
Application granted granted Critical
Publication of JP5807399B2 publication Critical patent/JP5807399B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

【課題】ユーザビリティの高い情報処理装置及びそそのプログラムを提供すること
【解決手段】本技術の情報処理装置は、撮像部と、表示部と、検出部と画像生成部とを具備する。撮像部は、画像を撮像して撮像画像を取得する。表示部は、表示面が上記撮像部の撮像方向と同一方向に面する。検出部は、上記撮像画像に画像処理を施して上記撮像画像におけるユーザの顔の領域である顔領域を検出する。画像生成部は、上記検出部の検出結果に基づいて、上記表示部に表示される表示画像を生成する。
【選択図】図1

Description

本技術は、撮像部及び表示部を備える情報処理装置及びそのプログラムに関する。
近年、携帯型情報端末やタブレット型PC(personal computer)の普及に伴ない、ユーザ層の拡大とも相まって、このような装置のユーザビリティのさらなる向上が求められている。具体的には、ユーザが必要な操作をなるべく少なくすること、ユーザの直感的な操作を可能とすること等が求められている。
例えば特許文献1には、ユーザ検出センサを備える情報処理装置が開示されている。当該装置は、ユーザ検出センサがユーザを検出すると自動的に省電力モードから復帰するものであり、ユーザによる操作なくして所定のインターフェイス画面を表示することが可能に構成されている。
特開2009−238061号公報(段落[0013]、図1)
しかしながら、特許文献1に記載のような情報処理装置では、ユーザが当該装置の近傍を通過するだけで反応してしまうと考えられる。例えば、ユーザ検出センサの検出距離を短縮すれば、このような問題は解消するとも考えられるが、反対にユーザが当該装置に相当に接近するまで当該装置が反応しないという問題が生じる。
以上のような事情に鑑み、本技術の目的は、ユーザビリティの高い情報処理装置及びそのプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、撮像部と、表示部と、検出部と画像生成部とを具備する。
上記撮像部は、画像を撮像して撮像画像を取得する。
上記表示部は、表示面が上記撮像部の撮像方向と同一方向に面する。
上記検出部は、上記撮像画像に画像処理を施して上記撮像画像におけるユーザの顔の領域である顔領域を検出する。
上記画像生成部は、上記検出部の検出結果に基づいて、上記表示部に表示される表示画像を生成する。
この構成によれば、撮像部が表示部の表示面が面する方向を撮像方向としているので、ユーザが表示面を見ようとすれば必然的にユーザの顔が撮像部の撮像範囲に入ることになる。したがって、検出部の検出結果に基づいて画像生成部が表示画像を生成することにより、ユーザが表示面を見ようとすれば所定の表示画像が表示されるものとすることが可能である。
上記画像生成部は、上記検出部によって上記顔領域が検出された場合には、表示オブジェクトを上記撮像画像に重畳させて上記表示画像を生成してもよい。
この構成によれば、撮像画像に表示オブジェクト(表示画像に表示される図形)が重畳された表示画像が生成される。撮像画像にはユーザの顔が含まれているので、表示画像には、ユーザの顔画像と共に表示オブジェクトが表示されることとなる。例えば、この表示オブジェクトに、ユーザのスケジュールやメール着信数等の表示情報が表示されることにより、ユーザは自己の顔を見ながら(表示部を鏡として使用しながら)これらの表示情報を参照することが可能となる。
上記画像生成部は、上記顔領域に上記表示オブジェクトが重複しないように上記表示オブジェクトを配置してもよい。
表示画像が、撮像画像に表示オブジェクトが重畳された画像である場合、表示画像に含まれるユーザの顔に表示オブジェクトが重複し、ユーザの顔が隠される可能性がある。ここで、画像生成部が、表示オブジェクトが顔領域に重複しないように表示オブジェクトを配置することにより、ユーザの顔が表示オブジェクトによって隠されることを防止することが可能である。
上記画像生成部は、上記顔領域に上記表示オブジェクトが重複しないように上記表示オブジェクトの大きさを調整してもよい。
この構成によれば、ユーザの顔が表示オブジェクトによって隠されることを防止することが可能である。
上記画像生成部は、上記顔領域に上記表示オブジェクトが重複しないように上記表示オブジェクトの位置を調整してもよい。
この構成によれば、ユーザの顔が表示オブジェクトによって隠されることを防止することが可能である。
上記画像生成部は、上記顔領域の大きさによって情報粒度が規定された表示情報を含む上記表示画像を生成してもよい。
上述のように、検出部は、撮像画像におけるユーザの顔領域を検出するものであるが、この顔領域の大きさはユーザと撮像部との距離を示すものである。ユーザの顔が表示部に近い場合はユーザは表示画像を詳細に(小さい文字でも)見ることができるが、ユーザの顔が表示部に遠い場合はユーザは表示画像を詳細に見ることはできない。したがって、画像生成部が、顔領域の大きさによって表示情報の情報粒度(情報の内容的な細かさ)を規定することにより、ユーザは表示部と顔の距離に応じた情報粒度を有する表示情報を参照することが可能となる。
上記画像生成部は、予め登録されたユーザの顔の特徴を参照して上記撮像画像に含まれるユーザ個人を識別し、上記ユーザ個人に応じた表示情報を含む上記表示画像を生成してもよい。
この構成によれば、画像生成部は、表示部に対向したユーザ毎にそのユーザ用の表示情報を含む表示画像を生成する。したがって、ユーザは自分専用の表示情報を見ることが可能である一方、他のユーザが表示部に対向した場合であっても他人に見られたくない表示情報を表示させないことが可能である。これは、例えば複数のユーザが一台の情報処理装置を共有している場合に有効である。
上記画像生成部は、上記撮像画像において複数の上記顔領域が検出された場合には、上記顔領域の数に応じた表示情報を含む上記表示画像を生成してもよい。
この構成によれば画像生成部は、検出された顔領域の数、即ち撮像部の撮像範囲に含まれるユーザの人数に応じた表示情報を含む表示画像を生成することができる。したがって、ユーザは、情報処理装置のユーザ数を別途入力することなく、ユーザ数に応じた表示情報を参照することが可能となる。
上記画像生成部は、上記顔領域の大きさに応じて文字サイズ及び文字数が規定された表示情報を含む上記表示画像を生成してもよい。
この構成によれば、画像生成部は、顔領域の大きさによって規定する情報粒度として、文字サイズ及び文字数を変更するものとすることができる。
上記画像生成部は、上記顔領域の大きさに応じて描画範囲が規定された表示対象画像である表示情報を含む上記表示画像を生成してもよい。
この構成によれば、画像生成部は、顔領域の大きさによって規定する情報粒度として、表示対象画像の描画範囲を変更するものとすることができる。
上記画像生成部は、上記撮像画像において複数の上記顔領域が検出された場合には、上記ユーザ個人に応じた表示情報以外の表示情報を含む上記表示画像を生成してもよい。
この構成によれば、画像生成部は、撮像部の撮像範囲に含まれるユーザの人数が複数である場合には、ユーザ個人に応じた表示情報を表示しないものとし、即ち、ユーザのプライバシーあるいはセキュリティを確保することが可能である。
撮像部によって撮像された撮像画像に画像処理を施して上記撮像画像におけるユーザの顔の領域である顔領域を検出する検出部と、
上記検出部の検出結果に基づいて、上記撮像部の撮像方向と同一方向に面する表示部に表示される表示画像を生成する画像生成部と
としてコンピュータを機能させるプログラム。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、検出部と、画像生成部とを具備する。
上記検出部は、撮像部によって撮像された撮像画像に画像処理を施して上記撮像画像におけるユーザの顔の領域である顔領域を検出する。
上記画像生成部は、上記検出部の検出結果に基づいて、上記撮像部の撮像方向と同一方向に面する表示部に表示される表示画像を生成する。
以上のように本技術によれば、ユーザビリティの高い情報処理装置及びそのプログラムを提供することが可能である。
本技術の第1の実施形態に係る情報処理装置の機能的構成を示すブロック図である。 同情報処理装置のハードウェア構成を示すブロック図である。 同情報処理装置の外観を示す模式図である。 同情報処理装置の動作を示すフローチャートである。 同情報処理装置の動作に係る画像の例を示す図である。 本技術の第2の実施形態に係る情報処理装置の動作に係る画像の例を示す図である。 本技術の第3の実施形態に係る情報処理装置の動作に係る画像の例を示す図である。 本技術の第4の実施形態に係る情報処理装置の動作に係る画像の例を示す図である。
(第1の実施形態)
第1の実施形態に係る情報処理装置について説明する。
<情報処理装置の構成>
図1は情報処理装置1の機能的構成を示すブロック図であり、図2は情報処理装置1の
ハードウェア構成を示すブロック図である。図3は情報処理装置1の外観を示す斜視図である。以下、情報処理装置1の具体例としてタブレット型PCを例にとって説明するが、情報処理装置1はこれに限られず、例えば携帯型情報端末や据え置き型PCであるものとすることも可能である。
図1に示すように、情報処理装置1は、カメラ11、検出部12、画像生成部13及びディスプレイ14有し、これらは相互に接続されている。
カメラ11は、デジタル画像を撮像することが可能なカメラである。カメラ11は、静止画の連続として動画を撮像することが可能なカメラとすることができ、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等の撮像素子を用いたものとすることができる。以下、カメラ11によって撮像された画像を「撮像画像」する。
検出部12は、上記撮像画像に画像処理を施し、撮像画像におけるユーザの顔の領域(以下、顔領域)を検出する。検出部12の具体的な検出動作については後述する。検出部12は、撮像画像における顔領域の検出結果を画像生成部13に出力する。
画像生成部13は、検出結果に基づいて、ディスプレイ14に表示される表示画像を生成する。画像生成部13による表示画像の生成については後述する。
ディスプレイ14は、画像を表示することが可能なデバイスである。ディスプレイ14は、液晶ディスプレイやEL(Electroluminescence)ディスプレイ等の直視型ディスプレイであってもよく、プロジェクタ等の投影型ディスプレイであってもよい。また、ディスプレイ14は、鏡面上に透過型の表示素子が配置されたミラー型ディスプレイとすることも可能である。
ディスプレイ14は、表示面(ディスプレイ画面、プロジェクタ投影面、鏡面等)が上記カメラ11の撮像方向と同一方向に面するものである(図3参照)。即ち、ディスプレイ14はカメラ11に対して、ユーザが表示面に対向した場合にユーザの顔がカメラ11の撮像範囲に入る位置関係となる
以上のような情報処理装置1の機能的構成は、図2に示すハードウェア構成によって実現される。図2に示すように情報処理装置1は、上記カメラ11及び上記ディスプレイ14に加え、ストレージ15、メモリ16、CPU(Central Processing Unit)17及び入力IF(interface)18を有するものとすることができる。各構成は、バス19によって相互に接続されている。なお、ここに示す情報処理装置1のハードウェア構成は一例であり、上記情報処理装置1の機能的構成を実現することが可能な各種構成を採用することが可能である。
ストレージ15は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置であり、CPU17によって演算処理されるプログラム、後述する「表示情報」となるデータ等が記憶されている。
メモリ16は、DRAM(Dynamic Random Access Memory)等の主記憶装置であり、ストレージ15からCPU17によって読み出されたプログラムや演算処理結果等を記憶する。
CPU17は、メモリ16からプログラムを読み出し、演算処理を実行する。即ち、情報処理装置1はCPU17が動作主体となって機能する。
入力IF18は、情報処理装置1の入力インターフェイスであり、タッチパネル、キーボードやマウス等の入力装置とすることができる。特に、ディスプレイ14が直視型ディスプレイの場合にはタッチパネルとすることができる。
図3に示す情報処理装置1は、筐体20にディスプレイ14とカメラ11が設けられている。入力IF18はディスプレイ14に一体的に設けられ、ストレージ15、メモリ16、CPU17、入力IF18及びバス19は筐体20に収容されている。
<情報処理装置の動作>
情報処理装置1の動作について説明する。
図4は、情報処理装置1の動作を示すフローチャートである。図5は、情報処理装置1
の動作に係る画像の例を示す図である。以下、図4に示すフローチャートの各ステップ(St)毎に情報処理装置の動作を説明する。
まず、カメラ11がその撮像方向を撮像し、撮像画像を取得する(St1)。カメラ11による撮像は、連続的(動画として撮像)であってもよく、断続的(例えば、毎秒数枚程度)でもよい。ここで、図5(a)に示す撮像画像Sがカメラ11によって撮像されたものとする。なお、撮像画像Sは、情報処理装置1において内部的に処理される画像であり、ディスプレイ14に表示される画像ではない。カメラ11は、撮像画像Sを検出部12に出力する。
検出部12は、撮像画像Sに「顔領域」の検出処理を施す(St2)。「顔領域」とは、検出部12においてカメラ11が、ヒトの顔と認識する領域である。検出部12は、テンプレートマッチングにより顔領域を検出するものとすることができる。
具体的には、検出部12は、撮像画像Sを2値化し、その画像を低解像度化し、ヒトの顔の特徴を現すテンプレートを用いて探索することによって、撮像画像Sにおける顔領域を検出することができる。この他にも、検出部12は、種々のアルゴリズムによって顔画像を検出するものとすることができる。
ステップ2において顔領域が検出された場合(St2:Yes)、画像生成部13は表示画像を生成する(St3A)。図5(b)は画像生成部13によって生成される表示画像Ha(Ha1)の例を示す。
具体的には、画像生成部13は、撮像画像Sに「表示オブジェクト」iが重畳された表示画像を生成するものとすることができる。表示オブジェクトとは、表示画像に表示される図形であり、ユーザに提供される各種表示情報、例えば、現在時刻、スケジュール、メール着信数等が含まれたガジェット(ウィジェット)とすることができる。また、表示オブジェクトには、ユーザが選択することが可能なアイコン等のGUI(Graphical User Interface)や、所定のアプリケーションによって生成されたグラフィック等も含まれる。
図5(b)に示すように画像生成部13は、撮像画像Sに表示オブジェクトiを重畳させて表示画像Ha1を生成することができる。表示画像Ha1は撮像画像Sにユーザの顔が含まれている場合(St2:Yes)に生成される画像であるので、表示画像Ha1にはユーザの顔と表示オブジェクトiが含まれている。
ステップ2において顔領域が検出されなかった場合(St2:No)、画像生成部13は上記表示情報を含まない表示画像を生成する(St3B)ものとすることができる。図5(c)は画像生成部13によって生成される表示画像Hbの例を示す。この表示画像Hbは例えば、ストレージ15に保存されている写真画像やスクリーンセーバーとすることができる。
画像生成部13は、ステップ3A又は3Bにおいて生成した表示画像Ha又は表示画像Hbをディスプレイ14に出力する。ディスプレイ14は、画像生成部13から出力された表示画像Ha又は表示画像Hbを表示する(St4)。この後、再び撮像画像の取得(St1)からプロセスが繰り返される。
以上の情報処理装置1の動作をユーザの行動に沿って説明すると、次のようになる。ユーザが情報処理装置1の近傍にいない場合、カメラ11によって撮像される撮像画像において顔領域は検出されない(St2:No)ので、表示画像Hbが表示されている。このとき、情報処理装置1は例えばデジタルフォトフレームとして機能するものと考えることができる。
ユーザが情報処理装置1に接近し、ディスプレイ14に顔を向けると、ユーザの顔がカメラ11の撮像範囲に入り、撮像画像において顔領域が検出される(St2:Yes)。このため、表示画像Haが生成され、ディスプレイ14に表示される。即ち、ユーザがある程度の距離範囲においてディスプレイ14に顔を向けるだけで、表示画像Haを表示させることが可能となる
本実施形態に係る情報処理装置1は以上のように動作を行う。情報処理装置1によって、ユーザは何の操作も要することなく表示画像Haを表示させることが可能となる。一方でユーザが情報処理装置1から離れ、又は顔を別の方向に向ければ、自動的に表示画像Haの表示を終了させることが可能となる。
なお、本実施形態において画像生成部13は、撮像画像Sと表示オブジェクトiを重畳させて表示画像Haを生成するものとしたが、これに限られない。例えば、ディスプレイ14がミラー型ディスプレイの場合にはユーザの顔は鏡に映るので、画像生成部13は表示オブジェクトiのみを表示画像として生成するものとすることができる。また、画像生成部13は、撮像画像Sと無関係の画像に表示オブジェクトiを重畳させて表示画像を生成するものとすることも可能である。
また、本実施形態ではステップ2において顔領域が検出されなかった場合、画像生成部2は表示画像Hbを生成するものとして説明したが、何らの画像も生成しないとすることも可能である。この場合、情報処理装置1は、ユーザの顔が検出されない限り画像を表示しない(ディスプレイ14の電源オフ)ものとすることができる。
(第2の実施形態)
第2の実施形態に係る情報処理装置について説明する。第2の実施形態において第1の実施形態と同様の構成及び動作については説明を省略する。本実施形態に係る情報処理装置は、第1の実施形態に係る情報処理装置1と同様の機能的構成及びハードウェア構成を有するものである。
上記第1の実施形態において、画像生成部13は、撮像画像Sにおいて顔領域が検出された場合に撮像画像Sに表示オブジェクトiを重複させた表示画像Haを生成することを説明した。本実施形態に係る情報処理装置1は、撮像画像における顔領域の位置に基づいて表示オブジェクトiのレイアウトを調整するものである。
<情報処理装置の動作>
本実施形態に係る情報処理装置1の動作について説明する。
図6は、本実施形態に係る情報処理装置1の動作に係る画像の例を示す図である。以下、図4に示したフローチャートの各ステップ(St)毎に情報処理装置の動作を説明する。
まず、カメラ11がその撮像方向を撮像し、撮像画像(図示せず)を取得する(St1)。カメラ11は、撮像画像を検出部12に出力する。
検出部12は、撮像画像に「顔領域」の検出処理を施す(St2)。検出部12は、テンプレートマッチングにより顔領域を検出するものとすることができる。
ステップ2において顔領域が検出された場合(St2:Yes)、画像生成部13は上記表示オブジェクトiが撮像画像Sに重畳された表示画像を生成する(St3A)。図6(a)〜(d)は、画像生成部13によって生成される表示画像Ha(Ha2〜Ha5)を示す。
画像生成部13は、検出部12によって検出された顔領域に表示オブジェクトiが重複しないように表示オブジェクトiの配置(レイアウト)を調整して撮像画像に重畳させ、表示画像Haを生成する。
具体的には画像生成部13は、図6(a)及び(b)に示すように、検出部12によって検出された顔領域に表示オブジェクトiが重複しないように表示オブジェクトiを配置するものとすることができる。図6(a)に示す表示画像Ha2と図6(b)に示す表示画像Ha3では、ユーザの顔の位置に対して表示オブジェクトiの位置が変更されている。
また、図6(c)及び(d)に示すように、画像生成部13は、顔領域に表示オブジェクトiが重複しない範囲で、表示オブジェクトiの大きさ(文字等のサイズも含む)を増減させるものとすることができる。図6(c)に示す表示画像Ha4と図6(d)に示す表示画像Ha5では、ユーザの顔の大きさ(ユーザと情報処理装置1の距離)に応じて表示オブジェクトiの大きさが変更されている。
ステップ2において顔領域が検出されなかった場合(St2:No)、画像生成部13は上記表示情報を含まない表示画像Hb(図5参照)を生成する(St3B)ものとすることができる。
画像生成部13は、ステップ3A又は3Bにおいて生成した表示画像Ha又は表示画像Hbをディスプレイ14に出力する。ディスプレイ14は、画像生成部13から出力された表示画像Ha又は表示画像Hbを表示する(St4)。この後、再び撮像画像の取得(St1)からプロセスが繰り返される。
以上の情報処理装置1の動作をユーザの行動に沿って説明すると、次のようになる。ユーザが情報処理装置1の近傍にいない場合、カメラ11によって取得される撮像画像において顔領域は検出されない(St2:No)ので、表示画像Hbが表示されている。ユーザが情報処理装置1に接近し、ディスプレイ14に顔を向けると、ユーザの顔がカメラ11の撮像範囲に入り、撮像画像において顔領域が検出される(St2:Yes)。このため、表示画像Haが生成され、ディスプレイ14に表示される。即ち、ユーザがある程度の距離範囲においてディスプレイ14に顔を向けるだけで、表示画像Haの表示が開始される。
さらに本実施形態では、表示オブジェクトiがユーザの顔に重複しないように配置されるため、カメラ11によって撮像されたユーザの顔が表示オブジェクトiによって隠されることなく表示される。また、ユーザのカメラ11に対する相対位置が変動する場合においても、その変動に応じて表示オブジェクトiの配置が調整され、常にユーザの顔が表示オブジェクトiによって隠されることなく表示される。このため、ユーザは、表示オブジェクトiに遮られることなく自己の顔を見ることができる。
(第3の実施形態)
第3の実施形態に係る情報処理装置について説明する。第3の実施形態において第1の実施形態と同様の構成及び動作については説明を省略する。本実施形態に係る情報処理装置は、第1の実施形態に係る情報処理装置1と同様の機能的構成及びハードウェア構成を有するものである。
上記第1の実施形態において、画像生成部13は、撮像画像Sにおいて顔領域が検出された場合に表示画像Haを生成することを説明した。本実施形態に係る情報処理装置1は、顔領域の大きさに基づいて、表示情報の情報粒度を調整するものである。
<情報処理装置の動作>
本実施形態に係る情報処理装置1の動作について説明する。
図7は、本実施形態に係る情報処理装置1の動作に係る画像の例を示す図である。以下、図4に示したフローチャートの各ステップ(St)毎に情報処理装置の動作を説明する。
まず、カメラ11がその撮像方向を撮像し、撮像画像(図示せず)を取得する(St1)。カメラ11は、撮像画像を検出部12に出力する。
検出部12は、撮像画像に「顔領域」の検出処理を施す(St2)。検出部12は、テンプレートマッチングにより顔領域を検出するものとすることができる。
ステップ2において顔領域が検出された場合(St2:Yes)、画像生成部13は上記表示オブジェクトiが撮像画像Sに重畳された表示画像を生成する(St3A)。図7(a)〜(c)は、画像生成部13によって生成される表示画像Ha(Ha6〜Ha8)を示す。
画像生成部13は、検出部12によって検出された顔領域の撮像画像における大きさに基づいて表示情報の「情報粒度」を規定し、表示画像Haを生成する。情報粒度とは表示情報の内容的な細かさを意味し、情報粒度が小さい情報は詳細な情報であり、情報粒度が大きい情報は簡略な情報である。具体的には、情報粒度は、表示情報の文字サイズや文字数、表示対象画像の描画範囲とすることができる。
画像生成部13は、検出された顔領域が大きい(ユーザがカメラ11に近い)場合には表示オブジェクトiに情報粒度が小さい表示情報が表示された表示画像を生成する。また、画像生成部13は、検出された顔領域が小さい(ユーザがカメラ11に遠い)場合には表示オブジェクトiに情報粒度が大きい表示情報が表示された表示画像を生成する。図7(a)は顔領域が大きい場合の表示画像Ha6を示し、図7(b)は顔領域が小さい場合の表示画像Ha7を示す。
図7(a)に示す表示画像Ha6には情報粒度小さい表示情報(例:詳細なスケジュール)を含む表示オブジェクトiが表示されている。図7(b)に示す表示画像Ha7には情報粒度が大きい表示情報(例:簡略なスケジュール)を含む表示オブジェクトiが表示されている。また、画像生成部13は図7(e)に示すように、第2の実施形態と同様にして顔領域に重複しないように表示オブジェクトiを配置して表示画像Ha8を生成してもよい。
なお、本実施形態においては、表示情報は必ずしも表示オブジェクトiに表示されるものでなくてもよく、顔領域の大きさによって情報粒度が規定された表示情報のみがディスプレイ14に表示されるものとすることも可能である。例えば、上述の例ではスケジュールを表示情報の例としているが、情報粒度が小さい表示情報として大縮尺の地図情報を、情報粒度が大きい表示情報として小縮尺の地図情報をそれぞれ表示画像とすることも可能である。
ステップ2において顔領域が検出されなかった場合(St2:No)、画像生成部13は上記表示情報を含まない表示画像Hb(図5参照)を生成する(St3B)ものとすることができる。
画像生成部13は、ステップ3A又は3Bにおいて生成した表示画像Ha又は表示画像Hbをディスプレイ14に出力する。ディスプレイ14は、画像生成部13から出力された表示画像Ha又は表示画像Hbを表示する(St4)。この後、再び撮像画像の取得(St1)からプロセスが繰り返される。
以上の情報処理装置1の動作をユーザの行動に沿って説明すると、次のようになる。ユーザが情報処理装置1の近傍にいない場合、カメラ11によって取得される撮像画像において顔領域は検出されない(St2:No)ので、表示画像Hbが表示されている。ユーザが情報処理装置1に接近し、ディスプレイ14に顔を向けると、ユーザの顔がカメラ11の撮像範囲に入り、撮像画像において顔領域が検出される(St2:Yes)。このため、表示画像Haが生成され、ディスプレイ14に表示される。即ち、ユーザがある程度の距離範囲においてディスプレイ14に顔を向けるだけで、表示画像Haの表示が開示される。
さらに本実施形態では、撮像画像における顔領域の大きさ、即ちユーザとカメラ11との距離に応じて表示情報の情報粒度が変更される。ユーザは、カメラ11との距離が遠い場合には簡略な(見易い)表示情報を見ることができ、カメラ11との距離が近い場合には、詳細な表示情報を見ることが可能となる。換言すればユーザは、顔をカメラ11に接近させ、あるいは遠ざけることにより、情報処理装置1を直接操作することなくして表示情報の情報粒度を変更することが可能となる。
(第4の実施形態)
第4の実施形態に係る情報処理装置について説明する。第4の実施形態において第1の実施形態と同様の構成及び動作については説明を省略する。本実施形態に係る情報処理装置は、第1の実施形態に係る情報処理装置1と同様の機能的構成及びハードウェア構成を有するものである。
上記第1の実施形態において、画像生成部13は、撮像画像において顔領域が検出された場合に表示画像Haを生成することを説明した。本実施形態に係る情報処理装置1は、検出された顔領域からユーザを識別し、ユーザに応じて表示情報を選択するものである。
<情報処理装置の動作>
本実施形態に係る情報処理装置1の動作について説明する。
図8は、本実施形態に係る情報処理装置1の動作に係る画像の例を示す図である。以下、図4に示したフローチャートの各ステップ(St)毎に情報処理装置の動作を説明する。
まず、カメラ11がその撮像方向を撮像し、撮像画像を取得する(St1)。カメラ11は、撮像画像を検出部12に出力する。
検出部12は、撮像画像に「顔領域」の検出処理を施す(St2)。検出部12は、テンプレートマッチングにより顔領域を検出するものとすることができる。
ステップ2において顔領域が検出された場合(St2:Yes)、画像生成部13は上記表示情報を含む表示画像を生成する(St3A)。図8(a)及び(b)は、画像生成部13によって生成される表示画像Ha(Ha9及びHa10)を示す。
画像生成部13は、撮像画像に対してユーザ識別処理を実行する。ユーザ識別処理は、予め登録されているユーザの顔画像に関する情報を、撮像画像と比較することによってすることができる。ユーザの顔画像に関する情報とは、例えば、ユーザの目の間隔等の画像的に特徴的な情報である。このような顔画像からのユーザ識別処理は、各種アルゴリズムを用いてすることができる。
画像生成部13は、上記のようにして識別したユーザに応じて、表示オブジェクトiに表示する表示情報を選択する。具体的には、例えば、ユーザ毎に個別のスケジュールやメール着信数等を選択するものとすることができる。また、複数ユーザで共有すべき表示情報は、いずれのユーザが識別された場合にも選択することができる。
図8(a)はあるユーザが識別された場合に生成される表示画像Ha9を示し、図8(b)は別のユーザが識別された場合に生成される表示画像Ha10を示す。
画像生成部13は、上記第2又は第3の実施形態において説明したように、表示オブジェクトiを顔領域に重複しないように撮像画像に重畳させてもよく、また顔領域の大きさに応じて情報粒度を変更してもよい。
なお、本実施形態においては、表示情報は必ずしも表示オブジェクトiに表示されるものでなくてもよく、識別されたユーザ個人に応じて選択された表示情報のみがディスプレイ14に表示されるものとすることも可能である。
ステップ2において顔領域が検出されなかった場合(St2:No)、画像生成部13は上記表示情報を含まない表示画像Hb(図5参照)を生成する(St3B)ものとすることができる。
画像生成部13は、ステップ3A又は3Bにおいて生成した表示画像Ha又は表示画像Hbをディスプレイ14に出力する。ディスプレイ14は、画像生成部13から出力された表示画像Ha又は表示画像Hbを表示する(St4)。この後、再び撮像画像の取得(St1)からプロセスが繰り返される。
以上の情報処理装置1の動作をユーザの行動に沿って説明すると、次のようになる。ユーザが情報処理装置1の近傍にいない場合、カメラ11によって取得される撮像画像において顔領域は検出されない(St2:No)ので、表示画像Hbが表示されている。ユーザが情報処理装置1に接近し、ディスプレイ14に顔を向けると、ユーザの顔がカメラ11の撮像範囲に入り、撮像画像において顔領域が検出される(St2:Yes)。このため、表示オブジェクトiを含む表示画像Haが生成され、ディスプレイ14に表示される。即ち、ユーザがある程度の距離範囲においてディスプレイ14に顔を向けるだけで、表示画像Haの表示が開始される。
さらに本実施形態では、撮像画像Sにおいて識別されたユーザ個人に応じて、表示画像Haに表示される表示情報が選択される。例えば、複数のユーザが単一の情報処理装置1を共用している場合には、各ユーザはログイン入力等をすることなく自己に必要な情報を参照することが可能となる。また、自己の表示情報が他のユーザに対しては表示されないので、プライバシー及びセキュリティの点でも有効である。
(第5の実施形態)
第5の実施形態に係る情報処理装置について説明する。第5の実施形態において第1の実施形態と同様の構成及び動作については説明を省略する。本実施形態に係る情報処理装置は、第1の実施形態に係る情報処理装置1と同様の機能的構成及びハードウェア構成を有するものである。
上記第1の実施形態において、画像生成部13は、撮像画像において顔領域が検出された場合に表示画像Haを生成することを説明した。本実施形態に係る情報処理装置1は、検出された顔領域の数(ユーザ数)を用いて表示情報を選択するものである。
<情報処理装置の動作>
本実施形態に係る情報処理装置1の動作について説明する。
以下、図4に示したフローチャートの各ステップ(St)毎に情報処理装置の動作を説明する。
まず、カメラ11がその撮像方向を撮像し、撮像画像を取得する(St1)。カメラ11は、撮像画像を検出部12に出力する。
検出部12は、撮像画像に「顔領域」の検出処理を施す(St2)。検出部12は、テンプレートマッチングにより顔領域を検出するものとすることができる。
ステップ2において顔領域が検出された場合(St2:Yes)、画像生成部13は上記表示情報を含む表示画像を生成する(St3A)。
画像生成部13は、検出部12によって検出された顔領域の数、即ち、カメラ11の撮像範囲に存在するユーザの数に応じて表示オブジェクトiに表示される表示情報を選択する。具体的には、画像生成部13は、顔領域が複数検出された場合には、ゲーム等の多人数向けの表示情報を含む表示画像を生成することができる。
また、画像生成部13は、プライバシーあるいはセキュリティの点から、所定の表示情報を含まない表示画像を生成することもできる。さらに、画像生成部13は、実施形態4において説明したユーザの識別情報を用いて、特定のユーザが含まれる場合には所定の表示情報を含まない、あるいは反対に、特定のユーザが含まれる場合には所定の表示情報を含む表示画像を生成することも可能である。
なお、本実施形態においては、表示情報は必ずしも表示オブジェクトiに表示されるものでなくてもよく、識別されたユーザ個人に応じて選択された表示情報のみがディスプレイ14に表示されるものとすることも可能である。
ステップ2において顔領域が検出されなかった場合(St2:No)、画像生成部13は上記表示情報を含まない表示画像Hb(図5参照)を生成する(St3B)ものとすることができる。
画像生成部13は、ステップ3A又は3Bにおいて生成した表示画像Ha又は表示画像Hbをディスプレイ14に出力する。ディスプレイ14は、画像生成部13から出力された表示画像Ha又は表示画像Hbを表示する(St4)。この後、再び撮像画像の取得(St1)からプロセスが繰り返される。
以上の情報処理装置1の動作をユーザの行動に沿って説明すると、次のようになる。ユーザが情報処理装置1の近傍にいない場合、カメラ11によって取得される撮像画像において顔領域は検出されない(St2:No)ので、表示画像Hbが表示されている。ユーザが情報処理装置1に接近し、ディスプレイ14に顔を向けると、ユーザの顔がカメラ11の撮像範囲に入り、撮像画像において顔領域が検出される(St2:Yes)。このため、む表示画像Haが生成され、ディスプレイ14に表示される。即ち、ユーザがある程度の距離範囲においてディスプレイ14に顔を向けるだけで、表示画像Haの表示が開始される。
さらに本実施形態では、撮像画像において検出された顔領域の数に応じて、表示画像Haに表示される表示情報が選択される。このため、複数のユーザが同時に情報処理装置1を使用する場合であっても、ユーザ数の登録等の操作入力が不要であり利便性が高い。さらに、複数のユーザが検出された場合には所定の表示情報が表示されないようにすることにより、プライバシー及びセキュリティの点でも有効である。
本技術は上記各実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において変更することが可能である。
なお、本技術は以下のような構成も採ることができる。
(1)
画像を撮像して撮像画像を取得する撮像部と、
表示面が上記撮像部の撮像方向と同一方向に面する表示部と、
上記撮像画像に画像処理を施して上記撮像画像におけるユーザの顔の領域である顔領域を検出する検出部と、
上記検出部の検出結果に基づいて、上記表示部に表示される表示画像を生成する画像生成部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
上記画像生成部は、上記検出部によって上記顔領域が検出された場合には、表示オブジェクトを上記撮像画像に重畳させて上記表示画像を生成する
情報処理装置。
(3)
上記(1)又は(2)に記載の情報処理装置であって、
上記画像生成部は、上記顔領域に上記表示オブジェクトが重複しないように上記表示オブジェクトを配置する
情報処理装置。
(4)
上記(1)から(3)のいずれかに記載の情報処理装置であって、
上記画像生成部は、上記顔領域に上記表示オブジェクトが重複しないように上記表示オブジェクトの大きさを調整する
情報処理装置。
(5)
上記(1)から(4)のいずれかに記載の情報処理装置であって、
上記画像生成部は、上記顔領域に上記表示オブジェクトが重複しないように上記表示オブジェクトの位置を調整する
情報処理装置。
(6)
上記(1)から(5)のいずれかに記載の情報処理装置であって、
上記画像生成部は、上記顔領域の大きさによって情報粒度が規定された表示情報が上記表示オブジェクトに表示された上記表示画像を生成する
情報処理装置。
(7)
上記(1)から(6)のいずれかに記載の情報処理装置であって、
上記画像生成部は、予め登録されたユーザの顔の特徴を参照して上記撮像画像に含まれるユーザ個人を識別し、上記ユーザ個人に応じた表示情報を含む上記表示画像を生成する
情報処理装置。
(8)
上記(1)から(7)のいずれかに記載の情報処理装置であって、
上記画像生成部は、上記撮像画像において複数の上記顔領域が検出された場合には、上記顔領域の数に応じた表示情報を含む上記表示画像を生成する
情報処理装置。
(9)
上記(1)から(8)のいずれかに記載の情報処理装置であって、
上記画像生成部は、上記顔領域の大きさに応じて文字サイズ及び文字数が規定された表示情報を含む上記表示画像を生成する
情報処理装置。
(10)
上記(1)から(9)のいずれかに記載の情報処理装置であって、
上記画像生成部は、上記顔領域の大きさに応じて描画範囲が規定された表示対象画像である表示情報を含む上記表示画像を生成する
情報処理装置。
(11)
上記(1)から(10)のいずれかに記載の情報処理装置であって、
上記画像生成部は、上記撮像画像において複数の上記顔領域が検出された場合には、上記ユーザ個人に応じた表示情報以外の表示情報を含む上記表示画像を生成する
情報処理装置。
(12)
撮像部によって撮像された撮像画像に画像処理を施して上記撮像画像におけるユーザの顔の領域である顔領域を検出する検出部と、
上記検出部の検出結果に基づいて、上記撮像部の撮像方向と同一方向に面する表示部に表示される表示画像を生成する画像生成部と
としてコンピュータを機能させるプログラム。
1…情報処理装置
11…カメラ
12…検出部
13…画像生成部
14…ディスプレイ

Claims (12)

  1. 画像を撮像して撮像画像を取得する撮像部と、
    表示面が前記撮像部の撮像方向と同一方向に面する表示部と、
    前記撮像画像に画像処理を施して前記撮像画像におけるユーザの顔の領域である顔領域を検出する検出部と、
    前記検出部の検出結果に基づいて、前記表示部に表示される表示画像を生成する画像生成部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記画像生成部は、前記検出部によって前記顔領域が検出された場合には、表示オブジェクトを前記撮像画像に重畳させて前記表示画像を生成する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記画像生成部は、前記顔領域に前記表示オブジェクトが重複しないように前記表示オブジェクトを配置する
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記画像生成部は、前記顔領域に前記表示オブジェクトが重複しないように前記表示オブジェクトの大きさを調整する
    情報処理装置。
  5. 請求項3に記載の情報処理装置であって、
    前記画像生成部は、前記顔領域に前記表示オブジェクトが重複しないように前記表示オブジェクトの位置を調整する
    情報処理装置。
  6. 請求項1に記載の情報処理装置であって、
    前記画像生成部は、前記顔領域の大きさによって情報粒度が規定された表示情報を含む前記表示画像を生成する
    情報処理装置。
  7. 請求項1に記載の情報処理装置であって、
    前記画像生成部は、予め登録されたユーザの顔の特徴を参照して前記撮像画像に含まれるユーザ個人を識別し、前記ユーザ個人に応じた表示情報を含む前記表示画像を生成する
    情報処理装置。
  8. 請求項1に記載の情報処理装置であって、
    前記画像生成部は、前記撮像画像において複数の前記顔領域が検出された場合には、前記顔領域の数に応じた表示情報を含む前記表示画像を生成する
    情報処理装置。
  9. 請求項6に記載の情報処理装置であって、
    前記画像生成部は、前記顔領域の大きさに応じて文字サイズ及び文字数が規定された表示情報を含む前記表示画像を生成する
    情報処理装置。
  10. 請求項6に記載の情報処理装置であって、
    前記画像生成部は、前記顔領域の大きさに応じて描画範囲が規定された表示対象画像である表示情報を含む前記表示画像を生成する
    情報処理装置。
  11. 請求項7に記載の情報処理装置であって、
    前記画像生成部は、前記撮像画像において複数の前記顔領域が検出された場合には、前記ユーザ個人に応じた表示情報以外の表示情報を含む前記表示画像を生成する
    情報処理装置。
  12. 撮像部によって撮像された撮像画像に画像処理を施して前記撮像画像におけるユーザの顔の領域である顔領域を検出する検出部と、
    前記検出部の検出結果に基づいて、前記撮像部の撮像方向と同一方向に面する表示部に表示される表示画像を生成する画像生成部と
    としてコンピュータを機能させるプログラム。
JP2011131158A 2011-06-13 2011-06-13 情報処理装置及びプログラム Expired - Fee Related JP5807399B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011131158A JP5807399B2 (ja) 2011-06-13 2011-06-13 情報処理装置及びプログラム
US13/489,652 US8860661B2 (en) 2011-06-13 2012-06-06 Information processing apparatus and program
CN201210185755.4A CN102830794B (zh) 2011-06-13 2012-06-06 信息处理装置和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011131158A JP5807399B2 (ja) 2011-06-13 2011-06-13 情報処理装置及びプログラム

Publications (3)

Publication Number Publication Date
JP2013003650A true JP2013003650A (ja) 2013-01-07
JP2013003650A5 JP2013003650A5 (ja) 2014-07-24
JP5807399B2 JP5807399B2 (ja) 2015-11-10

Family

ID=47292749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011131158A Expired - Fee Related JP5807399B2 (ja) 2011-06-13 2011-06-13 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US8860661B2 (ja)
JP (1) JP5807399B2 (ja)
CN (1) CN102830794B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142773A (ja) * 2013-01-23 2014-08-07 Casio Comput Co Ltd 電子機器、表示制御方法及びプログラム
JP2016106311A (ja) * 2016-01-25 2016-06-16 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
JP2022164348A (ja) * 2021-04-16 2022-10-27 アフラック生命保険株式会社 ミラー型表示装置及び情報提供システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
US9357135B2 (en) 2011-08-29 2016-05-31 Nec Corporation Image display device and method
JP2016045874A (ja) * 2014-08-26 2016-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112307800A (zh) * 2019-07-24 2021-02-02 华为技术有限公司 视频会议中电子铭牌的显示方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236013A (ja) * 2005-02-25 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム
JP2008015942A (ja) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc ユーザインタフェースプログラム、装置および方法、情報処理システム
JP2008027086A (ja) * 2006-07-19 2008-02-07 Sony Computer Entertainment Inc 表情誘導装置および表情誘導方法、表情誘導システム
JP2008276274A (ja) * 2005-07-04 2008-11-13 Nec Corp 情報処理装置及び情報処理方法
JP2009156948A (ja) * 2007-12-25 2009-07-16 Fujitsu Ltd 表示制御装置、表示制御方法、及び、表示制御プログラム
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010176170A (ja) * 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
JP2010191487A (ja) * 2009-02-13 2010-09-02 Sony Corp 情報処理装置および情報処理方法
WO2011037761A1 (en) * 2009-09-23 2011-03-31 Rovi Technologies Corporation Systems and methods for automatically detecting users within detection regions of media devices

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7379047B2 (en) * 2004-06-30 2008-05-27 Microsoft Corporation Using a physical object to control an attribute of an interactive display application
JP5128991B2 (ja) 2008-03-28 2013-01-23 Necパーソナルコンピュータ株式会社 情報処理装置および入力装置
JP5259315B2 (ja) * 2008-09-16 2013-08-07 オリンパスイメージング株式会社 画像検索装置、デジタルカメラ、画像検索方法および画像検索用プログラム
JP5345129B2 (ja) * 2008-09-29 2013-11-20 パナソニック株式会社 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236013A (ja) * 2005-02-25 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム
JP2008276274A (ja) * 2005-07-04 2008-11-13 Nec Corp 情報処理装置及び情報処理方法
JP2008015942A (ja) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc ユーザインタフェースプログラム、装置および方法、情報処理システム
JP2008027086A (ja) * 2006-07-19 2008-02-07 Sony Computer Entertainment Inc 表情誘導装置および表情誘導方法、表情誘導システム
JP2009156948A (ja) * 2007-12-25 2009-07-16 Fujitsu Ltd 表示制御装置、表示制御方法、及び、表示制御プログラム
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010176170A (ja) * 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
JP2010191487A (ja) * 2009-02-13 2010-09-02 Sony Corp 情報処理装置および情報処理方法
WO2011037761A1 (en) * 2009-09-23 2011-03-31 Rovi Technologies Corporation Systems and methods for automatically detecting users within detection regions of media devices

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142773A (ja) * 2013-01-23 2014-08-07 Casio Comput Co Ltd 電子機器、表示制御方法及びプログラム
JP2016106311A (ja) * 2016-01-25 2016-06-16 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
JP2022164348A (ja) * 2021-04-16 2022-10-27 アフラック生命保険株式会社 ミラー型表示装置及び情報提供システム

Also Published As

Publication number Publication date
JP5807399B2 (ja) 2015-11-10
US20120313851A1 (en) 2012-12-13
US8860661B2 (en) 2014-10-14
CN102830794B (zh) 2017-03-01
CN102830794A (zh) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5807399B2 (ja) 情報処理装置及びプログラム
KR102156603B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US10701273B1 (en) User terminal apparatus and control method thereof
US10209513B2 (en) Wearable device and control method thereof
US11704016B2 (en) Techniques for interacting with handheld devices
KR102063952B1 (ko) 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US9182816B2 (en) Information processing apparatus and program
US9628606B2 (en) Cover, an electronic device using the same and operating method thereof
US9430045B2 (en) Special gestures for camera control and image processing operations
WO2015161653A1 (zh) 一种终端操作方法及终端设备
KR102308201B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR102325339B1 (ko) 사용자의 움직임을 검출하여 사용자 입력을 수신하는 방법 및 이를 위한 장치
JP6540367B2 (ja) 表示制御装置、通信端末、通信システム、表示制御方法、及びプログラム
KR20160056827A (ko) 콘텐트를 공유하는 방법 및 콘텐트 공유 시스템
US20140009385A1 (en) Method and system for rotating display image
US10902101B2 (en) Techniques for displaying secure content for an application through user interface context file switching
US11284003B2 (en) User terminal apparatus and control method thereof
TWI493433B (zh) 被遮蔽畫面投影方法及應用該方法之可攜式電子裝置
CN116052224B (zh) 指纹识别方法及电子设备
JP5117346B2 (ja) 情報処理装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150605

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150824

R151 Written notification of patent or utility model registration

Ref document number: 5807399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees