JP5898378B2 - 情報処理装置およびアプリケーション実行方法 - Google Patents

情報処理装置およびアプリケーション実行方法 Download PDF

Info

Publication number
JP5898378B2
JP5898378B2 JP2015515656A JP2015515656A JP5898378B2 JP 5898378 B2 JP5898378 B2 JP 5898378B2 JP 2015515656 A JP2015515656 A JP 2015515656A JP 2015515656 A JP2015515656 A JP 2015515656A JP 5898378 B2 JP5898378 B2 JP 5898378B2
Authority
JP
Japan
Prior art keywords
event
unit
information
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015515656A
Other languages
English (en)
Other versions
JPWO2014181380A1 (ja
Inventor
伸次 高嶋
伸次 高嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Application granted granted Critical
Publication of JP5898378B2 publication Critical patent/JP5898378B2/ja
Publication of JPWO2014181380A1 publication Critical patent/JPWO2014181380A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、撮影画像を処理する情報処理技術に関する。
従来より、ユーザの現在の状況に応じて、コンテンツを選択して自動再生する技術が様々提案されている。たとえば特許文献1は、ユーザの生体情報からユーザの心理状態を判定し、その心理状態に基づいて音楽を選択する再生装置を開示している。
また近年、実空間に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されており、奥行きを持った立体映像を呈示可能なヘッドマウントディスプレイ(Head Mounted Display: 以下「HMD」と記載する。)が普及している。HMDには様々な種類が存在するが、その1つにホログラフィック素子やハーフミラー等を用いて、仮想的な立体映像をユーザに呈示しつつ、HMDの外の様子をシースルーで見させることのできる光学透過型HMDがある。
特開2006−146630号公報
特許文献1は、再生する音楽を選択するために、ユーザの心理状態を利用する斬新なアプローチを採用しているが、現実には高精度で心理状態を判定することは容易でない事情がある。そこでユーザの現在の状況を適切に判断して、ユーザに対して好適なタイミングでサービスを提供する技術の開発が望まれている。本発明者は、特にこのような技術をウェアラブルコンピュータ、たとえば光学透過型HMDを備えたコンピュータに搭載することで、ユーザの現在の状況を的確に判断でき、好適にサービスを提供できる可能性を見いだした。さらに本発明者はHMDなどの装着型ディスプレイの特徴を利用して、ユーザが扱いやすいユーザインタフェースを想到するに至った。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ユーザに対して好適にサービスを提供することのできる情報処理技術、またユーザが扱いやすいユーザインタフェースアプリケーションを提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、イベントに、時間情報と物体画像情報とを関連付けたイベントリストを記録する記録部と、実空間を撮影する撮像部と、イベント開始条件が成立したか否かを判定する制御部と、アプリケーションを処理する実行部とを備える。制御部は、記録部に記録された時間情報により特定される時間帯に撮影された撮影画像に、記録部に記録された物体画像情報に対応する画像が含まれているか判定する画像処理部と、撮影画像に物体画像情報に対応する画像が含まれていることが判定されると、イベント開始条件が成立したことを判定する条件判定部と、実行部に、アプリケーションの処理を指示する指示部とを有する。実行部は、開始条件が成立したイベントに関連付けられたアプリケーションの処理を開始する。
本発明の別の態様は、アプリケーション実行方法である。この方法は、実空間を撮影した撮影画像を取得するステップと、イベントに時間情報と物体画像情報とを関連付けたイベントリストを参照して、イベントリストに含まれる時間情報により特定される時間帯に撮影された撮影画像に、イベントリストに含まれる物体画像情報に対応する画像が含まれているか判定するステップと、撮影画像に物体画像情報に対応する画像が含まれていることが判定された場合に、イベント開始条件が成立したことを判定するステップと、開始条件が成立したイベントに関連付けられたアプリケーションの処理を開始させるステップとを備える。
本発明のさらに別の態様は、情報処理装置である。この装置は、実空間に仮想オブジェクトを重畳して呈示する情報処理装置であって、仮想オブジェクトを実空間中でユーザが観察できるように表示する装着型ディスプレイと、実空間を撮影する撮像部と、撮影画像に含まれる実物体画像を特定する画像処理部と、特定した実物体画像、または実物体画像に対応するマーク画像を、物体画像として記録する記録部と、装着型ディスプレイに、物体画像を表示する表示処理部とを備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ユーザに対して好適にサービスを提供することのできる情報処理技術を提供することができ、またユーザが扱いやすいユーザインタフェースアプリケーションを提供することができる。
実施例に係る情報処理装置の外観の一例を模式的に示す図である。 実施例に係る情報処理システムを模式的に示す図である。 情報処理装置のユーザインタフェース提供機能を実現するための機能ブロックを示す図である。 撮像部により撮影される撮影画像の一例を示す図である。 (a)および(b)は、ジェスチャ入力モード開始の検出処理を説明するための図である。 メニュー画面の配置位置を説明するための図である。 (a)および(b)は、ユーザがジェスチャを行った様子を示す図である。 (a)および(b)は、ユーザがジェスチャを行った様子を示す図である。 (a)および(b)は、ジェスチャ入力モード終了の検出処理を説明するための図である。 下層のメニュー画面の一例を示す図である。 下層のメニュー画面の一例を示す図である。 ユーザがディスプレイ装置を介して見える光景を示す図である。 時計を取り囲む軌跡を示す図である。 実物体特定部により特定された実物体画像を示す図である。 ユーザの平均的な行動表を示す図である。 イベント候補呈示画面を示す図である。 スケジュール表作成画面を示す図である。 ドラッグ操作によりイベント名を表領域に配置する動作を説明するための図である。 表領域にイベント名を割り当てた状態を示す図である。 スケジュール表作成画面を示す図である。 ドラッグ操作により物体画像を表領域に配置されたイベント名に関連付ける動作を説明するための図である。 イベントに物体画像を割り当てた状態を示す図である。 スケジュール表の一例を示す図である。 イベントの選択画面を示す図である。 情報処理装置のアプリケーション処理機能を実現するための機能ブロックを示す図である。 イベントリストを説明するための図である。 イベントリストの一例を示す図である。 イベントとコンテンツとを関連付けたコンテンツ表を示す図である。
拡張現実(AR)技術においてユーザに呈示される情報は、アノテーションとも呼ばれ、テキスト、アイコンまたはアニメーションなどの様々な形態の仮想的なオブジェクトを用いて可視化される。たとえば、AR技術を広告のために利用する場合には、実空間の建物の壁面または看板などに、広告用の仮想オブジェクトが重畳されて表示される。また、AR技術を道案内のために利用する場合には、実世界で目印となる物体または路上などに、道案内用の仮想オブジェクトや地図などが重畳されて表示される。
このようなARアプリケーションでは、まずマーカが登録され、マーカに対応する実物体が撮影されることで、マーカに関連付けられた処理(サービス)が起動される。本発明者は、ユーザが個別にマーカを登録できるようにすることで、アプリケーションをユーザカスタマイズして処理できることに注目し、ユーザがマーカを簡易に登録するためのユーザインタフェースを開発するに至った。また、登録したマーカと実物体画像とを照合した後、視覚的なアノテーションに限らず、他の種類のアプリケーションをユーザに提供することで、AR技術の可能性を広げられることにも注目した。以下、本発明を実施例をもとに説明する。
図1は、実施例に係る情報処理装置の外観の一例を模式的に示す図である。情報処理装置10は、視覚的なユーザインタフェースなどの仮想オブジェクトを呈示するディスプレイ装置12、撮像部14、イヤホン16、マイク(図示せず)および種々のモジュールを収納する筐体18を含む。本実施例の情報処理装置10はウェアラブルコンピュータであって、光学透過型HMDなどを有する映像観察デバイスとして構成されてよいが、たとえば携帯電話やPDA(Personal Digital Assistant)などの撮像部を備えた端末装置として構成されてもよい。情報処理装置10は、実空間に仮想オブジェクトを表現する映像を重畳してユーザに観察させる機能を有する。撮像部14は、情報処理装置10を装着したユーザの周囲の環境を周期的(たとえば30枚/秒または60枚/秒)に撮像し、イヤホン16は、音声を出力し、マイクは、ユーザが発する音声や実空間中に存在する環境音を取得する。
本実施例においてディスプレイ装置12は、ハーフミラーで構成された光学透過型HMDであって、ユーザはディスプレイ装置12を介して実空間をシースルーで見ることができ、また情報処理装置10が生成した映像(仮想オブジェクト)を見ることができる。情報処理装置10は立体映像を生成してもよい。ディスプレイ装置12はホログラフィック素子を用いて導光板に映像を投影するディスプレイ装置であってもよく、虚像を形成して映像を観察できるようにする投影方式のディスプレイ装置であってもよい。なおディスプレイ装置12は、ビデオ透過型HMDであってもよく、撮像部14で撮影した実空間画像を表示しつつ、情報処理装置10が生成した仮想オブジェクトを実空間画像に重畳して表示してもよい。このように情報処理装置10は、ユーザに実空間をユーザ周辺の環境として見せつつ、その周辺環境に、仮想的なオブジェクトを重畳して表示する装着型のものであればよい。
本実施例において「実物体」は、実空間に存在する物を意味し、「仮想オブジェクト」は、情報処理装置10が作り出したオブジェクトを意味する。ディスプレイ装置12が光学透過型HMDである場合、実物体は、ユーザにより光学透過型HMDを介してシースルーで観察される。またディスプレイ装置12がビデオ透過型HMDである場合、実物体は、ビデオ透過型HMDに表示されてユーザにより観察される。なお撮影画像から実物体の画像を切り出して、情報処理装置10がディスプレイ装置12の任意の位置に表示する場合、その実物体画像は、仮想オブジェクトとして扱われる。
ディスプレイ装置12は2つのめがねの形態をとり、右めがねに右目用画像、左めがねに左目用画像を表示する。これによりユーザは立体的な映像を観察できるようになる。なお本実施例のディスプレイ装置12は、必ずしも立体映像を提供する仕組みを有しなくてもよく、たとえば片目用の1つのめがねのみを有していてもよい。
撮像部14は、情報処理装置10をユーザが装着したとき、ユーザの眉間のあたりに配置されるように2つのメガネ型ディスプレイの間に設けられており、ユーザの視野に含まれる実空間を撮像する。なお撮像部14の画角は、人間の視野角に一致ないしは同等であることが好ましいが、図1に示すタイプの情報処理装置10では、撮像部14の画角は人間の視野角より狭いこともある。撮像部14は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の既知の固体撮像素子を用いて実現できる。
筐体18は、めがね形状の情報処理装置10のめがねフレームの役割を果たすとともに、情報処理装置10が利用する様々なモジュールを収容する。情報処理装置10が利用するモジュールとは、光学透過型HMDを実現するためのモジュール、3次元映像(仮想オブジェクト)を生成するためのモジュール、Bluetooth(登録商標)プロトコル、IEEE802.11プロトコルまたは移動通信プロトコルなどにより通信処理を行うための通信モジュール、音声出力するためのモジュール、電子コンパス、加速度センサ、傾きセンサ、GPS(Global Positioning System)センサ、および照度センサ等である。これらのモジュールは例示であり、また情報処理装置10はこれらのモジュールを必ずしも全て搭載する必要はない。いずれのモジュールを搭載するかは、情報処理装置10が想定する利用シーンに応じて決定すればよい。
図1に示す情報処理装置10は、めがね形状を有しているが、この他にも帽子形状、ユーザの頭部を一周して固定されるベルト形状、ユーザの頭部全体を覆うヘルメット形状等さまざまなバリエーションが考えられる。本実施例の情報処理装置10は、いずれの形状を有してもよい。なおこれらは装着型のウェアラブルコンピュータの形状の例であるが、携帯電話機や携帯ゲーム機なども情報処理装置10の形態としてあげることができる。
本実施例において情報処理装置10は、ユーザが扱いやすいユーザインタフェースを提供し、またユーザの行動に応じてコンテンツを提供する機能を有する。なおユーザに提供されるコンテンツは、情報処理装置10の記録部に保持されているものであってもよく、またコンテンツサーバや端末装置などの外部機器から配信されるものであってもよい。以下、外部機器から情報処理装置10にコンテンツを配信する環境について説明する。
図2は、実施例に係る情報処理システムを模式的に示す図である。情報処理システム1は、通信機能を有する端末装置2と、デジタルコンテンツを配信するコンテンツサーバ4と、無線アクセスポイントおよびルータの機能を有するアクセスポイント(以下、「AP」とよぶ)5と、移動電話通信の基地局6とを備える。コンテンツサーバ4、AP5および基地局6は、インターネットなどのネットワーク3に接続している。情報処理装置10は通信機能を有し、端末装置2および/またはコンテンツサーバ4からコンテンツを取得する。情報処理装置10は、端末装置2からBluetooth(登録商標)プロトコル通信でコンテンツを受信してもよい。また情報処理装置10は、AP5との間でIEEE802.11プロトコルによる接続を確立し、コンテンツサーバ4からAP5経由でコンテンツを受信してもよい。また情報処理装置10は、基地局6との間で移動通信プロトコルによる接続を確立し、コンテンツサーバ4から基地局6経由でコンテンツを受信してもよい。このように情報処理装置10は、外部機器からコンテンツを取得することができる。
情報処理装置10の機能の概要を説明する。なお以下ではディスプレイ装置12が、ユーザが実空間をシースルーで見ることができる光学透過型HMDである場合を例にとる。情報処理装置10はARアプリケーションを搭載し、ディスプレイ装置12に、仮想オブジェクトを表示する機能をもつ。
情報処理装置10は、ユーザの状況に応じて、アプリケーションを処理することができる。ここでアプリケーションの処理とは、ユーザの状況に応じたアプリケーションを起動して実行することと、また特定のアプリケーションにおいてユーザの状況に応じたコンテンツを実行することを含む。たとえば前者は、朝ユーザが会社に出勤する前に、道路の混雑情報や電車の遅延情報、今日の天気予報などを通知するアプリケーションを起動して実行し、またユーザが自宅を出て通勤している間に、音楽を再生するアプリケーションを起動して実行することなどを含む。また、たとえば後者は、朝ユーザが会社に出勤する前に、目覚めのよい音楽を再生し、また通勤中は、外国語の勉強のために外国語のラジオ番組をストリーミング再生することなどを含む。本実施例の情報処理装置10は、イベントと時間情報と物体画像情報とを関連付けたイベントリストを保持しておき、時間情報により特定される時間帯に撮像部14が撮影した実空間画像に、物体画像情報に対応する画像が含まれていれば、そのイベントの開始条件が成立したことを判定して、そのイベントに関連付けられているアプリケーションの処理を開始する。
以上の機能を効率よく実現するために、情報処理装置10は、ユーザが一日のスケジュール表を作成するためのユーザインタフェースを提供する。一般にスケジュール表では、イベントに関連付けて、イベントの開始時刻、終了時刻が設定されるが、本実施例のスケジュール表には、さらにイベント開始条件の成立を判定するための物体画像情報が登録される。
イベントリストは、ユーザが作成したスケジュール表と同じであってもよいが、後で詳述するように、スケジュール表を加工して生成されることが好ましい。映像観察デバイスである情報処理装置10は撮像部14を有しており、撮像部14が、イベントリストに登録された物体画像情報に対応する実物体を撮影すると、その物体画像情報に関連付けられたイベントの開始条件が成立したことが判定される。
以下において、ユーザがスケジュール表を簡易に作成できるようにするための基本操作を実現するユーザインタフェースを説明する。
<ユーザインタフェース提供機能>
図3は、情報処理装置10のユーザインタフェース提供機能を実現するための機能ブロックを示す。情報処理装置10は、入出力機能を提供するディスプレイ装置12、撮像部14およびマイク20を備える。また情報処理装置10は、撮像部14およびマイク20からの入力を操作情報に変換する入力受付部100、各種処理を行う処理部80およびデータを記録する記録部140を備え、処理部80は、画像処理部110、表示処理部120、スケジュール登録部150を有する。これらの構成は、ハードウエアコンポーネントでいえば、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム、ストレージなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。なお記録部140は、フラッシュメモリ、HDDなどにより構成されてよい。なお実施例では、図3に示す機能ブロックを情報処理装置10が備えていることを前提とするが、後述するように、図3に示す機能ブロックの一部は、端末装置2によって実現されてもよい。
入力受付部100は、撮像部14またはマイク20から入力された情報を受け付ける。マイク20からは音情報が入力され、入力受付部100は音声認識機能を有して、ユーザからの音声を認識して操作情報を生成し、生成した操作情報を表示処理部120、画像処理部110および/またはスケジュール登録部150などの処理モジュールに提供する。
また入力受付部100は、撮像部14で撮影された撮影画像を受け取ると、撮影画像に含まれるユーザのジェスチャを検出して、そのジェスチャから操作情報を生成し、生成した操作情報を表示処理部120、画像処理部110および/またはスケジュール登録部150などの処理モジュールに提供する。本実施例において、撮像部14はユーザの眉間あたりに配置されているため、入力受付部100がジェスチャを認識する物体は、ユーザの視線方向付近の手の動きや指の動きとなる。なお、入力受付部100が所定の形状の物体をジェスチャ認識用物体として登録しておき、ユーザがその物体を撮像部14の画角内で動かすことで、入力受付部100がジェスチャを検出するようにしてもよい。以下、入力受付部100が、ジェスチャ認識用物体であるユーザの手や指の動きを検出して、操作情報を生成する例について説明する。入力受付部100は、ジェスチャ入力モードの開始を検出すると、ジェスチャ認識処理を開始し、ジェスチャ入力モードの終了を検出すると、ジェスチャ認識処理を終了する。
図4は、撮像部14により撮影される撮影画像の一例を示す。撮像部14は、情報処理装置10を装着したユーザの視線方向を含む所定の画角で実空間を撮影する。たとえば図4は、自宅のリビングルームの様子を撮影した画像を示している。なお撮影画像中、点線で囲んだ領域は、ユーザの手や指の動き(ジェスチャ)を認識するためのジェスチャ認識領域30として設定されている。
図5(a)および図5(b)は、ジェスチャ入力モード開始の検出処理を説明するための図である。図5(a)および図5(b)は、それぞれジェスチャ入力モード開始を異なる条件で判定する例を示している。
図5(a)は、ジェスチャ認識領域30に、ユーザの手が進入する様子を示す。入力受付部100は、撮影画像のジェスチャ認識領域30にユーザの手が含まれたことを検出すると、ジェスチャ入力モードの開始条件が成立したことを判定し、ジェスチャ認識処理を開始する。なお、ジェスチャ認識領域30が撮影画像の領域全体を占める場合、ユーザの手がフレームインしたことが、ジェスチャ入力モードの開始条件として設定されていることに等しくなる。
図5(b)は、ジェスチャ認識領域30に撮影されている手が所定の動作を行った様子を示す。入力受付部100は、撮影画像のジェスチャ認識領域30に含まれるユーザの手が所定の動作を行ったことを検出すると、ジェスチャ入力モードの開始条件が成立したことを判定し、ジェスチャ認識処理を開始する。なお、所定の動作とは、ユーザが手を所定のポーズにすることや、また所定の連続的な動きをすることを含む。
以上のように、入力受付部100は、ジェスチャ認識領域30における手の動きを認識し、その動きがジェスチャ入力モードの開始条件を成立させる場合に、ジェスチャ認識処理を開始する。なお以下において、「手」は、手全体ないしは指を含むものとして説明する。
ジェスチャ入力モードが開始されると、ディスプレイ装置12のAR表示領域に、メニュー画面が表示される。これによりユーザは実空間を見ながら、ディスプレイ装置12に表示されるメニュー画面も見られるようになる。なおメニュー画面などのAR表示領域に表示される仮想オブジェクトは、実空間においてジェスチャ認識領域30中の対応する位置に配置される。
ディスプレイ装置12のAR表示領域と、撮影画像のジェスチャ認識領域30との関係について説明する。AR表示領域は、ディスプレイ装置12の背景として広がる実空間に、仮想オブジェクトを重ね合わせてユーザに見せるための領域である。ユーザは、表示された仮想オブジェクトに対して手や指を使って入力操作を行う。この入力操作は、撮像部14により撮影されなければならないため、したがって仮想オブジェクトは、撮像部14の画角内に仮想的に配置されていなければならず、さらに言えば、ジェスチャ認識領域30内に仮想的に配置されていなければならない。このため、ディスプレイ装置12のAR表示領域と撮影画像のジェスチャ認識領域30とは、それぞれ独立した空間座標を有するものであるが、両者は互いに重なっている必要があり、さらには同一の画像領域であることが好ましい。以下、AR表示領域とジェスチャ認識領域30とが実空間における同一の領域を示すものとする。
図6は、メニュー画面32の配置位置を説明するための図である。なお、図6はディスプレイ装置12の表示領域の一部を示しており、ここでは撮影画像と同じ領域を示している。実際のディスプレイ装置12の表示領域は、図6に示すよりも大きいことが通常である。あくまでも図6はユーザが見ている実空間にメニュー画面32が重畳されて観察されることを示すための説明図であることに留意されたい。また図6において、ディスプレイ装置12に表示されているのはメニュー画面32のみであり、それ以外のリビングルームの背景は、ユーザがハーフミラーであるディスプレイ装置12を介して、直接見ている光景であることにも留意されたい。
図7(a)は、ユーザがクリックジェスチャを行った様子を示す。情報処理装置10において、クリック操作は、2次元AR表示座標を確定する操作として利用される。たとえばディスプレイ装置12にアイコンなどの仮想オブジェクトが表示されている場合、ユーザは、仮想オブジェクトに対してクリックジェスチャを行うことで、その仮想オブジェクトを選択することができる。
入力受付部100は、手が撮像部14の光軸方向、つまり奥行き方向を往復した場合に、クリックジェスチャが行われたことを判定する。撮像部14がステレオカメラで構成されている場合、入力受付部100は、撮影された手の視差量から奥行き方向の手の動きを検出できる。一方撮像部14が単眼カメラで構成されている場合には、手の大きさの変化を検出して、奥行き方向の手の動きを検出することができる。なお情報処理装置10が距離センサを有して、距離センサの計測値で手の奥行き方向の動きが検出されてもよい。入力受付部100は、クリックジェスチャを連続して2回検出すると、ダブルクリック操作が行われたことを判定する。
入力受付部100は、ジェスチャ認識領域30においてクリックジェスチャを検出すると、クリック操作が行われたことを示す情報を、クリック操作が行われた2次元AR表示座標値とともに、表示処理部120、画像処理部110および/またはスケジュール登録部150などの処理モジュールに伝達する。入力受付部100は、ジェスチャ認識領域30においてクリックジェスチャが行われた2次元座標値を、2次元AR表示座標値に変換する。入力受付部100は、このように撮影画像における2次元座標値を2次元AR表示座標値に変換し、処理モジュールに伝達する機能を有している。以下、この座標値の変換および伝達については説明を省略する。
図7(b)は、ユーザがドラッグジェスチャを行った様子を示す。情報処理装置10において、ドラッグ操作は、2次元または3次元AR座標系に表示されている仮想オブジェクトを移動させる操作として利用される。ディスプレイ装置12に仮想オブジェクトが表示されている場合、ユーザは、仮想オブジェクトに対してドラッグジェスチャを行うことで、その仮想オブジェクトを移動させることができる。
入力受付部100は、手がAR座標系を縦横斜めに移動した場合に、ドラッグジェスチャが行われたことを判定する。入力受付部100は、ジェスチャ認識領域30においてドラッグジェスチャを検出すると、ドラッグ操作が行われたことを示す情報を、表示処理部120、画像処理部110および/またはスケジュール登録部150などの処理モジュールに伝達する。なおドラッグ操作は、クリック操作により選択された仮想オブジェクトに対して行われる。したがって入力受付部100は、クリックジェスチャが行われた仮想オブジェクトを特定し、その仮想オブジェクトに対してドラッグジェスチャが行われた場合に、その仮想オブジェクトに対するドラッグ操作情報を所定の処理モジュールに伝達する。なお入力受付部100は、ドラッグ操作の終了を、その仮想オブジェクトに対してクリックジェスチャが行われたときに認識する。
図8(a)は、ユーザがズームインジェスチャを行った様子を示す。情報処理装置10において、ズームイン操作は、2次元または3次元AR座標系に表示されている仮想オブジェクトを拡大させる操作として利用される。ディスプレイ装置12に仮想オブジェクトが表示されている場合、ユーザは、仮想オブジェクトに対してズームインジェスチャを行うことで、その仮想オブジェクトを拡大表示させることができる。
入力受付部100は、2本の指の間隔がAR座標系において広がった場合に、ズームインジェスチャが行われたことを判定する。入力受付部100は、ジェスチャ認識領域30においてズームインジェスチャを検出すると、ズームイン操作が行われたことを示す情報を、表示処理部120、画像処理部110および/またはスケジュール登録部150などの処理モジュールに伝達する。なおズームイン操作は、クリック操作により選択された仮想オブジェクトに対して行われる。したがって入力受付部100は、クリックジェスチャが行われた仮想オブジェクトを特定し、その仮想オブジェクトに対してズームインジェスチャが行われた場合に、その仮想オブジェクトに対するズームイン操作情報を所定の処理モジュールに伝達する。なお入力受付部100は、ズームイン操作の終了を、その仮想オブジェクトに対してクリックジェスチャが行われたときに認識する。
図8(b)は、ユーザがズームアウトジェスチャを行った様子を示す。情報処理装置10において、ズームアウト操作は、2次元または3次元AR座標系に表示されている仮想オブジェクトを縮小させる操作として利用される。ディスプレイ装置12に仮想オブジェクトが表示されている場合、ユーザは、仮想オブジェクトに対してズームアウトジェスチャを行うことで、その仮想オブジェクトを縮小表示させることができる。
入力受付部100は、2本の指の間隔がAR座標系において狭まった場合に、ズームアウトジェスチャが行われたことを判定する。入力受付部100は、ジェスチャ認識領域30においてズームアウトジェスチャを検出すると、ズームアウト操作が行われたことを示す情報を、表示処理部120、画像処理部110および/またはスケジュール登録部150などの処理モジュールに伝達する。なおズームアウト操作は、クリック操作により選択された仮想オブジェクトに対して行われる。したがって入力受付部100は、クリックジェスチャが行われた仮想オブジェクトを特定し、その仮想オブジェクトに対してズームアウトジェスチャが行われた場合に、その仮想オブジェクトに対するズームアウト操作情報を所定の処理モジュールに伝達する。なお入力受付部100は、ズームアウト操作の終了を、その仮想オブジェクトに対してクリックジェスチャが行われたときに認識する。
図9(a)および図9(b)は、ジェスチャ入力モード終了の検出処理を説明するための図である。図9(a)および図9(b)は、それぞれジェスチャ入力モード終了を異なる条件で判定する例を示している。
図9(a)は、ジェスチャ認識領域30から、ユーザの手が退避する様子を示す。入力受付部100は、ジェスチャ認識処理の実行中に、撮影画像のジェスチャ認識領域30にユーザの手が含まれなくなったことを検出すると、ジェスチャ入力モードの終了条件が成立したことを判定し、ジェスチャ認識処理を終了する。
図9(b)は、ジェスチャ認識領域30に撮影されている手が所定の動作を行った様子を示す。入力受付部100は、ジェスチャ認識処理の実行中に、撮影画像のジェスチャ認識領域30に含まれるユーザの手が所定の動作を行ったことを検出すると、ジェスチャ入力モードの終了条件が成立したことを判定し、ジェスチャ認識処理を終了する。なお、所定の動作とは、ユーザが手を所定のポーズにすることや、また所定の連続的な動きをすることを含む。
ジェスチャ入力モードが終了されると、ディスプレイ装置12のAR表示領域に表示されていたメニュー画面などは消失する。
なお後述するように、本実施例のインタフェースでは、メニュー画面に含まれる項目を選択することで、下層のメニュー画面が開き、さらに下層メニュー画面に含まれる項目に関する処理を実行するなど、連続して様々な処理が行われる。そのため、図9(a)ないしは図9(b)に関連するジェスチャ入力モードの終了条件が成立した場合に、即座にメニュー画面や、表示中のインタフェースをディスプレイ装置12から消すのは好ましくないことも考えられる。そこで、入力モードの終了条件が成立した場合には、ユーザに、終了する旨の確認メッセージをディスプレイ装置12に表示し、ユーザが明示的にOKを出した場合に、ディスプレイ装置12から仮想オブジェクトを消すようにしてもよい。
また特に図9(a)に関連する終了条件は、ユーザの手がフレームアウトしたときに成立するため、意図せずに終了条件が成立する可能性が高いといえる。そこで、入力モードの開始条件には、図5(a)に関連するフレームインを採用し、一方で終了条件には、図9(a)に関連するフレームアウトを採用しないようにしてもよい。この場合、終了条件は、図9(b)に関連するものを採用すればよい。なお、図5(a)に関連するフレームインの開始条件が成立し、所定時間(たとえば数秒以内)の間に図9(a)に関連するフレームアウトの終了条件が成立した場合には、ジェスチャ入力モードを開始する意図がなく、偶然ユーザの手がフレームインした可能性が高いため、確認メッセージを呈示することなく、ジェスチャ認識処理を終了してもよい。
このように情報処理装置10は、ユーザのジェスチャを操作入力として扱うためのユーザインタフェースを提供する。なお入力受付部100は、上記した例以外のジェスチャ、たとえば手の回転ジェスチャを検出して、仮想オブジェクトの回転操作情報を生成してもよい。このように入力受付部100は、ジェスチャ認識用物体の動きを検出して、ユーザの操作情報を生成することができる。なお既述したように入力受付部100は、マイク20から入力される音声を解析して、ユーザの操作情報を生成してもよい。たとえばユーザが「クリック」と発声すると、入力受付部100は、マイク20から発声情報を受け付け、クリック操作情報を生成して所定の処理モジュールに伝達する。
本実施例の情報処理装置10は、ユーザの一日のイベントの予定を設定したスケジュール表から、イベントリストを作成する。イベントリストの詳細は後述するが、情報処理装置10はイベントリストをもとに、イベントの開始条件の成立を判定すると、そのイベントに関連付けられたアプリケーションの処理を行う。イベントの開始条件は、イベントリストに登録されているイベントの時間帯に、そのイベントに関連付けられている物体画像情報に対応する実物体が撮像部14により撮影されたことである。このような処理を可能とするべく、イベントリストは、イベントに、時間情報と物体画像情報とを関連付けて構成されている。
イベントリストを作成するために、その基礎となるスケジュール表も、ユーザがイベントに、時間情報と物体画像情報とを関連付けて設定する。以下、このようなスケジュール表を作成するための手順の一例を示す。以下の例では、まず最初に、ユーザがイベントに関連付けるための物体画像を収集し、その後、スケジュール表を作成する際に、イベントの時間情報を特定して、イベントと収集した物体画像情報とを関連付ける作業を行う。
入力受付部100が、図5(a)または図5(b)に示すジェスチャを検出すると、ジェスチャ入力モードの開始条件が成立したことを判定し、表示処理部120にその旨を通知する。表示処理部120においてメニュー表示部122は、図6に示すメニュー画面32を生成して、ディスプレイ装置12に表示する。これによりユーザは、実空間に重ね合わされたメニュー画面32を見ることができるようになる。
ユーザがディスプレイ装置12に表示されるメニュー画面32に重なる位置に指を動かし、「スケジュールアプリ」が表示された空間上の領域でクリックジェスチャを2回行うと、入力受付部100が、ディスプレイ装置12のAR表示領域の座標値とダブルクリック操作情報を表示処理部120に送る。メニュー表示部122は、AR表示領域の座標値から、メニュー項目「スケジュールアプリ」が選択されたことを検出すると、「スケジュールアプリ」に対応付けられた下層のメニュー画面をAR表示領域に表示する。
図10は、下層のメニュー画面の一例を示す。図6に示すメニュー画面32において「スケジュールアプリ」が選択されることで、図6に示すメニュー画面32の代わりに、図10に示すメニュー画面34が表示される。メニュー画面34には、メニュー項目「イベント開始オブジェクトの登録」、「イベント登録」、「スケジュール作成」、「スケジュール編集」が含まれる。
ユーザがディスプレイ装置12に表示されるメニュー画面34において、「イベント開始オブジェクトの登録」の表示領域上でダブルクリックジェスチャを行うと、入力受付部100がダブルクリック操作情報と、そのAR表示領域座標値を画像処理部110および表示処理部120に送る。なお「表示領域上」とは、ディスプレイ装置12により表現される仮想空間上の表示領域上であることを意味する。メニュー表示部122は、メニュー項目「イベント開始オブジェクトの登録」が選択されたことを検出すると、該項目に対応付けられている下層のメニュー画面をディスプレイ装置12に表示するとともに、画像処理部110は、撮影画像に含まれる実物体画像を特定する処理を開始する。
図11は、下層のメニュー画面の一例を示す。図10に示すメニュー画面34において「イベント開始オブジェクトの登録」が選択されることで、図11に示すメニュー画面36が表示される。メニュー画面34には、メニュー項目「フリーハンド描画」、「直接指定」、「画像認識」、「自動物体選定」、「登録」が含まれる。
図12は、ユーザがディスプレイ装置12を介して見える光景を示す。図6に関して説明したように、図12もディスプレイ装置12の表示領域の一部(撮影画像と同じ領域)を示しており、実際のディスプレイ装置12の表示領域は、図12に示すよりも大きいことが通常である。また図12において、ディスプレイ装置12に表示されているのはメニュー画面36のみであり、それ以外のリビングルームの背景は、ユーザがハーフミラーであるディスプレイ装置12を介して、直接見ている光景である。
ユーザが「フリーハンド描画」の表示領域上でダブルクリックジェスチャを行うと、フリーハンドでの入力モードが開始される。ユーザは、この入力モードにおいて、切り出したい物体を取り囲むように指を操作すると、軌跡表示部130が、指の動きに追従するように指の軌跡を仮想オブジェクトとしてディスプレイ装置12に表示する。「フリーハンド描画」の入力の開始および終了は、ユーザのクリックジェスチャにより判定され、したがってユーザは、自由曲線の開始点で一回クリックジェスチャを行い、指を動かして物体を取り囲んだ時に一回クリックジェスチャを行うことで、自由曲線が確定される。
図13は、時計を取り囲む軌跡38を示す。このように軌跡38が時計を取り囲むと、入力受付部100が画像処理部110に自由曲線が確定されたことを通知し、これを受けて実物体特定部112は、ユーザにより選択された実物体画像を特定する。具体的に実物体特定部112は、撮像部14から撮影画像を取得し、撮影画像において軌跡38で取り囲まれている画像を特定して、その中に主として含まれている実物体画像を抽出する。このとき入力受付部100は、実物体特定部112に対して、撮影された指の軌跡に関する情報を提供してもよく、また実物体特定部112が軌跡38の情報を撮影画像における座標情報に変換することで、撮影画像において軌跡38で取り囲まれている画像を特定してもよい。ここでは、時計が置かれている棚や壁の画像をそぎ取られ、時計の画像が抽出される。
実物体特定部112は、実物体画像を抽出すると、その外輪郭ないしは実物体画像の全体を彩色し、抽出処理が完了したことをユーザに知らせてもよい。ユーザは適切に抽出処理が完了したことを確認すると、メニュー画面36における「登録」の表示領域上でダブルクリックジェスチャを行い、入力受付部100がダブルクリック操作情報を画像処理部110に送ると、物体画像決定部114は、抽出した実物体画像を、物体画像144として記録部140に記録する。物体画像144は、後述するが、イベント開始条件の成立を判定するための基礎情報として用いられる。
物体画像決定部114は、物体画像144として、抽出した実物体画像に対応するマーク画像を記録部140に記録してもよい。記録部140には、物体に対応するマーク画像を含むマークデータ142が記録されている。マークデータ142は、物体に対して用意される複数のマーク画像を含む。ここで物体は時計であり、マークデータ142は、様々な種類の時計のマーク画像を含んでいる。置き時計は、その形状でいえば縦長のもの、横長のもの、丸いもの、表示方式でいえばアナログ式、デジタル式、また色でいえば赤いもの、青いもの、黒いものなど、様々なバリエーションがあるが、それらのバリエーションを網羅するようにマークデータ142が用意されている。物体画像決定部114は、実物体特定部112により抽出された実物体画像に同一または類似するマーク画像をマークデータ142から抽出して、抽出したマーク画像を、物体画像144として記録部140に記録してもよい。
具体的には、軌跡38が時計を囲んだ状態で、ユーザがメニュー画面36における「画像認識」の表示領域上でダブルクリックジェスチャを行うと、物体画像決定部114が、実物体画像に同一または類似するマーク画像をマークデータ142から抽出し、抽出されたマーク画像が、ユーザ確認用としてAR表示領域に表示される。ユーザはマーク画像を見て、軌跡38で囲んだ時計と同一または類似することを確認すると、メニュー画面36における「登録」の表示領域上でダブルクリックジェスチャを行い、これにより物体画像決定部114が、マーク画像を物体画像144として記録部140に記録する。同一または類似の判断は、実物体画像とマーク画像のそれぞれの特徴量を算出して、その一致度に応じて判断されればよく、たとえば物体画像決定部114が、複数の類似するマーク画像をマークデータ142から抽出した場合には、それらのマーク画像がユーザ確認用としてAR表示領域に表示されて、ユーザが選択できるようにする。
なおマークデータ142が置き時計の様々なバリエーションのマーク画像を含んでいることを示したが、他の物体、たとえば机、椅子、電車、建物、ドアなど、様々なものに関するマーク画像を含んでおり、撮影された実物体画像に同一または類似するマーク画像が適宜抽出されることが好ましい。
このように物体画像決定部114は、実物体画像またはマーク画像を、物体画像144として決定して、記録部140に記録する。ユーザはこの作業を繰り返すことで、複数の物体画像144を記録部140に記録することができる。
上記したように、ユーザの状況に応じてコンテンツを再生するアプリケーションにおいて、物体画像144は、撮影されることで、音楽が選択され再生されるための条件となっている。したがって、再生アプリケーションを実行するためのイベントを発生するためには、必ず1つの物体画像144をイベントリストに登録しておく必要があり、複数の物体画像144を登録しておくことで、いずれかの物体画像144が撮影される可能性を高められ、イベントの発生を高精度に検出できるようになる。そのためユーザは、1つのイベントに対して、複数の物体画像144を登録できるように、「イベント開始オブジェクトの登録」作業において、多くの物体画像144を記録部140に記録しておくことが好ましい。なお物体画像決定部114は、物体画像144として、撮像部14により撮影された撮影画像全体を記録部140に記録してもよい。
以上は、ユーザが自由曲線で実物体を指定する例であるが、ユーザは実物体を直接指定することもできる。ユーザがメニュー画面36において「直接指定」の表示領域上でダブルクリックジェスチャを行うと、直接指定による実物体の選択モードが開始される。ユーザは、このモードにおいて、実物体に対してクリックジェスチャを行うと、実物体特定部112は、ユーザにより選択された実物体画像を特定する。具体的に実物体特定部112は、撮影画像においてクリック操作が行われた空間座標値を含む実物体を抽出する。実物体特定部112は、実物体画像を抽出すると、その外輪郭ないしは実物体画像の全体を彩色し、抽出処理が完了したことをユーザに知らせてもよい。ユーザは適切に抽出処理が完了したことを確認すると、メニュー画面36における「登録」の表示領域上でダブルクリックジェスチャを行い、入力受付部100がダブルクリック操作情報を画像処理部110に送ると、物体画像決定部114は、抽出した実物体画像を、物体画像144として記録部140に記録する。なお、物体画像決定部114が、抽出した実物体画像に対応するマーク画像を、物体画像144として記録部140に記録してもよいことは上記したとおりである。
「フリーハンド描画」および「直接指定」モードは、ユーザが手動で実物体を選択するモードであるが、本実施例の情報処理装置10は、自動で実物体を選択するモードも用意している。
ユーザがメニュー画面36において「自動物体選定」の表示領域上でダブルクリックジェスチャを行うと、実物体の自動選定モードが開始される。このモードにおいては、実物体特定部112が、撮影画像に含まれる実物体画像を特定する。このとき実物体特定部112は、撮影画像において、周囲の環境に対して特徴的な要素を有している実物体画像を選定することが好ましい。ここで特徴的な要素とは、物体が背景色に対して大きなコントラストを有している、物体が周囲に対して大きな形状を有している、などがあげられる。たとえば図4の例でいえば、時計、テーブル、テーブルの手前の椅子、時計が置かれた棚などが、周囲の環境に対して特徴的な要素を有する物体として選定される。
図14は、実物体特定部112により特定された実物体画像を示す。実物体特定部112は、時計、テーブル、テーブルの手前の椅子、時計が置かれた棚を選定し、それぞれの外輪郭線の内側のハッチングをディスプレイ装置12に表示させている。これによりユーザは、4つの実物体が特定されたことを認識する。ユーザがメニュー画面36における「登録」の表示領域上でダブルクリックジェスチャを行い、入力受付部100がダブルクリック操作情報を画像処理部110に送ると、物体画像決定部114は、抽出した実物体画像を、物体画像144として記録部140に記録する。なお、物体画像決定部114が、抽出した実物体画像に対応するマーク画像を、物体画像144として記録部140に記録してもよいことは上記したとおりである。
なお物体画像144としてマーク画像を記録する場合、物体画像決定部114は、実物体特定部112により特定された実物体画像に対応するマーク画像の存在の有無を確認する。たとえば、テーブルの手前の椅子に対応するマーク画像がマークデータ142に含まれていない場合、椅子のマーク画像を記録部140に記録できないため、物体画像決定部114は、椅子に、ハッチング画像を重ね合わせないように決定することが好ましい。そのため、実物体特定部112によるハッチング画像の生成は、物体画像決定部114による対応マーク画像の存在確認が行われた後に、行われることが好ましい。
また「自動物体選定」モードにおける実物体の選定処理は、ユーザの意志には関係なく行われるため、ユーザは、実物体特定部112により特定された実物体画像またはそのマーク画像を、物体画像144として記録するか否かを判断できるようにしてもよい。たとえばテーブルの手前の椅子は、通常、その場所(リビングルーム)には存在せず、偶然そのときに存在したものであるとする。物体画像144は、イベント開始の条件を構成するため、普段から存在する物体の画像であることが好ましい。ユーザは、椅子のハッチングが施された領域上でダブルクリックジェスチャを行うことで、物体画像144の候補から除外することができる。
このようにユーザはメニュー画面36の項目を選択することで、様々なモードで物体画像144を記録部140に記録することが可能である。
ここで、システムエンジニアであるユーザの平日の行動の一例を示す。ユーザは朝起床し、朝ご飯を食べて身支度を整え、会社に出勤する。会社に到着すると、デスクにつき、パソコンの画面を見ながらプログラミング作業を行う。昼休みになるとランチをとり、昼休みが終わると、午後の作業にとりかかる。退社時刻になるとパソコンの電源を落とし、帰宅する。帰宅後は、お風呂に入って晩ご飯を食べ、テレビを見て就寝時刻になるとベッドに入る。このような一日の行動は、様々なイベントに分けることができる。
図15は、ユーザの平均的な行動表を示す。行動表の横軸は時間を示し、表中の記載内容はイベントを示す。この行動表によると、ユーザは、平日以下の行動をとっている。
a)7:00〜8:00 起床イベント
起床して朝ご飯を食べ、身支度を整える。
b)8:00〜9:00 出勤イベント
自宅を出て、電車に乗り会社に向かう。
c)9:00〜12:00 作業イベント
朝の仕事をする。
d)12:00〜13:00 昼休憩イベント
会社の外に出て昼食をとる。
e)13:00〜17:30 作業イベント
午後の仕事をする。
f)17:30〜18:30 帰宅イベント
会社を出て、自宅に帰る。
g)18:30〜19:30 風呂イベント
風呂にはいる。
h)19:30〜20:30 晩飯イベント
晩ご飯を食べる。
i)20:30〜23:00 リラックスイベント
テレビを見たりして一日の疲れをとる。
j)23:00 睡眠イベント
就寝。
この行動表は、ユーザの状況をイベント名および時間情報で特定する一般的なものである。本実施例の情報処理装置10は、このような行動表を、ユーザがスケジュール表として作成するための支援を行う。
本実施例の情報処理装置10は、ユーザの状況に応じて、アプリケーションを処理することができる。既述したようにアプリケーションの処理とは、ユーザの状況に応じたアプリケーションを起動して実行することと、また特定のアプリケーションにおいてユーザの状況に応じたコンテンツを実行することを含む。理解を容易にするために、以下では情報処理装置10が、サウンド再生アプリケーションで、ユーザの状況に応じてコンテンツを選択して再生する例を説明する。
情報処理装置10は、イベント開始条件が成立すると、ユーザの状況を特定し、そのイベントに関連付けられているコンテンツを再生する。イベントの開始条件には、そのイベントに関連付けられた物体画像情報に対応する実画像が撮像部14により撮影されることが含まれているため、ユーザは、イベントに関連する物体画像144を、予め記録部140に記録しておく必要がある。
そこでユーザは、a)〜j)の各イベントに関して、イベントの開始条件を定める物体画像144を記録部140に登録するようにする。
a)起床イベント
ユーザは朝ベッドから起きて、情報処理装置10を装着し、リビングルームで朝ご飯を食べる。朝食後は外着に着替え、出勤時間がくるまで新聞を読む。ユーザは、この起床イベントを代表する物体画像144を記録部140に記録させる。この記録処理は、メニュー画面36のメニュー項目に関して説明したような手法で行うが、既述したように、ユーザが起床イベントにおいて必ずリビングルームに行くのであれば、リビングルームに存在する実物体(時計やテーブルなど)の物体画像144を記録部140に記録すればよい。またユーザが必ず新聞を読むのであれば、新聞の物体画像144を記録部140に記録すればよい。このようにユーザは、起床イベントにおいて撮像部14が撮影する可能性の高い物体画像144を登録しておくことが好ましい。またイベントの開始が早期に検出されるように、ユーザは、イベント内の行動にしたがって、イベント初期に撮影される可能性の高い物体画像144を登録しておくことが好ましい。起床イベントでは、ユーザは起床後、すぐにリビングルームに行くため、リビングルームに存在する実物体の物体画像144を記録部140に記録させることが好ましい。これは他のイベントにおいても同様である。
b)出勤イベント
出勤時間がくると、ユーザは仕事鞄を持ち、自宅のドアを開け、外に出る。ユーザは駅までバスに乗り、駅からは電車に乗って、会社の最寄り駅で降り、そこから会社まで歩く。ユーザは、たとえば自宅のドアの物体画像144や、自宅のドアを開けたときの外の環境の物体画像144を記録部140に記録させる。
c)作業イベント
会社に到着すると、ユーザは自分のデスクにつき、ディスプレイとキーボードを見ながらプログラミング作業を行う。そこでユーザは、たとえば会社の入っているビル、ビルの玄関、デスク上のディスプレイ、キーボードなどの物体画像144を記録部140に記録させる。
d)昼休憩イベント
午前作業の終了時間がくると、ユーザは会社の外に出て定食屋で食事をとり、午後の始業時間までに会社に戻る。ユーザは、たとえば会社ビルの玄関、定食屋までの道中などの物体画像144を記録部140に記録させる。
e)作業イベント
会社に戻ると、ユーザは自分のデスクにつき、再びディスプレイとキーボードを見ながらプログラミング作業を行う。ユーザは、たとえば会社ビル、会社ビルの玄関、自分のデスク上のディスプレイ、キーボードなどの物体画像144を記録部140に記録させる。
f)帰宅イベント
終業時間がくると、ユーザは仕事鞄を持ち会社を出て、駅まで歩き、電車に乗って自宅の最寄り駅で降り、そこからバスに乗って自宅に戻る。ユーザは、たとえば仕事鞄、会社ビルの玄関、駅までの道中などの物体画像144を記録部140に記録させる。
g)風呂イベント
帰宅するとユーザは、自分の部屋に仕事鞄を置き、着替えを持って風呂に行く。風呂場では、情報処理装置10は外される。ユーザは風呂から上がると、寝間着を着て、リビングルームに向かう。ユーザは、たとえば自分の部屋のドア、風呂のドアなどの物体画像144を記録部140に記録させる。
h)晩飯イベント
リビングルームでユーザは、晩ご飯を食べる。a)イベントと同様、ユーザは、時計やテーブルなどの物体画像144を記録部140に記録させる。なお、これらの画像が既に記録済みであれば、ユーザは、これらの物体画像144をあらためて記録させる必要はない。
i)リラックスイベント
ユーザはソファに寝転がってテレビを見て、一日の疲れをとる。ユーザは、ソファやテレビなどの物体画像144を記録部140に記録させる。
j)睡眠イベント
ユーザは寝室にいき、情報処理装置10を取り外して就寝する。ユーザは、ベッドや目覚まし時計などの物体画像144を記録部140に記録させる。
なお、この例では、0時〜7時までの睡眠イベントについては触れていないが、起床イベントの前に、この睡眠イベントが考慮されてもよい。
図10を参照して、以上の記録処理は、メニュー画面34におけるメニュー項目「イベント開始オブジェクトの登録」が選択されることで行われる。ユーザは、それぞれのイベントの撮影場所でこの項目を選択して、物体画像144をその都度記録する作業を行い、物体画像144の記録が完了する。
ユーザが、メニュー画面34におけるメニュー項目「イベント登録」の表示領域上でダブルクリックジェスチャを行うと、入力受付部100がダブルクリック操作情報と、そのAR表示領域座標値を表示処理部120に送る。イベント表示部124は、メニュー項目「イベント登録」が選択されたことを検出すると、スケジュール表の作成に使用可能なイベント名の候補をディスプレイ装置12に表示する。
図16は、イベント候補呈示画面を示す。イベント候補は、ディスプレイ装置12におけるAR表示領域40に表示されるが、本実施例においてAR表示領域40とジェスチャ認識領域30とは重なっている。図示されるように、イベント表示部124は、ユーザがスケジュール表で使用するイベント名を選択可能に表示する。たとえばイベント表示部124は、職業別のイベントひな形を用意しておき、ユーザの属性情報に含まれる職業をもとに、職業に対応付けられたイベント候補をAR表示領域40に表示してもよい。
ユーザが、イベント名が表示されている領域上でクリックジェスチャを行うと、入力受付部100が、そのAR表示座標値とともにクリック操作情報をイベント決定部116に送り、イベント決定部116は、選択されたイベント名を保持する。ユーザは、スケジュール表の作成に使用する全てのイベント名を選択すると、「登録」の表示領域上でクリックジェスチャを行い、入力受付部100が、そのAR表示座標値とともにクリック操作情報をイベント決定部116に送ると、イベント決定部116が、選択された全てのイベント名を、イベント146として記録部140に記録する。ここでは、「睡眠」、「起床」、「出勤」、「作業」、「休憩」、「帰宅」、「風呂」、「晩飯」、「リラックス」がイベント146として記録される。
ユーザが、メニュー画面34におけるメニュー項目「スケジュール作成」の表示領域上でダブルクリックジェスチャを行うと、入力受付部100がダブルクリック操作情報と、そのAR表示領域座標値を表示処理部120に送る。これを受けて表示処理部120は、スケジュール表を作成するためのユーザインタフェースを提供する。
図17は、スケジュール表作成画面を示す。AR表示領域40において、時間軸表示部128が、一日の時間軸を表現する表領域42を表示する。なお図示の例では24時間分の表領域42が表示されているが、それよりも短い時間分の表領域が表示され、時間(横)方向に表領域42をスクロールできるように時間軸表示部128が表領域42を表示してもよい。
スケジュール表作成画面において、上段の「イベント入力」、「物体画像入力」の項目は、それぞれ表領域42に入力する対象を特定するために設けられる。すなわち「イベント入力」は、表領域42にイベント名を入力するための項目であり、「物体画像入力」は、表領域42に物体画像を入力するための項目である。スケジュール表作成の初期画面においては、「イベント入力」の項目がデフォルトで設定されており、イベント表示部124は、記録部140に記録されたイベント146を読み出して、表領域42の上方に、記録されたイベント名を表示する。
図18は、ドラッグ操作によりイベント名を表領域42に配置する動作を説明するための図である。ユーザは、イベント名の表示領域上でクリックジェスチャを行い、そのイベント名をドラッグ操作により表領域42上に動かし、クリックジェスチャを行うことで、ドラッグ操作を完了する。イベント表示部124は、イベント名を表領域42上に配置する。ユーザは、表領域42においてイベントの開始時刻と終了時刻とをそれぞれクリックすることで、その時間幅にイベント名を収めるようにする。なお、ユーザは、表領域42に表示されたイベント名の横枠を指で右または左にずらすことができ、これによりイベントの開始時刻と終了時刻とを調整してもよい。なお、表領域42の上方に表示されているイベント名は、ドラッグ操作されても残り、消されることはない。
図19は、表領域42にイベント名を割り当てた状態を示す。ユーザが「登録」の表示領域上でクリックジェスチャを行うと、スケジュール登録部150が、イベント名と、その開始時刻および終了時刻とを関連付けて記録部140に記録する。これによりイベント入力作業は完了する。続いて、ユーザが「物体画像入力」の表示領域上でクリックジェスチャを行うと、イベント表示部124が、表領域42の上方に表示していたイベント名を消し、代わりに物体画像表示部126が、表領域42の上方に、記録されている物体画像144を表示する。
図20は、スケジュール表作成画面を示す。「物体画像入力」の項目が選択されると、物体画像表示部126が、記録部140に記録された物体画像144を読み出して、表領域42の上方に、記録された物体画像を表示する。
図21は、ドラッグ操作により物体画像を表領域42に配置されたイベント名に関連付ける動作を説明するための図である。ユーザは、物体画像の表示領域上でクリックジェスチャを行い、その物体画像をドラッグ操作により表領域42の特定のイベント上に動かし、クリックジェスチャを行うことで、ドラッグ操作を完了する。物体画像表示部126は、物体画像がいずれかのイベントまで移動して、ドラッグ操作が完了すると、たとえばその縮小画像をイベントの下方に表示する。なお、表領域42の上方に表示されている物体画像は、ドラッグ操作されても残り、消されることはない。
図22は、イベントに物体画像を割り当てた状態を示す。縮小画像表示領域44には、各イベントに対して、割り当てられた物体画像の縮小画像が表示される。ユーザが「登録」の表示領域上でクリックジェスチャを行うと、スケジュール登録部150が、イベント名と、物体画像とを関連付けて記録部140に記録する。これにより物体画像入力作業は完了する。なおイベントと物体画像を関連付ける際、物体画像は、画像ファイル名、画像ファイルの記録領域(パス情報)、または物体画像の特徴量などの態様をとってよい。物体画像は、これらのいずれかの態様でイベントと関連づけられればよく、これらをまとめて物体画像情報とよぶ。スケジュール登録部150は、イベント名、時間情報および物体画像とを関連付けたスケジュール表148を記録部140に記録する。
図23は、スケジュール表148の一例を示す。このスケジュール表148には、イベントに、開始時刻および終了時刻を示す時間情報と、物体画像情報とが関連付けられて記録されている。ここで物体画像情報は、画像ファイルのパス情報として示しているが、画像ファイル名であってもよく、また物体画像の特徴量であってもよい。なお物体画像の特徴量は、後述するが、撮影画像に含まれる画像の特徴量と比較する際に利用される。
以上のスケジュール表作成作業においては、ユーザが様々な環境において物体画像144を記録部140に記録させた後、表領域42にイベントを割り当て、それからイベントに物体画像144を割り当てた。変形例では、たとえば表領域42にイベントを割り当てた後、様々な環境において特定される物体画像144が、直接イベントに割り当てられるようにしてもよい。
この変形例では、まず最初に、ユーザが図16から図19に関連して説明した手順で、表領域42にイベントを割り当てる。それから各環境においてメニュー画面34における「イベント開始オブジェクトの登録」を選択し、実物体特定部112が、撮影画像の中から実物体画像を特定する。実物体特定部112は、実物体画像を抽出すると、その外輪郭ないしは実物体画像の全体を彩色し、ユーザは適切に抽出処理が完了したことを確認すると、メニュー画面36における「登録」を選択する。このとき、イベント表示部124は、関連付けるイベントを選択するための選択画面をディスプレイ装置12に表示する。
図24は、イベントの選択画面を示す。イベント表示部124は、記録部140に記録されたイベント146を読み出して、ユーザが選択できるように並べてAR表示領域40に配置する。このとき記録部140は、イベントの時間情報も読み出して、各イベントに対応付けて表示する。この例では、2つの作業イベントが存在しているが、それぞれは午前の作業イベントと午後の作業イベントを表現している。そこで、時間情報を併記することで、ユーザは、いずれの作業イベントかを知ることができ、これにより物体画像を関連付けるイベントを特定することができる。ユーザは、イベント名をクリック操作することで、スケジュール登録部150は、物体画像情報を自動的にイベントに関連付ける。なお上記したように、関連付ける物体画像情報は、ファイル名、パス情報、特徴量などの情報であってよい。この変形例によると、物体画像を特定したときにその場でイベントに関連付けることが可能となるため、ユーザが後で作業する手間を省略できる。
また以上は、いずれも手動でスケジュール表を作成する例であるが、画像処理部110およびスケジュール登録部150が協働して自動的にスケジュール表を作成することも可能である。この自動作成においても、まず前提として、ユーザが図16から図19に関連して説明した手順で、イベントと時間情報とを予め関連付けておく。
実物体特定部112は、イベントに関連付けられた開始時刻の撮影画像に含まれる実物体画像を特定する。このとき実物体特定部112は、撮影画像において、周囲の環境に対して特徴的な要素を有している実物体画像を特定することが好ましい。実物体特定部112は、特定した実物体画像を記録部140に記録する。実物体特定部112は、各イベントごとに、実物体画像を特定し、記録部140に記録する。実物体特定部112は、複数日にわたって、この記録処理を行う。なおイベントと時間情報との関連付けが行われたスケジュール表が平日用のものであれば、実物体特定部112は、平日の複数日にわたりこの記録処理を行い、休日用のものであれば、休日の複数日にわたりこの記録処理を行う。
このように複数日分のサンプル画像が記録部140に記録された後、実物体特定部112は、各イベントについて、頻繁に撮影された実物体画像を抽出する。たとえば起床イベントにおいて、時計の画像が撮影された回数が最も多ければ、時計の画像を実物体画像として抽出する。このように、各イベントにおいて、その開始時刻に最も撮影回数の多い実物体画像を検出することで、その実物体画像をイベントの開始条件に含ませることの確度を高められる。このように実物体特定部112が実物体画像を特定し、物体画像決定部114が、特定した実物体画像を、物体画像144として記録部140に記録する。なお、物体画像決定部114が、特定した実物体画像に対応するマーク画像を、物体画像144として記録部140に記録してもよいことは上記したとおりである。以上のように画像処理部110が動作することで、ユーザは、物体画像を手動で記録部140に記録する必要なく、イベントと物体画像とを関連付けたスケジュール表が作成されることになる。
なお上記の例では、ユーザが手動または自動でイベントを設定したが、たとえば情報処理装置10は、職業別のイベントと時間情報とを関連付けたイベントひな形を用意しておき、ユーザは、自分の職業に応じてひな形を選択することで、イベントが自動設定されるようにしてもよい。
ユーザは、メニュー画面34におけるメニュー項目「スケジュール編集」の表示領域上でダブルクリックジェスチャを行うと、入力受付部100がダブルクリック操作情報と、そのAR表示領域座標値を表示処理部120に送る。これを受けて表示処理部120は、スケジュール表を編集するためのユーザインタフェースを提供する。このユーザインタフェースでは、すでに作成されたスケジュール表が表領域42に表示されたスケジュール表編集画面がユーザに呈示され、ユーザは、上記したような作業を行うことで、スケジュール表を編集することが可能となる。
<アプリケーション処理機能>
以上のようにユーザがユーザインタフェースを利用してスケジュール表を設定すると、情報処理装置10は、スケジュール表をもとにイベントリストを作成する。情報処理装置10は、このイベントリストを用いてユーザの現在の状況を判定し、アプリケーションの処理を開始するアプリケーション処理機能を有する。以下では、アプリケーション処理機能の一例として、サウンド再生アプリケーションが、ユーザの状況に応じたコンテンツを再生して音声出力する場合を示す。
図25は、情報処理装置10のアプリケーション処理機能を実現するための機能ブロックを示す。情報処理装置10は、入出力機能を提供するディスプレイ装置12、撮像部14、イヤホン16およびマイク20を備える。また情報処理装置10は、センサ群として、モーションセンサ50およびGPSセンサ52を備える。モーションセンサ50は、加速度センサや傾きセンサを含み、情報処理装置10の動きや姿勢を検出するための計測値を出力し、またGPSセンサ52は、情報処理装置10の位置情報を示す計測値を出力する。また情報処理装置10は、各種処理を行う処理部80およびデータを記録する記録部140を備え、処理部80は、イベントリスト生成部200、装着状態判定部210、アプリケーション実行部220および制御部230を有する。
これらの構成は、ハードウエアコンポーネントでいえば、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム、ストレージなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。なお図3に示した機能ブロックと同じ符号を付した機能ブロックは、図3に関連して説明したような機能を有し、また同様の動作を行う。なお情報処理装置10は、図3および図25に示す機能ブロックを有して構成されてよい。なお実施例では、図3および図25に示す機能ブロックを情報処理装置10が備えていることとするが、後述するように、図3および図25に示す機能ブロックの一部は、端末装置2によって実現されてもよい。
イベントリスト生成部200は、スケジュール登録部150により記録部140に登録されたスケジュール情報をもとに、イベントに、時間情報と物体画像情報とを関連付けたイベントリストを生成して記録部140に記録する。具体的にイベントリスト生成部200は、スケジュール表148に設定された時間情報から、イベントリスト用の時間情報を導出して、イベントリストを生成する。
ここでスケジュール表とイベントリストの相違点について説明する。スケジュール表は、ユーザの一日の行動(イベント)予定を表現し、各イベントに対して設定される開始時刻および終了時刻は、各イベントが行われる予定となる時間帯を示す。そのため、スケジュール表において、各イベントに設定される時間帯が時間的に重なることはなく、先行するイベントの終了時刻と同時またはその後に、後続のイベントの開始時刻が設定されることになる。
一方で、イベントリストは、スケジュール表をもとにユーザの状況を判定するために作成されるものであり、ユーザ状況の判定精度を高めるために、スケジュール表に設定されている各イベントの時間帯を広げて設定される。図23に示すスケジュール表148において、ユーザは、7時から8時の間に起床イベントを行い、また8時から9時の間に出勤イベントを行うことが予定されている。しかしながら、実際にユーザは7時前に起床するかもしれず、また8時前に家を出て出勤するかもしれない。このようにスケジュール表148は、平均的な一日の行動を表現するものの、日々の行動に当てはめた場合には、ユーザは、スケジュール表148からずれた行動をとることもある。
そこでイベントリストは、スケジュール表148から外れた時間帯の行動も捉えてユーザの状況を精度良く判定できるように、スケジュール表148の各イベントの時間帯を広げて作成される。
図26は、イベントリストを説明するための図を示す。上段はスケジュール表148におけるイベントとその時間帯を示し、下段には、イベントの時間帯が拡張される様子が示される。たとえば起床イベントについて見れば、スケジュール表148では7時から8時の時間帯が予定されているのに対し、イベントリストでは、5時から8時の間に拡張されている。なおイベントリストでは、登録されたスケジュール情報におけるイベントの時間帯を少なくとも含む時間帯が、イベントに関連付ける時間情報に設定される。なおイベントリストの時間情報は、スケジュール情報におけるイベントの時間帯を含んでいればよく、スケジュール情報におけるイベントの時間帯と同じであってもよい。
イベントリスト生成部200は、スケジュール表148に登録されたスケジュール情報をもとに、イベントリスト152を生成して記録部140に記録する。上記したようにイベントリスト生成部200は、登録されたスケジュール情報におけるイベントの時間帯を少なくとも含む時間帯を、イベントに関連付ける時間情報に設定する。
図27は、イベントリスト152の一例を示す。このイベントリスト152には、イベントに、イベント順序と、開始可能時刻および終了可能時刻を示す時間情報と、物体画像情報とが関連付けられて記録されている。ここで物体画像情報は、画像ファイルのパス情報として示しているが、画像ファイル名であってもよく、また物体画像の特徴量であってもよい。物体画像情報は、撮影画像に含まれる画像と比較する際に利用される情報であり、具体的には、撮像部14により撮影される撮影画像に、イベントに関連付けられた画像が含まれているか判定する際に利用される。
なおイベントリスト生成部200は、イベント順序として、各イベントに対して、イベントの発生順序を関連付けて設定する。イベント順序は、スケジュール表148におけるイベントの並び順と同じく設定され、図示されるように、起床イベントを1番として、降順に番号が付与されてよい。
イベントリスト生成部200は、スケジュール情報において開始時刻、終了時刻により規定されている時間帯を、開始可能時刻、終了可能時刻により規定される時間帯に変更する。既述したように、イベントリスト152における各イベントの時間帯は、スケジュール表148における各イベントの時間帯を少なくとも含んで拡張している。
またイベントリスト生成部200は、各イベントの開始可能時刻を、イベント順序にしたがって決定する。ここでは、後続のイベント、つまり番号の大きいイベント順序を設定されたイベントの開始可能時刻は、先行のイベント、つまり番号の小さいイベント順序を設定されたイベントの開始可能時刻以降に設定される。後続イベントの開始可能時刻は、先行イベントの開始可能時刻と同じであってもよいが、先行イベントの開始可能時刻よりも前であってはならない。同様に、後続のイベントの終了可能時刻は、先行のイベントの終了可能時刻以降に設定される。後続イベントの終了可能時刻は、先行イベントの終了可能時刻と同じであってもよいが、先行イベントの終了可能時刻よりも前であってはならない。以上のようにイベントリスト生成部200は、イベントリストを生成する。なお生成されたイベントリストは、ユーザによって手動で修正可能とされてもよい。
装着状態判定部210は、モーションセンサ50からの計測情報にしたがって、情報処理装置10の装着状態を判定する。ユーザが情報処理装置10を装着している際、モーションセンサ50は、ユーザの動きに連動して情報処理装置10が動いていることを示す計測情報を装着状態判定部210に提供し、一方で、ユーザが情報処理装置10を取り外して、たとえばテーブルに置いた際には、モーションセンサ50は、情報処理装置10が動いていないことを示す計測情報を装着状態判定部210に提供する。たとえば装着状態判定部210は、モーションセンサ50からの計測情報が所定時間(たとえば3分間)変化しなければ、情報処理装置10が取り外されたことを判定し、一方で、所定時間内に計測情報が変化すれば、情報処理装置10が装着されていることを判定する。
以下、情報処理装置10のアプリケーション処理機能について説明する。このアプリケーション処理機能は、イベントリスト生成部200が、イベントに、時間情報と物体画像情報とを関連付けたイベントリスト152を作成し、記録部140に記録した状態のもとで実行される。なおイベントリスト生成部200は、ユーザが情報処理装置10で作成したスケジュール表148をもとにイベントリスト152を生成するが、たとえばスケジュール表148は、他の機器において作成され、イベントリスト生成部200が、他の機器において作成されたスケジュール表148をもとに、イベントリストを生成してもよい。
ユーザが情報処理装置10の電源をオンして装着すると、撮像部14が実空間を周期的に撮影し、撮影画像を制御部230に提供する。制御部230は撮影画像を取得し、イベントリスト152を参照してイベント開始条件が成立したか否かを判定し、イベント開始条件が成立したことを判定すると、アプリケーション実行部220にアプリケーションの処理を指示する。これを受けて、アプリケーション実行部220は、開始条件が成立したイベントに関連付けられたアプリケーションの処理を開始する。
このアプリケーション処理機能を実現するために、制御部230は、候補抽出部232、画像処理部234、条件判定部236および開始指示部238を有する。ここで候補抽出部232は、内部または外部から現在時間情報を取得して、開始可能時刻および終了開始可能時刻の間に現在時間情報が含まれるイベントを特定する。たとえば現在時間情報が7:30であれば、候補抽出部232は、イベント順序1の起床イベント、イベント順序2の出勤イベントおよびイベント順序3の作業イベントを抽出する。この抽出したイベントは、7:30の時点で、開始条件が成立しうるイベント候補である。
画像処理部234は、候補抽出部232により抽出されたイベントに関連付けられた画像が、撮像部14により撮影された撮影画像に含まれているか判定する。これは、画像処理部234が、イベントリスト152における時間情報により特定される時間帯に撮影された撮影画像に、物体画像情報に対応する画像が含まれているか判定する処理に相当する。つまり7:30の時点において、起床イベント、出勤イベント、作業イベントのそれぞれに関連付けられた物体画像情報に対応する画像が、撮影画像に含まれているか否かが判定される。なお物体画像情報に対応する画像が撮影画像に含まれているか否かの判定処理は、物体画像情報に対応する画像の特徴量と、撮影画像に含まれている画像の特徴量との一致度を導出することによって行われ、完全に一致していれば両者が同一であること、一致度が非常に高い場合には両者が類似していることが判定される。画像処理部234が、撮影画像に物体画像情報に対応する画像が含まれていることを判定すると、条件判定部236が、イベント開始条件が成立したことを判定する。
イベントリスト152において、イベントに、複数の物体画像情報を関連付けて記録しておくことで、イベントの開始条件が成立する可能性を高めることができる。たとえば起床イベントに関連付けて、時計およびテーブルの物体画像情報が記録されている場合、画像処理部234が、時計またはテーブルのいずれかの画像が撮影画像に含まれていることを判定すれば、条件判定部236が、起床イベントの開始条件が成立したことを判定できるようになる。このようにイベントに複数の物体画像情報を関連付けておくことで、イベントの開始条件の成立を正確に判定することが可能となる。条件判定部236が、起床イベントの開始条件が成立したことを判定すると、開始指示部238は、アプリケーション実行部220にアプリケーションの処理を指示するとともに開始条件の成立したイベント名を通知し、アプリケーション実行部220は、開始条件の成立したイベントに応じたアプリケーションの処理を開始する。
図28は、イベントとコンテンツとを関連付けたコンテンツ表を示す。コンテンツ表154は記録部140に記録されており、アプリケーション実行部220は、コンテンツ表154にしたがって、開始指示部238により通知されたイベントに関連付けられたコンテンツを再生してイヤホン16から出力する。このコンテンツ表154では、イベントと再生コンテンツのジャンルが対応付けられているが、実際には、コンテンツプレイリストの記録部140における格納アドレスや、コンテンツサーバ4のURLなどが記述されてよい。アプリケーション実行部220は、開始条件の成立したイベントに関連付けられているコンテンツを再生する。
コンテンツ表154は、ユーザがイベントに対してコンテンツを関連付けることで生成されてもよいが、図28に示す例では、予め業者などにより作成されたコンテンツ表154が示されている。そのためイベントリスト152に設定されていない習い事イベントや運動イベントなどがコンテンツ表154に含まれているが、ユーザは、このコンテンツ表154を適宜編集して、自分の好みに応じたコンテンツをイベントに対して割り当ててよい。
なお図28に示されるように、いくつかのイベントに対して、コンテンツは関連付けられていない。ここでは作業イベント、習い事イベント、風呂イベントに対してコンテンツが関連付けられておらず、このことは、これらのイベントにおいて、アプリケーション実行部220は、コンテンツを再生しないことを意味する。したがって、開始指示部238からアプリケーションの処理を指示された場合であっても、アプリケーション実行部220は、作業イベント、習い事イベント、風呂イベントの開始条件の成立が通知された場合には、コンテンツの再生を行わないようにする。
なお画像処理部234は、候補抽出部232により抽出されたイベントに関連付けられた画像が撮影画像に含まれているか判定するが、一度含まれていることを判定した画像については、その後の判定対象から除外してよい。これにより、画像判定処理の負荷を軽減できる。さらに、開始条件が成立したイベントに含まれる全ての画像を、判定対象から除外してもよい。これにより、開始したイベントに含まれる他の画像の判定処理をする必要がなくなり、画像判定処理の負荷を軽減できる。
また条件判定部236は、イベントリストに登録されている発生順序にしたがって、イベント開始条件の成立を判定してもよい。たとえば図27を参照すると、起床イベントのイベント順序が1番、出勤イベントのイベント順序が2番に設定されているが、条件判定部236が、最初に出勤イベントの開始条件の成立を判定すると、その後に、起床イベントの開始条件の成立を判定することはない。本来であれば、起床イベントの開始条件の成立後、出勤イベントの開始条件が成立することが好ましいが、出勤イベントの開始条件が成立した後は、出勤イベント以降のイベント順序が設定されているイベントの開始条件の成立が監視されるようになる。そのため、条件判定部236によりあるイベントの開始条件の成立が判定されると、候補抽出部232は、そのイベントの次以降のイベント順序を設定されたイベントであって、且つ開始可能時刻と終了可能時刻の間に現在時間が含まれているイベントを候補イベントとして抽出し、また開始条件が成立したイベントおよびそのイベントに先行するイベントを候補イベントから除外する。これにより、開始条件が成立したイベントよりも若いイベント順序が設定されているイベントに関連付けられた画像を、画像処理部234による判定対象から除外することができ、候補抽出部232の処理負荷を低減することが可能となる。
なおアプリケーション実行部220は、開始指示部238から別のイベントの開始条件が成立したことを通知されるまで、アプリケーションの処理を継続して実行する。アプリケーション実行部220は、別のイベントの開始条件が成立したことを通知されると、コンテンツ表154を参照して、その別のイベントに関連付けられたコンテンツの再生を開始する。なお、あるイベントに関連付けられたコンテンツの再生中、そのイベントの終了可能時刻までに別のイベントの開始条件が成立したことを通知されなければ、アプリケーション実行部220は、その終了可能時刻において、コンテンツの再生処理を終了する。
またアプリケーション実行部220は、情報処理装置10の装着状態に応じて、アプリケーションの処理の継続または終了を行ってもよい。装着状態判定部210は、情報処理装置10をユーザが装着していないことを判定すると、その旨をアプリケーション実行部220に通知し、アプリケーション実行部220は、アプリケーションの処理を停止してもよい。情報処理装置10がウェアラブルコンピュータである場合、ユーザは情報処理装置10を装着した状態で、再生された音声をイヤホン16から聞くことができるため、出力音声を聞けないのであれば、アプリケーション実行部220が音声を出力再生する必要もない。そこで、情報処理装置10をユーザが装着していなければ、アプリケーション実行部220は、アプリケーションの処理を停止することが好ましい。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施例において、イベントリスト生成部200が、イベントに、イベントの発生順序と、時間情報と、1つ以上の物体画像情報とを関連付けたイベントリストを生成することを説明したが、イベントリスト生成部200は、さらに、GPS情報を関連付けてイベントリストを生成してもよい。GPS情報は、物体画像情報が取得された位置情報を示すものであり、これにより、候補抽出部232は、イベントリストに記録されたGPS情報と、現在位置のGPS情報とが一致する候補イベントを容易に抽出できるようになる。
また実施例では、ユーザに音楽などのコンテンツを再生することを示したが、イベントリストにおいて、企業や商品などのマーク画像情報を登録してもよい。実施例と同様に、このようなイベントリストにおいても、イベントに対して、時間情報と、マーク画像情報とが関連付けられて登録される。制御部230が、イベントリストに規定された時間帯に撮影された撮影画像に、マーク画像情報に対応する画像が含まれているか判定し、含まれている場合にイベント開始条件が成立したことを判定して、アプリケーション実行部220にアプリケーションの処理を指示する。これを受けてアプリケーション実行部220は、イベントに関連付けられた広告情報などをディスプレイ装置12に表示してもよい。
また実施例では、アプリケーション実行部220が、コンテンツ表154を参照してイベントに応じたコンテンツを再生することを説明したが、この際、イベントに対して常に同じコンテンツが選択されないように工夫してもよい。アプリケーション実行部220はコンテンツの検索機能を有し、たとえば撮影画像に含まれる物体名を検索に使用し、たとえばコンテンツ表154のジャンルおよび物体名を検索キーとして、コンテンツサーバ4からコンテンツを検索して取得してもよい。
また、イベントリスト生成部200は、イベントに、物体画像情報を関連付けたイベントリストを生成したが、たとえばイベントに音声情報を関連付けてもよい。たとえばイベント検出用に特定の場所や条件で発生する音声をマイク20で取得し、この取得した音声情報をイベントに関連付けて、イベントの開始条件の判定処理に利用してもよい。
なお図3および図25において、情報処理装置10の機能ブロックを示したが、情報処理システム1においては、端末装置2が情報処理装置として動作して、図3および図25に示す機能の一部を実行してもよい。つまり情報処理システム1においては、情報処理装置10と、情報処理機能を備えた端末装置2とが協働して、各種処理機能を実現してもよい。
具体的には端末装置2が、図3に示す入力受付部100、処理部80における画像処理部110およびスケジュール登録部150、記録部140を備えてもよい。また端末装置2が、図25に示す入力受付部100、処理部80および記録部140を備えてもよい。なお、端末装置2が処理機能の一部を実行する場合、撮像部14やマイク20などの出力は端末装置2に送信されて、端末装置2が各種処理を実行する。このように、情報処理装置10および端末装置2の少なくとも一方が、図3および図25に示す処理機能を実現することで、ユーザに対して好適にサービスを提供し、またユーザが扱いやすいユーザインタフェースを提供する情報処理システム1を実現できる。
1・・・情報処理システム、10・・・情報処理装置、12・・・ディスプレイ装置、14・・・撮像部、16・・・イヤホン、18・・・筐体、20・・・マイク、50・・・モーションセンサ、52・・・GPSセンサ、80・・・処理部、100・・・入力受付部、110・・・画像処理部、112・・・実物体特定部、114・・・物体画像決定部、116・・・イベント決定部、120・・・表示処理部、122・・・メニュー表示部、124・・・イベント表示部、126・・・物体画像表示部、128・・・時間軸表示部、130・・・軌跡表示部、140・・・記録部、150・・・スケジュール登録部、200・・・イベントリスト生成部、210・・・装着状態判定部、220・・・アプリケーション実行部、230・・・制御部、232・・・候補抽出部、234・・・画像処理部、236・・・条件判定部、238・・・開始指示部。
本発明は、撮影画像を処理する情報処理分野に利用できる。

Claims (12)

  1. 情報処理装置であって、
    イベントに、時間情報と物体画像情報とを関連付けたイベントリストを記録する記録部と、
    実空間を撮影する撮像部と、
    イベント開始条件が成立したか否かを判定する制御部と、
    アプリケーションを処理する実行部と、を備え、
    前記制御部は、
    前記記録部に記録された時間情報により特定される時間帯に撮影された撮影画像に、前記記録部に記録された物体画像情報に対応する画像が含まれているか判定する画像処理部と、
    撮影画像に物体画像情報に対応する画像が含まれていることが判定されると、イベント開始条件が成立したことを判定する条件判定部と、
    前記実行部に、アプリケーションの処理を指示する指示部と、を有し、
    前記実行部は、開始条件が成立したイベントに関連付けられたアプリケーションの処理を開始すること、
    を特徴とする情報処理装置。
  2. 前記実行部は、コンテンツの再生を行うことを特徴とする請求項1に記載の情報処理装置。
  3. ユーザのスケジュール情報を登録する登録部と、
    登録されたスケジュール情報から、イベントに関連付ける時間情報を導出するイベントリスト生成部と、
    をさらに備えることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記イベントリスト生成部は、登録されたスケジュール情報におけるイベントの時間帯を少なくとも含む時間帯を、イベントに関連付ける時間情報として設定することを特徴とする請求項3に記載の情報処理装置。
  5. 前記記録部は、1つのイベントに、複数の物体画像情報を関連付けて記録することを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6. 前記記録部は、イベントリストにおける複数のイベントのそれぞれに、発生順序を関連付けて記録することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7. 前記条件判定部は、発生順序にしたがって、イベント開始条件の成立を判定することを特徴とする請求項6に記載の情報処理装置。
  8. 当該情報処理装置の装着状態を判定する装着状態判定部をさらに備え、
    前記装着状態判定部が、当該情報処理装置をユーザが装着していないことを判定すると、前記実行部は、アプリケーションの処理を停止すること、
    を特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9. 実空間を撮影した撮影画像を取得するステップと、
    イベントに時間情報と物体画像情報とを関連付けたイベントリストを参照して、イベントリストに含まれる時間情報により特定される時間帯に撮影された撮影画像に、イベントリストに含まれる物体画像情報に対応する画像が含まれているか判定するステップと、
    撮影画像に物体画像情報に対応する画像が含まれていることが判定された場合に、イベント開始条件が成立したことを判定するステップと、
    開始条件が成立したイベントに関連付けられたアプリケーションの処理を開始させるステップと、
    を備えることを特徴とするアプリケーション実行方法。
  10. コンピュータに、
    実空間を撮影した撮影画像を取得する機能と、
    イベントに時間情報と物体画像情報とを関連付けたイベントリストを参照して、イベントリストに含まれる時間情報により特定される時間帯に撮影された撮影画像に、イベントリストに含まれる物体画像情報に対応する画像が含まれているか判定する機能と、
    撮影画像に物体画像情報に対応する画像が含まれていることが判定された場合に、イベント開始条件が成立したことを判定する機能と、
    開始条件が成立したイベントに関連付けられたアプリケーションの処理を開始する機能と、
    を実現させるためのプログラム。
  11. 請求項10に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  12. 第1情報処理装置および第2情報処理装置を備えた情報処理システムであって、
    前記第1情報処理装置または前記第2情報処理装置の少なくとも一方が、
    イベントに、時間情報と物体画像情報とを関連付けたイベントリストを記録する記録部と、
    実空間を撮影する撮像部と、
    イベント開始条件が成立したか否かを判定する制御部と、
    アプリケーションを処理する実行部と、を備え、
    前記制御部は、
    前記記録部に記録された時間情報により特定される時間帯に撮影された撮影画像に、前記記録部に記録された物体画像情報に対応する画像が含まれているか判定する画像処理部と、
    撮影画像に物体画像情報に対応する画像が含まれていることが判定されると、イベント開始条件が成立したことを判定する条件判定部と、
    前記実行部に、アプリケーションの処理を指示する指示部と、を有し、
    前記実行部は、開始条件が成立したイベントに関連付けられたアプリケーションの処理を開始すること、
    を特徴とする情報処理システム。
JP2015515656A 2013-05-09 2013-05-09 情報処理装置およびアプリケーション実行方法 Active JP5898378B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/002990 WO2014181380A1 (ja) 2013-05-09 2013-05-09 情報処理装置およびアプリケーション実行方法

Publications (2)

Publication Number Publication Date
JP5898378B2 true JP5898378B2 (ja) 2016-04-06
JPWO2014181380A1 JPWO2014181380A1 (ja) 2017-02-23

Family

ID=51866888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015515656A Active JP5898378B2 (ja) 2013-05-09 2013-05-09 情報処理装置およびアプリケーション実行方法

Country Status (5)

Country Link
US (1) US20160109957A1 (ja)
EP (1) EP2996016B1 (ja)
JP (1) JP5898378B2 (ja)
CN (1) CN105190480B (ja)
WO (1) WO2014181380A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5776725B2 (ja) * 2013-05-14 2015-09-09 コニカミノルタ株式会社 画像処理連携システム、携帯端末装置、画像処理連携方法及び画像処理連携プログラム
US9626804B2 (en) * 2014-05-26 2017-04-18 Kyocera Document Solutions Inc. Article information providing apparatus that provides information of article, article information providing system,and article information provision method
US9696551B2 (en) * 2014-08-13 2017-07-04 Beijing Lenovo Software Ltd. Information processing method and electronic device
US9791919B2 (en) * 2014-10-19 2017-10-17 Philip Lyren Electronic device displays an image of an obstructed target
WO2016073986A1 (en) * 2014-11-07 2016-05-12 Eye Labs, LLC Visual stabilization system for head-mounted displays
US10248192B2 (en) * 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
US10832479B2 (en) * 2015-06-15 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program
US10551932B2 (en) 2015-07-29 2020-02-04 Kyocera Corporation Wearable device, control method, and control program
US20180217680A1 (en) * 2015-07-29 2018-08-02 Kyocera Corporation Wearable device, control method, and control code
JP2017068771A (ja) * 2015-10-02 2017-04-06 東京ガスエンジニアリングソリューションズ株式会社 敷設設備表示装置
US20170185156A1 (en) * 2015-12-29 2017-06-29 Microsoft Technology Licensing, Llc Hand tracking for user interface operation at-a-distance
US10169922B2 (en) * 2016-02-16 2019-01-01 Microsoft Technology Licensing, Llc Reality mixer for mixed reality
JP2017146927A (ja) * 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
US10643390B2 (en) * 2016-03-30 2020-05-05 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
CN108139799B (zh) * 2016-04-22 2022-01-14 深圳市大疆创新科技有限公司 基于用户的兴趣区(roi)处理图像数据的系统和方法
CN106249879A (zh) * 2016-07-19 2016-12-21 深圳市金立通信设备有限公司 一种虚拟现实图像的显示方法及终端
CN111610858B (zh) 2016-10-26 2023-09-19 创新先进技术有限公司 基于虚拟现实的交互方法及装置
US10296105B2 (en) * 2016-11-30 2019-05-21 Seiko Epson Corporation Head-mounted display device, computer program, and control method for head-mounted display device
JP6790769B2 (ja) * 2016-11-30 2020-11-25 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US10620779B2 (en) * 2017-04-24 2020-04-14 Microsoft Technology Licensing, Llc Navigating a holographic image
US10366291B2 (en) 2017-09-09 2019-07-30 Google Llc Systems, methods, and apparatus for providing image shortcuts for an assistant application
JP2019086916A (ja) * 2017-11-02 2019-06-06 オリンパス株式会社 作業支援装置、作業支援方法、作業支援プログラム
IL255955B (en) * 2017-11-27 2019-06-30 Elbit Systems Ltd System and method for displaying synthetic information on a transparent device
US10643362B2 (en) * 2018-03-26 2020-05-05 Lenovo (Singapore) Pte Ltd Message location based on limb location
US11393170B2 (en) 2018-08-21 2022-07-19 Lenovo (Singapore) Pte. Ltd. Presentation of content based on attention center of user
WO2020110506A1 (ja) * 2018-11-28 2020-06-04 ソニーセミコンダクタソリューションズ株式会社 表示装置および表示制御装置
JP6997129B2 (ja) * 2019-03-28 2022-01-17 ファナック株式会社 制御システム
JP2022505998A (ja) * 2019-10-15 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの提示方法、装置、電子機器及び記憶媒体
US11967148B2 (en) * 2019-11-15 2024-04-23 Maxell, Ltd. Display device and display method
JP7139395B2 (ja) * 2020-10-23 2022-09-20 ソフトバンク株式会社 制御装置、プログラム、及びシステム
JP7140810B2 (ja) * 2020-10-23 2022-09-21 ソフトバンク株式会社 制御装置、プログラム、システム、及び制御方法
WO2022210113A1 (ja) * 2021-03-30 2022-10-06 ソニーグループ株式会社 コンテンツ再生システム、情報処理装置及びコンテンツ再生制御アプリケーション
JP7542744B2 (ja) 2021-06-25 2024-08-30 京セラ株式会社 ウェアラブル端末装置、プログラムおよび画像処理方法
JP2023018934A (ja) * 2021-07-28 2023-02-09 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システムおよびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271698A (ja) * 2006-03-30 2007-10-18 Yamaha Corp 演奏装置
JP2010193265A (ja) * 2009-02-19 2010-09-02 Fujitsu Ltd 情報処理装置及び情報処理方法
JP2012173476A (ja) * 2011-02-21 2012-09-10 Nec Casio Mobile Communications Ltd 表示システム、端末装置、端末装置の制御方法、および、プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146630A (ja) 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
JP5104679B2 (ja) * 2008-09-11 2012-12-19 ブラザー工業株式会社 ヘッドマウントディスプレイ
US20120038668A1 (en) * 2010-08-16 2012-02-16 Lg Electronics Inc. Method for display information and mobile terminal using the same
TWI501130B (zh) * 2010-10-18 2015-09-21 Ind Tech Res Inst 虛擬觸控輸入系統
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8184067B1 (en) * 2011-07-20 2012-05-22 Google Inc. Nose bridge sensor
WO2013028908A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US20130307855A1 (en) * 2012-05-16 2013-11-21 Mathew J. Lamb Holographic story telling
US9851783B2 (en) * 2012-12-06 2017-12-26 International Business Machines Corporation Dynamic augmented reality media creation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271698A (ja) * 2006-03-30 2007-10-18 Yamaha Corp 演奏装置
JP2010193265A (ja) * 2009-02-19 2010-09-02 Fujitsu Ltd 情報処理装置及び情報処理方法
JP2012173476A (ja) * 2011-02-21 2012-09-10 Nec Casio Mobile Communications Ltd 表示システム、端末装置、端末装置の制御方法、および、プログラム

Also Published As

Publication number Publication date
US20160109957A1 (en) 2016-04-21
WO2014181380A1 (ja) 2014-11-13
CN105190480A (zh) 2015-12-23
EP2996016A4 (en) 2016-12-14
EP2996016B1 (en) 2020-02-12
CN105190480B (zh) 2018-04-10
EP2996016A1 (en) 2016-03-16
JPWO2014181380A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP5898378B2 (ja) 情報処理装置およびアプリケーション実行方法
US10685059B2 (en) Portable electronic device and method for generating a summary of video data
CN111383304B (zh) 用于计算设备的图像检索
US10990613B2 (en) Information processing apparatus and information processing method
KR102184272B1 (ko) 글래스 타입 단말기 및 이의 제어방법
US12046037B2 (en) Adding beauty products to augmented reality tutorials
US11170580B2 (en) Information processing device, information processing method, and recording medium
CN104284064B (zh) 用于预览双镜头图像的方法和设备
CN106227441A (zh) 用于捕获增强型数字图像和与之交互的设备和方法
US20230419582A1 (en) Virtual object display method and apparatus, electronic device, and medium
JP2014127987A (ja) 情報処理装置および記録媒体
KR20160016948A (ko) 사고를 통한 증강 현실에서의 가상 물체의 조작
US20120081529A1 (en) Method of generating and reproducing moving image data by using augmented reality and photographing apparatus using the same
WO2018092535A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN109074679A (zh) 具有增强现实强化的基于场景的实时广告
CN116943191A (zh) 基于故事场景的人机互动方法、装置、设备及介质
WO2017193343A1 (zh) 媒体文件分享方法、媒体文件分享设备及终端
US20240031653A1 (en) Information processing server, record creation system, display control method, and non-transitory recording medium
CN108366193A (zh) 一种图像处理方法及电子设备
JP2024008632A (ja) 情報処理システム、表示方法、プログラム、記録情報作成システム
JP2024006703A (ja) 情報処理システム、検索方法、プログラム
JP2024014716A (ja) プログラム、情報処理システム、記録情報作成システム、表示方法
JP4905651B2 (ja) 情報分析装置、情報分析方法及び情報分析プログラム
KR20200079209A (ko) 이동 단말기 및 그 제어 방법
JP2014050077A (ja) シミュレートシステム、端末装置、コンテンツ録画装置、シミュレート方法、およびシミュレートプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160303

R150 Certificate of patent or registration of utility model

Ref document number: 5898378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250