JP2015090524A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2015090524A
JP2015090524A JP2013229360A JP2013229360A JP2015090524A JP 2015090524 A JP2015090524 A JP 2015090524A JP 2013229360 A JP2013229360 A JP 2013229360A JP 2013229360 A JP2013229360 A JP 2013229360A JP 2015090524 A JP2015090524 A JP 2015090524A
Authority
JP
Japan
Prior art keywords
function
marker
data record
information
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013229360A
Other languages
English (en)
Other versions
JP6070512B2 (ja
JP2015090524A5 (ja
Inventor
哲男 池田
Tetsuo Ikeda
哲男 池田
智裕 石井
Tomohiro Ishii
智裕 石井
厚史 泉原
Atsushi Izumihara
厚史 泉原
隆之 坂本
Takayuki Sakamoto
隆之 坂本
真之 山田
Masayuki Yamada
真之 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013229360A priority Critical patent/JP6070512B2/ja
Priority to US14/490,797 priority patent/US9332117B2/en
Priority to EP14190647.9A priority patent/EP2869275B1/en
Publication of JP2015090524A publication Critical patent/JP2015090524A/ja
Publication of JP2015090524A5 publication Critical patent/JP2015090524A5/ja
Priority to US15/086,606 priority patent/US9836115B2/en
Application granted granted Critical
Publication of JP6070512B2 publication Critical patent/JP6070512B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/16Communication-related supplementary services, e.g. call-transfer or call-hold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】画像データを利用してシステムの機能を呼び出すにあたり、ユーザの個別的な状況に対応した柔軟な関連付けを実現する。【解決手段】端末装置が取得した画像において検出されたマーカと上記端末装置の機能とを関連付けるデータレコードを検索する検索部と、上記検索によって発見されたデータレコードに基づいて、上記端末装置において呼び出される機能を決定する呼び出し機能決定部とを含み、上記データレコードは、上記端末装置における上記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含む情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
特許文献1には、インターネットのWWWサーバのURLと対応して記憶されている複数の画像データのうち、ビデオカメラによって取り込まれた画像データに適合する画像データを選択し、選択された画像データに対応するURL等の指定情報を読み出して、その指定情報で指定されるWWWサーバにアクセスすることによって、WWWの情報を検索する際の操作性を向上させる技術が記載されている。
特開2006−48672号公報
しかしながら、特許文献1に記載されたような技術では、画像データに割り当てられるURLが固定されている。それゆえ、ユーザがWWWの情報を検索する操作のコンテキストにかかわらず、同じ画像データであれば同じURLのWWWサーバへのアクセスが実行される。従って、画像データを利用することによって得られる操作性の向上を、ユーザの個別的な状況に適応してさらに拡張するには至っていなかった。WWWの情報検索に限らず、画像データを利用することによってシステムの機能を呼び出す際の操作性を向上させる技術において、ユーザの個別的な状況に対応した柔軟な関連付けを実現したものは未だ存在しない。
そこで、本開示では、画像データを利用してシステムの機能を呼び出すにあたり、ユーザの個別的な状況に対応した柔軟な関連付けを実現することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、端末装置が取得した画像において検出されたマーカと上記端末装置の機能とを関連付けるデータレコードを検索する検索部と、上記検索によって発見されたデータレコードに基づいて、上記端末装置において呼び出される機能を決定する呼び出し機能決定部とを含み、上記データレコードは、上記端末装置における上記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含む情報処理装置が提供される。
また、本開示によれば、端末装置が取得した画像において検出されたマーカと上記端末装置の機能とを関連付けるデータレコードを検索することと、上記検索によって発見されたデータレコードに基づいて、上記端末装置において呼び出される機能を決定することとを含み、上記データレコードは、上記端末装置における上記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含む情報処理方法が提供される。
また、本開示によれば、端末装置が取得した画像において検出されたマーカと上記端末装置の機能とを関連付けるデータレコードを検索する機能と、上記検索によって発見されたデータレコードに基づいて、上記端末装置において呼び出される機能を決定する機能とをコンピュータに実現させ、上記データレコードは、上記端末装置における上記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含むプログラムが提供される。
以上説明したように本開示によれば、画像データを利用してシステムの機能を呼び出すにあたり、ユーザの個別的な状況に対応した柔軟な関連付けを実現することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る端末装置の概略的な機能構成を示すブロック図である。 本開示の第1の実施形態に係る端末装置の第1の例を示す図である。 本開示の第1の実施形態に係る端末装置の第2の例を示す図である。 本開示の第1の実施形態に係る端末装置の第3の例を示す図である。 本開示の第1の実施形態における端末装置の利用形態の例を示す図である。 本開示の第1の実施形態に係る端末装置を用いてマーカを登録する処理の例を示す図である。 本開示の第1の実施形態に係る端末装置を用いてマーカに機能を関連付ける処理の例を示す図である。 本開示の第1の実施形態において機能DBに格納されるデータレコードの例を示す図である。 本開示の第1の実施形態において機能DBに格納されるデータレコードの例を示す図である。 本開示の第1の実施形態において、ユーザに提示される情報の第1の例を示す図である。 本開示の第1の実施形態において、ユーザに提示される情報の第2の例を示す図である。 本開示の第1の実施形態において、ユーザに提示される情報の第3の例を示す図である。 本開示の第1の実施形態において、ユーザに提示される情報の第4の例を示す図である。 本開示の第1の実施形態において、ユーザに提示される情報の第5の例を示す図である。 本開示の第1の実施形態における利用時情報に含まれる位置の情報の例について説明するための図である。 本開示の第1の実施形態における利用時情報に含まれる位置の情報の例について説明するための図である。 本開示の第1の実施形態における利用時情報における手の大きさの情報の例について説明するための図である。 本開示の第2の実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第2の実施形態における端末装置およびサーバの利用形態の例を示す図である。 本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第3の実施形態においてサーバの機能DBに格納されるデータの例を示す図である。 本開示の第3の実施形態において、ユーザに提示される情報の例を示す図である。 本開示の第3の実施形態におけるローカル情報の抽出処理の例を示すフローチャートである。 本開示の第3の実施形態におけるサーバ情報の抽出処理の例を示すフローチャートである。 本開示の第3の実施形態に係るシステムの構成を別の観点から説明するための図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.機能構成
1−2.端末装置の具体的な例
1−3.関連付け操作の例
1−4.データの例
1−5.ユーザに提示される情報の例
1−6.利用時情報の例
2.第2の実施形態
3.第3の実施形態
3−1.機能構成
3−2.データの例
3−3.ユーザに提示される情報の例
3−4.機能抽出処理の例
4.ハードウェア構成
5.補足
(1.第1の実施形態)
(1−1.機能構成)
図1は、本開示の第1の実施形態に係る端末装置の概略的な機能構成を示すブロック図である。図1を参照すると、端末装置100は、撮像部102と、マーカ検出部104と、機能検索部106と、機能DB(データベース)108と、機能抽出部110と、機能情報出力部112と、表示部114と、操作部116と、呼び出し機能決定部118と、機能実行部120とを含む。
端末装置100は、図示されたような機能構成を実現することが可能なさまざまな種類の装置でありうる。これらの機能構成は、例えば後述する情報処理装置のハードウェア構成によって実現されてもよい。例えば、撮像部102は、撮像素子や光学部材、駆動回路などを含むカメラモジュールによって実現されうる。機能DB108は、メモリまたはストレージによって実現されうる。表示部114は、LCDや有機ELディスプレイなどの表示装置、またはプロジェクタなどによって実現されうる。操作部116は、タッチパネルやキーボード、マウス、カメラモジュールなどによによって実現されうる。他の機能構成は、CPUなどのプロセッサがメモリまたはストレージに格納されたプログラムに従って動作することによって実現されうる。以下、それぞれの機能構成についてさらに説明する。
撮像部102は、撮像素子を用いて実空間の画像を撮像する。撮像部102は、連続したフレームによって構成される動画像を撮像してもよい。
マーカ検出部104は、撮像部102によって撮像された画像を解析して、画像に含まれるマーカを検出する。マーカは、実空間に現れる何らかの視覚的パターンであればよく、その種類は特に限定されない。マーカは、再現性および識別性を有する限りにおいて、どのように形成されてもよい。例えば、マーカは、カードや財布、ペンケース、ノート、皿、包装容器など、任意のオブジェクトの表面のパターンであってもよい。パターンは、マーカとして認識するために印刷または貼付されたものであってもよいし、オブジェクトの表面のテクスチャやパーツがそのままパターンとして検出されてもよい。マーカ検出部104は、例えば公知の画像認識の手法を用いてマーカを検出する。
機能検索部106は、マーカ検出部104によって検出されたマーカ、つまり端末装置100が取得した画像において検出されたマーカと、端末装置100の機能とを関連付けるデータレコードを、機能DB108で検索する。ここで、機能DB108には、例えば後述するようなユーザの関連付け操作によって登録されたマーカの画像または特徴量と、端末装置100の特定の機能とを関連付けるデータレコードが格納されている。ここで、後述するように、端末装置ではマーカを用いて機能が呼び出される。機能DB108のデータレコードは、端末装置100におけるマーカを用いた機能の呼び出し履歴に基づいて生成される情報をさらに含む。つまり、データレコードは、マーカの登録情報に加えて、その後、実際にマーカを用いて機能が呼び出された履歴に基づいて生成される情報を含む。機能検索部106は、このような機能DB108において、検出されたマーカを示す情報、例えばマーカの特徴量をキーとして、データレコードを検索する。機能検索部106は、検索によって発見されたデータレコード、またはデータレコードによって示される機能の情報を、機能抽出部110に提供する。あるいは、機能検索部106は、データレコードまたは機能の情報を直接呼び出し機能決定部118に提供してもよい。
機能情報出力部112は、機能検索部106の検索によって発見されたデータレコードによってマーカに関連付けられる機能を示す情報を、ユーザに向けて出力する。より具体的には、例えば、機能情報出力部112は、発見されたデータレコードによってマーカに関連付けられる機能のうちの一部または全部を呼び出すためのユーザの操作入力を受け付けるためのUI情報を出力する。UI情報は、例えば表示部114を介して画像として出力されてもよいし、図示しないスピーカなどの音声出力部を介して音声として出力されてもよい。UI情報は、発見されたデータレコードによって複数の機能がマーカに関連付けられることが示される場合に、複数の機能の中から呼び出す機能をユーザが選択するためのものであってもよい。
ここで、機能情報出力部112は、データレコードによってマーカに関連付けられる所定の数の機能を示す情報をユーザに向けて出力してもよい。つまり、機能情報出力部112によって出力される情報によって示される機能の数は、所定の数に限られていてもよい。所定の数は、例えば、表示部114を実現するディスプレイの表示面積や、スピーカによる音声出力の継続可能時間などによって決定されうる。この場合、機能抽出部110が、機能検索部106の検索によって発見されたデータレコードによって示される機能の数が所定の数よりも多い場合に、データレコードによってマーカに関連付けられる機能から所定の数の機能を抽出する。機能抽出部110は、抽出された所定の数の機能を示す情報を機能情報出力部112に提供する。あるいは、機能抽出部110は、抽出された所定の数の機能を示す情報を、呼び出し機能決定部118に提供してもよい。この場合、抽出された所定の数の機能は、機能情報出力部112によるユーザへの問い合わせを経ずに自動的に呼び出されうる。機能抽出部110は、所定の数の機能を抽出するにあたり、データレコードに含まれるさまざまな情報を利用しうる。
例えば、機能抽出部110は、マーカ検出部104が、画像から第1のマーカおよび第2のマーカを含む複数のマーカを検出した場合に、データレコードによって第1のマーカにも第2のマーカにも関連付けられている機能を抽出してもよい。
また、例えば、機能抽出部110は、機能情報出力部112による情報提示の対象になるユーザ(例えば、現在の端末装置100のユーザ)による機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによってマーカに関連付けられている機能を抽出してもよい。なお、端末装置100が、特定のユーザがログインしていない状態で使用されているために情報提示の対象になるユーザが特定されない場合、上記のような抽出は実行されなくてもよい。
また、例えば、機能抽出部110は、現在時刻を含む時間帯おける機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによってマーカに関連付けられている機能を抽出してもよい。より具体的には、機能抽出部110は、端末装置100において前日やさらに前の日の同じ時間帯に呼び出された機能を示す情報がユーザに提示されるように、機能を抽出してもよい。
また、例えば、機能抽出部110は、マーカ検出部104によって画像におけるマーカの位置が検出される場合に、検出されたマーカの位置と一致または近接する位置にあるマーカを用いた機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによってマーカに関連付けられている機能を抽出してもよい。また、例えば、機能抽出部110は、マーカ検出部104によって画像内にマーカを配置したユーザの手の大きさが検出される場合に、検出された手の大きさと一致または類似する大きさの手によって画像内に配置されたマーカを用いた機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによってマーカに関連付けられている機能を抽出してもよい。なお、こうした抽出の処理のより具体的な例については後述する。
呼び出し機能決定部118は、機能検索部106の検索によって発見されたデータレコードに基づいて、端末装置において呼び出される機能を決定する。例えば、呼び出し機能決定部118は、操作部116が取得したユーザの操作入力に基づいて、呼び出される機能を決定する。より具体的には、呼び出し機能決定部118は、機能情報出力部112によって提示された情報に含まれる複数の機能のうち、ユーザの操作によって選択された機能を呼び出すことを決定する。あるいは、機能検索部106の検索によって発見されたデータレコードによって示される機能、または機能抽出部110によって抽出された機能が、端末装置100において実行可能な所定の数以下であれば、呼び出し機能決定部118は、ユーザの操作によらず、呼び出す機能を決定してもよい。
さらに、呼び出し機能決定部118は、呼び出す機能を決定した場合、当該機能の呼び出し履歴を、マーカを示す情報に関連付けて機能DB108に追加する。このとき、例えば上述した機能抽出部110の処理に用いられる、ユーザ、時刻、マーカの位置、およびマーカを配置した手の大きさなどの情報が、呼び出し履歴の情報に含まれうる。なお、後述するように、機能DB108では、必ずしも追加された呼び出し履歴ごとにデータレコードが生成されるわけではなく、例えば追加された呼び出し履歴の情報は、既に存在するデータレコードの更新に用いられうる。
機能実行部120は、呼び出し機能決定部118の決定に従って、端末装置100の機能を呼び出して実行する。実行される機能には、端末装置100において実行可能なあらゆる種類の機能が含まれうる。図示していないが、実行される機能において、撮像部102や表示部114、操作部116が利用されてもよい。また、実行される機能において、図示しない端末装置100の通信部や、端末装置100が保持している機能DB108以外のデータなどが利用されてもよい。
(1−2.端末装置の具体的な例)
次に、図2〜図5を参照して、本開示の第1の実施形態に係る端末装置のいくつかの具体的な例について説明する。
図2は、本開示の第1の実施形態に係る端末装置の第1の例を示す図である。図2を参照すると、端末装置100aは、スマートフォン、またはタブレット端末である。端末装置100aでは、筐体の前面側に設けられたディスプレイが表示部114aとして機能する。また、図では隠れているが、筐体の背面側に設けられたカメラが撮像部102として機能する。カメラがとらえている実空間には、マーカPが存在している。マーカ検出部104は、カメラがとらえた実空間の画像に含まれるマーカPを検出する。ただし、この場合、カメラと実空間との位置関係が可変であるため、マーカ検出部104が画像におけるマーカの絶対的な位置を特定することは困難である(相対的な位置を特定することは可能である)。
図3は、本開示の第1の実施形態に係る端末装置の第2の例を示す図である。図3を参照すると、端末装置100bは、テーブル(またはデスク)型の端末装置である。端末装置100bは、透過領域をもつテーブルトップ(またはデスクトップ)125bを有する。端末装置100bでは、テーブルトップ125bの下方に設置されたカメラが、撮像部102bとして機能する。より具体的には、カメラは、テーブルトップ125bの透過領域に置かれたマーカPを含む画像を撮像する。また、端末装置100bでは、テーブルトップ125bの下方に設置されたプロジェクタが、表示部114bとして機能する。なお、表示部114bは、テーブルトップ125bの透過領域に設置された透過型のディスプレイであってもよい。さらに、端末装置100bでは、テーブルトップ125bの透過領域に設けられたタッチパネルが、操作部116bとして機能する。
図4は、本開示の第1の実施形態に係る端末装置の第3の例を示す図である。図4を参照すると、端末装置100cは、テーブルの上方に設置される端末装置である。上記の第2の例とは異なり、端末装置100cは、テーブルトップ(またはデスクトップ)125cを有するテーブル(またはデスク)とは独立している。テーブルトップ125cは、プロジェクタによる画像の投影が可能なものであればよく、第2の例のように透過領域を有さなくてもよい。端末装置100cでは、テーブルトップ125cの上方に設置されたカメラが、撮像部102cおよび操作部116cとして機能する。より具体的には、カメラは、テーブルトップ125cに置かれたマーカPを含む画像を撮像する。また、カメラは、テーブルトップ125c上でのユーザの手などの動きを、操作入力として取得する。また、端末装置100cでは、テーブルトップ125cの上方に置かれたプロジェクタが、表示部114bとして機能する。
上記で図3に示す第2の例と第3の例とでは、いくつかの共通点と相違点とがある。まず、共通点として、いずれの例でも、マーカPがテーブルトップ125上に配置され、テーブルトップ125と端末装置のカメラとの位置関係が固定されているために、マーカ検出部104が画像におけるマーカの絶対的な位置を特定することが可能である。
一方、相違点として、第2の例ではテーブルトップ125b上に配置されたマーカPが下方からカメラによって撮像されるため、ユーザがマーカを視認することは難しい。これに対して、第3の例ではテーブルトップ125c上に配置されたマーカPが上方からカメラによって撮像されるため、ユーザもマーカPを視認することができる。加えて、第2の例では、マーカPをテーブルトップ125b上に配置したユーザの手は、撮像部102bから見るとマーカPの裏側にあたるため画像に捉えることが難しい。これに対して、第3の例では、マーカPをテーブルトップ125c上に配置したユーザの手が、カメラから見てマーカPの表側にあたるため、撮像部102cがマーカPとともにユーザの手を画像に捉えることができる。
また、第2の例に係る端末装置100bは、カメラやプロジェクタがテーブルトップ125bの下方に設置され、またテーブルトップ125bにタッチパネルが設けられるため、テーブルと一体になった装置でありうる。これに対して、第3の例に係る端末装置100cは、カメラやプロジェクタがテーブルトップ125cの上方に設置され、またカメラが操作部116cとして機能するため、装置はテーブルから独立している。
以下で説明される本実施形態の構成例は、例えば上記の3つの例に係る端末装置100a,100b,100cや、本明細書の説明から明らかなその他の端末装置にそれぞれ適用されうる。どのような端末装置100にどの構成がより適するかは、上記の説明によって理解されるであろう。つまり、例えば、マーカ検出部104が画像におけるマーカPの位置を検出することを含む構成は、上記の第2の例および第3の例に適する。また、例えば、マーカ検出部104がマーカPを配置したユーザの手に関する情報を特定することを含む構成は、上記の第3の例に適する。
図5は、本開示の第1の実施形態における端末装置の利用形態の例を示す図である。図5を参照すると、端末装置100cは、例えば上述した呼び出し機能の決定までの処理について、スタンドアロンで動作することが可能である。端末装置100cは、単一のユーザによって専用されてもよいし、複数のユーザによって共用されてもよい。図示された例では、端末装置100cが3人のユーザU1〜U3によって共用されている。
(1−3.関連付け操作の例)
図6は、本開示の第1の実施形態に係る端末装置を用いてマーカを登録する処理の例を示す図である。図6を参照すると、登録画面1000には、マーカ配置領域1010と、撮影ボタン1020と、やり直しボタン1030とが含まれる。図示された例では、マーカとして、カードの表面のパターンが登録される。カードはどのようなものであってもよいが、例えば、IC(Integrated Circuit)カード、キャッシュカード、クレジットカード、メンバーカード、ポイントカードなどを利用することが可能である。
例えば、登録画面1000が上記の第1の例における端末装置100aで表示される場合、登録画面1000は、ディスプレイに表示されるライブビュー画像に重畳して表示され、マーカ配置領域1010にはライブビュー画像が透過的に表示される。ユーザは、端末装置100aの筐体を移動させてマーカ配置領域1010内にマーカとして登録したオブジェクトを配置した状態で撮影ボタン1020を押下する。オブジェクトがうまく認識されないなどのエラーが発生した場合には、やり直しボタン押下1030を押下して撮影をやり直す。
また、例えば、登録画面1000が上記の第2の例における端末装置100bで表示される場合、登録画面1000は、テーブルトップ125bの透過領域に表示され、マーカ配置領域1010は透過した状態になる。ユーザは、マーカ配置領域1010内にオブジェクトを配置した状態で撮影ボタン1020を押下する。このとき、オブジェクトは、テーブルトップ125bの下方にマーカとして認識される面を向けた状態であるため、図示された例とは異なり、カードのパターンが裏向きになる。
また、例えば、登録画面1000が上記の第3の例における端末装置100cで表示される場合、登録画面1000は、テーブルトップ125cに投影される。ユーザは、マーカ配置領域1010内にオブジェクトを配置した状態でボタン1020を押下する。このとき、オブジェクトは、テーブルトップ125cの上方にマーカとして認識される面を向けた状態であるため、図示された例のように、カードのパターンが表向きになっている。
図7は、本開示の第1の実施形態に係る端末装置を用いてマーカに機能を関連付ける処理の例を示す図である。図7を参照すると、関連付け画面1100は、例えば何らかの機能(図示された例ではブラウザによるウェブサイトの表示)が実行された状態で、ユーザがメニューボタン1110を押下することによってメニュー項目ボタン1120を表示させ、さらにメニュー項目ボタン1120に含まれる「割り当て」などを示すボタンを押下することによって表示される。
関連付け画面1100には、マーカアイコン1130が含まれる。マーカアイコン1130は、上記で図6を参照して説明したような登録処理によって既に登録されたマーカを表示している。ユーザは、マーカアイコン1130のいずれかを選択することによって、選択したマーカに現在(関連付け画面1100を表示させる前に)実行されている機能を関連付けることができる。
なお、複数のマーカに同じ機能を関連付けることも可能である。現在呼び出されている機能に既に関連付けられているマーカを示すマーカアイコン1130rは、例えば他のアイコンとは異なる色や形などで表示されてもよい。また、ユーザが現在呼び出されている機能に関連付けたいマーカをまだ登録していない場合、新たなマーカの追加を示すマーカアイコン1130pを選択し、図6を参照して説明したような登録画面1000を呼び出してもよい。
(1−4.データの例)
図8(図8Aおよび図8B)は、本開示の第1の実施形態において機能DBに格納されるデータレコードの例を示す図である。図8を参照すると、本実施形態において端末装置100の機能DB108に格納されるデータレコード1080には、マーカ情報、機能情報、登録日時情報、利用時情報が要素として含まれる。以下、それぞれの要素についてさらに説明する。
マーカ情報は、上述したようなマーカの登録処理によって登録される。例えば、マーカ情報は、マーカの原画像と、原画像から抽出された特徴量とを含む。なお、図では特徴量が図形で示されているが、実際には特徴量は数値で記録されうる。マーカの原画像は、例えば上記で図6を参照して説明したような登録処理において撮影された画像に基づいて記録される。特徴量は、記録された原画像について所定の画像処理を実行することによって抽出される。なお、特徴量を抽出するための処理については、公知のさまざまな技術を利用することが可能であるため、詳細な説明は省略する。あるいは、マーカの原画像および特徴量は、プリインストールされたり、ネットワークを介してサーバから提供されてもよい。
機能情報は、上述のような機能の関連付け処理によって登録される。図示された例では機能情報が可読な文字列で示されているが、実際には、例えば呼び出し先のプログラムモジュール名などが記録されうる。図示された例では、データレコード1080a,1080bにおいて、1つのマーカに2つの機能が関連付けられている。また、データレコード1080f〜1080hでは、1つのマーカに3つの機能が関連付けられている。このような場合に、機能情報出力部112によってユーザに提示される情報の例については後述する。
登録日時情報は、例えばマーカが最初に登録された日時を示してもよいし、マーカが最後に機能の呼び出しに使用された日時を示してもよい。
利用時情報は、例えば、ユーザ、時間帯、位置、または手の大きさの項目を含みうる。図示された例ではこれらの項目のすべてが利用時情報に含まれているが、これらのうちのいずれかだけが利用時情報に含まれてもよい。また、利用時情報は、後述するようにユーザに提示される機能または呼び出される機能を抽出するために利用されるため、例えばデータレコード1080c〜1080eのように、マーカと機能とが1対1で関連付けられているような場合には、利用時情報は必ずしも必要ではない。他の例において、マーカに関連付けられる機能が1つに制限されているような場合も、利用時情報は必ずしもデータレコード1080に含まれなくてもよい。
なお、以下の説明では、端末装置100の機能DB108に、図8に例示したようなデータレコード1080が格納されている場合を例として説明する。従って、以下の説明においても、図8に示された例を適時参照する。
(1−5.ユーザに提示される情報の例)
図9は、本開示の第1の実施形態において、ユーザに提示される情報の第1の例を示す図である。図9を参照すると、テーブルトップ125に、画像1200が投影されている。画像1200は、候補機能画像1220と、機能画像1230とを含む。
この例において、端末装置100の撮像部102は、テーブルトップ125に置かれたオブジェクト1210(財布)を含む画像を撮像する。マーカ検出部104は、撮像された画像からオブジェクト1210をマーカとして検出する。さらに、機能検索部106が、機能DB108を検索して、オブジェクト1210をマーカとするデータレコード1080f〜1080hを発見する。機能抽出部110は、これらのデータレコードによって示される機能から、ユーザに候補として提示する機能を抽出する。
図示された例において、画像1200において候補機能画像1220としてユーザに提示することが可能な機能の数は3であるため、発見されたデータに含まれる3つの機能すべてが、ユーザに候補として提示するために抽出される。これを受けて、機能情報出力部112は、データレコード1080f〜1080hによって示される3つの機能(家計簿アプリ、レシピ検索サイト、および食品通販サイト)を示す候補機能画像1220を、画像1200においてユーザに提示する。
画像1200において、ユーザが候補機能画像1220のいずれにタッチすると、その手の動きを操作部116(カメラ、またはテーブルトップ125上のタッチパネル)が検出し、これに応じて呼び出し機能決定部118が、タッチされた候補機能画像1220に対応する機能を呼び出すことを決定する。機能画像1230は、呼び出し機能決定部118の決定に応じて機能実行部120が機能を実行した場合に、表示部114によって表示される。
なお、上記の例では、画像1200において表示される候補機能画像1220が、ユーザが呼び出す機能を選択した後も引き続き表示されている。これによって、ユーザは、機能画像1230によって第1の機能を利用した後に、別の候補機能画像1220をさらに選択して、第2の機能を利用することが可能である。
図9の例においてより具体的に説明すると、例えば、買い物から帰ってきたユーザがテーブルトップ125に財布(オブジェクト1210)を置くと、画像1200が表示される。ここで、ユーザは、まず候補機能画像1220の中から家計簿アプリ(データレコード1080fによってオブジェクト1210に関連付けられている)を選択して買い物の内容を記録する。次に、ユーザは、引き続き表示されている候補機能画像1220の中からレシピ検索サイト(データレコード1080gによってオブジェクト1210に関連付けられている)を選択して買い物の内容に応じた夕食のレシピを検索する。さらに、ユーザは、レシピの検索中やレシピをもとに調理を開始した後に、在庫が切れかけている食材があることに気付いた場合には、なおも表示されている候補機能画像1220の中から食品通販サイト(データレコード1080hによってオブジェクト1210に関連付けられている)を選択して食材を注文してもよい。
このように、同じオブジェクトに関連付けられた複数の機能は、利用時情報やユーザの操作入力などに応じて選択的に実行されてもよいし、上記の例のように並行して、または交互に実行されてもよい。この場合、機能情報出力部112は、呼び出し機能決定部118によって呼び出される機能が決定された後もUI情報を継続的に出力してもよい。
図10は、本開示の第1の実施形態において、ユーザに提示される情報の第2の例を示す図である。図10を参照すると、テーブルトップ125に、画像1300が投影されている。画像1300は、機能画像1330を含む。
この例において、端末装置100の撮像部102は、テーブルトップ125に置かれたオブジェクト1310a〜1310c(いずれも店舗のポイントカード)を含む画像を撮像する。マーカ検出部104は、撮像された画像からオブジェクト1310a〜1310cをマーカとして検出する。さらに、機能検索部106が、機能DB108を検索して、オブジェクト1310a〜1310cをマーカとするデータレコード1080c〜1080eを発見する。
ここで、データレコード1080c〜1080eでは、いずれもマーカと機能とが1対1で関連付けられている。そこで、端末装置100では、機能抽出部110および機能情報出力部112の処理がスキップされ、呼び出し機能決定部118によって、これらのマーカに対応する機能を呼び出すことが決定される。機能画像1330a〜1330cは、呼び出し機能決定部118の決定に応じて機能実行部120が機能(チラシサイトA〜C)を実行した場合に、表示部114によって表示される。
上記の例のように、機能DB108に格納されたデータレコードにおいて、マーカと機能とが1対1で関連付けられている場合、機能検索部106による検索によって発見された機能が、そのまま機能実行部120によって端末装置100において実行される機能として決定されてもよい。また、上記の例のように、撮像部102が撮像した画像において複数のマーカが認識された場合、マーカ検出部104、機能検索部106、呼び出し機能決定部118、および機能実行部120は、それぞれのマーカについて並行して処理を実行して、複数の機能を同時に実行してもよい。
別の例として、撮像部102が撮像した画像において複数のマーカが認識された場合、機能情報出力部112によって、どのマーカに関連付けられた機能を呼び出すかを問い合わせる情報が出力され、呼び出し機能決定部118は、操作部116を介して取得されたユーザの操作に従って、複数のマーカのうちのいずれかに関連付けられた機能を選択的に呼び出すことを決定してもよい。
図11は、本開示の第1の実施形態において、ユーザに提示される情報の第3の例を示す図である。図11を参照すると、テーブルトップ125に、画像1400が投影されている。画像1400は、機能画像1430a,1430bを含む。
この例において、端末装置100の撮像部102は、テーブルトップ125に置かれたオブジェクト1410(ランチプレート)を含む画像を撮像する。マーカ検出部104は、撮像されたオブジェクト1410をマーカとして検出する。さらに、機能検索部106が、機能DB108を検索して、オブジェクト1410をマーカとするデータレコード1080iを発見する。
ここで、データレコード1080iでは、マーカと機能とが1対1で関連付けられている。そこで、端末装置100では、機能抽出部110および機能情報出力部112の処理がスキップされ、呼び出し機能決定部118によって、オブジェクト1410のマーカに対応する機能を呼び出すことが決定される。機能画像1430a,1430bは、呼び出し機能決定部118の決定に応じて機能実行部120が機能(レシピ選択アプリ)を実行した場合に、表示部114によって表示される。図示された例のように、機能画像1430が、単一の機能について2つ以上表示されてもよい。
図12は、本開示の第1の実施形態において、ユーザに提示される情報の第4の例を示す図である。図12を参照すると、テーブルトップ125に、画像1500が投影されている。画像1500は、機能画像1530a,1530bを含む。
この例において、端末装置100の撮像部102は、テーブルトップ125に置かれたオブジェクト1510(カップ麺の容器)を含む画像を撮像する。マーカ検出部104は、撮像されたオブジェクト1510をマーカとして検出する。さらに、機能検索部106が、機能DB108を検索して、オブジェクト1510をマーカとするデータレコード1080jを発見する。
ここで、データレコード1080jでは、マーカと機能とが1対1で関連付けられている。そこで、端末装置100では、機能抽出部110および機能情報出力部112の処理がスキップされ、呼び出し機能決定部118によって、オブジェクト1510のマーカに対応する機能を呼び出すことが決定される。機能画像1530a,1530bは、呼び出し機能決定部118の決定に応じて機能実行部120が機能(ラーメンタイマー)を実行した場合に、表示部114によって表示される。
図示された例のように、オブジェクト1510は、必ずしも例えば財布やカードのように偏平なオブジェクトでなくてもよく、例えばオブジェクト1510のように高さのあるオブジェクトであってもよい。このような場合も、例えばラベルの面が撮像部102に向くようにオブジェクトを配置することによって、オブジェクト1510をマーカとして利用することが可能である。
図13は、本開示の第1の実施形態において、ユーザに提示される情報の第5の例を示す図である。図13Aを参照すると、まず、テーブルトップ125に、オブジェクト1610a(ペンケース)が置かれる。このとき、端末装置100の撮像部102は、オブジェクト1610aを含む画像を撮像する。マーカ検出部104は、撮像された画像からオブジェクト1610aをマーカとして検出する。さらに、機能検索部106が、機能DB108を検索して、オブジェクト1610aをマーカとするデータレコード1080k,1080mを発見する。
データレコード1080k,1080mでは、オブジェクト1610aに2つの機能(宿題アプリと、給食表をスキャンしたメモ)が関連付けられている。テーブルトップ125上に投影される画像1600では、候補機能画像1620としてユーザに提示することが可能な機能の数が2以上であるため、上記の2つの機能はいずれも候補機能画像1620として画像1600に表示される。
次に、ユーザは、候補機能画像1620のうちのいずれかを選択することなく、図13Bに示すように、さらにオブジェクト1610b(ノート)をテーブルトップ125に置く。このとき、端末装置100の撮像部102は、オブジェクト1610a,1610bの2つを含む画像を撮像する。マーカ検出部104は、撮像された画像からオブジェクト1610a,1610bをマーカとして検出する。さらに、機能検索部106が、機能DB108を検索して、オブジェクト1610a,1610bをマーカとするデータレコード1080k〜1080pを発見する。
上記の通り、データレコード1080k,1080mでは、オブジェクト1610aに2つの機能(宿題アプリと、給食表をスキャンしたメモ)が関連付けられている。一方、データレコード1080n,1080pでも、オブジェクト1610bに2つの機能(宿題アプリと、宿題検索サイト)が関連付けられている。ここで、データレコード1080kとデータレコード1080mでは、同じ機能(宿題アプリ)に、2つのマーカ(オブジェクト1610a,1610b)が関連付けられている。図示された例では、当該2つのマーカ(オブジェクト1610a,1610b)の両方が検出されているため、これらのマーカに共通して関連付けられている機能(宿題アプリ)が呼び出される可能性が高いと推定することができる。
そこで、呼び出し機能決定部118は、データレコード1080k,1080nに基づいて、宿題アプリの機能を呼び出すことを決定する。機能実行部120は、呼び出し機能決定部118の決定に基づいて機能(宿題アプリ)を実行する。これによって、図13Bに示すように、画像1600では、候補機能画像1620に代わって、機能画像1630が表示される。
(1−6.利用時情報の例)
図8を参照して説明したように、本実施形態において、端末装置100の機能DB108に格納されるデータレコード1080には、利用時情報が含まれうる。利用時情報は、登録されたマーカが機能を呼び出すために利用された場合に、利用したユーザや、利用された時間帯などの情報を記録したものである。利用時情報に記録される値は、例えばマーカが複数回利用された場合には、それぞれの利用時の平均値であってもよい。あるいは、利用時情報は、マーカが所定の回数以上利用された結果、ユーザや時間帯などに所定の強さ以上の傾向が現れた項目に限って記録されてもよい(それまでは、機能の選択には用いられない情報として別途保持されていてもよい)。同じマーカを利用して同じ機能が呼び出された場合であっても、利用時情報に複数の傾向が現れた場合には、データレコード1080のデータレコードが複数生成されてもよい。
上記の図8の例でいうと、例えば利用時情報におけるユーザの情報は、マーカを利用して機能が呼び出されたときに端末装置100にログインしていたユーザを示す。例えば、データレコード1080a,1080bに示される同じカードのマーカの場合、ログインしているユーザが「父」であれば呼び出される機能が「列車運行情報サイト」であり、ログインしているユーザが「息子」であれば呼び出される機能が「ポイントカードのウェブサイト」である可能性が高いことが、利用時情報に基づいて推定できる。なお、端末装置100がログインを必要とせず、複数のユーザ(例えば家族)によって自由に共用されるような場合には、ユーザの情報は取得されず、また記録されなくてもよい。
また、利用時情報における時間帯の情報は、マーカを利用して機能が呼び出された時間帯を示す。例えば、データレコード1080a,1080bに示されるカードのマーカの場合、上記のようなログインユーザに基づく推定とは別に、時間帯が「朝」であれば呼び出される機能が「列車運行情報サイト」であり、時間帯が「午後」であれば呼び出される機能が「ポイントカードのウェブサイト」である可能性が高いことが推定できる。
図14および図15は、本開示の第1の実施形態における利用時情報に含まれる位置の情報の例について説明するための図である。図示された例では、図14Aに示されるように、テーブルトップ125の周りに、父(F)、娘(D)、母(M)、および息子(S)が、ほぼ固定された位置で日常的に座る。このような場合、例えば図14Bに示すように、テーブルトップ125上に、左(L)、右(R)、上(T)、および下(B)の領域を設定することによって、マーカとして扱われるオブジェクトが上記の4人のユーザのうちの誰によってテーブルトップ125上に置かれたかを推測することが可能でありうる。
より具体的には、例えば、図15Aに示すように、マーカPが父(F)によってテーブルトップ125に置かれた場合、マーカPの位置は図14Bに示した左(L)の領域に含まれる可能性が高い。また、図15Bに示すように、マーカPが母(M)によってテーブルトップ125に置かれた場合、マーカPの位置は図14Bに示した下(B)の領域に含まれる可能性が高い。
なお、上記の例において、必ずしも、マーカPの位置からユーザを一意に特定したり、ユーザが誰であるかを具体的に推定する必要はない。例えば、マーカPが母(M)によってテーブルトップ125に置かれた場合も、娘(D)によってテーブルトップ125に置かれた場合も、マーカPの位置は図14Bに示した下(B)の領域に含まれる可能性が高い。この場合、マーカPを置いたのが母(M)であるか娘(D)であるかが、位置の情報に基づいて判定されなくてもよい。例えば、別の手段で、そのマーカPを使用するのが母(M)か父(F)のどちらかであることが判明していれば、下(B)の領域にマーカPが置かれた場合には、マーカPを置いたのが母であると推定することができる。
図16は、本開示の第1の実施形態における利用時情報における手の大きさの情報の例について説明するための図である。図示された例では、例えば、図16Aに示すように、マーカPが娘(D)によってテーブルトップ125に置かれた場合の娘の手Hの大きさと、図16Bに示すように、マーカPが母(M)によってテーブルトップ125に置かれた場合の母の手Hの大きさとが識別される。これによって、例えば、上記で図15を参照して説明した例において、マーカPの位置が下(B)の領域である場合に、手の大きさによって、マーカPを置いたのが母(M)であるか娘(D)であるかを判定することができる。あるいは、マーカPの位置に関わらず、手の大きさによってマーカPをテーブルトップ125に置いたユーザを識別してもよい。
(2.第2の実施形態)
図17は、本開示の第2の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図17を参照すると、システム10は、端末装置200およびサーバ250を含む。端末装置200は、撮像部102と、表示部114と、操作部116と、機能実行部120と、通信部122とを含む。サーバ250は、マーカ検出部104と、機能検索部106と、機能DB108と、機能抽出部110と、機能情報出力部112と、呼び出し機能決定部118と、通信部152とを含む。
本実施形態では、上記の第1の実施形態において端末装置100によって実現された機能が、端末装置200とサーバ250とに分散して実現される。より具体的には、撮像部102、表示部114、操作部116、および機能実行部120といった入力/出力に関する機能が端末装置200において実現され、マーカ検出部104、機能検索部106、呼び出し機能決定部118などの情報処理機能がサーバ250において実現される。なお、個々の機能構成については、第1の実施形態において説明されたものと同様であるため、詳細な説明は省略する。
端末装置200とサーバ250とは、通信部122,152、およびネットワークを介して通信する。通信部122,152は、例えば有線または無線の各種通信装置によって実現される。端末装置200は、例えば第1の実施形態で説明した端末装置100a〜100cと同様の装置でありえ、後述する情報処理装置のハードウェア構成によって実現されうる。サーバ250は、例えば1または複数のサーバ装置によって構成され、個々のサーバ装置は、後述する情報処理装置のハードウェア構成によって実現されうる。
図示されているように、サーバ250において、通信部152は、外部装置である端末装置200から、マーカを含む画像を受信する。また、通信部152は、呼び出し機能決定部118によって呼び出すことが決定された機能を示す情報を、外部装置である端末装置200に送信する。
図18は、本開示の第2の実施形態における端末装置およびサーバの利用形態の例を示す図である。図18を参照すると、サーバ250は、複数の端末装置200にサービスを提供する。それぞれの端末装置200は、単一のユーザによって専用されてもよいし、複数のユーザによって共用されてもよい。なお、図示された端末装置200a〜200cは、第1の実施形態で説明した端末装置100a〜100cと同様の装置である。サーバ250において、機能DB108には、端末装置200ごと、またはユーザごとにデータが格納され、各端末装置200または各ユーザは、自身の登録または利用によって生成されたデータレコードを利用する。なお、他の例では、次に説明する第3の実施形態のように、サーバ250の機能DB108に格納されたデータが、ユーザ間または端末装置間で共有されてもよい。
(3.第3の実施形態)
(3−1.機能構成)
図19は、本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図19を参照すると、システム20は、端末装置300と、サーバ350とを含む。端末装置300は、撮像部102と、マーカ検出部104と、機能検索部106と、機能DB108と、機能抽出部110と、機能情報出力部112と、表示部114と、操作部116と、呼び出し機能決定部118と、機能実行部120と、通信部122とを含む。サーバ350は、通信部152と、機能DB154とを含む。
端末装置300において実現される機能は、上記の第1の実施形態とほぼ同様である。ただし、本実施形態では、機能検索部106が、機能DB108において、マーカ検出部104によって検出されたマーカに対応する機能の情報を発見できなかった場合、通信部122を介してサーバ350の機能DB154を検索する。機能DB154には、端末装置300とは異なる他の端末装置においてマーカに関連付けられた機能の情報が格納されている。機能DB154において上記マーカに対応する機能が発見された場合、機能検索部106は、発見された機能に関する情報を機能DB108で発見された情報と同様に扱う。複数の機能に関する情報が発見された場合には、機能抽出部110および機能情報出力部112によって、ユーザによる機能の選択のための情報が出力されうる。
また、呼び出し機能決定部118は、機能検索部106によってサーバ350の機能DB154から検索された情報によって示される機能、またはその機能の中からユーザによって選択された機能を呼び出すことを決定する。呼び出し機能決定部118は、呼び出す機能を決定した場合、当該機能の呼び出し履歴を、マーカを示す情報に関連付けて機能DB154に追加する。なお、機能DB154では、必ずしも追加された呼び出し履歴ごとにデータレコードが生成されるわけではなく、例えば追加された呼び出し履歴の情報は、既に存在するデータレコードの更新に用いられうる。
サーバ350では、機能DB154において、端末装置300を含む複数の端末装置で過去にマーカに関連付けて呼び出された機能を示す情報が格納されている。端末装置300は、例えば機能DB108においてマーカに対応する機能が発見できなかった場合であっても、サーバ350の機能DB154に格納された、他の端末装置における機能の呼び出し履歴を検索することによって、マーカに対応する機能を発見できる可能性がある。なお、後述するように、サーバ350で機能DB154に格納されるデータレコードの要素は、端末装置300で機能DB108に格納されるデータレコードの要素とは異なりうる。
つまり、本実施形態において、端末装置300の機能は、他の端末装置と共通の機能を含み、サーバ350の機能DB154に格納されるデータレコードは、他の端末装置におけるマーカを用いた機能(端末装置300と他の端末装置とに共通の機能)の呼び出し履歴に基づいて生成される情報を含む。
本実施形態におけるデータレコードには、端末装置300の機能DB108に格納されるデータレコード(第1のデータレコード)と、サーバ350の機能DB154に格納されるデータレコード(第2のデータレコード)とが含まれ、機能検索部106は、検索によって第1のデータレコードが発見されなかった場合に、第2のデータレコードの検索を実行する。
(3−2.データの例)
図20は、本開示の第3の実施形態においてサーバの機能DBに格納されるデータの例を示す図である。図20を参照すると、本実施形態においてサーバ350の機能DB154に格納されるデータレコード1540には、マーカ特徴量情報、機能情報、登録日時情報、優先フラグ、および時間帯情報の要素が含まれる。以下、それぞれの要素についてさらに説明する。
マーカ特徴量は、マーカの原画像から抽出された特徴量である。データレコード1540は、複数の端末装置300において登録されたマーカの情報に基づいて生成されるため、マーカ特徴量は、複数の端末装置300において登録されたマーカの原画像(画像情報)から抽出された特徴量の平均値でありうる。データレコード1540は端末装置間で共有されるため、プライベートな情報を含む可能性があるマーカの原画像は、データレコード1540には含まれなくてもよい。データレコード1540では、原画像が含まれないのに加えて、特徴量が平均化されることによって、プライベートな情報(例えばカードに記載された個人名など)を示す情報がマスクされ、匿名化された状態でデータを蓄積することができる。つまり、本実施形態において、第2のデータレコード(サーバ350の機能DB154に格納される)は、マーカの情報を、第1のデータレコード(端末装置300の機能DB108に格納される)よりも匿名化された形で含む。
機能情報は、複数の端末装置300における機能の関連付け処理によって記録される。上記の図8の例と同様に、実際の機能情報は必ずしも図示されているような可読な文字列ではない。図示された例では、データレコード1540a〜1540cで第1のマーカ(病院の診察カード)に対して3つの機能が関連付けられ、データレコード1540d,1540eで第2のマーカ(食品包装)に対して2つの機能が関連付けられ、データレコード1540f〜1540hで第3のマーカ(べつの食品包装)に対して3つの機能が関連付けられている。データレコード1540b,1540cによって示されるように、同じ機能についても、後述する時間帯情報などが異なれば、複数のデータレコードが生成されうる。
登録日時情報は、例えばマーカが最初に登録された日時を示してもよいし、マーカが最後に機能の呼び出しに使用された日時を示してもよい。
優先フラグは、例えばサービス管理者によって意図的に特定のデータに与えられるフラグである。例えば、データレコード1540dは、食品包装のマーカによって、食品メーカのキャンペーンアプリを起動することを示す。このデータレコードについて、サービス提供者が優先フラグを設定している。つまり、このデータレコードは、サービス提供者が食品メーカから依頼された広告のために利用されるデータレコードである。
時間帯情報は、複数の端末装置300のそれぞれにおいてマーカが機能の呼び出しに使用された場合に記録される。マーカに複数の機能が関連付けられている場合、時間帯情報と現在時刻とを照合することによって、どの機能が呼び出されているかを推定することが可能である。時間帯情報は、上記で図8を参照して説明した機能DB108のデータレコード1080の例と同様に、マーカが所定の回数以上利用された結果、利用される時間帯に所定の強さ以上の傾向が現れた場合に限って記録されてもよい(それまでは、機能の選択には用いられない情報として別途保持されていてもよい)。
(3−3.ユーザに提示される情報の例)
図21は、本開示の第3の実施形態において、ユーザに提示される情報の例を示す図である。図21を参照すると、テーブルトップ125に、画像1700が投影されている。画像1700は、候補機能画像1720と、機能画像1730とを含む。
この例において、端末装置300の撮像部102は、テーブルトップ125に置かれたオブジェクト1710(食品包装)を含む画像を撮像する。マーカ検出部104は、撮像された画像からオブジェクト1710をマーカとして検出する。しかし、機能検索部106がローカルの機能DB108を検索しても、オブジェクト1710をマーカとするデータレコードは発見されなかった。そこで、機能検索部106は、さらにサーバ350の機能DB154を検索する。機能DB154においてオブジェクト1710をマーカとするデータレコード1540f〜1540h)が発見されたため、機能検索部106はこれらの情報を機能抽出部110に提供する。
図示された例において、画像1700で候補機能画像1720としてユーザに提示することが可能な機能の数は3であるため、発見されたデータに含まれる3つの機能すべてが、ユーザに候補として提示するために抽出される。これを受けて、機能情報出力部112は、データレコード1540f〜1540hによって示される3つの機能(レシピ検索サイト、口コミサイト、および製品サイト)を示す候補機能画像1720を、画像1700においてユーザに提示する。例えば上記で図9を参照して説明した例と同様に、ユーザは、候補機能画像1720のいずれかにタッチすることによって、対応する機能を呼び出し、機能画像1730を表示させることが可能である。
(3−4.機能抽出処理の例)
図22は、本開示の第3の実施形態におけるローカル情報の抽出処理の例を示すフローチャートである。なお、本明細書では、システム20において端末装置300の機能DB108に格納されている情報をローカル情報ともいう。
上記のように、端末装置300において撮像部102が画像を撮像し、マーカ検出部104が画像に含まれるマーカを検出した場合、機能検索部106が、機能DB108におけるデータレコードの検索を実行する。ここで、ローカル、つまり端末装置300の機能DB108において、マーカに関連付けられたデータレコードが発見された場合(S101のYES)、機能抽出部110は、発見されたデータレコードによって示される機能が、所定の数以下であるか否かを判定する(S103)。ここで、所定の数は、例えば、表示部114が表示させる画像において、候補機能画像として表示させることが可能な機能の数でありうる。
S103において、機能が所定の数以下であった場合(YES)、機能情報出力部112が、発見された機能のすべてを、候補機能として表示部114に表示させる(S119)。一方、発見された機能が所定の数を超えている場合(S103のNO)、機能抽出部110による機能の絞り込みが実行される。
まず、機能抽出部110は、画像に含まれる複数のマーカを用いて機能を所定の数以下まで絞り込むことが可能であるか否かを判定する(S105)。ここでは、例えば上記で図13を参照して説明した例のように、画像に複数のマーカが含まれ、それぞれのマーカに共通して関連付けられている機能が存在する場合に、その機能が呼び出される可能性が高いことを利用して機能が絞り込まれる。絞り込みが可能であれば(S105のYES)、機能抽出部110は機能の絞り込みを実行し(S117)、機能情報出力部112が絞り込まれた機能を候補機能として表示部114に表示させる(S119)。
一方、S105において、画像に含まれる複数のマーカを用いて機能を所定の数以下まで絞り込むことが可能ではなかった場合(NO)、機能抽出部110は、次の条件による絞り込みの判定に移行する。なお、このとき、複数のマーカを用いた絞り込み自体が可能ではなかった場合(例えば、画像に単一のマーカしか含まれていなかったり、複数のマーカに関連付けられた機能がなかった場合)を除き、複数のマーカを用いた絞り込みの結果は、後続の絞り込み処理において活用される。
次の条件として、機能抽出部110は、ログインユーザに基づいて機能を所定の数以下まで絞り込むことが可能であるか否かを判定する(S107)。ここでは、例えば上記で図8を参照して説明した例のように、機能DB108のデータに利用時情報としてユーザの情報が含まれ、端末装置300がログインしたユーザによって使用されている場合に、ログインしているユーザと利用時情報のユーザとを照合することによって機能が絞り込まれる。絞り込みが可能であれば(S107のYES)、機能抽出部110は、機能の絞り込みを実行し(S117)、機能情報出力部112が絞り込まれた機能を候補機能として表示部114に表示させる(S119)。
S107において、ログインユーザに基づいて機能を所定の数以下まで絞り込むことが可能ではなかった場合(NO)、機能抽出部110は、さらに次の条件による絞り込みの判定に移行する。なお、このとき、ログインユーザを用いた絞り込み自体が可能ではなかった場合(例えば、ユーザがログインしていなかったり、特定のユーザに関連付けられた機能がなかった場合)を除き、ログインユーザを用いた絞り込みの結果は、後続の絞り込み処理において活用される。
以下、同様に、時間帯(S109)、マーカ位置(S111)、および手の大きさ(S113)に基づいて機能を所定の数以下まで絞り込むことが可能であるか否かの判定が実行される。これらの情報の具体的な例は、例えば図8、図14、および図15などにおいて説明されている。先に現れる条件によって機能が所定の数以下まで絞り込まれなかった場合に、次の条件による判定が実行される点は、上記のS105およびS107と同様である。
S113において、手の大きさに基づいて機能を所定の数以下まで絞り込むことも可能ではなかった場合(NO)、機能抽出部110は、機能DB108のデータに含まれる登録日時の情報に基づく絞り込みを実行する(S115)。より具体的には、機能抽出部110は、登録されている機能を、例えば登録日時が新しい順に、候補として表示可能な所定の数まで絞り込む。所定の数まで絞り込まれた機能は、機能情報出力部112によって、候補機能として表示部114に表示される(S119)。
一方、S101の判定において、ローカル、つまり端末装置300の機能DB108において、マーカに関連付けられた機能の登録がなかった場合(S101のNO)、機能検索部106は、サーバ350の機能DB154で機能情報を検索する(S121)。ここで、機能DB154で機能情報が発見された場合も、上記でS103〜S117を参照して説明した例と同様に機能が所定の数まで絞り込まれる。なお、このときの絞り込みの処理の詳細については、この後より詳しく説明する。
図23は、本開示の第3の実施形態におけるサーバ情報の抽出処理の例を示すフローチャートである。なお、本明細書では、システム20においてサーバ350の機能DB154に格納されている情報をサーバ情報ともいう。
上記で図20を参照して説明した処理において、端末装置300の機能DB108において、マーカに関連付けられた機能が発見されなかった場合、機能検索部106が、通信部122を介して、サーバ350の機能DB154におけるデータレコードの検索を実行する。ここで、サーバ350の機能DB154において、マーカに関連付けられたデータレコードが発見された場合(S201のYES)、機能抽出部110は、発見されたデータレコードによって示される機能が、所定の数以下であるか否かを判定する(S203)。ここで、所定の数は、例えば、表示部114が表示させる画像において、候補機能画像として表示させることが可能な機能の数でありうる。
S203において、機能が所定の数以下であった場合(YES)、機能情報出力部112が、発見された機能のすべてを、候補機能として表示部114に表示させる(S215)。一方、発見された機能が所定の数を超えている場合(S203のNO)、機能抽出部110による機能の絞り込みが実行される。上述した例のように、機能DB108におけるデータレコードの要素と、機能DB154におけるデータレコードの要素とは異なりうるため、絞り込みの処理も以下に説明するようにローカル情報に対する処理とは異なりうる。
まず、機能抽出部110は、優先フラグを用いて機能を所定の数以下まで絞り込むことが可能であるか否かを判定する(S205)。ここでは、例えば上記で図20を参照して説明した例のように、機能DB154に格納されたデータレコードに優先フラグが要素として含まれる場合に、優先フラグが設定された情報が優先的に候補機能として抽出される。絞り込みが可能であれば(S205のYES)、機能抽出部110は機能の絞り込みを実行し(S211)、機能情報出力部112が絞り込まれた機能を候補機能として表示部114に表示させる(S215)。
一方、S205において、優先フラグを用いて機能を所定の数以下まで絞り込むことが可能ではなかった場合(NO)、機能抽出部110は、次の条件による絞り込みの判定に移行する。なお、このとき、優先フラグを用いた絞り込み自体が可能ではなかった場合(例えば、優先フラグが設定されたデータレコードがなかったような場合)を除き、優先フラグを用いた絞り込みの結果は、後続の絞り込み処理において活用される。
次の条件として、機能抽出部110は、登録数に基づいて機能を所定の数以下まで絞り込むことが可能であるか否かを判定する(S207)。ここでは、サーバ350の機能DB154におけるデータレコードの登録数に基づいて、機能が絞り込まれる。つまり、機能抽出部110は、より多くの端末装置におけるマーカを用いた機能の呼び出し履歴に基づいて生成される情報を含むデータレコード(データレコード自体の数は必ずしも関係がない)によってマーカに関連付けられている機能を抽出する。機能DB154では、端末装置300を含む複数の端末装置においてマーカを用いて機能が呼び出されることによって、データレコードが登録されうる。従って、登録数が多いマーカと機能との組み合わせは、より多くの端末装置において利用されているといえ、この組み合わせがユーザに受け入れられる可能性は高いと推定される。絞り込みが可能である場合、機能抽出部110は機能の絞り込みを実行し(S211)、機能情報出力部112が絞り込まれた機能を候補機能として表示部114に表示させる(S215)。
以下、同様に、時間帯に基づいて機能を所定の数以下まで絞り込むことが可能であるか否かの判定が実行される(S209)。S209において、時間帯に基づいて機能を所定の数以下まで絞り込むことも可能ではなかった場合(NO)、機能抽出部110は、機能DB154のデータに含まれる登録日時の情報に基づく絞り込みを実行する(S213)。より具体的には、機能抽出部110は、登録されている機能を、例えば登録日時が新しい順に、候補として表示可能な所定の数まで絞り込む。所定の数まで絞り込まれた機能は、機能情報出力部112によって、候補機能として表示部114に表示される(S215)。
一方、S201の判定において、サーバ350の機能DB154でもマーカに関連付けられた機能の登録がなかった場合(S201のNO)、機能情報出力部112が、候補になる機能がない旨の通知を表示部114に表示させる(S217)。
図24は、本開示の第3の実施形態に係るシステムの構成を別の観点から説明するための図である。図24を参照すると、システム20には、入力部124と、マーカ登録部126と、関連付け情報生成部128と、認識処理部130と、関連付け情報検索部132と、出力部138とを含む。関連付け情報検索部132は、ローカル関連付け情報検索部134と、サーバ関連付け情報検索部136とを含む。
入力部124は、ユーザ操作を入力として受け付ける、タッチパネルやキーボード、マウスなどの入力装置を含みうる。また、入力部124は、マーカを含む画像を撮像したり、操作入力として扱われるユーザのジェスチャを取得したりするためのカメラを含んでもよい。
マーカ登録部126は、入力部124から、ユーザ操作を示す情報や、カメラによる撮像画像を取得し、これらに基づいて画像に含まれるマーカを登録する。
関連付け情報生成部128は、入力部124からユーザ操作を示す情報を取得し、ユーザ操作に従ってマーカに端末装置の機能を関連付ける情報を生成する。
認識処理部130は、入力部124から取得されたカメラによる撮像画像から特徴量を抽出することによって、撮像画像に含まれるマーカを認識する。
関連付け情報検索部132は、認識処理部130で得られたマーカの特徴量に関連付けられている機能を示す情報をデータベースから検索する。データベースは、例えば上記の図8や図20で例示したようなものでありうる。また、関連付け情報検索部132は、必要に応じて、出力部138を介してユーザに提示される情報を選定する。
関連付け情報検索部132のうち、ローカル関連付け情報検索部134は、ローカル(端末装置)側の関連付け情報の検索を実行する。つまり、ローカル関連付け情報検索部134によって検索される情報は、例えば単一の端末装置におけるマーカを介した機能の呼び出し履歴に基づいて生成される情報でありうる。
一方、関連付け情報検索部132のうち、サーバ関連付け情報検索部136は、サーバ側の関連付け情報の検索を実行する。つまり、サーバ関連付け情報検索部136によって検索される情報は、例えば複数の端末装置のそれぞれにおけるマーカを介した機能の呼び出し履歴に基づいて生成される情報でありうる。
出力部138は、ユーザに情報を提示する、ディスプレイやプロジェクタなどの出力装置を含みうる。出力部138は、関連付け情報検索部132がけんさくによって取得し、必要に応じて選定した情報を、ユーザに提示する。
(4.ハードウェア構成)
次に、図25を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図25は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における端末装置およびサーバ装置を実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動きなどを撮像することによって、入力装置として機能しうる。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ、プロジェクタなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(5.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(端末装置またはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)端末装置が取得した画像において検出されたマーカと前記端末装置の機能とを関連付けるデータレコードを検索する検索部と、
前記検索によって発見されたデータレコードに基づいて、前記端末装置において呼び出される機能を決定する呼び出し機能決定部と
を備え、
前記データレコードは、前記端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含む情報処理装置。
(2)前記端末装置の機能は、他の端末装置と共通の機能を含み、
前記データレコードは、他の端末装置における前記マーカを用いた前記共通の機能の呼び出し履歴に基づいて生成される情報を含む、前記(1)に記載の情報処理装置。
(3)前記データレコードは、前記端末装置における呼び出し履歴に基づいて生成される情報を含む第1のデータレコードと、前記他の端末装置における呼び出し履歴に基づいて生成される情報を含む第2のデータレコードとを含み、
前記検索部は、前記検索によって前記第1のデータレコードが発見されなかった場合に、前記第2のデータレコードの検索を実行する、前記(2)に記載の情報処理装置。
(4)前記第2のデータレコードは、前記マーカの情報を前記第1のデータレコードよりも匿名化された形で含む、前記(3)に記載の情報処理装置。
(5)前記第1のデータレコードは、前記マーカの画像情報を含み、
前記第2のデータレコードは、前記マーカの画像の特徴量情報を含む、前記(4)に記載の情報処理装置。
(6)前記データレコードによって前記マーカに関連付けられる機能を示す情報をユーザに向けて出力する機能情報出力部をさらに備える、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記機能情報出力部は、前記データレコードによって前記マーカに関連付けられる機能のうちの一部または全部の呼び出しを指示する前記ユーザの操作入力を受け付けるためのUI情報を出力し、
前記呼び出し機能決定部は、前記操作入力に基づいて前記呼び出される機能を決定する、前記(6)に記載の情報処理装置。
(8)前記機能情報出力部は、前記呼び出される機能が決定された後も前記UI情報を継続的に出力する、前記(6)または(7)に記載の情報処理装置。
(9)前記機能情報出力部は、前記データレコードによって前記マーカに関連付けられる所定の数の機能を示す情報を前記ユーザに向けて出力し、
前記情報処理装置は、前記検索によって発見されたデータレコードによって示される機能の数が前記所定の数よりも多い場合に、前記データレコードによって前記マーカに関連付けられる機能から前記所定の数の機能を抽出する機能抽出部をさらに備える、前記(6)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記マーカは、第1のマーカおよび第2のマーカを含み、
前記機能抽出部は、前記データレコードによって前記第1のマーカにも前記第2のマーカにも関連付けられている機能を抽出する、前記(9)に記載の情報処理装置。
(11)前記機能抽出部は、前記ユーザによる前記機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、前記(9)または(10)に記載の情報処理装置。
(12)前記機能抽出部は、現在時刻を含む時間帯における前記機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、前記(9)〜(11)のいずれか1項に記載の情報処理装置。
(13)前記機能抽出部は、前記画像における前記マーカの位置と一致または近接する位置にあるマーカを用いた機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、前記(9)〜(12)のいずれか1項に記載の情報処理装置。
(14)前記機能抽出部は、前記画像内に前記マーカを配置した手の大きさと一致または類似する大きさの手によって画像内に配置されたマーカを用いた機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、前記(9)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記機能抽出部は、より多くの端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、前記(9)〜(14)のいずれか1項に記載の情報処理装置。
(16)端末装置が取得した画像において検出されたマーカと前記端末装置の機能とを関連付けるデータレコードを検索することと、
前記検索によって発見されたデータレコードに基づいて、前記端末装置において呼び出される機能を決定することと
を含み、
前記データレコードは、前記端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含む情報処理方法。
(17)端末装置が取得した画像において検出されたマーカと前記端末装置の機能とを関連付けるデータレコードを検索する機能と、
前記検索によって発見されたデータレコードに基づいて、前記端末装置において呼び出される機能を決定する機能と
をコンピュータに実現させ、
前記データレコードは、前記端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含むプログラム。
100,200,300 端末装置
102 撮像部
104 検出部
106 機能検索部
108,154 機能DB
110 機能抽出部
112 機能情報出力部
114 表示部
116 操作部
118 呼び出し機能決定部
120 機能実行部
122,152 通信部
250,350 サーバ

Claims (17)

  1. 端末装置が取得した画像において検出されたマーカと前記端末装置の機能とを関連付けるデータレコードを検索する検索部と、
    前記検索によって発見されたデータレコードに基づいて、前記端末装置において呼び出される機能を決定する呼び出し機能決定部と
    を備え、
    前記データレコードは、前記端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含む情報処理装置。
  2. 前記端末装置の機能は、他の端末装置と共通の機能を含み、
    前記データレコードは、他の端末装置における前記マーカを用いた前記共通の機能の呼び出し履歴に基づいて生成される情報を含む、請求項1に記載の情報処理装置。
  3. 前記データレコードは、前記端末装置における呼び出し履歴に基づいて生成される情報を含む第1のデータレコードと、前記他の端末装置における呼び出し履歴に基づいて生成される情報を含む第2のデータレコードとを含み、
    前記検索部は、前記検索によって前記第1のデータレコードが発見されなかった場合に、前記第2のデータレコードの検索を実行する、請求項2に記載の情報処理装置。
  4. 前記第2のデータレコードは、前記マーカの情報を前記第1のデータレコードよりも匿名化された形で含む、請求項3に記載の情報処理装置。
  5. 前記第1のデータレコードは、前記マーカの画像情報を含み、
    前記第2のデータレコードは、前記マーカの画像の特徴量情報を含む、請求項4に記載の情報処理装置。
  6. 前記データレコードによって前記マーカに関連付けられる機能を示す情報をユーザに向けて出力する機能情報出力部をさらに備える、請求項1に記載の情報処理装置。
  7. 前記機能情報出力部は、前記データレコードによって前記マーカに関連付けられる機能のうちの一部または全部の呼び出しを指示する前記ユーザの操作入力を受け付けるためのUI情報を出力し、
    前記呼び出し機能決定部は、前記操作入力に基づいて前記呼び出される機能を決定する、請求項6に記載の情報処理装置。
  8. 前記機能情報出力部は、前記呼び出される機能が決定された後も前記UI情報を継続的に出力する、請求項6に記載の情報処理装置。
  9. 前記機能情報出力部は、前記データレコードによって前記マーカに関連付けられる所定の数の機能を示す情報を前記ユーザに向けて出力し、
    前記情報処理装置は、前記検索によって発見されたデータレコードによって示される機能の数が前記所定の数よりも多い場合に、前記データレコードによって前記マーカに関連付けられる機能から前記所定の数の機能を抽出する機能抽出部をさらに備える、請求項6に記載の情報処理装置。
  10. 前記マーカは、第1のマーカおよび第2のマーカを含み、
    前記機能抽出部は、前記データレコードによって前記第1のマーカにも前記第2のマーカにも関連付けられている機能を抽出する、請求項9に記載の情報処理装置。
  11. 前記機能抽出部は、前記ユーザによる前記機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、請求項9に記載の情報処理装置。
  12. 前記機能抽出部は、現在時刻を含む時間帯における前記機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、請求項9に記載の情報処理装置。
  13. 前記機能抽出部は、前記画像における前記マーカの位置と一致または近接する位置にあるマーカを用いた機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、請求項9に記載の情報処理装置。
  14. 前記機能抽出部は、前記画像内に前記マーカを配置した手の大きさと一致または類似する大きさの手によって画像内に配置されたマーカを用いた機能の呼び出し履歴に基づいて生成された情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、請求項9に記載の情報処理装置。
  15. 前記機能抽出部は、より多くの端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含むデータレコードによって前記マーカに関連付けられている機能を抽出する、請求項9に記載の情報処理装置。
  16. 端末装置が取得した画像において検出されたマーカと前記端末装置の機能とを関連付けるデータレコードを検索することと、
    前記検索によって発見されたデータレコードに基づいて、前記端末装置において呼び出される機能を決定することと
    を含み、
    前記データレコードは、前記端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含む情報処理方法。
  17. 端末装置が取得した画像において検出されたマーカと前記端末装置の機能とを関連付けるデータレコードを検索する機能と、
    前記検索によって発見されたデータレコードに基づいて、前記端末装置において呼び出される機能を決定する機能と
    をコンピュータに実現させ、
    前記データレコードは、前記端末装置における前記マーカを用いた機能の呼び出し履歴に基づいて生成される情報を含むプログラム。
JP2013229360A 2013-11-05 2013-11-05 情報処理装置、情報処理方法、およびプログラム Active JP6070512B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013229360A JP6070512B2 (ja) 2013-11-05 2013-11-05 情報処理装置、情報処理方法、およびプログラム
US14/490,797 US9332117B2 (en) 2013-11-05 2014-09-19 Information processing device, information processing method, and program
EP14190647.9A EP2869275B1 (en) 2013-11-05 2014-10-28 Information processing device, information processing method, and program
US15/086,606 US9836115B2 (en) 2013-11-05 2016-03-31 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013229360A JP6070512B2 (ja) 2013-11-05 2013-11-05 情報処理装置、情報処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2015090524A true JP2015090524A (ja) 2015-05-11
JP2015090524A5 JP2015090524A5 (ja) 2016-02-18
JP6070512B2 JP6070512B2 (ja) 2017-02-01

Family

ID=51903758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229360A Active JP6070512B2 (ja) 2013-11-05 2013-11-05 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (2) US9332117B2 (ja)
EP (1) EP2869275B1 (ja)
JP (1) JP6070512B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018203453A1 (ja) 2017-05-01 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2019123888A1 (ja) 2017-12-19 2019-06-27 ソニー株式会社 情報処理システム、情報処理方法、および、プログラム
WO2019123754A1 (ja) 2017-12-21 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
KR20190099207A (ko) 2016-12-27 2019-08-26 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 컴퓨터 프로그램
DE112017006573T5 (de) 2016-12-27 2019-10-02 Sony Corporation Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Computerprogramm
US10564712B2 (en) 2015-09-18 2020-02-18 Sony Corporation Information processing device, information processing method, and program
WO2020174808A1 (ja) * 2019-02-27 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20200121304A (ko) 2018-02-20 2020-10-23 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2020197791A (ja) * 2019-05-31 2020-12-10 大日本印刷株式会社 撮影ボックス
US10930249B2 (en) 2017-03-09 2021-02-23 Sony Corporation Information processor, information processing method, and recording medium
WO2021214981A1 (ja) * 2020-04-24 2021-10-28 シャープNecディスプレイソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示方法およびプログラム
US11188206B2 (en) 2017-09-19 2021-11-30 Sony Corporation Information processing apparatus and information processing method
US11262838B2 (en) 2018-01-30 2022-03-01 Sony Corporation Information processing device and information processing method
US11314981B2 (en) 2017-05-17 2022-04-26 Sony Corporation Information processing system, information processing method, and program for displaying assistance information for assisting in creation of a marker
US11386584B2 (en) 2017-12-14 2022-07-12 Sony Corporation Information processing system and information processing method
US11922904B2 (en) 2019-08-22 2024-03-05 Sony Group Corporation Information processing apparatus and information processing method to control display of a content image

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10379959B1 (en) 2015-06-29 2019-08-13 Amazon Technologies, Inc. Techniques and systems for physical manipulation of data storage devices
US9961141B1 (en) 2015-06-29 2018-05-01 Amazon Technologies, Inc. Techniques and systems for tray-based storage and organization in automated data storage systems
US9923966B1 (en) * 2015-06-29 2018-03-20 Amazon Technologies, Inc. Flexible media storage and organization in automated data storage systems
US10649850B1 (en) 2015-06-29 2020-05-12 Amazon Technologies, Inc. Heterogenous media storage and organization in automated data storage systems
JP6621910B2 (ja) * 2015-08-04 2019-12-18 ゴゴロ インク 電動車両共有のための装置、方法および物品
US10838911B1 (en) 2015-12-14 2020-11-17 Amazon Technologies, Inc. Optimization of data request processing for data storage systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110493A (ja) * 2007-10-10 2009-05-21 Ricoh Co Ltd 情報処理装置、情報処理方法、およびそのプログラム
JP2012198668A (ja) * 2011-03-18 2012-10-18 Ns Solutions Corp 情報処理装置、拡張現実感提供方法、及びプログラム
JP2013125379A (ja) * 2011-12-14 2013-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3743988B2 (ja) 1995-12-22 2006-02-08 ソニー株式会社 情報検索システムおよび方法、並びに情報端末
WO2009079407A2 (en) 2007-12-14 2009-06-25 Jagtag Corp Apparatuses, methods, and systems for a code-mediated content delivery platform
FI20095570L (fi) 2009-05-22 2009-09-11 Valtion Teknillinen Kontekstin tunnistaminen mobiiliaitteissa
KR101347518B1 (ko) 2010-08-12 2014-01-07 주식회사 팬택 필터의 선택이 가능한 증강 현실 사용자 장치 및 방법, 그리고, 증강 현실 서버

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110493A (ja) * 2007-10-10 2009-05-21 Ricoh Co Ltd 情報処理装置、情報処理方法、およびそのプログラム
JP2012198668A (ja) * 2011-03-18 2012-10-18 Ns Solutions Corp 情報処理装置、拡張現実感提供方法、及びプログラム
JP2013125379A (ja) * 2011-12-14 2013-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10564712B2 (en) 2015-09-18 2020-02-18 Sony Corporation Information processing device, information processing method, and program
US10996797B2 (en) 2016-12-27 2021-05-04 Sony Corporation Information processing device, information processing method, and computer program
US11086393B2 (en) 2016-12-27 2021-08-10 Sony Corporation Information processing device, information processing method, and computer program
DE112017006573T5 (de) 2016-12-27 2019-10-02 Sony Corporation Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Computerprogramm
DE112017006606T5 (de) 2016-12-27 2019-09-12 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und computerprogramm
KR20190099207A (ko) 2016-12-27 2019-08-26 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 컴퓨터 프로그램
US10930249B2 (en) 2017-03-09 2021-02-23 Sony Corporation Information processor, information processing method, and recording medium
US11173375B2 (en) 2017-05-01 2021-11-16 Sony Corporation Information processing apparatus and information processing method
WO2018203453A1 (ja) 2017-05-01 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11314981B2 (en) 2017-05-17 2022-04-26 Sony Corporation Information processing system, information processing method, and program for displaying assistance information for assisting in creation of a marker
US11188206B2 (en) 2017-09-19 2021-11-30 Sony Corporation Information processing apparatus and information processing method
US11386584B2 (en) 2017-12-14 2022-07-12 Sony Corporation Information processing system and information processing method
WO2019123888A1 (ja) 2017-12-19 2019-06-27 ソニー株式会社 情報処理システム、情報処理方法、および、プログラム
US11112961B2 (en) 2017-12-19 2021-09-07 Sony Corporation Information processing system, information processing method, and program for object transfer between devices
US11449451B2 (en) 2017-12-21 2022-09-20 Sony Corporation Information processing device, information processing method, and recording medium
KR20200101912A (ko) 2017-12-21 2020-08-28 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 기록 매체
WO2019123754A1 (ja) 2017-12-21 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
US11262838B2 (en) 2018-01-30 2022-03-01 Sony Corporation Information processing device and information processing method
US11216179B2 (en) 2018-02-20 2022-01-04 Sony Corporation Information processing apparatus and information processing method
KR20200121304A (ko) 2018-02-20 2020-10-23 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2020174808A1 (ja) * 2019-02-27 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11531431B2 (en) 2019-02-27 2022-12-20 Sony Group Corporation Information processing device and information processing method
JP2020197791A (ja) * 2019-05-31 2020-12-10 大日本印刷株式会社 撮影ボックス
JP7239882B2 (ja) 2019-05-31 2023-03-15 大日本印刷株式会社 撮影ボックス
US11922904B2 (en) 2019-08-22 2024-03-05 Sony Group Corporation Information processing apparatus and information processing method to control display of a content image
WO2021214981A1 (ja) * 2020-04-24 2021-10-28 シャープNecディスプレイソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示方法およびプログラム
US11960647B2 (en) 2020-04-24 2024-04-16 Sharp Nec Display Solutions, Ltd. Content display device, content display method, and storage medium using gazing point identification based on line-of-sight direction detection

Also Published As

Publication number Publication date
EP2869275A1 (en) 2015-05-06
US20160209915A1 (en) 2016-07-21
US20150126167A1 (en) 2015-05-07
US9332117B2 (en) 2016-05-03
JP6070512B2 (ja) 2017-02-01
US9836115B2 (en) 2017-12-05
EP2869275B1 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
JP6070512B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10841265B2 (en) Apparatus and method for providing information
US10502580B2 (en) Method and apparatus for providing augmented reality function in electronic device
KR20150059466A (ko) 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
CN107925725B (zh) 显示装置以及该显示装置的控制方法
US20140306999A1 (en) Objects in screen images
US20150020014A1 (en) Information processing apparatus, information processing method, and program
JP6253127B2 (ja) 情報提供装置
CN104346037B (zh) 信息处理设备和信息处理方法
CN110100251A (zh) 用于处理文档的设备、方法和图形用户界面
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
US10290120B2 (en) Color analysis and control using an electronic mobile device transparent display screen
EP2998855A1 (en) Method and apparatus for inputting object in electronic device
KR102368847B1 (ko) 객체에 대응하는 콘텐트를 출력하기 위한 방법 및 그 전자 장치
KR20150073354A (ko) 디스플레이를 통하여 제공되는 오브젝트 처리 방법 및 장치
US11361148B2 (en) Electronic device sharing content with an external device and method for sharing content thereof
US20160084781A1 (en) Apparatus and method for identifying object
US9959034B2 (en) Mobile terminal and method for controlling the same
KR102303206B1 (ko) 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
JP5862772B2 (ja) 情報処理装置、情報処理方法および記録媒体
US11696017B2 (en) User interface for managing audible descriptions for visual media
CN108141474B (zh) 与外部设备共享内容的电子设备及其用于共享内容的方法
CN107077276B (zh) 用于提供用户界面的方法和装置
JP2016058054A (ja) メニュー画面構築装置、メニュー処理装置、メニュー画面生産方法、メニュー処理方法、及びプログラム
US12001642B2 (en) User interfaces for managing visual content in media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R151 Written notification of patent or utility model registration

Ref document number: 6070512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250