JP2016194756A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2016194756A JP2016194756A JP2015073745A JP2015073745A JP2016194756A JP 2016194756 A JP2016194756 A JP 2016194756A JP 2015073745 A JP2015073745 A JP 2015073745A JP 2015073745 A JP2015073745 A JP 2015073745A JP 2016194756 A JP2016194756 A JP 2016194756A
- Authority
- JP
- Japan
- Prior art keywords
- information
- terminal
- appearance
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/14—Session management
- H04L67/141—Setup of application sessions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/02—Recognising information on displays, dials, clocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Image Analysis (AREA)
Abstract
【課題】未知のアプリケーションや、動的に変化するアプリケーションなど、装置の外観を認識して機器連携を行う。
【解決手段】本開示に係る情報処理装置は、自装置の外観の特徴を示す外観情報を取得する外観情報取得部と、自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する送信部と、を備える。この構成により、未知のアプリケーションや、動的に変化するアプリケーションなど、装置の外観を認識して機器連携を行うことが可能となる。
【選択図】図2
【解決手段】本開示に係る情報処理装置は、自装置の外観の特徴を示す外観情報を取得する外観情報取得部と、自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する送信部と、を備える。この構成により、未知のアプリケーションや、動的に変化するアプリケーションなど、装置の外観を認識して機器連携を行うことが可能となる。
【選択図】図2
Description
本開示は、情報処理装置、情報処理方法及びプログラムに関する。
カメラなどを通して得られた現実の環境をコンピュータによって拡張する技術は拡張現実(AR:Augmented Reality)として研究されている。特に、近年ではスマートフォンの普及により、カメラ付きのモバイル端末が使用しやすくなっているため、モバイル端末のカメラを物体にかざすことで、物体を認識し、任意の情報を重畳表示するARアプリケーションが多く開発されている。このような中、下記の特許文献1には、プログラム自体を認証キーとして機能させることを想定した技術が記載されている。
ARアプリケーションにおいては、カメラから得られた画像で物体認識を行うために、被写体となる物体に、特定のタグ画像やマーカー画像を付加しておく必要があった。そのため、マーカー画像を使用せず、画像から得られる特徴点を解析し、物体を認識するマーカーレスのAR手法も考えられる。
しかし、いずれの手法においても、物体を認識するためには、認識対象の特徴点を事前に辞書データとして登録しておく必要があった。そのため、別端末上で動作している未知のアプリケーションや、動的に画面の状態が変化するアプリケーションなど、あらかじめ特徴点を取得することが難しいものは認識対象として用いることは困難であった。
そこで、未知のアプリケーションや、動的に変化するアプリケーションなど、装置の外観を認識して機器連携を行うことが望まれていた。
本開示によれば、自装置の外観の特徴を示す外観情報を取得する外観情報取得部と、自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する送信部と、を備える、情報処理装置が提供される。
表示画面を備え、前記外観情報取得部は、前記表示画面に表示された画面の特徴を示す画像情報を前記外観情報として生成する画像情報生成部から構成されるものであっても良い。
また、前記送信部は、前記他装置と通信するための通信情報を前記画像情報とともに送信するものであっても良い。
また、前記表示画面には複数のアプリケーションが表示され、前記画像情報生成部は、前記複数のアプリケーション毎に前記画像情報を生成し、前記送信部は、アプリケーション毎に生成された前記画像情報を送信するものであっても良い。
また、前記表示画面の撮像画像と前記画像情報とが一致すると判定した前記他装置と通信を行うものであっても良い。
また、前記他装置を識別するための識別情報を取得する識別情報取得部を備え、前記送信部は、前記識別情報を前記画像情報とともに送信するものであっても良い。
また、前記識別情報は、前記他装置のIPアドレスの少なくとも一部を含むものであっても良い。
また、前記識別情報取得部は、ビーコン、音、又は光によって送られた前記識別情報を取得するものであっても良い。
また、位置情報を取得する位置情報取得部を備え、前記送信部は、前記位置情報を前記画像情報とともに送信するものであっても良い。
また、本開示によれば、自装置の外観の特徴を示す外観情報を取得することと、自装置の外観を撮影した他装置と通信するため、前記外観情報を送信することと、を備える、情報処理方法が提供される。
また、本開示によれば、自装置の外観の特徴を示す外観情報を取得する手段、自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する手段、としてコンピュータを機能させるためのプログラムが提供される。
以上説明したように本開示によれば、未知のアプリケーションや、動的に変化するアプリケーションなど、装置の外観を認識して機器連携を行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システムの構成例
2.端末、及びサーバの処理
3.通信情報の例
4.アプリケーション画面が動画である場合
5.登録情報の絞り込み
6.本実施形態の適用例
6.1.テーブルトップインタラクティブシステムへの適用
6.2.ウェアラブルデバイスと他の表示デバイス
6.3.壁面に設置された大画面ディスプレイ上のアプリケーションの認識
6.4.ウェアラブルカメラと家電製品
1.システムの構成例
2.端末、及びサーバの処理
3.通信情報の例
4.アプリケーション画面が動画である場合
5.登録情報の絞り込み
6.本実施形態の適用例
6.1.テーブルトップインタラクティブシステムへの適用
6.2.ウェアラブルデバイスと他の表示デバイス
6.3.壁面に設置された大画面ディスプレイ上のアプリケーションの認識
6.4.ウェアラブルカメラと家電製品
1.システムの構成例
図1A及び図1Bは、本開示の一実施形態に係るシステムの概要を示す模式図である。このシステムは、複数の端末を用いた機器連携において、ある端末が別の端末上で動作するアプリケーションをカメラ画像により画像認識することで、認識された端末と認識した端末とが連携して通信を行う。図1Aに示すように、このシステムでは、認識される側の端末100であるタブレット端末のアプリケーション画面110を、認識する側の端末200であるモバイル機器が撮影する。
図1A及び図1Bは、本開示の一実施形態に係るシステムの概要を示す模式図である。このシステムは、複数の端末を用いた機器連携において、ある端末が別の端末上で動作するアプリケーションをカメラ画像により画像認識することで、認識された端末と認識した端末とが連携して通信を行う。図1Aに示すように、このシステムでは、認識される側の端末100であるタブレット端末のアプリケーション画面110を、認識する側の端末200であるモバイル機器が撮影する。
図1Bに示すように、認識される端末100は、アプリケーション画面110を辞書データとしてサーバ300に逐次登録する。認識する端末200は、サーバ300から辞書データを取得して、撮影により得られた画像と比較する。そして、比較の結果、両者が一致した場合は、端末100と端末200が通信を開始する。
図2は、本実施形態に係るシステム1000の構成を示す模式図である。図2に示すように、このシステム1000は、認識される端末100、認識する端末200、サーバ300を有して構成されている。認識される端末100は、表示画面にアプリケーションなどを表示する。また、認識される端末100は、画像情報生成部102を備え、端末100上のアプリケーション画面を画像情報(辞書データ)として生成する。端末100は、通信部104から画像情報をサーバ300の通信部304へ送ることで、画像情報をサーバ300に登録する。サーバ300は、画像情報の保持部302を有している。なお、図1に示す端末100,200、サーバ300の各構成要素は、ハードウェア(回路)、又はCPUなどの中央演算処理装置とこれを機能させるためのプログラム(ソフトウェア)によって構成されることができる。この場合に、そのプログラムは、装置内部に設けられるメモリ、または外部から接続されるメモリ等の記録媒体に格納されることができる。
端末100の画像情報生成部102は、端末100で表示中のアプリケーションのスナップショットや画像認識用特徴点の画像情報を作成し、サーバ300の保持部302へデータを登録する。端末100に複数のアプリケーション画面が表示されている場合、アプリケーション画面毎に画像情報を送る。同時に、端末100は、端末100と端末200が通信するための通信情報、端末200が端末100に表示中のアプリケーションと通信するための通信情報も合わせてサーバ300へ登録する。画像情報は、認識される端末100上で作成せずに、スナップショットのデータを利用して、サーバ300上で作成することも可能である。アプリケーション画面は、静止画であっても動画であっても良い。
認識する端末200は、カメラ202、画像認識部204、通信部206を有する。端末100に表示されたアプリケーション画面をカメラ202が撮像し、画像認識部204が撮像により得られた画像を認識する。通信部206は、サーバ300の通信部304と通信を行い、保持部302に保持されている画像情報を取得する。画像認識部204は、画像情報とカメラ202から入力される画像データとを比較することにより、端末100上で表示されているアプリケーションを認識する。そして、カメラ202が撮像したアプリケーション画面とサーバ300から取得した画像情報が一致した場合は、サーバ300の保持部302から、端末100と通信するための情報、端末100に表示中のアプリケーションと通信するための情報を取得し、認識される端末100と通信を始める。
サーバ300の保持部302は、認識される端末100から登録される画像情報、端末100と端末200が通信するための情報、端末100のアプリケーションと端末200が通信するための情報を保持し、認識する端末200の画像認識部202の要求に応じて、保持しているデータを提供する。
なお、サーバ300の辞書データ保持機能は、辞書データ作成機能を有する端末100上、または画像認識機能を有する端末200上に構成されていても良い。
従って、本実施形態のシステムによれば、複数のデバイスを用いた機器連携において、認識する端末200が認識される端末100上で動作するアプリケーションをカメラ画像から認識することで、認識する端末200と認識される端末100とが連携することができる。
被認識対象となるアプリケーション画面が動作している端末100は、アプリケーション画面のスナップショットや画像認識用特徴点といった画像情報を、画面の変化に応じてリアルタイムでサーバ300へ送信する。そして、認識する端末200がその画像情報を用いてカメラ202の画像と対比することにより、事前に辞書データの作成、登録を行うことなく、未知のアプリケーションや、状態が動的に変化するアプリケーションを画像認識で識別することが可能となる。
本実施形態を実施する際の前提条件として、認識される側の端末100、認識する側の端末200、サーバ300は、ネットワークやP2Pによって、予め通信可能に接続されているものとする。但し、接続方法については特に限定されるものではない。
2.端末、及びサーバの処理
次に、図3に基づいて、認識される端末100による画像情報の作成、登録の処理を説明する。先ず、認識される端末100上のアプリケーションが起動すると、ステップS10では、表示画面が変化したか否かを判定する。表示画面が変化した場合はステップS12へ進み、表示画面上のスナップショットや画像認識用特徴点の画像情報を作成する。一方、表示画面に変化が無い場合は、ステップS19で一定時間待機した後、ステップS10に戻り、再度、表示画面が変化したか否かを判定する。
次に、図3に基づいて、認識される端末100による画像情報の作成、登録の処理を説明する。先ず、認識される端末100上のアプリケーションが起動すると、ステップS10では、表示画面が変化したか否かを判定する。表示画面が変化した場合はステップS12へ進み、表示画面上のスナップショットや画像認識用特徴点の画像情報を作成する。一方、表示画面に変化が無い場合は、ステップS19で一定時間待機した後、ステップS10に戻り、再度、表示画面が変化したか否かを判定する。
ステップS12の後はステップS14へ進み、ステップS12で作成したスナップショットや画像認識用特徴点をサーバ300登録する。この際、通信情報も併せて登録する。通信情報は、端末200が端末100と通信するための情報、端末200が端末100のアプリケーションと通信するための情報である。
次のステップS16では、アプリケーションの機能が終了したか否かを判定し、アプリケーションの機能が終了した場合は、その旨をサーバ300に通知し、ステップS18へ進む。ステップS18では、サーバ300に登録したデータを削除する。ステップS18の後は処理を終了する。
また、ステップS16でアプリケーションの機能が終了していない場合は、ステップS19で一定時間待機した後、ステップS10に戻り、以降の処理を再度行う。
次に、図4に基づいて、認識する端末200の画像認識の処理を説明する。先ず、認識する端末200上のアプリケーションが起動すると、ステップS20では、認識される端末100と通信するために、認識される端末100の認識が必要か調べる。認識が必要な場合はステップS22へ進み、サーバ300からスナップショットや画像特徴点の画像情報を取得する。一方、認識が必要でない場合は、ステップS32で一定時間待機した後、ステップS20に戻り、以降の処理を再度行う。
ステップS22の後はステップS24へ進み、カメラ202から入力された画像と、ステップS22で取得した画像情報を比較する。比較の結果、カメラ202から入力された画像と、ステップS22で取得した画像情報が一致した場合は、ステップS26へ進み、サーバ300に保持された通信情報を取得する。一方、一致しない場合は、ステップS32で一定時間待機した後、ステップS20に戻り、以降の処理を再度行う。この一致判定は、例えば公知の顔検出アルゴリズム等と同様の手法により、撮像画像を解析して特徴点を抽出し、画像情報の特徴点と対比する。そして、テンプレートマッチング処理等により相関性の高さに基づいて画像が一致しているか否かを判定する。
ステップS26の後はステップS28へ進む。ステップS28では、通信情報に基づいて、端末200が端末100と通信を行う。これにより、端末200は端末100に表示されたアプリケーションと通信を行うことができる。次のステップS30では、アプリケーションの機能が終了したか否かを判定し、アプリケーションの機能が終了した場合は、処理を終了する。
一方、アプリケーションの機能が終了していない場合は、ステップS32で一定時間待機した後、ステップS20に戻り、以降の処理を再度行う。
次に、図5に基づいて、サーバ300の辞書データ保持機能の処理を説明する。先ず、サーバ300の辞書データ保持機能が開始されると、ステップS40では、認識される端末100上のアプリケーション、または認識する端末200上のアプリケーションからの通信要求を待つ。次のステップS42において、認識される端末100から画像情報の登録要求があると、ステップS44へ進み、画像情報の登録を行う。
また、ステップS46において、端末100から通信情報の登録要求があった場合は、ステップS48へ進む。ステップS48では、通信情報を登録する。
また、ステップS50において、端末200から画像情報の取得要求があった場合は、ステップS52へ進む。ステップS52では、端末200へ画像情報の提供を行う。
また、ステップS54において、端末200から通信情報の取得要求があった場合は、ステップS56へ進む。ステップS56では、端末200へ通信情報の提供を行う。
ステップS58では、アプリケーションの機能が終了したか否かを判定し、アプリケーションの機能が終了した場合は、処理を終了する。一方、アプリケーションの機能が終了していない場合は、ステップS40に戻り、以降の処理を再度行う。
3.通信情報の例
通信情報としては、プロトコル名、ポート番号、IPアドレス等の情報を挙げることができる。図6は、通信情報の例を示す模式図である。図6では、A機器、B機器、C機器がそれぞれ有する通信情報を示す模式図である。通信情報は、ネットワークインタフェース、インターネット層、トランスポート層、アプリケーション層、通信フォーマットのそれぞれについて規定されている。ネットワークインタフェースに関する情報としては、WiFi、Bluetooth,Ethernet(登録商標),WiFi Directなどがある。インターネット層に関する情報としては、IPアドレスとポート番号(IP v4とIP V6)がある。トランスポート層に関する情報は、TCPまたはUDPの情報である。アプリケーション層に関する情報としては、HTTP、HTTPS、ws(WebSocket),wss(Secure WebSocket)などがある。通信フォーマットに関する情報としては、JSON PRC、SOAP、RESTなどがある。
通信情報としては、プロトコル名、ポート番号、IPアドレス等の情報を挙げることができる。図6は、通信情報の例を示す模式図である。図6では、A機器、B機器、C機器がそれぞれ有する通信情報を示す模式図である。通信情報は、ネットワークインタフェース、インターネット層、トランスポート層、アプリケーション層、通信フォーマットのそれぞれについて規定されている。ネットワークインタフェースに関する情報としては、WiFi、Bluetooth,Ethernet(登録商標),WiFi Directなどがある。インターネット層に関する情報としては、IPアドレスとポート番号(IP v4とIP V6)がある。トランスポート層に関する情報は、TCPまたはUDPの情報である。アプリケーション層に関する情報としては、HTTP、HTTPS、ws(WebSocket),wss(Secure WebSocket)などがある。通信フォーマットに関する情報としては、JSON PRC、SOAP、RESTなどがある。
認識される端末100と認識する端末200は、サーバ300を介して通信情報を共有することで、互いに通信を行うことができる。端末200は、通信情報に含まれるIPアドレスによって端末100を認識する。また、端末200は、通信情報に含まれるポート番号によって端末100のアプリケーションを認識する。通信情報は、アプリケーション画面毎に、画像情報と紐付けて端末100から端末200へ送られ、画像情報とともに保持部302に保持される。端末200からの画像情報の取得要求に応じて、画像情報は紐付けられた通信情報とともに端末200へ送られる。従って、端末100に複数のアプリケーション画面が含まれている場合であっても、端末200は、画像情報に対応するポート番号を取得することで、複数のアプリケーションのうちカメラ202によって撮影されたアプリケーションと通信を行うことができる。
4.アプリケーション画面が動画である場合
上述したように、アプリケーション画面は動画であっても良い。アプリケーション画面が動画の場合、通信のタイムラグを吸収するための仕組みを導入することができる。例えば、認識される端末100から、画像情報よりも先にフレーム番号をサーバ300へ送るようにする。フレーム番号の送信にはタイムラグは生じない。フレーム番号には時刻情報が対応付けされており、サーバ300は、これから画像情報を受信することを予め認識することができる。サーバ300は、フレーム番号よりも後に画像情報を端末100から受信する。そして、サーバ300は、端末100から画像情報を受信すると、既に端末200から受信している要求に応じて、要求された時刻に対応するフレームの画像情報を抽出し、端末200へ送る。これにより、端末200では、要求した時刻のカメラの画像と、サーバ300から送られた画像情報が一致しているか否かを判定することができる。
上述したように、アプリケーション画面は動画であっても良い。アプリケーション画面が動画の場合、通信のタイムラグを吸収するための仕組みを導入することができる。例えば、認識される端末100から、画像情報よりも先にフレーム番号をサーバ300へ送るようにする。フレーム番号の送信にはタイムラグは生じない。フレーム番号には時刻情報が対応付けされており、サーバ300は、これから画像情報を受信することを予め認識することができる。サーバ300は、フレーム番号よりも後に画像情報を端末100から受信する。そして、サーバ300は、端末100から画像情報を受信すると、既に端末200から受信している要求に応じて、要求された時刻に対応するフレームの画像情報を抽出し、端末200へ送る。これにより、端末200では、要求した時刻のカメラの画像と、サーバ300から送られた画像情報が一致しているか否かを判定することができる。
または、認識する端末200側において、カメラ202により撮影した動画を一定時間分だけ保持(キャッシュ)しておいても良い。これにより、端末200がサーバ300から画像情報を受信した際にタイムラグが生じていたとしても、端末200側では、フレームの時刻情報に基づいて受信した画像情報と保持しておいた動画を比較することで、画像情報とキャッシュした動画が一致しているか否かを判定できる。
5.登録情報の絞り込み
多数の認識される端末100が画像情報、通信情報をサーバ300に登録した場合、認識する端末200から画像情報、通信情報の取得要求を受けたサーバ300は、登録された多数の画像情報、通信情報の中から情報を絞り込んで取得要求を出した端末200へ返信する。
多数の認識される端末100が画像情報、通信情報をサーバ300に登録した場合、認識する端末200から画像情報、通信情報の取得要求を受けたサーバ300は、登録された多数の画像情報、通信情報の中から情報を絞り込んで取得要求を出した端末200へ返信する。
本実施形態では、絞り込みのための補助情報を用いることで、サーバ300側での検索を容易にする。補助情報としては、例えば位置情報が挙げられる。認識される端末100は、辞書データとともに、位置情報取得部(GPS)106が取得した端末100の位置情報をサーバ300へ送る。サーバ300は、画像情報、通信情報とともに位置情報を登録する。
認識する端末200は、サーバ300に対して画像情報を要求する際に、位置情報取得部(GPS)208により取得した端末200の位置情報をサーバ300へ送る。サーバ300の情報抽出部306は、端末200から取得した位置情報に基づいて、画像情報、通信情報の絞り込みを行う。例えば、サーバ300は、端末200から取得した位置情報に基づいて、端末200の位置から半径10m以内に位置する端末100の画像情報、通信情報を抽出して端末200へ送る。このように、位置情報に基づいて多数の端末100の画像情報、通信情報の絞り込みを行うことで、端末200側での画像情報と撮影情報との対比を容易に行うことができ、処理負荷を大幅に軽減することができる。
補助情報としては、位置情報以外にも、様々なものを用いることができる。例えば、認識する端末200から認識される端末に向けて、端末200の識別情報出力部209は、Wi−Fiのビーコン、音、光などを用いて識別情報を端末100へ送る。認識される端末100の識別情報取得部108は識別情報を取得する。端末100は、画像情報、通信情報とともに識別情報をサーバ300へ送り、サーバ300は画像情報、通信情報とともに識別情報を登録する。
認識する端末200は、サーバ300に対して画像情報を要求する際に、識別情報をサーバ300へ送る。サーバ300は、端末200から取得した識別情報に基づいて画像情報の絞り込みを行い、登録された画像情報、通信情報のうち、端末200から送られた識別情報と一致する識別情報に紐付けられた画像情報、通信情報を端末200に送る。これにより、登録された多数の画像情報の中から、端末200が撮影した端末100の画像情報のみを抽出することができる。識別情報としては、端末200のIPアドレス、又はその一部を用いることができる。このように、識別情報に基づいて多数の端末100の画像情報の絞り込みを行うことで、端末200側での画像情報と撮影情報との対比を容易に行うことができ、処理負荷を大幅に軽減することができる。
また、辞書データがサーバ300に登録された順番に基づいて、直近に登録されたものから順に検索するようにしても良い。
6.本実施形態の適用例
6.1.テーブルトップインタラクティブシステムへの適用
以下では、本実施形態を適用した幾つかの例を説明する。図7は、テーブルトップインタラクティブシステムとスマートフォンなどの端末とが連携するシステムを示す模式図である。図7に示したように、このシステム1100aは、入力部1110aと、出力部1130aと、を含んで構成される。図7に示した本開示の一実施形態に係る情報処理システム1100aは、テーブル1140aの天面に情報を表示し、テーブル1140aに表示した情報に対して情報処理システム1100aを使用するユーザに操作をさせるシステムである。図7のようにテーブル1140aの天面に情報を表示する方式を「プロジェクション型」とも称する。
6.1.テーブルトップインタラクティブシステムへの適用
以下では、本実施形態を適用した幾つかの例を説明する。図7は、テーブルトップインタラクティブシステムとスマートフォンなどの端末とが連携するシステムを示す模式図である。図7に示したように、このシステム1100aは、入力部1110aと、出力部1130aと、を含んで構成される。図7に示した本開示の一実施形態に係る情報処理システム1100aは、テーブル1140aの天面に情報を表示し、テーブル1140aに表示した情報に対して情報処理システム1100aを使用するユーザに操作をさせるシステムである。図7のようにテーブル1140aの天面に情報を表示する方式を「プロジェクション型」とも称する。
入力部1110aは、情報処理システム1100aを使用するユーザの操作内容や、テーブル1140aに置かれている物体の形状や模様などを入力する装置である。図7に示した例では、入力部1110aは、テーブル1140aの上方に、例えば天井から吊り下げられた状態で設けられる。すなわち、入力部1110aは、情報が表示される対象となるテーブル1140aとは離隔して設けられる。入力部1110aとしては、例えば1つのレンズでテーブル1140aを撮像するカメラや、2つのレンズでテーブル1140aを撮像して奥行き方向の情報を記録することが可能なステレオカメラ、情報処理システム1100aを使用するユーザが発する音声や情報処理システム1100aが置かれている環境の環境音を収音するためのマイク等が用いられ得る。
入力部1110aとして、1つのレンズでテーブル1140aを撮像するカメラが用いられる場合、情報処理システム1100aは、そのカメラが撮像した画像を解析することで、テーブル1140aに置かれた物体を検出することが出来る。また入力部1110aとしてステレオカメラが用いられる場合、そのステレオカメラには、例えば可視光カメラや赤外線カメラ等が用いられ得る。入力部1110aとしてステレオカメラが用いられることで、入力部1110aは、深度情報を取得することが可能となる。入力部1110aが、深度情報を取得することで、情報処理システム1100aは、例えばテーブル1140aの上に置かれた手や物体の検出が可能になる。また入力部1110aが、深度情報を取得することで、情報処理システム1100aは、テーブル1140aへのユーザの手の接触、近接の検出やテーブル1140aからの手の離脱の検出が可能となる。なお、以下の説明では、ユーザが情報の表示面に手等の操作体を接触または近接させることを、まとめて単に「接触」とも称する。
また入力部1110aとしてマイクが用いられる場合、そのマイクは特定の方向の音声を収音するためのマイクアレイが用いられ得る。入力部1110aとしてマイクアレイが用いられる場合、情報処理システム1100aは、マイクアレイの収音方向を任意の方向に調整しても良い。
以下では、ユーザの操作が、入力部1110aによって撮像された画像から検出される場合を主に説明するが、本開示は係る例に限定されるものではない。ユーザの操作は、ユーザの指等の接触を検出するタッチパネルによって検出されてもよい。また入力部1110aが取得できるユーザ操作としては、この他にも、例えば情報の表示面に対するスタイラス操作、カメラに対するジェスチャ操作等が含まれ得る。
出力部1130aは、入力部1110aによって入力された、情報処理システム1100aを使用するユーザの操作内容や、出力部130aが出力している情報の内容、テーブル1140aに置かれている物体の形状や模様等の情報に応じて、テーブル1140aに情報を表示したり、音声を出力したりする装置である。出力部1130aとしては、例えばプロジェクタやスピーカ等が用いられる。図7に示した例では、出力部1130aは、テーブル140aの上方に、例えば天井から吊り下げられた状態で設けられる。出力部1130aがプロジェクタで構成される場合、出力部1130aは、テーブル1140aの天面に情報を投影する。出力部1130aがスピーカで構成される場合、出力部1130aは、音声信号に基づいて音声を出力する。出力部1130aがスピーカで構成される場合、スピーカの数は1つで合っても良く、複数であっても良い。出力部1130aが複数のスピーカで構成される場合、情報処理システム1100aは、音声を出力するスピーカを限定したり、音声を出力する方向を調整したりしても良い。
また情報処理システム1100aが図7に示したようなプロジェクション型である場合、出力部1130aに、照明機器が含まれていても良い。出力部1130aに照明機器が含まれる場合、情報処理システム1100aは、入力部1110aによって入力された情報の内容に基づいて、照明機器の点灯、消灯等の状態を制御しても良い。
情報処理システム1100aを使用するユーザは、出力部1130aがテーブル1140aに表示する情報に対して、指などをテーブル1140aに置いて操作することが出来る。また情報処理システム1100aを使用するユーザは、テーブル1140aに物体を置いて入力部1110aに認識させることで、その認識させた物体に関する種々の操作を実行することが出来る。
なお図7には図示しないが、情報処理システム1100aには他の装置が接続されていても良い。例えば情報処理システム1100aには、テーブル1140aを照らすための照明機器が接続されていても良い。情報処理システム1100aにテーブル1140aを照らすための照明機器が接続されていることで、情報処理システム1100aは、情報の表示面の状態に応じて照明機器の点灯状態を制御することが可能となる。
図8は、図7の情報処理システム1100の機能構成例を示す説明図である。以下、図8を用いて本開示の一実施形態にかかる情報処理システムの機能構成例について説明する。
図8に示したように、本開示の一実施形態にかかる情報処理システム1100は、入力部1110と、制御部1120と、出力部1130と、を含んで構成される。
入力部1110は、情報処理システム1100を使用するユーザの情報処理システム1100に対する操作内容や、出力部1130が情報を出力する面(例えば図7に示したテーブル1140a)に置かれている物体の形状や模様などを入力する。情報処理システム1100を使用するユーザの情報処理システム1100に対する操作内容には、情報処理システム1100が情報の表示面に出力するGUIに対する操作内容を含む。入力部1110が入力した、情報処理システム1100に対する操作内容、物体の形状、模様等の情報は制御部1120に送られる。
入力部1110は、情報処理システム1100がプロジェクション型である場合、例えば1つのレンズで構成されるカメラ、2つのレンズで構成されるステレオカメラ、マイク等で構成され得る。
制御部1120は、情報処理システム1100の各部の制御を実行する。例えば制御部1120は、入力部1110が入力した情報を用いて、出力部1130から出力する情報を生成する。図8に示したように、制御部1120は、検出部1121と、出力制御部1122と、を含んで構成される。検出部1121は、情報処理システム1100を使用するユーザの、情報処理システム1100に対する操作内容や、出力部1130が出力している情報の内容、出力部1130が情報を出力する面(例えば図7に示したテーブル1140a)に置かれている物体の形状や模様などを検出する処理を実行する。検出部1121が検出した内容は出力制御部1122に送られる。出力制御部1122は、検出部1121が検出した内容に基づいて、出力部1130から出力する情報を生成する制御を実行する。出力制御部1122が生成した情報は出力部1130に送られる。
例えば情報処理システム1100が図7に示したプロジェクション型の場合、情報の表示面の座標と、ユーザの手等の操作体の表示面への接触座標とが一致するように予め校正されることで、検出部1121は、ユーザの手等の操作体が、GUIのどの部分に接触したかを検出することが可能になる。
制御部1120は、例えばCPU(Central Processing Unit;中央演算処理装置)などで構成されていてもよい。制御部1120がCPU等の装置で構成される場合は、かかる装置は電子回路で構成され得る。
また図8には図示しないが、制御部1120は、他の装置との間で無線通信を行なうための通信機能や、情報処理システム1100に接続される他の装置、例えば照明機器の動作を制御する機能を有してもよい。
出力部1130は、入力部1110によって入力された、情報処理システム1100を使用するユーザの操作内容や、出力部1130が出力している情報の内容、また出力部1130が情報を出力する面(例えば図7に示したテーブル1140a)に置かれている物体の形状や模様等の情報に応じて情報を出力する。出力部1130は、出力制御部1122が生成する情報に基づいて情報を出力する。出力部1130が出力する情報には、情報の表示面に表示される情報や、スピーカ(図示せず)等から出力される音声などが含まれる。
図8に示した情報処理システム1100は、単独の装置として構成されてもよく、一部または全部が別々の装置で構成されても良い。例えば、図8に示した情報処理システム1100の機能構成例の内、制御部1120が、入力部1110及び出力部1130とネットワーク等で接続されたサーバ等の装置に備えられていても良い。制御部1120がサーバ等の装置に備えられる場合は、入力部1110からの情報がネットワーク等を通じて当該サーバ等の装置に送信され、制御部1120が入力部1110からの情報に対して処理を行って、当該サーバ等の装置から、出力部1130が出力するための情報がネットワーク等を通じて出力部1130に送られる。
本開示の一実施形態に係る情報処理システム1100が、例えば図7に示したような、テーブルに情報を投影して、その情報に対してユーザに操作させるような形態を採る場合、情報処理システム1100は、テーブルの上にスマートフォン等の携帯端末との連携が可能になる。例えば、ユーザがテーブルの上にスマートフォン等の携帯端末を置き、その携帯端末を入力部1110に認識させることで、本開示の一実施形態に係る情報処理システム100は、その携帯端末を識別し、識別した携帯端末との連携を可能にする。
しかし、複数のユーザが全く同じ携帯端末を所有しており、その同じ携帯端末を同時に、また別々にテーブルの上に置いて、情報処理システム1100に認識させようとすると、情報処理システム1100は、どちらの携帯端末に連携すれば良いか判断できなくなる。
そこで本開示の一実施形態では、上述した画像情報による判定を行うことで、複数のユーザが全く同じ携帯端末を所有しており、同じ携帯端末が同時に、また別々にテーブルの上に置かれた場合であっても、連携する携帯端末を容易に特定可能とする。この場合、認識される端末100が携帯端末に相当し、認識する端末100が情報処理システム1100に相当する。これにより、情報処理システム1100と各携帯端末との連携が可能となる。
6.2.ウェアラブルデバイスと他の表示デバイス
図9は、据え置きディスプレイ400とウェアラブルデバイス450を連携させる例を示す模式図である。ここで、据え置きディスプレイ400は認識される端末100に相当し、ウェアラブルデバイス450は認識する端末200に相当する。ウェアラブルデバイス450は、カメラ202により据え置きディスプレイ400の表示されたアプリケーション画面410,420,430のいずれかを撮影し、予めサーバ300に登録された画像情報と撮影情報を比較することで、両者が一致した場合はアプリケーションと通信を行うことができる。
図9は、据え置きディスプレイ400とウェアラブルデバイス450を連携させる例を示す模式図である。ここで、据え置きディスプレイ400は認識される端末100に相当し、ウェアラブルデバイス450は認識する端末200に相当する。ウェアラブルデバイス450は、カメラ202により据え置きディスプレイ400の表示されたアプリケーション画面410,420,430のいずれかを撮影し、予めサーバ300に登録された画像情報と撮影情報を比較することで、両者が一致した場合はアプリケーションと通信を行うことができる。
6.3.壁面に設置された大画面ディスプレイ上のアプリケーションの認識
図10は、壁面に設置された大画面ディスプレイ500上のアプリケーションを認識する場合を示す模式図である。図10に示すように、大画面ディスプレイ500は、地面に対して画面502が垂直な状態で設置されている。画面502上では、複数のアプリケーション510,520,530が動作している。
図10は、壁面に設置された大画面ディスプレイ500上のアプリケーションを認識する場合を示す模式図である。図10に示すように、大画面ディスプレイ500は、地面に対して画面502が垂直な状態で設置されている。画面502上では、複数のアプリケーション510,520,530が動作している。
大画面上ディスプレイ500の画面502に表示された各アプリケーション、または任意の1又は複数のアプリケーションの画像情報は、通信情報とともにサーバ300に送られて登録される。
一方、ユーザは、自身が持つスマートフォン600のアプリケーションを使い、画面502上に表示されたアプリケーション画面を撮影する。これにより、スマートフォン600が、アプリケーション510,520,530の画面を認識する。
スマートフォン600は、上述した認識する端末200に相当する。スマートフォン600は、サーバ300に登録されたアプリケーション510,520,530の画像情報と、撮影した画像を比較する。比較の結果、両者が一致した場合は、スマートフォン600とアプリケーション510との通信が実現される。
スマートフォン600がアプリケーション画面を認識して得た通信を使うことで、色々な連携アプリケーションを実行することが可能である。例えば、スマートフォン600上の画像、映像、音楽データを大画面ディスプレイ500のアプリケーション510上で再生することが可能となる。また、複数ユーザが保有する各スマートフォンが、大画面ディスプレイ500上の1つのアプリケーション510を認識し、通信を行うことで、複数ユーザがカードゲームなどを実行することも可能である。
なお、図10では、大画面ディスプレイ500のアプリケーション510,520,530を認識したが、大画面ディスプレイ500に取り付けたカメラで、ユーザが持つスマートフォン600の画面上のアプリケーションを認識することも可能である。この場合、大画面ディスプレイ500が認識する端末200に相当し、スマートフォン600が認識される端末100に相当する。
6.4.ウェアラブルカメラと家電製品
図11は、家庭内でネットワークに接続された家電製品などの物700を示す模式図である。ネットワークに接続されたこれらの物700は、認識される端末100に相当する。家電製品などの物700は、自身の外見の写真や3Dモデルデータをサーバ300の辞書データ保持機能に登録する。
図11は、家庭内でネットワークに接続された家電製品などの物700を示す模式図である。ネットワークに接続されたこれらの物700は、認識される端末100に相当する。家電製品などの物700は、自身の外見の写真や3Dモデルデータをサーバ300の辞書データ保持機能に登録する。
従って、図11に示すシステムでは、認識される端末100に相当する物700は、自身の外観の特徴に関する外観情報を取得し、外観情報をサーバ300に登録する。ユーザは、図9と同様のウェアラブルデバイス450を装着しており、ウェアラブルデバイス450は認識する端末100に相当する。ウェアラブルデバイス450は、カメラ202によって物700を撮影することにより、これらの物700の画像を取得し、サーバ300から提供された外観情報との一致、不一致を判定し、両者が一致した場合は物700と通信を行う。
認識して得た通信を使って、色々なアプリケーションを実行することが可能である。例えば、エアコンを認識することにより、ウェアラブルデバイス450からの操作によってエアコンの設定アプリケーションを実行することができる。また、ドアノブの鍵を認識することにより、ウェアラブルデバイス450からの操作によって鍵を解除するアプリケーションを実行することができる。なお、図10では、ウェアラブルデバイス450によって認識を行ったが、スマートフォン等のモバイル機器で認識を行っても良い。また、図10のネットワークに接続された機器は、一例であり、接続される機器や物を限定するものではない。
以上説明したように本実施形態によれば、被認識対象となるアプリケーションのスナップショットや特徴点をリアルタイムで送信し、認識を行う端末100でそれらを辞書データとして用いることにより、未知のアプリや動的に変化するアプリケーションを画像認識することが可能となる。
また、複数の機器が認識することで、複数機器を使った連携アプリケーションも実行可能となる。また、機器や物がネットワークに接続された時に、機器や物の外見画像や3Dモデルデータを動的に辞書データとして登録することで、事前に登録作業をすることなしに、他の機器から認識し、連携することが出来る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 自装置の外観の特徴を示す外観情報を取得する外観情報取得部と、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する送信部と、
を備える、情報処理装置。
(2) 表示画面を備え、
前記外観情報取得部は、前記表示画面に表示された画面の特徴を示す画像情報を前記外観情報として生成する画像情報生成部から構成される、前記(1)に記載の情報処理装置。
(3) 前記送信部は、前記他装置と通信するための通信情報を前記画像情報とともに送信する、前記(2)に記載の情報処理装置。
(4) 前記表示画面には複数のアプリケーションが表示され、
前記画像情報生成部は、前記複数のアプリケーション毎に前記画像情報を生成し、
前記送信部は、アプリケーション毎に生成された前記画像情報を送信する、前記(2)に記載の情報処理装置。
(5) 前記表示画面の撮像画像と前記画像情報とが一致すると判定した前記他装置と通信を行う、前記(2)に記載の情報処理装置。
(6) 前記他装置を識別するための識別情報を取得する識別情報取得部を備え、
前記送信部は、前記識別情報を前記画像情報とともに送信する、前記(2)に記載の情報処理装置。
(7) 前記識別情報は、前記他装置のIPアドレスの少なくとも一部を含む、前記(6)に記載の情報処理装置。
(8) 前記識別情報取得部は、ビーコン、音、又は光によって送られた前記識別情報を取得する、前記(6)に記載の情報処理装置。
(9) 位置情報を取得する位置情報取得部を備え、
前記送信部は、前記位置情報を前記画像情報とともに送信する、前記(2)に記載の情報処理装置。
(10) 自装置の外観の特徴を示す外観情報を取得することと、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信することと、
を備える、情報処理方法。
(11) 自装置の外観の特徴を示す外観情報を取得する手段、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する手段、
としてコンピュータを機能させるためのプログラム。
(12) 他装置を撮像する撮像部と、
サーバから他装置の外観の特徴を示す外観情報を取得する外観情報取得部と、
前記撮像部が撮像した撮像画像と前記外観情報を比較する画像認識部と、
前記画像認識部による比較の結果、前記撮像部が撮像した撮像画像と前記外観情報が一致した場合に前記他装置と通信を行う通信部と、
を備える、情報処理装置。
(13) 第1の端末から、前記第1の端末の外観の特徴を示す外観情報を取得する外観情報取得部と、
前記外観情報を保持する保持部と、
第2の端末からの要求に応じて、前記第2の端末が前記第1の端末の外観を撮影して得られた撮影情報と前記外観情報を比較するため、前記外観情報を前記第2の端末へ送信する送信部と、
を備える、情報処理装置。
(1) 自装置の外観の特徴を示す外観情報を取得する外観情報取得部と、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する送信部と、
を備える、情報処理装置。
(2) 表示画面を備え、
前記外観情報取得部は、前記表示画面に表示された画面の特徴を示す画像情報を前記外観情報として生成する画像情報生成部から構成される、前記(1)に記載の情報処理装置。
(3) 前記送信部は、前記他装置と通信するための通信情報を前記画像情報とともに送信する、前記(2)に記載の情報処理装置。
(4) 前記表示画面には複数のアプリケーションが表示され、
前記画像情報生成部は、前記複数のアプリケーション毎に前記画像情報を生成し、
前記送信部は、アプリケーション毎に生成された前記画像情報を送信する、前記(2)に記載の情報処理装置。
(5) 前記表示画面の撮像画像と前記画像情報とが一致すると判定した前記他装置と通信を行う、前記(2)に記載の情報処理装置。
(6) 前記他装置を識別するための識別情報を取得する識別情報取得部を備え、
前記送信部は、前記識別情報を前記画像情報とともに送信する、前記(2)に記載の情報処理装置。
(7) 前記識別情報は、前記他装置のIPアドレスの少なくとも一部を含む、前記(6)に記載の情報処理装置。
(8) 前記識別情報取得部は、ビーコン、音、又は光によって送られた前記識別情報を取得する、前記(6)に記載の情報処理装置。
(9) 位置情報を取得する位置情報取得部を備え、
前記送信部は、前記位置情報を前記画像情報とともに送信する、前記(2)に記載の情報処理装置。
(10) 自装置の外観の特徴を示す外観情報を取得することと、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信することと、
を備える、情報処理方法。
(11) 自装置の外観の特徴を示す外観情報を取得する手段、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する手段、
としてコンピュータを機能させるためのプログラム。
(12) 他装置を撮像する撮像部と、
サーバから他装置の外観の特徴を示す外観情報を取得する外観情報取得部と、
前記撮像部が撮像した撮像画像と前記外観情報を比較する画像認識部と、
前記画像認識部による比較の結果、前記撮像部が撮像した撮像画像と前記外観情報が一致した場合に前記他装置と通信を行う通信部と、
を備える、情報処理装置。
(13) 第1の端末から、前記第1の端末の外観の特徴を示す外観情報を取得する外観情報取得部と、
前記外観情報を保持する保持部と、
第2の端末からの要求に応じて、前記第2の端末が前記第1の端末の外観を撮影して得られた撮影情報と前記外観情報を比較するため、前記外観情報を前記第2の端末へ送信する送信部と、
を備える、情報処理装置。
100 認識される端末
102 画像情報生成部
104 通信部
106 GPS
108 識別情報取得部
200 認識する端末
102 画像情報生成部
104 通信部
106 GPS
108 識別情報取得部
200 認識する端末
Claims (11)
- 自装置の外観の特徴を示す外観情報を取得する外観情報取得部と、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する送信部と、
を備える、情報処理装置。 - 表示画面を備え、
前記外観情報取得部は、前記表示画面に表示された画面の特徴を示す画像情報を前記外観情報として生成する画像情報生成部から構成される、請求項1に記載の情報処理装置。 - 前記送信部は、前記他装置と通信するための通信情報を前記画像情報とともに送信する、請求項2に記載の情報処理装置。
- 前記表示画面には複数のアプリケーションが表示され、
前記画像情報生成部は、前記複数のアプリケーション毎に前記画像情報を生成し、
前記送信部は、アプリケーション毎に生成された前記画像情報を送信する、請求項2に記載の情報処理装置。 - 前記表示画面の撮像画像と前記画像情報とが一致すると判定した前記他装置と通信を行う、請求項2に記載の情報処理装置。
- 前記他装置を識別するための識別情報を取得する識別情報取得部を備え、
前記送信部は、前記識別情報を前記画像情報とともに送信する、請求項2に記載の情報処理装置。 - 前記識別情報は、前記他装置のIPアドレスの少なくとも一部を含む、請求項6に記載の情報処理装置。
- 前記識別情報取得部は、ビーコン、音、又は光によって送られた前記識別情報を取得する、請求項6に記載の情報処理装置。
- 位置情報を取得する位置情報取得部を備え、
前記送信部は、前記位置情報を前記画像情報とともに送信する、請求項2に記載の情報処理装置。 - 自装置の外観の特徴を示す外観情報を取得することと、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信することと、
を備える、情報処理方法。 - 自装置の外観の特徴を示す外観情報を取得する手段、
自装置の外観を撮影した他装置と通信するため、前記外観情報を送信する手段、
としてコンピュータを機能させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015073745A JP2016194756A (ja) | 2015-03-31 | 2015-03-31 | 情報処理装置、情報処理方法及びプログラム |
US15/559,890 US10360453B2 (en) | 2015-03-31 | 2016-03-04 | Information processing apparatus and information processing method to link devices by recognizing the appearance of a device |
PCT/JP2016/056874 WO2016158206A1 (ja) | 2015-03-31 | 2016-03-04 | 情報処理装置、情報処理方法及びプログラム |
DE112016001499.6T DE112016001499T5 (de) | 2015-03-31 | 2016-03-04 | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm |
US16/444,454 US10789476B2 (en) | 2015-03-31 | 2019-06-18 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015073745A JP2016194756A (ja) | 2015-03-31 | 2015-03-31 | 情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016194756A true JP2016194756A (ja) | 2016-11-17 |
Family
ID=57004508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015073745A Pending JP2016194756A (ja) | 2015-03-31 | 2015-03-31 | 情報処理装置、情報処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (2) | US10360453B2 (ja) |
JP (1) | JP2016194756A (ja) |
DE (1) | DE112016001499T5 (ja) |
WO (1) | WO2016158206A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11197156B2 (en) | 2017-12-06 | 2021-12-07 | Samsung Electronics Co., Ltd. | Electronic device, user terminal apparatus, and control method thereof |
JP7200187B2 (ja) | 2020-09-28 | 2023-01-06 | 株式会社日立製作所 | 軌条車両用空調装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009255600A (ja) | 2006-06-30 | 2009-11-05 | Nec Corp | 通信相手特定装置及び通信相手特定方法、通信相手特定用プログラム |
JP5318734B2 (ja) * | 2009-11-26 | 2013-10-16 | 日本電信電話株式会社 | 画像収集方法および携帯装置 |
JP5683998B2 (ja) * | 2011-02-28 | 2015-03-11 | オリンパス株式会社 | サーバシステム及びクライアント装置の制御方法 |
WO2012135563A1 (en) * | 2011-03-31 | 2012-10-04 | Sony Mobile Communications Ab | System and method for establishing a communication session |
KR101788060B1 (ko) * | 2011-04-13 | 2017-11-15 | 엘지전자 주식회사 | 영상표시장치 및 이를 이용한 콘텐츠 관리방법 |
JP5753009B2 (ja) * | 2011-06-24 | 2015-07-22 | オリンパス株式会社 | 撮像装置、無線システム |
US8627364B2 (en) * | 2011-09-20 | 2014-01-07 | Lg Electronics Inc. | Digital system and method of processing service data thereof |
KR20130123506A (ko) * | 2012-05-03 | 2013-11-13 | 삼성전자주식회사 | 모듈 식별 정보 운용 방법 및 시스템과 이를 지원하는 단말기 |
KR102009928B1 (ko) * | 2012-08-20 | 2019-08-12 | 삼성전자 주식회사 | 협업 구현 방법 및 장치 |
KR101957943B1 (ko) * | 2012-08-31 | 2019-07-04 | 삼성전자주식회사 | 정보 제공 방법 및 이를 위한 정보 제공 차량 |
US9530232B2 (en) * | 2012-09-04 | 2016-12-27 | Qualcomm Incorporated | Augmented reality surface segmentation |
KR102047494B1 (ko) * | 2012-09-10 | 2019-11-21 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 객체 선택 방법 |
JP5999582B2 (ja) * | 2012-10-11 | 2016-09-28 | カシオ計算機株式会社 | 情報出力装置及びプログラム |
EP3734426A1 (en) * | 2012-11-09 | 2020-11-04 | Sony Corporation | Information processing apparatus, information processing method, and computer-readable recording medium |
-
2015
- 2015-03-31 JP JP2015073745A patent/JP2016194756A/ja active Pending
-
2016
- 2016-03-04 WO PCT/JP2016/056874 patent/WO2016158206A1/ja active Application Filing
- 2016-03-04 DE DE112016001499.6T patent/DE112016001499T5/de not_active Ceased
- 2016-03-04 US US15/559,890 patent/US10360453B2/en active Active
-
2019
- 2019-06-18 US US16/444,454 patent/US10789476B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11197156B2 (en) | 2017-12-06 | 2021-12-07 | Samsung Electronics Co., Ltd. | Electronic device, user terminal apparatus, and control method thereof |
JP7200187B2 (ja) | 2020-09-28 | 2023-01-06 | 株式会社日立製作所 | 軌条車両用空調装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190303675A1 (en) | 2019-10-03 |
US20180060661A1 (en) | 2018-03-01 |
US10789476B2 (en) | 2020-09-29 |
WO2016158206A1 (ja) | 2016-10-06 |
DE112016001499T5 (de) | 2018-02-22 |
US10360453B2 (en) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3237991B1 (en) | Communication system comprising head wearable devices | |
US9628843B2 (en) | Methods for controlling electronic devices using gestures | |
US9690998B2 (en) | Facial spoofing detection in image based biometrics | |
US20150187137A1 (en) | Physical object discovery | |
US20140355819A1 (en) | Device and method for allocating data based on an arrangement of elements in an image | |
US9912847B1 (en) | Image capture guidance to reduce specular reflection effects | |
JP2018067315A (ja) | ユーザー編集イメージを用いた拡張現実コンテンツの提供方法及びシステム | |
CN110503023A (zh) | 活体检测方法及装置、电子设备和存储介质 | |
US11373650B2 (en) | Information processing device and information processing method | |
US11514600B2 (en) | Information processing device and information processing method | |
WO2014180291A1 (zh) | 一种用于基于运动特征信息生成运动特征码的方法和设备 | |
KR101276314B1 (ko) | 엘에스에이치 알고리즘의 자료조회결과의 특징점을 이용한 매칭포인트 추출시스템 및 그 방법 | |
TW202244680A (zh) | 位置姿勢獲取方法、電子設備及電腦可讀儲存媒體 | |
US10789476B2 (en) | Information processing apparatus and information processing method | |
CN110073650A (zh) | 确定搜索对象设备的位置的终端设备、电子设备和控制方法 | |
US20190096130A1 (en) | Virtual mobile terminal implementing system in mixed reality and control method thereof | |
US10929703B2 (en) | Method apparatus and program product for enabling two or more electronic devices to perform operations based on a common subject | |
WO2011145180A1 (ja) | ポインタ情報処理装置、ポインタ情報処理プログラムおよび会議システム | |
JP6374203B2 (ja) | 表示システム及びプログラム | |
JP6308842B2 (ja) | 表示システム及びプログラム | |
US10545716B2 (en) | Information processing device, information processing method, and program | |
JP6403975B2 (ja) | 秘密情報入力システム及びプログラム | |
WO2024202705A1 (ja) | プログラム、情報処理装置及び方法 | |
KR20220111716A (ko) | 디바이스 로컬리제이션을 위한 디바이스 및 방법 | |
JP2023134340A (ja) | プログラム、情報処理装置及び方法 |