JP2020173521A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2020173521A
JP2020173521A JP2019073853A JP2019073853A JP2020173521A JP 2020173521 A JP2020173521 A JP 2020173521A JP 2019073853 A JP2019073853 A JP 2019073853A JP 2019073853 A JP2019073853 A JP 2019073853A JP 2020173521 A JP2020173521 A JP 2020173521A
Authority
JP
Japan
Prior art keywords
image
information processing
blur
control unit
application control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019073853A
Other languages
English (en)
Inventor
吉永 明生
Akio Yoshinaga
明生 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rss Corp
Original Assignee
Rss Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rss Corp filed Critical Rss Corp
Priority to JP2019073853A priority Critical patent/JP2020173521A/ja
Publication of JP2020173521A publication Critical patent/JP2020173521A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】単眼の可視カメラにより取得した画像を用いてモーションセンシングを行うこと。【解決手段】移動体の所定の動作に応じて情報処理装置1に所定の処理を実行させるための情報を記憶する記憶部と、可視カメラ106から取得した第1の画像と、第1の画像の前後に取得した第2の画像とを対比することにより第1の画像および第2の画像のいずれかにボケが存在するか否かを判断し、ボケが存在する場合にボケの位置の移動方向を特定して移動体の動作を判断し、記憶部を参照して動作に応じた処理を当該情報処理装置1に実行させるアプリケーション制御部と、を有する。【選択図】図1

Description

本発明は情報処理装置、情報処理方法およびプログラムに関する。
非接触で、かつ、手の回転動作により入力情報を入力できる技術が知られている。例えば、画像に含まれる棒状の先端部の回転動作により、遊技者の入力情報を受け付ける画像処理装置であって、画像内に含まれる棒状の先端部の座標位置を取得する先端部座標取得手段と、画像を所定の棒状の先端部の回転動作の中心として設定される中心位置を基準として、回転角度に応じて、画像を複数のエリアに区分するとき、先端部座標取得手段により取得された先端部座標が属するエリアが隣接するエリアに移動するとき、回転動作の回転方向、および回転速度を計測し、回転動作による入力情報として出力する計測手段と、回転動作が1周する場合、順次先端部座標取得手段により取得される座標位置の重心位置を計算する重心位置計算手段と、重心位置に、中心位置を移動させるように、画像が区分されたエリアを移動させてエリアを補正する補正量を計算する補正手段とを含む画像処理装置が知られている。
また、手を振る事等を認識するモーションセンシングに関しては、深度センサや近接センサ、またはステレオ式の可視カメラ等を用いる手法が知られている。
特開2012−128763号公報
深度センサや近接センサ、また、ステレオ式の可視カメラ等を使用せず、広く普及しているノートPC(Personal Computer)やタブレット等が実装している単眼の可視カメラや、USB(Universal Bus)等接続可能な単眼の可視カメラを用いてモーションセンシングができれば便宜である。
1つの側面では、本発明は、単眼の可視カメラにより取得した画像を用いてモーションセンシングを行うことを目的とする。
上記目的を達成するために、開示の情報処理装置が提供される。この情報処理装置は、移動体の所定の動作に応じて当該情報処理装置に所定の処理を実行させるための情報を記憶する記憶部と、撮像装置から取得した第1の画像と、第1の画像の前後に取得した第2の画像とを対比することにより第1の画像および第2の画像のいずれかにボケが存在するか否かを判断し、ボケが存在する場合にボケの位置の移動方向を特定して移動体の動作を判断し、記憶部を参照して動作に応じた処理を当該情報処理装置に実行させる制御部と、を有している。
1態様では、単眼の可視カメラにより取得した画像を用いてモーションセンシングを行うことができる。
実施の形態の情報処理装置を示す図である。 実施の形態の情報処理装置のハードウェア構成を示す図である。 実施の形態の情報処理装置の機能を示すブロック図である。 記憶部が記憶する情報の一例を説明する図である。 記憶部が記憶する情報の一例を説明する図である。 ボケ領域およびモーションを説明する図である。 エッジの検出の判断を説明する図である。 状況に応じてアプリケーション制御部が実行する処理を説明する図である。 アプリケーション制御部の処理を説明するフローチャートである。 モーション検出処理を説明するフローチャートである。 第1センシング処理を説明するフローチャートである。 第2センシング処理を説明するフローチャートである。 記憶部が記憶する情報の一例を説明する図である。 移動方向判定処理を説明するフローチャートである。
以下、実施の形態の情報処理装置を、図面を参照して詳細に説明する。
以下の図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲等に限定されない。
実施の形態において単数形で表される要素は、文面で明らかに示されている場合を除き、複数形を含むものとする。
<実施の形態>
図1は、実施の形態の情報処理装置を示す図である。
実施の形態の情報処理装置(コンピュータ)1は、撮像装置が撮像した画像を用いて移動体の特定の動作を解析(モーションセンシング)することにより、情報処理装置1に所定の処理を実行させるソフトウェアを実装している。
移動体としては、例えば操作者(ユーザ)や機械が挙げられる。
情報処理装置1としては、例えば設置型のPCやタブレットやスマートフォン等の携帯端末装置等が挙げられる。
図1に示す情報処理装置1が有するディスプレイ104aの画面内には、作業指示書等の電子文書が表示されている。また、ディスプレイ104aの縁部には、単眼の可視カメラ106が配置されている。
この情報処理装置1を操作者が使用するシーンの一例としては、情報処理装置1の近傍で何らかの作業をしており、情報処理装置1を操作したいが手が汚れている、濡れている等の理由で直接情報処理装置1に触れることが困難な場合が挙げられる。また、他の例としては、衛生面上、キーボードやマウス等の入力装置に触れられない、触れたくない等の状況が挙げられる。
このような状況において操作者が情報処理装置1に所定の動作を実行させる場合には、例えば、操作者がディスプレイ104aの近傍にて右手を右側から左側に素早く移動させる。これにより、可視カメラ106が撮像した画像内にボケが発生する。情報処理装置1は、このボケの発生及びボケが発生した箇所の遷移に応じて操作者の特定の動作を判断し、動作に応じた処理を実行する。図1では電子文書のページをめくる処理を実行する。
この情報処理装置1にて認識可能な動作としては、これに限らず、例えば上下方向の動作や、所定の図形を描画する等が挙げられる。
また、図1に示す例では、情報処理装置1は電子文書のページをめくる処理を実行する例を説明した。しかし、情報処理装置1に実行させる処理はこれに限らず、任意の処理を実行させることができる。また、情報処理装置1以外の他の電子機器に所定の動作を実行させるようにしてもよい。
また、図1に示す例では、ボケを発生させる移動体として手を用いているが、移動体はこれに限らず顔や足等、人体の他の部位や、ペンなどの棒状体を用いることができる。
以下、開示の情報処理装置をより具体的に説明する。
図2は、実施の形態の情報処理装置のハードウェア構成を示す図である。
情報処理装置1は、CPU(Central Processing Unit)101によって装置全体が制御されている。
CPU101には、バス108を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。
RAM102は、情報処理装置1の主記憶装置として使用される。RAM102には、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に使用する各種データが格納される。
バス108には、内蔵メモリ103、グラフィック処理装置104、入力インタフェース105、可視カメラ106および通信インタフェース107が接続されている。
内蔵メモリ103は、データの書き込みおよび読み出しを行う。内蔵メモリ103は、情報処理装置1の二次記憶装置として使用される。内蔵メモリ103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、内蔵メモリとしては、例えばフラッシュメモリ等の半導体記憶装置が挙げられる。
グラフィック処理装置104には、ディスプレイ104aが接続されている。グラフィック処理装置104は、CPU101からの命令に従って、画像をディスプレイ104aの画面に表示させる。ディスプレイ104aとしては、液晶表示装置等が挙げられる。また、ディスプレイ104aは、タッチパネル機能も備えていてもよい。
入力インタフェース105には、キーボード105aとマウス105bとが接続されている。入力インタフェース105は、キーボード105aやマウス105bから送られてくる信号をCPU101に送信する。なお、マウス105bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、例えばタッチパネル、タブレット、タッチパッド、トラックボール等が挙げられる。
可視カメラ106は、単眼のカメラであり、例えばディスプレイ104aの上部(縁部)に配置されている。可視カメラ106は、撮像した動画像をCPU101に送る。
通信インタフェース107は、ネットワーク50に接続されている。通信インタフェース107は、ネットワーク50を介して、他のコンピュータまたは通信機器との間でデータを送受信する。
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
なお、情報処理装置1が可視カメラ106を有していなくてもよい。その場合、例えば数千円程度で購入できるUSB接続可能な単眼の可視カメラを情報処理装置1に接続することで代用できる。このように、可視カメラのセットアップは手軽にできる。
図2に示すようなハードウェア構成の情報処理装置1内には、以下のような機能が設けられる。
図3は、実施の形態の情報処理装置の機能を示すブロック図である。
情報処理装置1は、記憶部11とアプリケーション制御部12とOS13とを有している。
記憶部11には、所定のモーションに応じてOS13に所定の処理を実行させるためのキーコード(識別情報)が記憶されている。また、記憶部11には、可視カメラ106が撮像した画像が記憶される。また、記憶部11には、ボケを検出する対象の画像か否かを識別する情報が記憶される。
図4および図5は、記憶部が記憶する情報の一例を説明する図である。
図4に示すモーションテーブルT1には、モーションおよびキーコードの欄が設けられている。横方向に並べられた情報同士が互いに関連付けられている。
モーションの欄には、アプリケーション制御部12が検出可能なモーションの種別が設定されている。
キーコードの欄には、モーションに応じてOS13に送信するキーコードが設定されている。このキーコードがOS13に送信されると、OS13は、キーコードに応じた処理(例えば画面遷移等)を実行する。
図5に示すエッジデータ管理テーブルT2には、フレームID、エッジデータ、およびボケ検出対象画像の欄が設けられている。横方向に並べられた情報同士が互いに関連付けられている。
エッジデータ管理テーブルT2は、リングバッファ構造になっており、最近の4つのフレームに関するデータが記憶される。このエッジデータ管理テーブルT2に記憶されるデータは、アプリケーション制御部12がボケの検出をする際に使用する。なお、記憶される画像のフレーム数は4フレームに限定されない。
フレームIDの欄には、当該フレームを識別するIDが設定される。
エッジデータの欄には、当該フレームが備えるエッジに関するデータ(画像内のエッジ分布等)が記憶される。
ボケ検出対象画像の欄には、当該フレームがボケ検出対象画像か否かを識別する情報が設定される。
再び図3に戻って説明する。
アプリケーション制御部12は、可視カメラ106から取得した画像にボケ領域(ボケが発生している領域が閾値以上の領域)が存在するか否かを判断する。
以下、ボケ領域について図を用いて説明する。
図6は、ボケ領域およびモーションを説明する図である。
モノクロ画像にて、操作者が右側から左側へ手を振っている事は明白であるが、画像処理にてエッジ化した二値画像でもそれは明白である。
本実施の形態では、可視カメラ106から取得した画像の連続する複数のフレーム毎にエッジを検出する。アプリケーション制御部12は、検出したエッジを用いることで、ボケの発生およびその領域を推定する。
具体的には、アプリケーション制御部12は、今回(最新)および過去3フレーム(以下、「処理対象4フレーム」とも言う)の画像のグレースケール画像に変換する。そして、変換したグレースケール画像に含まれるエッジを検出する。図6においては、顔の輪郭や肩の部位等においてエッジが検出されている。
移動体(図6においては手)がエッジの前面を通過した箇所はボケが発生し、エッジが取得されない(取得できなくなる)。図6においては、3つ前のフレームにおいて左肩部分のエッジが検出できていない。顔部分のエッジはほぼ検出できている。これに対し、2つ前のフレームにおいて顔の左側部分のエッジが検出できていない。また、1つ前のフレームにおいて顔の右側部分および右肩部分のエッジが検出できていない。最新フレームにおいて顔の大部分のエッジが検出できている。右肩部分のエッジが検出できていない。アプリケーション制御部12は、処理対象4フレームの画像を対比し、エッジが取得できなくなった領域が所定の面積以上である場合、処理対象4フレームにはいずれもボケ領域が存在すると判断する。
図7は、エッジの検出の判断を説明する図である。
図7(a)は、可視カメラ106から取得した画像からアプリケーション制御部12がエッジを検出できると判断した画像の例である。図7(b)は、アプリケーション制御部12がエッジを検出できないと判断した画像の例である。エッジが検出できるか否かを判定する方法としては、顔認識等の手法を用いてもよい。具体的には、顔認識ができた場合にはエッジが検出できると判断する。他の簡易的な処理としては、画像を32×32等、任意の数のエリアに区分けし、エッジを含むエリア数が所定数以上である場合にエッジが検出できると判断してもよい。アプリケーション制御部12は、エッジが検出できた画像を、ボケ検出対象の画像であると判定する。再び図6に戻って説明する。
アプリケーション制御部12は、今回および過去3フレームのうち、ボケ領域が存在するフレームを判断するために、フレーム毎に用意された固有の値(固有値)を用いてフレーム内の所定のエリア毎に、エッジの有無のOR(排他的論理和)を取る処理を実行する。エリアは、画素単体であってもよいし、複数画素の集合体であってもよい。
なお、固有値は一例として、今回のフレームの固有値を「1」、1つ前のフレームの固有値を「2」、2つ前のフレームの固有値を「4」、3つ前のフレームの固有値を「8」とする。
アプリケーション制御部12は、各フレームにおけるエッジが存在しないエリアには「0」を、エッジが存在するエリアには各固有値を割り当てる。逆の割り当て方法でもよい。
例えば、フレーム内のあるエリアにおいて、処理対象4フレームの合成画像の固有値の合計が「14(2+4+8)」である場合、「過去3フレームの当該エリアにはいずれもエッジが存在している、すなわち、ボケが発生しておらず、今フレームにてエッジが存在しない、すなわち、ボケが発生している」、と判断できる。
この手法にて、アプリケーション制御部12は、処理対象4フレームそれぞれにおいてボケが発生しているエリアを特定する。そして、アプリケーション制御部12は、特定したエリアの面積に応じてボケ領域が存在するか否かを判断する。
ボケ領域が存在する場合にアプリケーション制御部12は、ボケ領域の遷移に応じてモーションを判断する。例えば、ある程度の大きさをもったボケ領域が画面の右から左に遷移していく場合は、操作者が右から左に手を振っていると判断することができる。
そして、アプリケーション制御部12は、モーションテーブルT1を参照して対応するキーコードをOS13に送信する。
ところでアプリケーション制御部12は、ボケ領域の遷移に応じたモーションの判断とは別個に、輝度差分を用いたモーションの判断を行うこともできる。
図8は、状況に応じてアプリケーション制御部が実行する処理を説明する図である。
図8(a)は、ディスプレイ104aの近傍において、操作者が右側から左側に素早く右手を移動させている。取得した画像からアプリケーション制御部12がエッジを検出できると判断した場合、アプリケーション制御部12は、ボケ領域の遷移に応じて移動体の移動方向を求め、かつ、輝度差分を用いて移動体の移動方向を求める処理を実行することができる。これにより、より精度の高い移動方向の特定が可能である。なお、輝度差分を用いて移動体の移動方向を求める処理については、後に詳述する。
図8(b)は、ディスプレイ104aから離れた位置において、操作者が右側から左側に素早く右手を移動させている。この場合もアプリケーション制御部12は、ボケ領域の遷移に応じて移動体の移動方向を求め、かつ、輝度差分を用いて移動体の移動方向を求める処理を実行する。距離が離れすぎると、ボケ領域が抽出できずに情報処理装置1が操作者の動作を識別できずに情報処理装置1は所定の動作を実行しない。このようにすることで、例えばディスプレイ104aから離れた位置で人が通り過ぎた場合にも画面が切り替わってしまう等の誤動作を抑制することができる。
図8(c)は、ディスプレイ104aの近傍において操作者が、右側から左側に素早く右手を移動させている。しかし、可視カメラ106が撮像した画像には操作者が写っておらずエッジが検出できない例を示している。この場合、アプリケーション制御部12は、輝度差分を用いて移動体の移動方向を求める処理を実行する。
次に、アプリケーション制御部12の処理を、フローチャートを用いて説明する。なお、以下のフローチャートは一例であり、一部の処理を省略したり、他の処理に置換したりしてもよい。また、一部の処理の手順を入れ替えてもよい。
図9は、アプリケーション制御部の処理を説明するフローチャートである。
[ステップS1] アプリケーション制御部12は、可視カメラ106が取得した画像の入力を待機する。
[ステップS2] アプリケーション制御部12は、可視カメラ106が取得した画像を用いて所定のモーションを検出するモーション検出処理を実行する。なお、モーション検出処理については、後に詳述する。
[ステップS3] アプリケーション制御部12は、モーションテーブルT1を参照し、ステップS2のモーション検出処理にて所定のモーションが検出できたか否かを判断する。ステップS2のモーション検出処理にて所定のモーションが検出できた場合(ステップS3のYes)、ステップS4に遷移する。ステップS2のモーション検出処理にて所定のモーションが検出できていない場合(ステップS3のNo)、ステップS5に遷移する。
[ステップS4] アプリケーション制御部12は、モーションテーブルT1を参照し、モーションに対応するキーコードをOS13に送信する。その後、ステップS5に遷移する。
[ステップS5] アプリケーション制御部12は、アプリケーションプログラムの終了要求(プログラム終了要求)を受け取ったか否かを判断する。プログラム終了要求を受け取った場合(ステップS5のYes)、図9の処理を終了する。プログラム終了要求を受け取っていない場合(ステップS5のNo)、ステップS1に遷移し、ステップS1以降の処理を引き続き実行する。
次に、ステップS2におけるモーション検出処理を説明する。
図10は、モーション検出処理を説明するフローチャートである。
[ステップS21] アプリケーション制御部12は、可視カメラ106が取得した画像をグレースケールに変換する。その後、ステップS22に遷移する。
[ステップS22] アプリケーション制御部12は、可視カメラ106から取得した画像のエッジを用いて移動体の移動方向を求める処理(以下、第1センシング処理と言う)を実行する。その後、ステップS23に遷移する。
[ステップS23] アプリケーション制御部12は、輝度差分を用いて移動体の移動方向を求める処理(以下、第2センシング処理と言う)を実行する。その後、モーション検出処理を終了する。
次に、ステップS22の第1センシング処理を説明する。
図11は、第1センシング処理を説明するフローチャートである。
[ステップS22a] アプリケーション制御部12は、ステップS21にて変換したグレースケールの画像に含まれるエッジを抽出した二値画像を作成する。その後ステップS22bに遷移する。
[ステップS22b] アプリケーション制御部12は、ステップS22aにて作成した画像内のエッジの分布を求める。その後、ステップS22cに遷移する。
[ステップS22c] アプリケーション制御部12は、ステップS22bにて求めた分布から例えば図6および図7にて説明した方法を用いてボケ検出対象の画像(ボケ検出対象画像)であるか否かを判定する。その後、ステップS22dに遷移する。
[ステップS22d] アプリケーション制御部12は、エッジデータ管理テーブルT2のボケ検出対象画像の欄を参照する。そして、アプリケーション制御部12は、処理対象4フレームのいずれかがボケ検出対象画像であるか否かを判断する。処理対象4フレームのいずれかがボケ検出対象画像である場合(ステップS22dのYes)、ステップS22eに遷移する。処理対象4フレームのいずれもボケ検出対象画像ではない場合(ステップS22dのNo)、ステップS22gに遷移する。
[ステップS22e] アプリケーション制御部12は、処理対象4フレームにいずれもボケ領域が存在するか否かを判断する。処理対象4フレームにいずれもボケ領域が存在する場合(ステップS22eのYes)、ステップS22fに遷移する。処理対象4フレームのうちいずれかにボケ領域が存在しない場合(ステップS22eのNo)、ステップS22gに遷移する。
[ステップS22f] アプリケーション制御部12は、ボケの移動方向を判定する処理(第1移動方向判定処理)を実行する。領域の移動方向の推定については、従来公知の方法を用いることができるため、詳細な説明を省略する。その後、ステップS22gに遷移する。
[ステップS22g] アプリケーション制御部12は、今回のフレームのエッジデータをエッジデータ管理テーブルT2に記憶する。その後、第1センシング処理を終了する。
次に、ステップS23の第2センシング処理を説明する。
図12は、第2センシング処理を説明するフローチャートである。
[ステップS23a] アプリケーション制御部12は、ステップS21のグレースケール画像と、1フレーム前のグレースケール画像との輝度差にて二値画像を作成する。その後、ステップS23bに遷移する。
[ステップS23b] アプリケーション制御部12は、ステップS23aにて作成した二値画像から、結合画素数の小さいものをノイズ要素として除去する。その後、ステップS23cに遷移する。これにより、移動している画素の集合の要素(動体要素)が求まる。
[ステップS23c] アプリケーション制御部12は、今回のフレームの移動データを計算する。移動データは、移動画素数、動体要素のX座標の平均(以下、「移動X」と言う)、および移動したY座標の平均を有している。その後、ステップS23dに遷移する。
図13は、記憶部が記憶する情報の一例を説明する図である。
図13に示す移動データ管理テーブルT3には、フレームIDおよび移動データの欄が設けられている。横方向に並べられた情報同士が互いに関連付けられている。
移動データ管理テーブルT3は、リングバッファ構造になっており、最近の4つのフレームに関するデータが記憶される。
フレームIDの欄には、当該フレームを識別するIDが設定される。
移動データの欄には、さらに移動画素数、移動X座標平均、および移動Y座標平均の欄が設けられている。
移動画素数の欄には、当該フレーム内の移動した画素数が記憶される。
移動X座標平均の欄には、移動している画素の集合の重心のX座標が記憶される。
移動Y座標平均の欄には、移動している画素の集合の重心のY座標が記憶される。
再び図12に戻って説明する。
[ステップS23d] アプリケーション制御部12は、処理対象4フレーム全てで移動画素数が閾値以上か否かを判断する。処理対象4フレーム全てで移動画素数が閾値以上である場合(ステップS23dのYes)、ステップS23eに遷移する。処理対象4フレーム全てで移動画素数が閾値以上ではない場合(ステップS23dのNo)、ステップS23fに遷移する。
[ステップS23e] アプリケーション制御部12は、輝度差の移動方向を判定する移動方向判定処理を実行する。なお、移動方向判定処理については、後に詳述する。その後、ステップS23fに遷移する。
[ステップS23f] アプリケーション制御部12は、今回のフレームの移動データを移動データ管理テーブルT3に記憶する。その後、第2センシング処理を終了する。
次に、ステップS23eの移動方向判定処理を説明する。
図14は、移動方向判定処理を説明するフローチャートである。
[ステップS23e1] アプリケーション制御部12は、処理対象4フレームの移動Xを比較する。そして、今回フレームの移動X≧1フレーム前の移動X≧2フレーム前の移動X≧3フレーム前の移動Xか否かを判断する。上記関係を満たす場合(ステップS23e1のYes)、ステップS23e2に遷移する。上記関係を満たさない場合(ステップS23e1のNo)、ステップS23e3に遷移する。
[ステップS23e2] アプリケーション制御部12は、水平方向の移動量(ステップS23e1における処理対象4フレームの移動Xの移動量)が閾値以上か否かを判断する。水平方向の移動量が閾値以上である場合(ステップS23e2のYes)、ステップS23e3に遷移する。水平方向の移動量が閾値以上ではない場合(ステップS23e2のNo)、移動方向判定処理を終了する。
[ステップS23e3] アプリケーション制御部12は、左方向から右方向へのモーションであると判断する。その後、移動方向判定処理を終了する。
なお、図14では左方向から右方向への移動を判定する処理について説明したが、他の方向についても同様の処理にて実現可能である。例えば上方向から下方向への移動を判定する場合には、移動Yの垂直方向への移動量が閾値以上か否かを判断する。
以上述べたように、情報処理装置1は、移動体の所定の動作に応じて情報処理装置1に所定の処理を実行させるための情報を記憶する記憶部11と、可視カメラ106から取得した第1の画像と、第1の画像の前後に取得した第2の画像とを対比することにより第1の画像および第2の画像のいずれかにボケが存在するか否かを判断し、ボケが存在する場合にボケの位置の移動方向を特定して移動体の動作を判断し、記憶部11を参照して動作に応じた処理を当該情報処理装置1に実行させるアプリケーション制御部12と、を有する。これにより、単眼の可視カメラ106により取得した画像を用いてモーションセンシングを行うことができる。単眼の可視カメラだけでモーションセンシングを行う例はほぼなく、その要因としては奥行情報を取得することが極めて難しいためであるが、この問題は画像処理技術とその認識するモーション認識種類を絞り込むことで解決をする。
インタラクティブな電子広告や、機器に触れない、触りたくたくないという衛生面が厳守される場所、手が汚れていたり、濡れていたりする、というような状況下で情報処理装置1に所定の動作を実行させることができる。
なお、情報処理装置1が行った処理が、複数の装置によって分散処理されるようにしてもよい。例えば、1つの装置が、第1センシング処理を実行し、他の装置が、第2センシング処理を実行するようにしてもよい。
以上、本発明の情報処理装置、情報処理方法およびプログラムを、図示の実施の形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物や工程が付加されていてもよい。
また、本発明は、前述した各実施の形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、情報処理装置1が有する機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等が挙げられる。磁気記憶装置には、ハードディスクドライブ、フレキシブルディスク(FD)、磁気テープ等が挙げられる。光ディスクには、DVD、DVD−RAM、CD−ROM/RW等が挙げられる。光磁気記録媒体には、MO(Magneto-Optical disk)等が挙げられる。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。
また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等の電子回路で実現することもできる。
1 情報処理装置
11 記憶部
12 アプリケーション制御部
13 OS
104a ディスプレイ
106 可視カメラ
T1 モーションテーブル
T2 エッジデータ管理テーブル
T3 移動データ管理テーブル

Claims (5)

  1. 移動体の所定の動作に応じて当該情報処理装置に所定の処理を実行させるための情報を記憶する記憶部と、
    撮像装置から取得した第1の画像と、前記第1の画像の前後に取得した第2の画像とを対比することにより前記第1の画像および前記第2の画像のいずれかにボケが存在するか否かを判断し、ボケが存在する場合にボケの位置の移動方向を特定して前記移動体の動作を判断し、前記記憶部を参照して前記動作に応じた処理を当該情報処理装置に実行させる制御部と、
    を有することを特徴とする情報処理装置。
  2. 前記制御部は、前記第1の画像と前記第2の画像とでエッジが存在する部位の変化がある場合にボケが存在すると判断する請求項1に記載の情報処理装置。
  3. 前記制御部は、前記第1の画像と前記第2の画像の輝度差分を用いて前記移動体の動作を判断し、前記記憶部を参照して前記動作に応じた処理を当該情報処理装置に実行させる請求項1に記載の情報処理装置。
  4. コンピュータが、
    撮像装置から取得した第1の画像と、前記第1の画像の前後に取得した第2の画像とを対比することにより前記第1の画像および前記第2の画像のいずれかにボケが存在するか否かを判断し、
    ボケが存在する場合にボケの位置の移動方向を特定して前記移動体の動作を判断し、
    前記動作に応じた処理を当該情報処理装置に実行させる、
    ことを特徴とする情報処理方法。
  5. コンピュータに、
    撮像装置から取得した第1の画像と、前記第1の画像の前後に取得した第2の画像とを対比することにより前記第1の画像および前記第2の画像のいずれかにボケが存在するか否かを判断し、
    ボケが存在する場合にボケの位置の移動方向を特定して前記移動体の動作を判断し、
    前記動作に応じた処理を当該情報処理装置に実行させる、
    処理を実行させることを特徴とするプログラム。
JP2019073853A 2019-04-09 2019-04-09 情報処理装置、情報処理方法およびプログラム Pending JP2020173521A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019073853A JP2020173521A (ja) 2019-04-09 2019-04-09 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019073853A JP2020173521A (ja) 2019-04-09 2019-04-09 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2020173521A true JP2020173521A (ja) 2020-10-22

Family

ID=72831471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019073853A Pending JP2020173521A (ja) 2019-04-09 2019-04-09 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2020173521A (ja)

Similar Documents

Publication Publication Date Title
US9690388B2 (en) Identification of a gesture
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9824450B2 (en) Localisation and mapping
EP2846308A2 (en) Pointing direction detecting device and its method, program and computer readable-medium
JP6221505B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2012147961A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US9348466B2 (en) Touch discrimination using fisheye lens
JP5703194B2 (ja) ジェスチャ認識装置、その方法、及び、そのプログラム
US20150089453A1 (en) Systems and Methods for Interacting with a Projected User Interface
US9911230B2 (en) Method and apparatus for controlling virtual monitor
US9218060B2 (en) Virtual mouse driving apparatus and virtual mouse simulation method
JP7378354B2 (ja) ライブ動画ストリームからの指の押下の検出
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
TW201407420A (zh) 改善之視訊追蹤
US9811916B1 (en) Approaches for head tracking
WO2018076720A1 (zh) 单手操控方法及操控系统
US20160140762A1 (en) Image processing device and image processing method
US9041689B1 (en) Estimating fingertip position using image analysis
TWI499938B (zh) 觸控系統
JP2015170206A (ja) 検出装置および検出方法
JP2020173521A (ja) 情報処理装置、情報処理方法およびプログラム
TWI448918B (zh) 光學觸控系統
TW201419087A (zh) 微體感偵測模組及其微體感偵測方法
IL266179A (en) Method and system for detecting the position of the index finger
JP6716897B2 (ja) 操作検出方法、操作検出装置、及び操作検出プログラム