JP2012098771A - 画像処理装置および方法、並びに、プログラム - Google Patents

画像処理装置および方法、並びに、プログラム Download PDF

Info

Publication number
JP2012098771A
JP2012098771A JP2010243395A JP2010243395A JP2012098771A JP 2012098771 A JP2012098771 A JP 2012098771A JP 2010243395 A JP2010243395 A JP 2010243395A JP 2010243395 A JP2010243395 A JP 2010243395A JP 2012098771 A JP2012098771 A JP 2012098771A
Authority
JP
Japan
Prior art keywords
target object
unit
gesture
motion
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010243395A
Other languages
English (en)
Inventor
Yasushi Shu
寧 周
Atsushi Okubo
厚志 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010243395A priority Critical patent/JP2012098771A/ja
Priority to US13/276,400 priority patent/US8644556B2/en
Priority to CN201110330229.8A priority patent/CN102591447B/zh
Publication of JP2012098771A publication Critical patent/JP2012098771A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Abstract

【課題】ジェスチャ認識の性能およびユーザの利便性を向上させる。
【解決手段】目標物体認識部22は、画像入力装置11により撮像された入力画像データ内で所定の初期化動作をする物体を目標物体として認識する。ジェスチャ認識部23は、認識された目標物体を入力画像データ内で追跡することにより、対象機器13を操作するためのジェスチャを認識する。本発明は、例えば、ジェスチャにより操作を行うテレビジョン受像機、パーソナルコンピュータ等に適用できる。
【選択図】図1

Description

本発明は、画像処理装置および方法、並びに、プログラムに関し、特に、各種の機器を操作するためのジェスチャの認識に用いて好適な画像処理装置および方法、並びに、プログラムに関する。
近年、より自然なヒューマンマシンインタフェースを実現するべく、ジェスチャ認識技術の研究開発が数多くなされ、様々な手法が提案されている(例えば、特許文献1参照)。また、例えば、米国Motion Analysis社の「Eagle & Hawk Digital System」(商標)や、米Vicon Peak社の「MX Motion Capture」(商標)等、ジェスチャ認識を用いたヒューマンマシンインタフェースやモーションキャプチャの実用例も存在する。
これらの技術の多くは、ユーザが身に付けたり、手に持ったりする、事前に登録された目標物体(例えば、専用の器具など)を追跡することにより、ユーザにより行われるジェスチャを認識する。
一方、特別な物体を用いずに、手などユーザの体の一部を目標物体として追跡することにより、ジェスチャを認識する技術も提案されている。
特開2002−83302号公報
しかしながら、事前に登録されている目標物体を用いる場合、認識性能が向上する反面、必ずその目標物体を身に付けたり、手に持ったりしてジェスチャを行う必要があり、ユーザの利便性が損なわれてしまう。
また、ユーザの体の一部を用いる場合、その形状や色が操作する人によって異なるため、認識性能が低下してしまう。
本発明は、このような状況を鑑みてなされたものであり、ジェスチャ認識の性能およびユーザの利便性を向上させるようにするものである。
本発明の一側面の画像処理装置は、画像内で所定の動きをする物体を目標物体として認識する目標物体認識手段と、認識された前記目標物体を画像内で追跡することにより、所定の機器を操作するためのジェスチャを認識するジェスチャ認識手段とを含む。
前記ジェスチャ認識手段には、前記目標物体の追跡に失敗した後、前記目標物体認識手段により新たに前記目標物体が認識された場合、新たに認識された前記目標物体を画像内で追跡させることにより、前記ジェスチャを認識させることができる。
前記目標物体認識手段には、さらに、認識した前記目標物体の特徴量を記憶手段に記憶させるとともに、前記記憶手段に記憶されている前記特徴量に基づいて前記目標物体を画像内で認識させることができる。
前記ジェスチャ認識手段には、認識した前記ジェスチャに対応する操作信号を出力させることができる。
ユーザの指令により、前記所定の動きおよび前記ジェスチャの少なくとも一方を登録する登録手段をさらに設けることができる。
本発明の一側面の画像処理方法は、所定の機器を操作するためのジェスチャを認識する画像処理装置が、画像内で所定の動きをする物体を目標物体として認識し、認識された前記目標物体を画像内で追跡することにより、前記ジェスチャを認識するステップを含む。
本発明の一側面のプログラムは、画像内で所定の動きをする物体を目標物体として認識し、認識された前記目標物体を画像内で追跡することにより、所定の機器を操作するためのジェスチャを認識するステップを含む処理をコンピュータに実行させる。
本発明の一側面においては、画像内で所定の動きをする物体が目標物体として認識され、認識された前記目標物体を画像内で追跡することにより、所定の機器を操作するためのジェスチャが認識される。
本発明の一側面によれば、任意の目標物体を用いて、ジェスチャ認識を行うことができる。また、本発明の一側面によれば、ジェスチャ認識の性能およびユーザの利便性を向上させることができる。
本発明を適用した情報処理システムの一実施の形態を示すブロック図である。 ジェスチャ認識処理を説明するためのフローチャートである。 動作認識処理の詳細を説明するためのフローチャートである。 目標物体抽出処理の詳細を説明するためのフローチャートである。 目標物体を認識する処理の具体例を説明するための図である。 動作パターン登録処理を説明するためのフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、本発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.本発明の実施の形態
2.変形例
<1.本発明の実施の形態>
[情報処理システムの構成例]
図1は、本発明を適用した情報処理システムの一実施の形態を示すブロック図である。
情報処理システム1は、ユーザにより行われるジェスチャを認識し、認識したジェスチャに対応する処理を行うシステムである。情報処理システム1は、画像入力装置11、画像処理装置12、および、対象機器13を含むように構成される。
画像入力装置11は、例えば、CCD(Charge Coupled Device Image Sensor)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を用いたビデオカメラにより構成される。画像入力装置11は、撮像の結果得られた画像データ(以下、入力画像データと称する)を画像処理装置12に供給する。
画像処理装置12は、例えば、マイクロコンピュータなど、各種のプロセッサと記憶媒体を備える装置により構成され、バッファ21、目標物体認識部22、ジェスチャ認識部23、登録部24、ガイダンス部25、および、記憶部26を含むように構成される。
バッファ21は、画像入力装置11から供給される入力画像データを一時的に保持する。なお、バッファ21内の入力画像データの容量が所定の容量を超えた場合、古い入力画像データから順次消去される。
目標物体認識部22は、ユーザにより行われるジェスチャを認識するために用いる目標物体の認識を行う。目標物体認識部22は、動作認識部31、マッチング部32、および、目標物体抽出部33を含むように構成される。
動作認識部31は、入力画像データをバッファ21から取得し、入力画像データ内の動物体を抽出し、抽出した動物体の動作の特徴量(例えば、位置、移動方向、移動距離、速度、回転角等)を検出する。また、動作認識部31は、入力画像データの各フレームにおいて抽出された動物体の動作の特徴量の履歴を示す動作履歴を生成し、保持する。さらに、動作認識部31は、動作履歴に基づいて、抽出した動物体のこれまでの動作の特徴量(以下、累積動作特徴量と称する)を算出する。そして、動作認識部31は、動作履歴、および、抽出した動物体の累積動作特徴量をマッチング部32に供給する。
マッチング部32は、抽出された動物体の累積動作特徴量と、記憶部26に記憶されている初期化動作の動作データ(以下、初期化動作データと称する)とのマッチングを行い、その結果に基づいて、初期化動作が行われた否かを判定する。マッチング部32は、初期化動作が行われたと判定した場合、初期化動作を行ったと判定された動物体の動作履歴を目標物体の動作履歴として目標物体抽出部33に供給する。
ここで、初期化動作とは、画像処理装置12に目標物体を認識させるための動作のことである。逆に言えば、画像処理装置12は、入力画像データ内で初期化動作を行う物体を目標物体として認識する。
また、後述するように、ユーザは任意の動作を初期化動作として設定することができる。例えば、左または右回りの回転、左または右への平行移動、上または下への平行移動などの単純動作や、複数の単純動作を組み合わせた動作を初期化動作に設定することができる。なお、初期化動作は、例えば、移動方向、移動距離、移動速度、回転角等の各種の特徴量により定義される。
また、動作データとは、対象となる動作を表す特徴量(例えば、移動方向、移動距離、移動速度、回転角など)からなるデータである。
目標物体抽出部33は、入力画像データをバッファ21から取得し、入力画像データおよび目標物体の動作履歴に基づいて、目標物体の特徴点および特徴量を抽出する。また、目標物体抽出部33は、抽出した目標物体の特徴点および特徴量からなる物体テンプレート(以下、目標物体テンプレートと称する)を生成する。目標物体抽出部33は、生成した目標物体テンプレートを追跡部41に供給するとともに、記憶部26に記憶させる。また、目標物体抽出部33は、生成した目標物体テンプレート、または、記憶部26に記憶されている目標物体テンプレートを追跡部41に供給する。さらに、目標物体抽出部33は、目標物体の認識が完了したことをガイダンス部25に通知する。
ジェスチャ認識部23は、入力画像データ内の目標物体を追跡することにより、対象機器13を操作するためにユーザにより行われるジェスチャ(以下、操作動作と称する)を認識し、認識した操作動作に対応する操作信号を対象機器13に供給する。ジェスチャ認識部23は、追跡部41およびマッチング部42を含むように構成される。
なお、後述するように、初期化動作と同様に、ユーザは任意の動作を操作動作として設定することができる。また、初期化動作と同様に、操作動作は、例えば、移動方向、移動距離、移動速度、回転角等の各種の特徴量により定義される。
追跡部41は、入力画像データをバッファ21から取得し、目標物体抽出部33から供給される目標物体テンプレートに基づいて、入力画像データ内の目標物体の動きを追跡する。追跡部41は、追跡の結果に基づいて、目標物体の動作履歴を生成し、保持する。また、追跡部41は、目標物体の動作履歴に基づいて、目標物体の累積動作特徴量を算出し、マッチング部42に供給する。さらに、追跡部41は、目標物体の登録の有無、目標物体の追跡結果等をガイダンス部25に通知する。
マッチング部42は、目標物体の累積動作特徴量と、記憶部26に記憶されている各操作動作の動作データ(以下、操作動作データと称する)とのマッチングを行い、その結果に基づいて、操作動作が行われた否かを判定する。マッチング部42は、操作動作が行われたと判定した場合、その操作動作に対応する操作信号を出力する。
登録部24は、入力画像データをバッファ21から取得し、入力画像データ、および、図示せぬ入力装置を介して入力されるユーザからの指令に基づいて、初期化動作および操作動作を登録する。より具体的には、登録部24は、入力画像データおよびユーザからの指令に基づいて、初期化動作データおよび操作動作データを生成し、記憶部26に記憶させる。また、登録部24は、初期化動作または操作動作を登録する際のガイダンスの実行をガイダンス部25に指令する。
ガイダンス部25は、画像処理装置12の使用するための各種のガイダンスの実行を対象機器13に指令し、実行させる。
記憶部26は、例えば、EEPROM、ハードディスクドライブ等の不揮発性の記憶媒体により構成される。記憶部26は、目標物体テンプレート、初期化動作データ、および、操作動作データを記憶する。なお、記憶部26には、初期化動作データおよび操作動作データの初期値が予め記憶されている。すなわち、初期化動作および対象機器13を操作するための操作動作として、デフォルトの動作(ジェスチャ)が予め登録されている。
対象機器13は、特定の機器に限定されるものではなく、例えば、パーソナルコンピュータ、テレビジョン受像機、各種のビデオレコーダ、ビデオプレーヤなど、ジェスチャ認識による操作を適用可能な機器により構成される。そして、対象機器13は、マッチング部42から供給される操作信号に対応する処理を実行する。
なお、以下、対象機器13が、LCD(Liquid Crystal Display)などの表示装置を備えているものとして説明する。
[ジェスチャ認識処理]
次に、図2のフローチャートを参照して、情報処理システム1により実行されるジェスチャ認識処理について説明する。なお、この処理は、例えば、情報処理システム1の電源がオンされたとき開始され、情報処理システム1の電源がオフされたとき終了する。
なお、ジェスチャ認識処理の開始に伴い、画像入力装置11の撮像が開始され、撮像の結果得られた入力画像データが、逐次バッファ21に供給され、一時保持される。また、バッファ21内の入力画像データの容量が所定の容量を超えた場合、古い入力画像データから順次消去されていく。
ステップS1において、対象機器13は、ガイダンス部25の制御の基に、目標物体の登録のガイダンスを行う。例えば、対象機器13は、画像入力装置11から入力画像データを取得し、入力画像データに基づく画像を表示する。さらに、対象機器13は、表示した画像上に、目標物体の登録を促すメッセージ、目標物体の初期位置の目安を示す枠、目標物体を認識させるための初期化動作を案内する矢印等を表示する。そして、ユーザは、ガイダンスに従って、例えば、目標物体に設定したい物体を手に持って、あるいは、手に装着して、案内された初期位置に物体を設定した後、手を動かして、物体を初期化動作させる。
なお、初期位置は、目標物体をより迅速に認識するために設定するものであり、必ずしも初期位置を設ける必要はない。
また、この目標物体の登録のガイダンスは、必ずしも行う必要はなく、省略することも可能である。
ステップS2において、動作認識部31は、バッファ21から1フレーム前と最新の入力画像データを取得する。
ステップS3において、動作認識部31は、動作認識処理を実行する。ここで、図3のフローチャートを参照して、動作認識処理の詳細について説明する。
ステップS31において、動作認識部31は、前のフレームとの差分を算出する。すなわち、動作認識部31は、バッファ21から取得した最新の入力画像データと1フレーム前の入力画像データとの間で、同じ位置にある画素同士の画素値の差分値を算出し、両者の間の差分画像データを生成する。
ステップS32において、動作認識部31は、差分画像データに対して各種のフィルタ処理を行い、差分画像データの背景ノイズを除去する。
ステップS33において、動作認識部31は、主要動作を抽出する。すなわち、動作認識部31は、ノイズを除去した差分画像データに基づいて、入力画像データ内の主要な動物体を抽出するとともに、抽出した動物体の動作の特徴量を検出する。なお、動作認識部31は、主要な動物体が複数存在する場合、各動物体の動作の特徴量を検出する。
なお、この主要動作の抽出処理には、任意の手法を採用することができる。例えば、「Yokoyama, M. and T. Poggio, "A Contour-Based Moving Object Detection and Tracking", In: Proceedings of Second Joint IEEE International Workshop on Visual Surveillance and Performance Evaluation of Tracking and Surveillance (in conjunction with ICCV 2005), p.271-276, October 2005」に記載されている手法を採用することができる。
また、画像入力装置11の撮像位置が固定されており、背景の変動が少ない場合には、背景差分法等を適用することが可能である。
ステップS34において、動作認識部31は、動作履歴を更新する。例えば、動作認識部31は、ステップS33の処理で抽出した動物体(以下、当該動物体と称する)のうちの1つを選択し、保持している動作履歴に基づいて、前回の動作認識処理で抽出された動物体のうち、当該動物体との距離が所定の範囲内で、かつ、最も近い位置にある動物体を検出する。そして、動作認識部31は、検出した動物体の動作の履歴に、ステップS33の処理で検出した当該動物体の動作の特徴量を追加することにより動作履歴を更新する。そして、動作認識部31は、今回のステップS33の処理で抽出した全ての動作物体について、この処理を行う。
また、動作認識部31は、前回の動作認識処理で抽出された動物体の中に、当該動物体からの距離が所定の範囲内である動物体が存在しない場合、当該動物体を新たな動物体として、動作履歴に追加する。
なお、このとき、所定の時間以上前のデータを動作履歴から削除するようにしてもよい。
ステップS35において、動作認識部31は、動作認識を行う。具体的には、動作認識部31は、ステップS33の処理で抽出した各動物体について、動作履歴に基づいて、所定の時間前(所定のフレーム前)から現時点までの累積動作特徴量を算出する。動作認識部31は、動作履歴、および、各動物体の累積動作特徴量をマッチング部32に供給する。
なお、このとき、各動物体について、時間の制限を設けずに、動物体が初めて検出されてから現時点までの累積動作特徴量を算出するようにしてもよい。
その後、動作認識処理は終了し、処理は、図2のステップS4に進む。
ステップS4において、マッチング部32は、初期化動作が行われたか否かを判定する。具体的には、マッチング部32は、初期化動作データを記憶部26から読み出し、動作認識部31により検出された各動物体の累積動作特徴量とのマッチングを行う。マッチング部32は、その結果、初期化動作データとの差が所定の範囲内の累積動作特徴量を有する動物体を検出できなかった場合、初期化動作が行われていないと判定し、処理はステップS2に戻る。
なお、このとき行われるマッチングには、例えば、HMM(Hidden Markov Model)法、Neural Network法などの任意の手法を採用することができる。
その後、ステップS4において、初期化動作が行われたと判定されるまで、画像入力装置11からバッファ21に入力画像データが供給されるのに同期して、ステップS2乃至S4の処理が繰り返し実行される。
一方、ステップS4において、マッチング部32は、初期化動作データとの差が所定の範囲内の累積動作特徴量を有する動物体を検出した場合、初期化動作が行われたと判定し、処理はステップS5に進む。
ステップS5において、目標物体抽出部33は、目標物体抽出処理を実行する。ここで、図4のフローチャートを参照して、目標物体抽出処理の詳細について説明する。
ステップS51において、目標物体抽出部33は、所定のフレーム数の入力画像データにおける目標物体の領域を算出する。具体的には、マッチング部32は、初期化動作データとの差が所定の範囲内の累積動作特徴量を有する動物体のうち最も差が小さい動物体の動作履歴を、目標物体の動作履歴として目標物体抽出部33に供給する。目標物体抽出部33は、最新の入力画像データから所定のフレーム数前までの入力画像データをバッファ21から取得する。そして、目標物体抽出部33は、目標物体の動作履歴に基づいて、取得した入力画像データの各フレームにおける目標物体の領域を算出する。
ステップS52において、目標物体抽出部33は、目標物体の形状を算出する。具体的には、目標物体抽出部33は、ステップS51の処理で算出した入力画像データの各フレームにおける目標物体の領域のマッチングを行うことにより、目標物体の形状を算出する。
ステップS53において、目標物体抽出部33は、各フレームにおける目標物体の特徴点を抽出する。具体的には、目標物体抽出部33は、ステップS51の処理で算出した入力画像データの各フレームにおける目標物体の領域に、ステップS52の処理で算出した目標物体の形状を適用する。そして、目標物体抽出部33は、入力画像データの各フレームの目標物体の領域内における特徴点を抽出する。
なお、このとき、1種類の特徴量に基づいて特徴点を抽出するようにしてもよいし、複数の種類の特徴量に基づいて特徴点を抽出するようにしてもよい。また、特徴点を抽出する手法も、例えば、局所領域ヒストグラム、Scale-Invariant Feature Transform(SIFT)など、任意の手法を採用することができる。
ステップS54において、目標物体抽出部33は、各フレームにおいて抽出した目標物体の特徴点のマッチングを行う。なお、マッチングに用いる距離関数は、特定のものに制限されるものではなく、特徴量の種類に応じて、適切な関数を適用するようにすればよい。
ステップS55において、目標物体抽出部33は、目標物体テンプレートを生成する。例えば、目標物体抽出部33は、ステップS54のマッチング処理の結果に基づいて、各フレームにおいて互いに対応すると判定された特徴点の特徴量の平均値を求める。そして、目標物体抽出部33は、目標物体の各特徴点、および、算出した特徴量の平均値からなる目標物体テンプレートを生成する。
これにより、例えば、図5に示されるように、ユーザ101が、手に持ったカップ102を矢印103の方向に回転させ、矢印103方向の回転動作が初期動作である場合、カップ102が目標物体として認識される。また、カップ102とほぼ同じ大きさの矩形の領域104内の特徴点および特徴量を示す目標物体テンプレートが生成される。
その後、目標物体抽出処理は終了し、処理は図2のステップS6に進む。
ステップS6において、目標物体抽出部33は、ステップS5の処理で抽出した目標物体が登録されているか否かを判定する。具体的には、目標物体抽出部33は、記憶部26に目標物体テンプレートが1つも記憶されていない場合、抽出した目標物体が登録されていないと判定し、処理はステップS7に進む。
一方、目標物体抽出部33は、記憶部26に目標物体テンプレートが記憶されている場合、ステップS55の処理で生成した目標物体テンプレートと、記憶部26に記憶されている各目標物体テンプレートとを比較する。そして、目標物体抽出部33は、生成した目標物体テンプレートとの差が所定の範囲内である目標物体テンプレートが記憶部26に記憶されていない場合、抽出した目標物体が登録されていないと判定し、処理はステップS7に進む。
ステップS7において、目標物体抽出部33は、目標物体を登録する。すなわち、目標物体抽出部33は、ステップS5の処理で生成した目標物体テンプレートを記憶部26に記憶させる。
一方、ステップS6において、目標物体抽出部33は、ステップS55の処理で生成した目標物体テンプレートとの差が所定の範囲内である目標物体テンプレートが記憶部26に記憶されている場合、抽出した目標物体が登録されていると判定し、ステップS7の処理はスキップされ、処理はステップS8に進む。なお、このとき、目標物体抽出部33が、記憶部26に記憶されている目標物体テンプレートを、新たに生成した目標物体テンプレートに更新するようにしてもよい。
ステップS8において、対象機器13は、ガイダンス部25の制御の基に、目標物体の認識完了を通知する。具体的には、目標物体抽出部33は、目標物体の認識完了をガイダンス部25に通知する。ガイダンス部25は、対象機器13に指令を与え、目標物体の認識完了の通知を実行させる。
例えば、対象機器13は、入力画像データに基づく画像上に、図5の領域104の枠のように、認識した目標物体の領域を示す枠を表示することにより、目標物体を認識が完了したこと、および、認識した目標物体をユーザに通知する。
このようにして、ユーザは、簡単に任意の物体を目標物体に設定することができる。また、例えば、手、腕、頭、足など自分の体の一部、または、全身を目標物体に設定することもできる。
なお、認識性能を向上させるためには、外観(形、色、明るさなど)の変化がなるべく小さい物体を目標物体に設定することが望ましい。また、体の一部を目標物体に設定する場合、ジェスチャ認識を行うときに、なるべくその形を変化させないように動かすことが望ましい。
ステップS9において、画像処理装置12は、目標物体の追跡を開始する。具体的には、まず、目標物体抽出部33は、認識した目標物体の物体テンプレート(目標物体テンプレート)を追跡部41に供給する。なお、このとき、抽出した目標物体がすでに登録されている場合、記憶部26に記憶されている目標物体テンプレート、または、ステップS55の処理で新たに生成した目標物体テンプレートのいずれを追跡部41に供給するようにしてもよい。
追跡部41は、画像入力装置11からバッファ21に入力画像データが供給されるのに同期して、以下の処理を実行する。すなわち、追跡部41は、新たな入力画像データをバッファ21から取得し、目標物体テンプレートに基づいて、最新の入力画像データ内において目標物体を探索する。そして、追跡部41は、その結果に基づいて、目標物体の動作履歴を更新する。
また、追跡部41は、目標物体の動作履歴に基づいて、所定の時間前(所定のフレーム前)から現時点までの目標物体の累積動作特徴量を算出する。追跡部41は、目標物体の累積動作特徴量をマッチング部42に供給する。
ステップS10において、追跡部41は、目標物体の追跡に失敗したか否かを判定する。追跡部41は、入力画像データ内において目標物体を検出できている場合、または、目標物体を検出できなかった期間が所定の時間(フレーム数)内である場合、目標物体の追跡に失敗していないと判定し、処理はステップS11に進む。
ステップS11において、マッチング部42は、操作動作が行われたか否かを判定する。具体的には、マッチング部42は、マッチング部32と同様の手法により、記憶部26に記憶されている各操作動作データと目標物体の累積動作特徴量とのマッチングを行う。マッチング部42は、その結果、目標物体の累積動作特徴量との差が所定の範囲内の操作動作データを検出できなかった場合、操作動作が行われていないと判定し、処理はステップS10に戻る。
その後、ステップS10において、目標物体の追跡に失敗したと判定されるか、ステップS11において、操作動作が行われたと判定されるまで、ステップS10およびS11の処理が繰り返し実行される。
一方、ステップS11において、マッチング部42は、目標物体の累積動作特徴量との差が所定の範囲内の操作動作データを検出した場合、操作動作が行われたと判定し、処理はステップS12に進む。
ステップS12において、マッチング部42は、操作動作に対応する操作信号を出力する。すなわち、マッチング部42は、目標物体の累積動作特徴量との差が最も小さい操作動作データに対応する操作信号を対象機器13に供給する。そして、対象機器13は、取得した操作信号に従って、ユーザにより行われた操作動作に対応する処理を実行する。
その後、処理はステップS10に戻り、ステップS10以降の処理が実行される。
一方、ステップS10において、追跡部41は、目標物体を検出できなかった期間が所定の時間を越えている場合、目標物体の追跡に失敗したと判定し、処理はステップS1に戻る。その後、ステップS1以降の処理が実行され、目標物体を再設定したり、変更したりすることができる。
このようにして、任意の物体を簡単に目標物体に設定して、ジェスチャ認識による対象機器13の操作を行うことができる。従って、予め目標物体を登録する必要がなく、また、例えば、ユーザが使いやすい身近な物体を目標物体に設定することができ、ユーザの利便性が向上する。また、目標物体として使用する専用のツールを準備する必要がないため、例えば、一般家庭用の機器への展開が容易になる。
また、ユーザの体の一部または全身も目標物体として設定できるため、さらにユーザの利便性が向上する。
さらに、簡単に目標物体を再設定したり、変更したりすることができるため、例えば、明るさなど周囲の環境が変化しても、目標物体を再設定することにより、目標物体の追跡精度の低下を抑制し、ジェスチャ認識の性能を向上させることができる。
[動作パターン登録処理]
次に、図6のフローチャートを参照して、情報処理システム1により実行される動作パターン登録処理について説明する。なお、この処理は、例えば、ジェスチャ認識処理の実行中に、ユーザが所定の操作を行ったとき開始される。
ステップS101において、登録部24は、初期化動作を登録する。具体的には、登録部24は、初期化動作の登録のガイダンスの実行をガイダンス部25に指令する。ガイダンス部25は、対象機器13に指令を与え、初期化動作の登録のガイダンスを実行させる。ユーザは、ガイダンスに従って、初期化動作の登録を行い、登録部24は、登録された初期化動作に対応する動作データ(初期化動作データ)を記憶部26に記憶させる。
ステップS102において、登録部24は、操作動作を登録する。具体的には、登録部24は、操作動作の登録のガイダンスの実行をガイダンス部25に指令する。ガイダンス部25は、対象機器13に指令を与え、操作動作の登録のガイダンスを実行させる。ユーザは、ガイダンスに従って、操作動作の登録を行い、登録部24は、登録された操作動作に対応する動作データ(操作動作データ)を記憶部26に記憶させる。
その後、動作パターン登録処理は終了する。
なお、ステップS101およびS102の処理は、順序を逆にしてもよい。また、初期化動作と操作動作を任意の順序で登録できるようにしてもよい。
また、初期化動作および操作動作の登録方法は、特定の方法に限定されるものではなく、任意の方法を採用することができる。
例えば、予め登録されている複数の動作パターンを矢印などにより示した一覧を、対象機器13の図示せぬ表示装置に表示し、初期化動作および各操作動作に適用する動作パターンをユーザに選択させるようにしてもよい。
また、例えば、描画用の画面を対象機器13の図示せぬ表示装置に表示し、ユーザが、マウスなどの図示せぬ入力装置を用いて初期化動作または各操作動作に適用する動作パターン(動作の軌跡)を描画するようにしてもよい。この場合、例えば、描画した動作パターンに対応する動作データが生成され、記憶部26に記憶される。
さらに、例えば、初期化動作または各操作動作に適用する動作を、実際に画像入力装置11の前でユーザに実行させるようにしてもよい。この場合、例えば、撮像した入力画像データに基づいて、ユーザの動作が抽出され、抽出された動作に対応する動作データが生成され、記憶部26に記憶される。
このようにして、任意の動作パターンを初期化動作および操作動作として登録することができ、さらにユーザの利便性が向上する。
<2.変形例>
なお、以上で説明した各種のガイダンスの方法は、その一例であり、他の方法によりガイダンスを行うようにしてもよい。例えば、対象機器13が表示装置を備えていない場合、例えば、音声や光などによりガイダンスを行うようにしてもよい。また、対象機器13が表示装置を備えている場合でも、画像、音声、光などを組み合わせて、ガイダンスを行うようにしてもよい。
さらに、ガイダンス部25が、表示装置、音声出力装置、発光装置等を備え、ガイダンス部25自身がガイダンスを行うようにしてもよい。
また、図1では、対象機器13と画像入力装置11および画像処理装置12を別に設ける例を示したが、例えば、対象機器13に、画像入力装置11および画像処理装置12、または、その一方を内蔵するようにすることも可能である。
さらに、ユーザの体以外の物体を目標物体に設定する場合、ユーザは、目標物体を手に持つようにしてもよい、目標物体を身に付けるようにしてもよい。
また、以上の説明では、操作動作を認識した場合に、対応する操作信号を出力するようにしたが、例えば、操作動作を認識できない場合に、該当操作なしを示す信号を出力するようにしてもよい。
さらに、初期化動作および操作動作を必ずしもユーザが登録できるようにする必要はなく、予め登録されているデフォルトのもののみを使用するようにすることも可能である。また、初期化動作および操作動作の一方のみをユーザが登録できるようにしてもよい。
また、目標物体テンプレートが記憶部26に記憶されている場合、初期化動作による目標物体の認識処理と並行して、その目標物体テンプレートに基づく目標物体の認識処理を行うようにしてもよい。そして、例えば、目標物体認識部22が、初期化動作が行われる前に、記憶部26に記憶されている目標物体テンプレートとの差が所定の範囲内である物体を入力画像データ内で検出した場合、その物体を目標物体に設定するようにしてもよい。これにより、初期化動作を行うことなく、登録済みの目標物体を再利用することが可能になる。
[コンピュータの構成例]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図7は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 情報処理システム, 11 画像入力装置, 12 画像処理装置, 13 対象機器, 21 バッファ, 22 目標物体認識部, 23 ジェスチャ認識部, 24 登録部, 25 ガイダンス部, 26 記憶部, 31 動作認識部, 32 マッチング部, 33 目標物体抽出部, 41 追跡部, 42 マッチング部

Claims (7)

  1. 画像内で所定の動きをする物体を目標物体として認識する目標物体認識手段と、
    認識された前記目標物体を画像内で追跡することにより、所定の機器を操作するためのジェスチャを認識するジェスチャ認識手段と
    を含む画像処理装置。
  2. 前記ジェスチャ認識手段は、前記目標物体の追跡に失敗した後、前記目標物体認識手段により新たに前記目標物体が認識された場合、新たに認識された前記目標物体を画像内で追跡することにより、前記ジェスチャを認識する
    請求項1に記載の画像処理装置。
  3. 前記目標物体認識手段は、さらに、認識した前記目標物体の特徴量を記憶手段に記憶させるとともに、前記記憶手段に記憶されている前記特徴量に基づいて前記目標物体を画像内で認識する
    請求項1に記載の画像処理装置。
  4. 前記ジェスチャ認識手段は、認識した前記ジェスチャに対応する操作信号を出力する
    請求項1に記載の画像処理装置。
  5. ユーザの指令により、前記所定の動きおよび前記ジェスチャの少なくとも一方を登録する登録手段を
    さらに含む請求項1に記載の画像処理装置。
  6. 所定の機器を操作するためのジェスチャを認識する画像処理装置が、
    画像内で所定の動きをする物体を目標物体として認識し、
    認識された前記目標物体を画像内で追跡することにより、前記ジェスチャを認識する
    ステップを含む画像処理方法。
  7. 画像内で所定の動きをする物体を目標物体として認識し、
    認識された前記目標物体を画像内で追跡することにより、所定の機器を操作するためのジェスチャを認識する
    ステップを含む処理をコンピュータに実行させるためのプログラム。
JP2010243395A 2010-10-29 2010-10-29 画像処理装置および方法、並びに、プログラム Pending JP2012098771A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010243395A JP2012098771A (ja) 2010-10-29 2010-10-29 画像処理装置および方法、並びに、プログラム
US13/276,400 US8644556B2 (en) 2010-10-29 2011-10-19 Image processing apparatus and method and program
CN201110330229.8A CN102591447B (zh) 2010-10-29 2011-10-21 图像处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010243395A JP2012098771A (ja) 2010-10-29 2010-10-29 画像処理装置および方法、並びに、プログラム

Publications (1)

Publication Number Publication Date
JP2012098771A true JP2012098771A (ja) 2012-05-24

Family

ID=45996812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010243395A Pending JP2012098771A (ja) 2010-10-29 2010-10-29 画像処理装置および方法、並びに、プログラム

Country Status (3)

Country Link
US (1) US8644556B2 (ja)
JP (1) JP2012098771A (ja)
CN (1) CN102591447B (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102842A (ja) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd デバイスの動きを含む、着用式電子デバイスへのユーザジェスチャー入力
KR20150114868A (ko) * 2014-04-02 2015-10-13 삼성전자주식회사 패턴 인식을 위한 제스처를 선별하는 방법 및 장치
JP2016091528A (ja) * 2014-11-05 2016-05-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 画像分割方法および画像分割装置
KR20170059190A (ko) * 2015-11-20 2017-05-30 삼성전자주식회사 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2898309B1 (en) * 2012-09-24 2018-04-25 Siemens Healthcare Diagnostics Inc. Image capture-based predictive control device
CN108845668B (zh) * 2012-11-07 2022-06-03 北京三星通信技术研究有限公司 人机交互系统和方法
JP6217244B2 (ja) * 2013-08-29 2017-10-25 セイコーエプソン株式会社 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム
US9600993B2 (en) * 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
CN106020448B (zh) * 2016-05-06 2019-03-29 深圳市国华识别科技开发有限公司 基于智能终端的人机交互方法和系统
CN113903455A (zh) 2016-08-02 2022-01-07 阿特拉斯5D公司 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法
JP2022146148A (ja) * 2021-03-22 2022-10-05 セイコーエプソン株式会社 処理システム、サーバーシステム、印刷装置、プログラム及び処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056916A (ja) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2005056059A (ja) * 2003-08-01 2005-03-03 Canon Inc 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法
JP2008142876A (ja) * 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2009003576A (ja) * 2007-06-19 2009-01-08 Canon Inc 機器制御装置及び制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3660492B2 (ja) * 1998-01-27 2005-06-15 株式会社東芝 物体検知装置
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
JP2002083302A (ja) 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
DE60238109D1 (de) * 2001-02-19 2010-12-09 Honda Motor Co Ltd Automatisches Zielerkennen mittels Vorlagenvergleich
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
JP5483899B2 (ja) * 2009-02-19 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2011204019A (ja) 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
CN101853568A (zh) * 2010-04-13 2010-10-06 鸿富锦精密工业(深圳)有限公司 手势遥控装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056916A (ja) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2005056059A (ja) * 2003-08-01 2005-03-03 Canon Inc 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法
JP2008142876A (ja) * 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2009003576A (ja) * 2007-06-19 2009-01-08 Canon Inc 機器制御装置及び制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松原 孝志 他4名: "ネットワーク時代の高画質映像ソリューション", 日立評論 第91巻 第9号, vol. 第91巻, JPN6014028933, 1 September 2009 (2009-09-01), pages 48 - 53, ISSN: 0002852758 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
JP2014102842A (ja) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd デバイスの動きを含む、着用式電子デバイスへのユーザジェスチャー入力
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
KR20150114868A (ko) * 2014-04-02 2015-10-13 삼성전자주식회사 패턴 인식을 위한 제스처를 선별하는 방법 및 장치
KR102173255B1 (ko) * 2014-04-02 2020-11-03 삼성전자주식회사 패턴 인식을 위한 제스처를 선별하는 방법 및 장치
JP2016091528A (ja) * 2014-11-05 2016-05-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 画像分割方法および画像分割装置
KR102570068B1 (ko) * 2015-11-20 2023-08-23 삼성전자주식회사 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치
KR20170059190A (ko) * 2015-11-20 2017-05-30 삼성전자주식회사 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치
JP7094077B2 (ja) 2015-11-20 2022-07-01 三星電子株式会社 動作認識方法及び装置並びにウェアラブル装置
US10885638B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
US10885639B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置

Also Published As

Publication number Publication date
CN102591447B (zh) 2016-03-16
US20120106789A1 (en) 2012-05-03
US8644556B2 (en) 2014-02-04
CN102591447A (zh) 2012-07-18

Similar Documents

Publication Publication Date Title
JP2012098771A (ja) 画像処理装置および方法、並びに、プログラム
KR101457313B1 (ko) 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품
JP5141317B2 (ja) 対象画像検出デバイス、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器
US8379098B2 (en) Real time video process control using gestures
US8467575B2 (en) Moving-object detection apparatus, moving-object detection method and moving-object detection program
US9742995B2 (en) Receiver-controlled panoramic view video share
US20200050259A1 (en) Interactive augmented reality
US10397467B2 (en) Imaging apparatus, image processing device, imaging method, and computer-readable recording medium
KR20150009184A (ko) 카메라를 구비하는 장치의 이미지 처리장치 및 방법
JP2007087345A (ja) 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP7100306B2 (ja) ユーザ指定初期化点に基づくオブジェクトトラッキング
US10163212B2 (en) Video processing system and method for deformation insensitive tracking of objects in a sequence of image frames
CN106161964A (zh) 一种拍照方法和装置
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
WO2020221121A1 (zh) 视频查询方法、装置、设备及存储介质
JP2012068948A (ja) 顔属性推定装置およびその方法
US9076035B2 (en) Image processor, image processing method, control program, and recording medium
JP2011221787A (ja) 情報処理装置、及びプログラム
CN112788244B (zh) 拍摄方法、拍摄装置和电子设备
JP5482852B2 (ja) 対象画像検出デバイス、その制御方法、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器
JP4809869B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102617213B1 (ko) 소프트웨어 기반의 객체 트래킹 제공 방법 및 그를 위한 컴퓨팅 장치
JP6857537B2 (ja) 情報処理装置
JP2015156135A (ja) 表示装置、方法及びプログラム
KR20220078176A (ko) 전자 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140710