JP5713959B2 - 電子機器、方法、およびプログラム - Google Patents

電子機器、方法、およびプログラム Download PDF

Info

Publication number
JP5713959B2
JP5713959B2 JP2012117939A JP2012117939A JP5713959B2 JP 5713959 B2 JP5713959 B2 JP 5713959B2 JP 2012117939 A JP2012117939 A JP 2012117939A JP 2012117939 A JP2012117939 A JP 2012117939A JP 5713959 B2 JP5713959 B2 JP 5713959B2
Authority
JP
Japan
Prior art keywords
detection area
detection
coordinate system
detected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012117939A
Other languages
English (en)
Other versions
JP2013246514A (ja
Inventor
田中 康之
康之 田中
田中 明良
明良 田中
隆二 境
隆二 境
耕祐 春木
耕祐 春木
新林 満
満 新林
崇啓 鈴木
崇啓 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012117939A priority Critical patent/JP5713959B2/ja
Priority to PCT/JP2013/058197 priority patent/WO2013175845A1/en
Priority to US13/975,011 priority patent/US20130342448A1/en
Publication of JP2013246514A publication Critical patent/JP2013246514A/ja
Application granted granted Critical
Publication of JP5713959B2 publication Critical patent/JP5713959B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、電子機器、方法、およびプログラムに関する。
撮像装置により撮像された動画像データに基づく動画像から、操作者の操作指示の動きを検出し、検出した動きによる操作指示を表す操作データを操作対象機器に出力する情報処理装置が知られている。
特開2011−221787号公報
しかしながら、従来技術においては、撮像装置により撮像された動画像データに基づく動画像において操作者の操作指示の動きを検出する領域を、操作者が認識することができないため、操作者の操作指示の動き以外の動きも、操作者の操作指示の動きとして検出してしまうことがあり、ジェスチャーによる操作対象機器の操作精度が低い、という課題がある。また、従来技術においては、撮像装置により撮像された動画像データに基づく動画像において操作者の操作指示の動きを検出する領域の形状が、操作者が操作指示を行なう際に手を動かし易い形状になっていないため、ジェスチャーによる操作対象機器の操作性が低い、という課題がある。
本発明は、上記に鑑みてなされたものであって、ジェスチャーによる操作対象機器の操作精度および操作性を向上させる電子機器、方法、およびプログラムを提供することを目的とする。
実施形態の電子機器は、検出部と、出力部と、を備える。検出部は、入力された動画像データに基づく動画像に含まれる顔画像の位置に従って、矩形状の第1検出領域または操作者が肘を中心として腕を回動させた場合における腕の軌跡に沿って円弧状に湾曲した第2検出領域を動画像を構成するフレーム画像に対して設定し、第1検出領域から直交座標系で表される動きを検出し、第2検出領域から極座標系で表される動きを検出する。出力部は、検出部により検出した動きによる操作指示を表す操作データを出力する。また、検出部は、フレーム画像に対して第2検出領域を設定した場合、第2検出領域から検出した極座標系で表される動きから、ユーザの操作にかかる動きの量を定める。
図1は、本実施形態にかかるコンピュータの外観を示す図である。 図2は、本実施形態にかかるコンピュータの構成を概略的に示すブロック図である。 図3は、本実施形態にかかるコンピュータの機能構成の一部を示すブロック図である。 図4は、本実施形態にかかるコンピュータにおいて操作データを出力する処理の流れを示すフローチャートである。 図5は、本実施形態にかかるコンピュータにおいて検出領域を設定する処理を説明するための図である。 図6は、本実施形態にかかるコンピュータにおいて検出領域を設定する処理を説明するための図である。 図7は、本実施形態にかかるコンピュータにおいて検出領域を設定する処理を説明するための図である。 図8は、本実施形態にかかるコンピュータにおいて円弧状に湾曲した検出領域を設定する処理を説明するための図である。 図9は、本実施形態にかかるコンピュータにおいて円弧状に湾曲した検出領域を設定する処理を説明するための図である。 図10は、本実施形態にかかるコンピュータにおいて円弧状に湾曲した検出領域を設定する処理を説明するための図である。 図11は、本実施形態にかかるコンピュータにおいて操作指示の動きを検出する処理を説明するための図である。 図12は、本実施形態にかかるコンピュータにおいて操作指示の動きを検出する処理を説明するための図である。 図13は、本実施形態にかかるコンピュータにおいて操作指示の動きを検出する処理を説明するための図である。 図14は、本実施形態にかかるコンピュータにおいて操作データを出力する処理を説明するための図である。 図15は、本実施形態にかかるコンピュータにおいて操作データを出力する処理を説明するための図である。
図1は、本実施形態にかかるコンピュータの外観を示す図である。本実施形態では、情報処理装置、情報処理方法、およびプログラムを、ノートブックタイプのパーソナルコンピュータ(以下、コンピュータとする)10に適用した例について説明するが、これに限定するものではなく、例えば、リモートコントローラ、テレビジョン受像機、ハードディスクレコーダ等にも適用することができる。図1に示すように、本実施形態にかかるコンピュータ10は、本体11と、ディスプレイユニット12と、を有している。ディスプレイユニット12には、LCD(Liquid Crystal Display)17を備える表示装置が搭載されている。ディスプレイユニット12には、さらに、LCD17の表面を覆うようにタッチパネル14が搭載されている。ディスプレイユニット12は、本体11の上面が露出される開放位置と本体11の上面を覆う閉塞位置との間を回動自在に本体11に取り付けられている。ディスプレイユニット12は、LCD17の上部にカメラモジュール20を備える。カメラモジュール20は、ディスプレイユニット12が本体11の上面を露出する開放位置にあるときに、コンピュータ10の操作者等を撮像するために用いられる。
本体11は、薄い箱形の筐体を有し、その上面に、キーボード13、入力操作パネル15、タッチパッド16、スピーカ18A,18B、コンピュータ10を電源オンまたは電源オフにするためのパワーボタン19などが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。
また、本体11の背面には、例えばHDMI(High−Definition Multimedia Interface)規格に対応した外部ディスプレイ接続端子(図示しない)が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。
図2は、本実施形態にかかるコンピュータの構成を概略的に示すブロック図である。本実施形態にかかるコンピュータ10は、CPU(Central Processing Unit)111、主メモリ112、ノースブリッジ113、グラフィックコントローラ114、ディスプレイユニット12、サウスブリッジ116、HDD(Hard Disk Drive)117、副プロセッサ118、BIOS(Basic Input/Output System)−ROM(Read Only Memory)119、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)120、電源回路121、バッテリ122、ACアダプタ123、タッチパッド16、キーボード(KB)13、カメラモジュール20、およびパワーボタン19等を備える。
CPU111は、コンピュータ10の動作を制御するプロセッサである。CPU111は、HDD117から主メモリ112にロードされる、オペレーティングシステム(OS)および各種のアプリケーションプログラムを実行する。また、CPU111は、BIOS−ROM119に格納されたBIOSも実行する。BIOSは、周辺デバイスを制御するためのプログラムである。BIOSは、コンピュータ10の電源投入時に最初に実行される。
ノースブリッジ113は、CPU111のローカルバスとサウスブリッジ116との間を接続するブリッジデバイスである。ノースブリッジ113は、AGP(Accelerated Graphics Port)バスなどを介してグラフィックコントローラ114との通信を実行する機能を有している。
グラフィックコントローラ114は、コンピュータ10のディスプレイユニット12を制御する表示コントローラである。グラフィックコントローラ114は、OSまたはアプリケーションプログラムによってVRAM(Video Random Access Memory)(図示しない)に書き込まれた表示データから、ディスプレイユニット12に出力すべき表示信号を生成する。
サウスブリッジ116には、HDD117、副プロセッサ118、BIOS−ROM119、カメラモジュール20、およびEC/KBC120が接続されている。また、サウスブリッジ116は、HDD117および副プロセッサ118を制御するためのIDE(Integrated Drive Electronics)コントローラも備えている。
EC/KBC120は、電力管理のためのエンベデッドコントローラ(EC)と、タッチパッド16およびキーボード(KB)13を制御するためのキーボードコントローラ(KBC)が集積された、1チップマイクロコンピュータである。EC/KBC120は、例えば、パワーボタン19が操作された際に、電源回路121と共同してコンピュータ10の電源をオンにする。コンピュータ10は、ACアダプタ123を介して外部電源が供給される場合、外部電源により駆動される。外部電源が供給されない場合、コンピュータ10は、バッテリ122によって駆動される。
カメラモジュール20は、例えば、USB(Universal Serial Bus)カメラである。カメラモジュール20のUSBコネクタは、コンピュータ10の本体11に設けられたUSBポート(図示しない)に接続される。カメラモジュール20により撮像された動画像データ(表示データ)は、主メモリ112等にフレームデータとして記憶され、ディスプレイユニット12に表示させることができる。カメラモジュール20によって撮像される動画像データを構成するフレーム画像のフレームレートは、例えば、15フレーム/秒である。カメラモジュール20は、外付けカメラであっても、コンピュータ10の内蔵カメラであっても良い。
副プロセッサ118は、カメラモジュール20から取得した動画像データの処理等を行う。
図3は、本実施形態にかかるコンピュータの機能構成の一部を示すブロック図である。本実施形態にかかるコンピュータ10は、CPU111が主メモリ112に格納されたオペレーティングシステムおよびアプリケーションプログラムを実行することにより、画像取得部301、検出部302、操作判定部303、および操作実行部304等を実現する。
画像取得部301は、カメラモジュール20により撮像された動画像データを取得してHDD117等に記憶させる。
検出部302は、入力された動画像データ(画像取得部301により取得された動画像データ)に基づく動画像に含まれる顔画像の位置に従って、動画像を構成するフレーム画像に対して検出領域を設定し、当該検出領域において、コンピュータ10の操作者の操作指示の動きを検出する。本実施形態では、検出部302は、顔検出・追跡部311、検出領域設定部312、禁止判定部313、動き検出部314、および履歴取得部315等を備えている。
操作判定部303は、検出部302により検出した動きによる操作指示を表す操作データを出力する出力部として機能する。操作実行部304は、操作判定部303により出力された操作データに従って操作対象機器(例えば、ディスプレイユニット12、スピーカ18A,18B、外部ディスプレイなど)を制御する。
次に、図4〜14を用いて、本実施形態にかかるコンピュータ10において操作データを出力する処理の流れについて説明する。図4は、本実施形態にかかるコンピュータにおいて操作データを出力する処理の流れを示すフローチャートである。
パワーボタン19が操作されてコンピュータ10の電源がオンにされている間、画像取得部301は、カメラモジュール20により撮像された動画像データを取得する(ステップS401)。本実施形態では、画像取得部301は、カメラモジュール20により所定のフレームレートで撮像されたフレーム画像から、予め設定されたサンプリングレートでフレーム画像をサンプリングすることにより、動画像データを取得する。言い換えると、画像取得部301は、フレーム画像を連続的にサンプリングすることにより、動画像データを取得する。なお、取得された動画像データには、コンピュータ10の操作者の顔の画像(以下、顔画像とする)が含まれることがある。
画像取得部301により動画像データが取得されると、顔検出・追跡部311は、取得された動画像データに基づく動画像から顔画像を検出するとともに、検出した顔画像を追跡する(ステップS402)。ここで、追跡とは、取得した動画像データを構成するフレーム画像間において、同一の操作者の顔画像を検出し続けることを意味している。
具体的には、顔検出・追跡部311は、図5に示すように、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)等を用いて、取得された動画像データに基づく動画像を構成するフレーム画像501内における、顔画像502および顔以外の画像503を判別する。これにより、顔検出・追跡部311は、顔画像502の検出を行う。
次いで、顔検出・追跡部311は、KLT(Kanade Lucas Tomasi)等の特徴点を追跡するトラッキング手法等を用いたSLAM(Simultaneous Localization And Mapping)(PTAM:Parallel Tracking And Mappingの一例)等を用いて、取得された動画像データに基づく動画像を構成するフレーム画像501に含まれる顔画像502から、複数(例えば、鼻、左眼、および右眼の3つ)の特徴点を検出する。その際、顔検出・追跡部311は、フレーム画像501に含まれる顔画像502の特徴点のうち、当該フレーム画像501よりも前に撮像されたフレーム画像に含まれる顔画像502の特徴点と同じ特徴点を検出する。これにより、顔検出・追跡部311は、検出した顔画像502の追跡を行う。
また、顔検出・追跡部311は、取得した動画像データに基づく動画像を構成するフレーム画像501に含まれる顔画像のうち、カメラモジュール20に対して正面を向いている顔の顔画像502を検出する。本実施形態では、顔検出・追跡部311は、取得した動画像データに基づく動画像を構成するフレーム画像501に含まれる顔画像のうち、両目が含まれている顔画像や耳が含まれていない顔画像を、正面を向いている顔の顔画像502として検出する。つまり、コンピュータ10を操作する意思のある操作者はディスプレイユニット12に対して正対していると考えられる。そのため、カメラモジュール20に対して正面を向いている顔の顔画像502を検出することにより、コンピュータ10を操作する意思のある操作者の顔画像502のみを検出することができる。また、操作者がディスプレイユニット12に正対していることをトリガにして、以後の処理が行われるため、ジェスチャー等により操作指示を行なう際の余分な操作を省くことができる。
図4に戻り、検出領域設定部312は、顔検出・追跡部311による顔画像の追跡が成功したか否かを判断する(ステップS403)。検出領域設定部312は、顔検出・追跡部311による顔画像の追跡が所定時間(本実施形態では、1s以下)継続して行われた場合に、顔画像の追跡が成功したと判断する。顔画像の追跡が成功していない場合(ステップS403:No)、検出領域設定部312は、顔検出・追跡部311による顔画像の追跡が成功するまで待つ。
顔画像の追跡に成功した場合(ステップS403:Yes)、検出領域設定部312は、取得された動画像データに基づく動画像に含まれる顔画像の位置を検出する(ステップS404)。本実施形態では、検出領域設定部312は、図5に示すように、動画像データを構成するフレーム画像501の左上の角を原点(0,0)とする予め設定された直交座標系(以下、XY座標系とする)における、顔検出・追跡部311により検出した顔画像502の中心位置(本実施形態では、鼻の位置)の位置座標(X1,Y1)を、顔画像502の位置として検出する。また、検出領域設定部312は、取得された動画像データに基づく動画像に複数の顔画像が含まれる場合、当該複数の顔画像の位置を検出する。なお、顔検出・追跡部311により検出した顔画像の位置が所定時間以内に所定距離以上移動した場合、コンピュータ10は、操作データを出力する処理を中止する。これにより、操作者が立ち上がった場合や操作者が横になった場合など、操作者がコンピュータ10を操作する意思を無くして、顔画像の位置が急に移動した場合に、操作データを出力する処理を中止することができる。
また、検出領域設定部312は、取得された動画像データに基づく動画像に含まれる顔画像の上下方向に延びる軸(以下、顔画像の軸とする)の傾きを検出する。本実施形態では、検出領域設定部312は、XY座標系における、顔画像の軸の傾き(角度θ)を、顔画像の傾きとして検出する。具体的には、検出領域設定部312は、顔画像の上下方向に延びかつ顔画像が左右対称となる対称軸を通る軸を顔画像の軸とみなし、XY座標系における、当該顔画像の軸の傾きを顔画像の傾きとして検出する。または、検出領域設定部312は、顔画像の特徴点として検出した鼻、左眼、および右眼を結んだ三角形において、鼻の特徴点から、左眼の特徴点と右眼の特徴点とを結ぶ線分に下ろした垂線を、顔画像の軸とみなし、XY座標系における、当該顔画像の軸の傾きを顔画像の傾きとして検出しても良い。
図4に戻り、検出領域設定部312は、ディスプレイユニット12に表示している表示データに応じて、XY座標系を基準にして操作者の操作指示の動きを検出する第一のモード、および顔画像の軸を座標軸とする直交座標系(以下、xy座標系とする)または直交座標系R(図11参照)を基準にして操作者の操作指示の動きを検出する第二のモードのうちいずれか一方のモードに切り換える(ステップS405)。ここで、xy座標系は、顔画像502の軸をy軸とし、当該y軸に予め設定された位置で直交するx軸とする座標系である。本実施形態では、xy座標系は、顔画像502の軸をy軸とし、顔画像502の中心位置(位置座標(X1,Y1))でy軸に直交するx軸とからなる座標系である。直交座標系R(図11参照)は、操作者の操作指示の動きを検出する検出領域として、円弧状に湾曲した領域が設定された場合に、当該検出領域が有する円弧E2(図11参照)をx軸(図11参照)とし、かつ円弧E2の中点においてx軸と交わる軸をy軸(図11参照)とする座標系である。
本実施形態では、検出領域設定部312は、スクロール可能なウィンドウなど、ディスプレイユニット12を基準にした方が操作指示を行いやすい表示データがディスプレイユニット12に表示されている場合には、第一のモードに切り換える。一方、検出領域設定部312は、チャンネル番号の選局やスピーカ18A,18Bから出力される音の音量に関わる表示画面など、操作者を基準にした方が操作指示を行いやすい表示データがディスプレイユニット12に表示されている場合には、第二のモードに切り換える。
次いで、検出領域設定部312は、検出した顔画像の位置に従って、動画像を構成するフレーム画像に対して検出領域を設定する(ステップS406)。ここで、検出領域とは、操作者の操作指示(例えば、ウィンドウに表示されたコンテンツ(テキスト、絵、画像など)のスクロール、チャンネル番号の選局、音量の変更など)の動き(操作者の操作指示の手の動き、操作者の操作指示による物の動きを含む)を検出する領域である。また、検出領域設定部312は、取得された動画像データに基づく動画像に複数の顔画像が含まれている場合、複数の顔画像の位置に従って複数の検出領域を設定する。
本実施形態では、検出領域設定部312は、図5に示すように、顔画像502の位置座標(X1,Y1)および顔画像502の軸の傾きに従って、操作者の操作指示の手505の動き506を検出する検出領域504をフレーム画像501に対して設定する。具体的には、検出領域設定部312は、顔画像502の軸の方向において、顔画像502の位置座標(X1,Y1)よりも下方に位置する領域を、操作者の操作指示の手505の動き506を検出する検出領域504に設定する。これにより、操作者の位置を基準にして検出領域504が設定されるので、操作者にとって分かりやすい位置を検出領域504とすることができる。また、検出領域504の位置を報知する処理など、操作者に対して複雑な情報を報知する必要がなく、検出領域504の位置の報知に必要なコストや、操作者が検出領域504の位置を確認する手間を低減することができる。
より具体的には、検出領域設定部312は、図6に示すように、顔画像502の位置座標(X1,Y1)を原点とするxy座標において、顔画像502の位置座標(X1,Y1)を、下方(y軸方向)に移動させた位置座標(x1,y1)を検出領域504の中心位置として求める。言い換えると、図6のように操作者の顔画像502が傾いていない場合(操作者の上半身が立っている場合)、検出領域設定部312は、XY座標系において、顔画像502の位置座標(X1,Y1)を、予め設定された移動量(ΔX=0,ΔY)移動させた座標を検出領域504の中心位置として求める。また、検出領域設定部312は、顔画像502の大きさr(例えば、顔画像502を円と仮定した場合における半径)を検出する。そして、検出領域設定部312は、xy座標系において、位置座標(x1,y1)からx軸方向にr・S1離れかつy軸に平行な向かい合う2辺504aと、位置座標(x1,y1)からy軸方向にr・S2離れかつx軸に平行な向かい合う2辺504bと、を有する矩形状の領域を、検出領域504に設定する。ここで、S1,S2は、位置座標(x1,y1)を中心位置とする検出領域504が矩形状の領域となるように予め設定された定数である。本実施形態では、S1,S2は、コンピュータ10を操作する操作者によらず所定の値であるものとするが、これに限定するものではなく、コンピュータ10の操作者毎に異なる値としても良い。
コンピュータ10の操作者が横になっている場合等、顔画像502の軸がXY座標系において角度θ傾いている場合も、検出領域設定部312は、同様に検出領域504を設定する。検出領域設定部312は、図7に示すように、顔画像502の位置座標(X1,Y1)を原点としかつXY座標系に対して角度θ傾いたxy座標系において、顔画像502の位置座標(X1,Y1)を、下方(y軸方向)に移動させた位置座標(x1,y1)を検出領域504の中心位置として求める。言い換えると、図7のように操作者の顔画像502が角度θ傾いている場合、検出領域設定部312は、XY座標系において、顔画像502の位置座標(X1,Y1)を、角度θ毎に予め設定された移動量(ΔX,ΔY)移動させた座標を検出領域504の中心位置として求める。また、検出領域設定部312は、顔画像502の大きさrを検出する。そして、検出領域設定部312は、位置座標(x1,y1)からx軸方向にr・S1離れかつy軸に平行な向かい合う2辺504aと、位置座標(x1,y1)からy軸方向にr・S2離れかつx軸に平行な向かい合う2辺504bと、を有する矩形状の領域を、検出領域504に設定する。このように、操作者が横になっている場合等、顔画像502がXY座標系において角度θ傾いている場合に、XY座標系に対して角度θ傾いたxy座標系のy軸方向において、顔画像502よりも下方に位置する所定領域を検出領域504に設定することにより、操作者が横になっている場合等にも、操作者の上半身が立っている場合と同様の動きにより操作指示を行うことができる。
また、検出領域設定部312は、取得した動画像データに基づく動画像に含まれる顔画像の位置に従って、円弧状に湾曲した検出領域を、当該動画像を構成するフレーム画像に対して設定することも可能である。本実施形態では、検出領域設定部312は、図8に示すように、操作者が肘を中心として腕を回動させた場合における、円弧状の腕の軌跡に沿って検出領域504を設定する。具体的には、検出領域設定部312は、図9に示すように、顔画像502の位置座標(X1,Y1)を原点とするxy座標系において、顔画像502の位置座標(X1,Y1)を下方(y軸方向)に移動させた位置座標(x1,y1)を、操作者が肘を中心として回動させた場合における回動中心として求める。より具体的には、検出領域設定部312は、まず、顔画像502の大きさrを求める。次いで、検出領域設定部312は、(x1,y1)=(X1+a・r・Δx,Y1+a・r・Δy)により、xy座標系における回動中心の位置座標(x1,y1)を求める。ここで、aは、位置座標(x1,y1)を求める際に用いるパラメータである。Δxは、位置座標(x1,y1)のうちx軸方向の座標を求める際に用いるパラメータである。Δyは、位置座標(x1,y1)のうちy軸方向の座標を求める際に用いるパラメータである。以上の処理により、検出領域設定部312は、XY座標系において、顔画像502の位置座標(X1,Y1)を、予め設定された移動量(ΔX,ΔY)移動させた座標を、回動中心として求める。
回動中心の位置座標(x1,y1)を求めると、検出領域設定部312は、位置座標(x1,y1)を中心とする扇型(円弧状に湾曲した領域)の検出領域504を設定する。具体的には、検出領域設定部312は、図10に示すように、位置座標(x1,y1)を中心として腕を予め設定された角度θ´(θ+|θ|)回動させた場合における、腕の長さ(A1=b・r)を半径とする円弧E1と、手先までの長さ(A2=c・r)を半径とする円弧E2と、の間の領域を、検出領域504に設定する。ここで、b,cは、円弧E1,E2を求める際に用いるパラメータである。なお、パラメータb,cは、コンピュータ10の操作者毎に変更可能としても良い。例えば、コンピュータ10は、当該コンピュータ10にログインする操作者の操作者IDに対応付けて、パラメータb,cを記憶しておく。そして、検出領域設定部312は、コンピュータ10に操作者がログインした際に、ログインした操作者の操作者IDと対応付けて記憶されたパラメータb,cを読み出し、読み出したパラメータb,cを用いて、円弧E1,E2を求める。
本実施形態では、検出領域設定部312は、位置座標(x1,y1)を中心として腕を予め設定された角度θ´(θ+|θ|)回動させた場合における扇型の領域を検出領域504として設定しているが、顔画像502の上下方向に延びる線を軸(y軸)として線対称に設定された扇型の領域(円弧状に湾曲した領域)を検出領域504に設定しても良い。
図4に戻り、動き検出部314は、設定した検出領域において動きを検出する(ステップS407)。また、動き検出部314は、検出領域設定部312により複数の検出領域が設定された場合、複数の検出領域において動きを検出する。本実施形態では、動き検出部314は、図5に示すように、画像取得部301により取得された動画像データに基づく動画像を構成するフレーム画像501の検出領域504における手505の動き506を検出する。また、動き検出部314は、検出領域設定部312により切り換えられたモード(第一のモードまたは第二のモード)に従って、検出領域504において動き506を検出する。
具体的には、動き検出部314は、取得された動画像データに基づく動画像を構成するフレーム画像501のうち、最後のフレーム画像が撮像された時刻tと当該時刻tから所定時間(例えば、10フレーム分の時間)前の時刻t−1との間のフレーム画像501を抽出する。
次いで、動き検出部314は、抽出したフレーム画像501に含まれる検出領域504から、手505の動き506を検出する。図12に示す例は、時刻t−1から時刻tまでの間に、検出領域504に含まれる手505が、点線で示す位置P1から実線で示す位置P2に移動した例である。具体的には、動き検出部314は、時刻tの検出領域504に含まれる手505を含む少なくとも1つの部分画像701、および時刻t−1の検出領域504に含まれる手505の少なくとも1つの部分画像702を抽出する。そして、動き検出部314は、部分画像701,702に含まれる手505を構成する少なくとも1つの画素Gの、時刻tと時刻t−1間における移動を、手505の動き506として検出する。その際、動き検出部314は、検出領域設定部312により第一のモードに切り換えられている場合には、XY座標系を基準にして、画素Gの移動を検出する。一方、動き検出部314は、検出領域設定部312により第二のモードに切り換えられている場合には、xy座標系を基準にして、画素Gの移動を検出する。
本実施形態では、動き検出部314は、図12に示す例において、手505の動き506を検出しているが、操作者の操作指示の動きを検出するものであれば、これに限定するものではない。例えば、動き検出部314は、操作者の操作指示による物(操作者が手に持つ物など)の動きを検出しても良い。さらに、動き検出部314は、検出領域設定部312により複数の検出領域が設定された場合、複数の検出領域においてそれぞれ動きを検出するものとする。
また、動き検出部314は、図13に示すように、検出領域504内での手505の動き506に加えて、当該検出領域504の近傍の手505hの動き506を検出しても良い。ただし、検出した動き506から操作者による操作指示を判定する際には、検出領域504において検出された動き506のみを用いるものとする。
また、動き検出部314は、検出領域504における動きのうち、予め設定された速度よりも速い速度で動く動き、操作指示を意図しない動き(本実施形態では、X軸またはY軸に沿って手505を移動させる動き、およびx軸またはy軸に沿って手505を移動させる動き以外の動き)を検出せず、確実に検出することができる動き506のみを検出しても良い。これにより、より確実に操作指示の動きの検出を行うことができる。
さらに、動き検出部314は、検出領域設定部312により設定された検出領域が円弧状に湾曲した領域である場合、当該検出領域から極座標系で表される動きを検出するとともに、検出した動きを直交座標系で表される動きに変換する。具体的には、動き検出部314は、図10に示すように、XY座標系の位置座標(Px,Py)を、位置座標(x1,y1)を中心とする極座標系における極座標(Pr,Pθ)に変換する。ここで、Prは、(Px−x1)+(Py−y1)の平方根である。また、Pθは、atan2(y1−Py,x1−Px)である。そして、動き検出部314は、極座標(Pr,Pθ)が、A1<Pr<A2およびθ<Pθ<θを満たす場合に、当該極座標(Pr,Pθ)が検出領域504内に存在すると判断する。
極座標(Pr,Pθ)が検出領域504内に存在すると判断した場合、動き検出部314は、フレーム画像501間における極座標(Pr,Pθ)の移動速度(v,vθ)を、直交座標系Rで表される移動速度(v,v)に変換する。具体的には、動き検出部314は、極座標(Pr,Pθ)を、円弧E2をx軸としかつ円弧E2の中点(原点(0,0))においてx軸と交わる軸をy軸とする直交座標系Rにおける位置座標(Px´,Py´)=(2・A2・Pθ,A2−Pr)に変換する。次いで、動き検出部314は、以下の式1を用いて、極座標(Pr,Pθ)の移動速度(v,vθ)から、位置座標(Px´,Py´)の移動速度(vx´,vy´)を、検出領域504内における動きとして求める。
(vx´,vy´)≡(d・vθ,ev)・・・(式1)
ここで、d,eは、極座標(Pr,Pθ)の移動速度(v,vθ)から移動速度(vx´,vy´)を求める際に用いる予め設定されたパラメータである。
また、
Figure 0005713959
ここで、v,vは、直交座標系Rにおける極座標(Pr,Pθ)の速度ベクトルである。
図4に戻り、履歴取得部315は、動き検出部314により検出(または変換)された直交座標系で表される動きの履歴を取得する(ステップS408)。
次いで、禁止判定部313は、操作判定部303により操作データが最後に出力されてから操作指示を禁止する禁止期間が経過したか否かを判定する(ステップS409)。ここで、禁止期間とは、操作者による操作指示を禁止する期間であり、コンピュータ10の操作者が任意に設定できる。禁止判定部313は、禁止期間が経過していない場合(ステップS409:No)、禁止期間が経過するまで待機する。これにより、操作者が操作指示を行なった直後に他の操作者が操作指示を行なうことで、先に操作指示を行なった操作者による操作指示が、他の操作者が行なった操作指示によって相殺されてしまうことを防止できる。また、操作者が同じ動きによる操作指示を連続して行なった場合(例えば、手505を上から下へ移動させる動きを連続して行なった場合)、手505を上から下へと移動させる動きを行なった後、手505を元の位置に戻す際に、手505を元の位置に戻す動きが検出されて、当該手505を元の位置に戻す動きによって、手505を上から下へと移動させる動きが相殺されることを防止できる。
また、禁止判定部313は、禁止期間が経過した後、操作指示が可能であることを報知する。本実施形態では、禁止判定部313は、操作指示が可能である場合、操作指示が可能であることを示すメッセージをディスプレイユニット12に表示するなど、ディスプレイユニット12の表示態様を変えることにより、操作指示が可能であることを報知する。なお、本実施形態では、禁止判定部313は、ディスプレイユニット12の表示態様を変えることにより操作指示が可能であることを報知しているが、これに限定するものではなく、例えば、図示しないLEDインジケータやスピーカ18A,18Bを用いて、操作指示が可能であることを報知しても良い。
禁止期間が経過したと判定された場合(ステップS409:Yes)、操作判定部303は、履歴取得部315により取得された動きの履歴から、検出(変換)された動きによる操作指示を表す操作データを出力する(ステップS410)。本実施形態では、操作判定部303は、履歴取得部315により取得された動きが、XY座標系(またはxy座標系)において、上下または左右に移動する動きである場合に、当該取得された動きによる操作指示を表す操作データを出力する出力部として機能する。
また、本実施形態では、操作判定部303は、矩形状の検出領域から動きが検出された場合には、動き検出部314により検出された動き(XY座標系またはxy座標系で表される動き)による操作指示を表す操作データを出力する。一方、操作判定部303は、円弧状に湾曲した検出領域から動きが検出された場合には、動き検出部314により変換された動き(直交座標系Rで表される動き)による操作指示を表す操作データを出力する。これにより、操作判定部303は、動き検出部314により極座標系で表わされる動きが検出された場合であっても、直交座標系Rで表わされる動きに従って操作データを出力することができるので、XY座標系またはxy座標系で表わされる動きが検出された場合と同様の処理により操作データを出力することができる。
具体的には、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された動き506が、図14(a)に示すように検出領域504を右から左に移動する動き(XY座標系のX軸に対して略平行に、プラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を右側にスクロールする操作指示を表す操作データを出力する。
また、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された動き506が、図14(b)に示すように検出領域504を左から右に移動する動き(XY座標系のX軸に対して略平行に、マイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を左側にスクロールする操作指示を表す操作データを出力する。
また、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された動き506が、図14(c)に示すように検出領域504を上から下に移動する動き(XY座標系のY軸に対して略平行に、マイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を下側にスクロールさせる操作指示を表す操作データを出力する。
また、検出領域設定部312により第一のモードに切り換えられ、履歴取得部315により取得された動き506が、図14(d)に示すように検出領域504を下から上に移動する動き(XY座標系のY軸に対して略平行に、プラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12のウィンドウに表示された画像を上側にスクロールさせる操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された動き506が、図15(a)に示すように検出領域504を右から左に移動する動き(xy座標系のx軸に対して略平行にプラス側からマイナス側へと移動する動き、または直交座標系Rのx軸に対して略平行にプラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データのチャンネル番号を増加する操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された動き506が、図15(b)に示すように検出領域504を左から右に移動する動き(xy座標系のx軸に対して略平行にマイナス側からプラス側へと移動する動き、または直交座標系Rのx軸に対して略平行にマイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データのチャンネル番号を減らす操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された動き506が、図15(c)に示すように検出領域504を上から下に移動する動き(xy座標系のy軸に対して略平行にマイナス側からプラス側へと移動する動き、または直交座標系Rのy軸に対して略平行にマイナス側からプラス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データに関わりかつスピーカ18A,18Bから出力される音声の音量を下げる操作指示を表す操作データを出力する。
また、検出領域設定部312により第二のモードに切り換えられ、履歴取得部315により取得された動き506が、図15(d)に示すように検出領域504を下から上に移動する動き(xy座標系のy軸に対して略平行にプラス側からマイナス側へと移動する動き、または直交座標系Rのy軸に対して略平行にプラス側からマイナス側へと移動する動き)である場合、操作判定部303は、ディスプレイユニット12に表示されている放送データに関わりかつスピーカ18A,18Bから出力される音声の音量を上げる操作指示を表す操作データを出力する。
また、操作判定部303は、動き検出部314により複数の検出領域において動きが検出された場合、複数の検出領域において検出した動きによる操作指示に基づく操作データを出力するものとする。例えば、操作判定部303は、複数の検出領域において検出された動きを蓄積する。
そして、操作判定部303は、蓄積した動きが同一の操作指示に対応する動きである場合には、蓄積した動きによる操作指示を表す操作データを出力する。例えば、ディスプレイユニット12に表示されている放送データのチャンネル番号を増加する操作指示に対応する動きが略同時に検出された場合、放送データのチャンネル番号を増加する操作指示を表す操作データを出力する。
一方、操作判定部303は、蓄積した動きが、互いに打ち消しあう操作指示に対応する動きである場合には、操作データを出力しない。例えば、スピーカ18A,18Bから出力される音量を上げる操作指示に対応する動きと、スピーカ18A,18Bから出力される音量を下げる操作指示に対応する動きと、が略同時に検出された場合に、操作データを出力しない。
図4に戻り、操作判定部303から操作データが出力されると、操作実行部304は、出力された操作データに従って操作対象機器(例えば、ディスプレイユニット12など)を制御する。
なお、複数のウィンドウをディスプレイユニット12に表示可能なコンピュータ10においては、操作者が視聴しているウィンドウ(表示データ)と同時に、入力された動画像データに基づく顔画像を含む動画像に検出領域を重ねた画像が表示されたウィンドウをディスプレイユニット12に表示しても良い。これにより、コンピュータ10の操作者は、動画像に含まれる顔画像および検出領域が表示されたウィンドウを見ることにより、どの位置で操作指示の動きを行えば操作指示を行なえるのかを容易に把握することができる。
このように本実施形態にかかるコンピュータ10によれば、入力された動画像データに基づく動画像に含まれる顔画像の位置に従って、円弧状に湾曲した検出領域を当該動画像を構成するフレーム画像に対して設定し、当該検出領域において、操作者の操作指示の動きを検出し、検出した動きによる操作指示を表す操作データを出力することにより、検出領域の形状を、操作者が操作指示を行う際に手を動かし易い形状とすることができるので、ジェスチャーによる操作対象機器の操作性を向上させることができる。また、操作者の操作指示の動きを検出する領域を操作者が容易に認識できるので、ジェスチャーによるコンピュータ10の操作精度を向上させることができる。
本実施形態のコンピュータ10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供されても良い。
また、本実施形態のコンピュータ10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のコンピュータ10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、本実施形態のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 コンピュータ
111 CPU
112 主メモリ
302 検出部
303 操作判定部
311 顔検出・追跡部
312 検出領域設定部
313 禁止判定部
314 動き検出部
315 履歴取得部

Claims (6)

  1. 入力された動画像データに基づく動画像に含まれる顔画像の位置に従って、矩形状の第1検出領域または操作者が肘を中心として腕を回動させた場合における腕の軌跡に沿って円弧状に湾曲した第2検出領域を前記動画像を構成するフレーム画像に対して設定し、前記第1検出領域から直交座標系で表される動きを検出し、前記第2検出領域から極座標系で表される動きを検出する検出部と、
    前記検出部により検出した動きによる操作指示を表す操作データを出力する出力部と、を備え、
    前記検出部は、前記フレーム画像に対して前記第2検出領域を設定した場合、前記第2検出領域から検出した極座標系で表される動きから、ユーザの操作にかかる動きの量を定める電子機器
  2. 前記第1検出領域および前記第2検出領域は、前記顔画像の上下方向に延びる線を軸として線対称に設定される請求項1に記載の電子機器
  3. 力された動画像データに基づく動画像に含まれる顔画像の位置に従って、矩形状の第1検出領域または操作者が肘を中心として腕を回動させた場合における腕の軌跡に沿って円弧状に湾曲した第2検出領域を前記動画像を構成するフレーム画像に対して設定し、前記第1検出領域から直交座標系で表される動きを検出し、前記第2検出領域から極座標系で表される動きを検出し
    出した動きによる操作指示を表す操作データを出力
    前記フレーム画像に対して前記第2検出領域を設定した場合、前記第2検出領域から検出した極座標系で表される動きから、ユーザの操作にかかる動きの量を定める、
    ことを含む方法。
  4. 前記第1検出領域および前記第2検出領域は、前記顔画像の上下方向に延びる線を軸として線対称に設定される請求項3に記載の方法。
  5. コンピュータを、
    入力された動画像データに基づく動画像に含まれる顔画像の位置に従って、矩形状の第1検出領域または操作者が肘を中心として腕を回動させた場合における腕の軌跡に沿って円弧状に湾曲した第2検出領域を前記動画像を構成するフレーム画像に対して設定し、前記第1検出領域から直交座標系で表される動きを検出し、前記第2検出領域から極座標系で表される動きを検出する検出部と、
    前記検出部により検出した動きによる操作指示を表す操作データを出力する出力部と、として機能させ、
    前記検出部は、前記フレーム画像に対して前記第2検出領域を設定した場合、前記第2検出領域から検出した極座標系で表される動きから、ユーザの操作にかかる動きの量を定めるプログラム。
  6. 前記第1検出領域および前記第2検出領域は、前記顔画像の上下方向に延びる線を軸として線対称に設定される請求項5に記載のプログラム。
JP2012117939A 2012-05-23 2012-05-23 電子機器、方法、およびプログラム Expired - Fee Related JP5713959B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012117939A JP5713959B2 (ja) 2012-05-23 2012-05-23 電子機器、方法、およびプログラム
PCT/JP2013/058197 WO2013175845A1 (en) 2012-05-23 2013-03-14 Information processing apparatus, information processing method, and program
US13/975,011 US20130342448A1 (en) 2012-05-23 2013-08-23 Information processing apparatus, information processing method, and program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117939A JP5713959B2 (ja) 2012-05-23 2012-05-23 電子機器、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2013246514A JP2013246514A (ja) 2013-12-09
JP5713959B2 true JP5713959B2 (ja) 2015-05-07

Family

ID=49623549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117939A Expired - Fee Related JP5713959B2 (ja) 2012-05-23 2012-05-23 電子機器、方法、およびプログラム

Country Status (3)

Country Link
US (1) US20130342448A1 (ja)
JP (1) JP5713959B2 (ja)
WO (1) WO2013175845A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6159179B2 (ja) * 2013-07-09 2017-07-05 キヤノン株式会社 画像処理装置、画像処理方法
KR20150130808A (ko) * 2014-05-14 2015-11-24 삼성전자주식회사 사용자의 공간 제스처를 식별하는 방법 및 장치
CN105892668B (zh) * 2016-04-01 2019-04-02 纳恩博(北京)科技有限公司 设备控制方法和装置
US20200129042A1 (en) * 2017-05-25 2020-04-30 Nec Corporation Information processing apparatus, control method, and program
US11726576B2 (en) * 2021-06-04 2023-08-15 Indyme Solutions, Llc Devices for touchless gesture based customer assistance systems
JP7336553B2 (ja) * 2022-02-07 2023-08-31 三菱電機Itソリューションズ株式会社 処理実行装置、処理実行方法及び処理実行プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8230367B2 (en) * 2007-09-14 2012-07-24 Intellectual Ventures Holding 67 Llc Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
JP5614014B2 (ja) * 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP2011058884A (ja) * 2009-09-08 2011-03-24 Clarion Co Ltd ナビゲーション装置、ナビゲーション方法、およびプログラム
JP5360406B2 (ja) * 2009-10-29 2013-12-04 株式会社ニコン 画像表示装置
JP2011095985A (ja) * 2009-10-29 2011-05-12 Nikon Corp 画像表示装置
US8338725B2 (en) * 2010-04-29 2012-12-25 Au Optronics Corporation Camera based touch system
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法

Also Published As

Publication number Publication date
US20130342448A1 (en) 2013-12-26
JP2013246514A (ja) 2013-12-09
WO2013175845A1 (en) 2013-11-28

Similar Documents

Publication Publication Date Title
JP5713959B2 (ja) 電子機器、方法、およびプログラム
US10346027B2 (en) Information processing apparatus, information processing method, and program
US9690475B2 (en) Information processing apparatus, information processing method, and program
US8477099B2 (en) Portable data processing appartatus
JP7005161B2 (ja) 電子機器及びその制御方法
US10642348B2 (en) Display device and image display method
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
US10979700B2 (en) Display control apparatus and control method
JP2014026355A (ja) 映像表示装置および映像表示方法
JP6911834B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20130234937A1 (en) Three-dimensional position specification method
US10771707B2 (en) Information processing device and information processing method
JP2014126997A (ja) 操作装置、及び操作検出方法
JP6049885B2 (ja) カーソル位置制御装置、カーソル位置制御方法、プログラム及び情報記憶媒体
US11100903B2 (en) Electronic device and control method for controlling a display range on a display
EP2341412A1 (en) Portable electronic device and method of controlling a portable electronic device
US20180059811A1 (en) Display control device, display control method, and recording medium
US20200327867A1 (en) Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
CN111263957A (zh) 信息处理设备、信息处理方法以及程序
JP2018180050A (ja) 電子機器及びその制御方法
JP2013246516A (ja) 情報処理装置、情報処理方法、およびプログラム
US11487355B2 (en) Information processing apparatus and information processing method
JP2013246515A (ja) 情報処理装置、情報処理方法、およびプログラム
US20140201687A1 (en) Information processing apparatus and method of controlling information processing apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150310

LAPS Cancellation because of no payment of annual fees