JP2016015077A - ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム - Google Patents

ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム Download PDF

Info

Publication number
JP2016015077A
JP2016015077A JP2014137625A JP2014137625A JP2016015077A JP 2016015077 A JP2016015077 A JP 2016015077A JP 2014137625 A JP2014137625 A JP 2014137625A JP 2014137625 A JP2014137625 A JP 2014137625A JP 2016015077 A JP2016015077 A JP 2016015077A
Authority
JP
Japan
Prior art keywords
distance
gesture
predetermined
gesture recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014137625A
Other languages
English (en)
Inventor
怜央 海保
Reo Kaiho
怜央 海保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2014137625A priority Critical patent/JP2016015077A/ja
Publication of JP2016015077A publication Critical patent/JP2016015077A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザーによる意のままの操作を装置に伝達するようなジェスチャーを認識するジェスチャー認識装置を提供する。【解決手段】ユーザーの身体の少なくとも一部を撮影する撮影手段と、撮影手段により撮影されたユーザーの身体の少なくとも一部における2以上の所定部位間の距離を、所定部位ごとの三次元座標に基づいて認識する距離認識手段と、距離認識手段により認識された所定部位間の距離に応じて所定機能を実行する機能実行手段と、を備える。【選択図】図4

Description

本発明は、ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラムに関する。
従来から、家電製品や、パーソナルコンピュータ(以下「PC」という。)等の情報処理装置等に対する操作は、赤外線や電波等の無線で信号を送受信するリモートコントローラ(以下「リモコン」という。)を用いて行われている。
リモコンは、離れた場所から家電製品等を操作できるという点で、多くの製品に使用されている。しかし、第一に、リモコンは筐体それ自体を持って操作しなければならない。また、第二に、近年の製品の多機能化に伴い、それらの機能を発揮させる操作ボタンがリモコン筐体に数多く配されることになってきているため、リモコン操作者にとって、操作が煩雑になってきている。
そこで、近年、例えばPC等の情報処理装置の分野において、ユーザーの身振り、手振り(以下「ジェスチャー」という。)などを装置側に設けたカメラによって撮影し、撮影された画像に基づいて特定のジェスチャーが認識されたとき、認識されたジェスチャーに予め対応させた機能を実現させるジェスチャー認識技術が広く知られている。これによって、ユーザーは、リモコン等を持たずに、意図した操作を直感的に行うことができる。
上記のジェスチャー認識技術に関し、例えば特許文献1には、操作ジェスチャー認識のためのカメラモジュールに関し、3Dカメラを用いて認識した操作ジェスチャーが予め既定された操作ジェスチャーに一致したとき、所定の機能を実現する技術が開示されている。特許文献1に係る技術は、3Dカメラを用いて、例えば人差し指による指示、こぶし等の操作ジェスチャーを認識し、これらの操作ジェスチャーに割り当てられた操作ジェスチャー識別子や位置情報に基づいて家電製品の機能を開始する。
特開2013−229009号公報
上述のように、例えば、特許文献1に開示された技術においては、例えば人差し指による指示や、こぶし等の操作ジェスチャーに対して、一意の操作ジェスチャー識別子を割当て、例えばこぶしの操作ジェスチャーをカメラモジュールが認識すると、そのこぶしの操作ジェスチャーに割り当てられた識別子に対応する機能が実現される。
ここで、特許文献1に開示された技術は、一意の操作ジェスチャー識別子に対応する、こぶし等の固定的なジェスチャーを認識するものであるから、適用される操作処理も一意である。しかし、ユーザーの直感的な操作を実現させる観点に鑑みれば、上記のような一意な操作処理よりむしろ、ユーザーの意のままの操作を装置に伝達するようなジェスチャーを認識することができることが好ましい。
本発明は、このような実情に鑑みてなされたものであって、ユーザーによる意のままの操作を装置に伝達するようなジェスチャーを認識するジェスチャー認識装置を提供することを目的とする。
上記の課題を解決するため、本発明のジェスチャー認識装置は、ユーザーの身体の少なくとも一部を撮影する撮影手段と、撮影手段により撮影されたユーザーの身体の少なくとも一部における2以上の所定部位間の距離を、所定部位ごとの三次元座標に基づいて認識する距離認識手段と、距離認識手段により認識された所定部位間の距離に応じて所定機能を実行する機能実行手段と、を備えることを特徴とする。
本発明によれば、ユーザーによる意のままの操作を装置に伝達するようなジェスチャーを認識することができる。
本発明の実施形態におけるジェスチャー認識装置の一例としてのパーソナルコンピュータを用いた動作説明概略図である。 本発明の実施形態におけるジェスチャー認識装置のハードウェア構成例を示す図である。 本発明の実施形態におけるジェスチャー認識装置の機能ブロック図である。 本発明の実施形態におけるジェスチャー認識処理の一例を説明する模式図である。 本発明の実施形態におけるジェスチャー認識処理手順の一例を示すフローチャートである。 図5におけるステップS4の詳細な処理手順の一例を示すフローチャートである。
本発明の実施形態におけるジェスチャー認識装置について図面を用いて以下説明する。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。なお、以下では、本実施形態におけるジェスチャー認識装置を説明する上で、一例として、ノート型のパーソナルコンピュータ(以下「PC」という。)を用いているが、これに限定されず、例えば、デスクトップ型のPCでも、多機能型携帯電話(スマートフォン)、PDA(Personal Digital Assistant)、携帯電話等の携帯端末でも、情報処理機能を有するテレビジョン(TV)でも、あるいは、情報処理機能を有する、例えば冷蔵庫や洗濯機等の家庭用電化製品等、さらには自家用車等に本実施形態のジェスチャー認識装置が適用されるものであってもよい。
本実施形態におけるジェスチャー認識装置は、ユーザーの身体の少なくとも一部を用いた所定のジェスチャーを認識するものであるが、本実施形態においては、例えば、ユーザーの手指を用いたジェスチャーを用いて、以下説明するものとする。なお、ジェスチャー認識装置が認識するジェスチャーは、身体の少なくとも一部を用いたジェスチャーであればよく、手指に限らず、腕や脚、顔、あるいは全身を用いたあらゆるジェスチャーを認識し、認識された各ジェスチャーに基づいて各種操作処理を実現するものであってもよい。
本実施形態におけるジェスチャー認識装置の一例であるノート型PC(以下、単に「PC」という。)1の概略について図1を参照して説明する。PC1は、例えば、ジェスチャーを認識するためのカメラ11と、ディスプレイ12と、キーボード13と、タッチパッド14等を備えている。なお、キーボード13や、タッチパッド14等は、通常、PCに標準的に実装されていることに鑑みて、例示的に描画しているにすぎず、本発明としての必須の構成でないことは言うまでもない。
カメラ11は、例えば、図1に示すようなジェスチャーRを撮影して、撮影画像を装置内に取り込む。PC1は、取り込まれた撮影画像を解析して、解析結果に基づいて所望の処理を実行する。なお、本図においては、カメラ11はPC1のディスプレイ12の上方に設けられているが、これに限定されず、ジェスチャー等を撮影することができる位置であれば、どこに設けてもよい。また、カメラ11が不図示の回転機構により、その取付位置を基点として装置筐体の背面側に回転し、背面側のジェスチャー等を撮影するようにしてもよい。
なお、図1における3次元空間を説明する指標として、横方向をX軸と、縦方向をY軸と、奥行き方向をZ軸とする。本実施形態におけるカメラ11は、X軸及びY軸からなる平面的な画像を撮影するカメラだけでなく、Z軸方向の長さを認識するため、例えば物体の温度分布を画像化するIRカメラを組み合わせて用いることが好ましい。また、所謂ステレオカメラ等の3Dカメラを用いてもよい。これらにより、ジェスチャーの向きに関わらず、ジェスチャーを正確に認識することができる。
次に、本実施形態におけるジェスチャー認識装置のハードウェア構成について図2を参照して説明する。本実施形態におけるジェスチャー認識装置は、例えば、制御部21と、RAM(Random Access Memory)22と、ROM(Read Only Memory)23と、HDD(Hard Disk Drive)24と、撮影部25と、表示部26と、入力部27と、出力部28と、を備える。
制御部21は、ジェスチャー認識装置の全体制御、及び後述する距離認識制御や機能実行制御を行う、例えばCPU(Central Processing Unit)等である。また、制御部21は、本実施形態における、認識したジェスチャーに対応させた所定の実行機能を実現させるために、上述した各デバイスを制御する。
RAM22は、例えば、制御部21の作業用領域として利用されるとともに、各種データの一時記憶領域として利用されるものであればよい。また、ROM23は、例えば、制御部21が実行するBIOS(Basic Input Output System)等の制御プログラムのほか、制御に必要な各種データ等が格納されるものであればよい。
HDD24は、例えば、認識されるジェスチャーと所定機能とを対応付けたテーブルデータ等を記憶する大容量記憶装置である。なお、本実施形態においては、例えば、HDD24はPC1に内蔵されているが、HDD24は外付けであってもよい。また、テーブルデータ等をSDカード等の外部メディアに記憶させ、SDカード等から当該画像を読み込んでもよい。さらに、テーブルデータ等を、不図示のネットワークを介して接続された外部のPC等に記憶させておき、ジェスチャー認識が必要なタイミングでネットワークを経由してPC1に読み込む、例えば、クラウド等に対応することとしてもよい。
撮影部25は、ジェスチャーを撮影する、例えばデジタルカメラ等の撮影手段である。上述したように、本実施形態では、ジェスチャー等の物体の3軸方向の距離を測定することが好ましいため、例えば、2軸方向、つまり上述した図1におけるX−Y軸平面の画像を撮影するカメラに加え、物体の奥行き方向、つまり上述した図1におけるZ軸方向の距離を測定するIR(赤外線)カメラを備えることが好ましい。なお、撮影部25として、3D映像を取得することができるものであれば、例えば2以上のカメラを用いたステレオカメラ等の視差カメラであってもよい。
表示部26は、各種画像を表示する、例えば液晶ディスプレイや有機ELディスプレイ等の表示デバイスである。本実施形態においては、例えば、表示部26にアイコン等のユーザーインタフェースを表示させ、これらアイコン等が、PC1に実装される所定機能を実現するための操作キーとなっている場合に、ユーザーは表示部26に表示されたアイコン等を見ながら、ジェスチャーによって、あたかもそれらアイコン等を直接操作しているかのような感覚を体験することができる。
入力部27は、例えば、上述したキーボード13やマウス等の入力デバイスであり、出力部28は、例えば、音声を出力するスピーカー等の音声出力部や、光を出力するLED等の光出力部等である。入力部27は、例えば、PC1の初期設定を行う場合等に用いられる。また、出力部28は、例えば、処理が完了したり、処理中であったり等の処理状態をユーザーに知らせるため等に、音声や光等を出力する。
次に、本実施形態におけるジェスチャー認識装置の機能ブロックについて、図3を参照して説明する。本実施形態におけるジェスチャー認識装置は、機能ブロックとして、撮影部25と、距離認識部31と、機能実行部32と、表示部26を含み構成されている。
距離認識部31は、撮影部25により撮影されたユーザーの身体の少なくとも一部における2以上の所定部位間の距離を、所定部位毎の三次元座標に基づいて認識する距離認識手段である。例えば、距離認識部31は、ユーザーの身体の少なくとも一部の上下方向(Y軸)、左右方向(X軸)、及び前後方向(Z軸)から前記2以上の所定部位間の距離を認識する。これは、上述した、物体の3軸方向の距離認識に対応する処理である。本実施形態においては、例えば、手指のジェスチャーを認識する場合において、人差し指の先端と親指の先端との間の距離を認識しているが、一例にすぎない。上述したような、例えば腕や脚等をジェスチャーに用いる場合、これらの所定部位間の距離、具体的には、腕であれば、肘と手首間の距離を認識するものであってもよい。本処理の詳細については、図4を参照して後述する。
機能実行部32は、距離認識部31により認識された所定部位間の距離に応じて所定機能を実行する機能実行手段である。より具体的には、機能実行部32は、距離認識部31により認識された所定部位間の距離が、予め登録されたデータ範囲に含まれるとき、そのデータ範囲に対応する所定機能を実行する。本処理の詳細については、距離認識部31の処理と共に、図4を参照して後述する。
表示部26は、機能実行部32により所定機能が実行されるとき、所定機能の実行状態を画面表示する表示手段である。例えば、認識されたジェスチャーに対応する機能が実行されるとき、図1に示したディスプレイ12に、実行状態として、ある画面から別の画面へ画面遷移する状態や、ズーム機能によりある表示画像が拡大表示される状態が表示されるものとしてよい。
次に、本実施形態における、ジェスチャー認識処理の一例について、上述した距離認識部31、及び機能実行部32による処理と共に、図4を参照して説明する。
図4では、PC1において実行される動作(以下「機能」ともいう。)として、例えば、「画面遷移」、「画面内のクリック対象を探索」、「対象物へのアプローチ」、「タップ/クリック」を列挙している。そして、これらの動作を実行するモードを、それぞれ「タッチモード」、「カーソルモード1」、「カーソルモード2」、「タップ/クリックモード」として、認識される所定部位間の距離と対応させている。なお、これらの動作及びモードは一例であって、これらに限定されるものでないことは言うまでもない。
「タッチモード」は、例えば所定部位間の距離としての親指と人差し指との距離を1とした「手を一杯に開いた状態」に対応させたモードであり、「カーソルモード1」は、例えば親指と人差し指との距離を0.5〜0.8とした「手を少し開いた状態」に対応させたモードである。また、「カーソルモード2」は、例えば親指と人差し指との距離を0.2〜0.4とした「完全ではないが手の指先を閉じ気味に開いた状態」に対応させたモードであり、「タップ/クリックモード」は、例えば親指と人差し指との距離を0とした「手の指先を閉じた状態」に対応させたモードである。図4に示したような、認識された所定部位間の距離と機能とを対応させたテーブルデータが、上述したHDD24等に記憶されているものとしてよい。
距離認識部31は、撮影部25が撮影したジェスチャーを既存の画像解析技術によって解析し、例えば、本実施形態における手の人差し指と親指間の距離を認識する。そして、機能実行部33は、例えば、HDD24等に記憶された上記テーブルデータに基づいて、距離認識部31により認識された人差し指と親指間の距離「1」に対応する機能、つまり、ここでは「画面遷移」の動作を実行する「タッチモード」を機能させる。
本実施形態においては、認識される所定部位間の距離として、例えば、「手を一杯に開いた状態」における人差し指と親指間の距離を「1」として設定する。そして、例えば、「手を少し開いた状態」における人差し指と親指間の距離を「0.5〜0.8」とし、「完全ではないが手の指先を閉じ気味に開いた状態」における人差し指と親指間の距離を「0.2〜0.4」とし、「手の指先を閉じた状態」における人差し指と親指間の距離を「0」として、このようなデータ範囲を設定し、上記のテーブルデータに予め登録している。なお、これらの設定値は一例であって、人差し指と親指の開き具合に応じて、さらに細かい距離を設定してもよい。また、人差し指と親指間の距離に限らず、例えば、親指と、人差し指以外の指との間の距離であっても、人差し指と、親指以外の指との間の距離であってもよいことは言うまでもない。本実施形態のように、例えば、手指間の距離に応じて動作モードを切り替えることにより、ユーザーは、あたかも自らの意思のままに操作を行っているかのような感覚を味わうことができ、より直感的な操作を実現することが可能となる。また、手指間の距離を細かく分けて、細かく分けられた距離に応じて動作を設定することで、さらにリニアな操作感を実現させることができる。
次に、本実施形態におけるジェスチャー認識処理手順について、図4の例を用いつつ、図5を参照して説明する。まず、ジェスチャー認識装置は、例えば、撮影部25によりユーザーの手指を撮影すると、撮影画像の入力をキーとしてジェスチャー認識処理を開始する(ステップS1)。なお、これは一例であって、ジェスチャー認識処理のトリガーは、撮影画像の入力に限らず、ユーザーによるキーボード13等の入力部27を介した操作入力信号をキーとしても、マイク等を用いて音声入力信号をキーとしても、その他PC1に備わるデバイス等を利用して何らかのトリガーを装置が認識できる信号等であればよい。
次に、距離認識部31は、撮影画像から、例えば、人差し指と親指間の距離を認識する(ステップS2)。認識された距離が「1」であるとき(ステップS2、距離:1)、機能実行部32は、図4で示したテーブルデータを参照し、距離「1」に対応する処理として「タッチモード」処理を実行する(ステップS3)。
また、認識された距離が「0」であるとき(ステップS2、距離:0)、機能実行部32は、図4で示したテーブルデータを参照し、距離「0」に対応する処理として「タップ/クリックモード」処理を実行する(ステップS5)。
さらに、認識された距離xが「0<x<1」であるとき(ステップS2、距離:0<x<1)、機能実行部32は、図4で示したテーブルデータを参照し、距離「0<x<1」に対応する処理として「カーソルモード」処理を実行する(ステップS4)。
さらに、カーソルモード処理に移行した後の詳細な処理手順について図6を参照して説明する。機能実行部32は、カーソルモード処理に移行後、さらに、認識された距離が「0.5〜0.8」であるか、「0.2〜0.4」であるか判断する(ステップS11)。認識された距離が「0.5〜0.8」のとき(ステップS11、0.5〜0.8)、機能実行部32は、「カーソルモード1」として「サーチモード」処理を実行する(ステップS12)。
他方、認識された距離が「0.2〜0.4」のとき(ステップS11、0.2〜0.4)、機能実行部32は「カーソルモード2」として「狙うモード」処理を実行する(ステップS12)。
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態のジェスチャー認識装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリ等の記憶部にインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
1 ノート型PC
11 カメラ
12 ディスプレイ
13 キーボード
14 タッチパッド
21 制御部
22 RAM
23 ROM
24 HDD
25 撮影部
26 表示部
27 入力部
28 出力部
31 距離認識部
32 機能実行部

Claims (5)

  1. ユーザーの身体の少なくとも一部を撮影する撮影手段と、
    前記撮影手段により撮影されたユーザーの身体の少なくとも一部における2以上の所定部位間の距離を、前記所定部位ごとの三次元座標に基づいて認識する距離認識手段と、
    前記距離認識手段により認識された所定部位間の距離に応じて所定機能を実行する機能実行手段と、
    を備えることを特徴とするジェスチャー認識装置。
  2. 前記機能実行手段は、前記距離認識手段により認識された前記所定部位間の距離が、予め登録されたデータ範囲に含まれるとき、該データ範囲に対応する前記所定機能を実行することを特徴とする請求項1記載のジェスチャー認識装置。
  3. 少なくとも前記機能実行手段により前記所定機能が実行されるとき、前記所定機能の実行状態を画面表示する表示手段を備えることを特徴とする請求項1又は2記載のジェスチャー認識装置。
  4. 撮影手段により撮影されたユーザーの身体の少なくとも一部における2以上の所定部位間の距離を、前記所定部位ごとの三次元座標に基づいて認識し、記憶部に記憶する工程と、
    前記記憶部に記憶された所定部位間の距離に応じて所定機能を実行する工程と、
    を備えることを特徴とするジェスチャー認識方法。
  5. 撮影手段により撮影されたユーザーの身体の少なくとも一部における2以上の所定部位間の距離を、前記所定部位ごとの三次元座標に基づいて認識し、記憶部に記憶する処理と、
    前記記憶部に記憶された所定部位間の距離に応じて所定機能を実行する処理と、
    をコンピュータに実行させることを特徴とするプログラム。
JP2014137625A 2014-07-03 2014-07-03 ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム Pending JP2016015077A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014137625A JP2016015077A (ja) 2014-07-03 2014-07-03 ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014137625A JP2016015077A (ja) 2014-07-03 2014-07-03 ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2016015077A true JP2016015077A (ja) 2016-01-28

Family

ID=55231201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014137625A Pending JP2016015077A (ja) 2014-07-03 2014-07-03 ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2016015077A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173772A (ja) * 2011-02-17 2012-09-10 Panasonic Corp ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路
JP2014119295A (ja) * 2012-12-14 2014-06-30 Clarion Co Ltd 制御装置、及び携帯端末

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173772A (ja) * 2011-02-17 2012-09-10 Panasonic Corp ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路
JP2014119295A (ja) * 2012-12-14 2014-06-30 Clarion Co Ltd 制御装置、及び携帯端末

Similar Documents

Publication Publication Date Title
US11513608B2 (en) Apparatus, method and recording medium for controlling user interface using input image
US10021319B2 (en) Electronic device and method for controlling image display
KR102091028B1 (ko) 사용자 기기의 오브젝트 운용 방법 및 장치
KR102080183B1 (ko) 전자 장치 및 전자 장치에서 잠금 해제 방법
EP3525075B1 (en) Method for lighting up screen of double-screen terminal, and terminal
KR20140114913A (ko) 사용자 기기의 센서 운용 방법 및 장치
WO2015192763A1 (zh) 一种触摸屏控制方法及装置
CN104536684A (zh) 界面显示方法及装置
JP2015007949A (ja) 表示装置、表示制御方法及びコンピュータプログラム
WO2019062431A1 (zh) 拍摄方法及移动终端
US20190235687A1 (en) Electronic device and operating method therefor
WO2021115103A1 (zh) 显示控制方法和终端设备
CN109683802A (zh) 一种图标移动方法及终端
JP2013012158A (ja) 電子機器および制御方法
TW201544993A (zh) 手勢控制之方法、手勢控制模組及其具有手勢控制模組之穿戴式裝置
JP2014204169A (ja) 表示制御装置及びその制御方法
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
US9536526B2 (en) Electronic device with speaker identification, method and storage medium
JP2016015077A (ja) ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム
CN103809846A (zh) 一种功能调用方法及电子设备
KR101566113B1 (ko) 와치 타입의 이동 단말기 및 그 제어방법
JP2014135549A (ja) 携帯電子機器、その制御方法及びプログラム
JP6329373B2 (ja) 電子機器および電子機器を制御するためのプログラム
TW201621651A (zh) 滑鼠模擬系統及方法
JP2016143254A (ja) 電子機器、表示制御方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161122