JP2012027532A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2012027532A
JP2012027532A JP2010162774A JP2010162774A JP2012027532A JP 2012027532 A JP2012027532 A JP 2012027532A JP 2010162774 A JP2010162774 A JP 2010162774A JP 2010162774 A JP2010162774 A JP 2010162774A JP 2012027532 A JP2012027532 A JP 2012027532A
Authority
JP
Japan
Prior art keywords
contact position
region
unit
recognizing
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010162774A
Other languages
English (en)
Other versions
JP5812582B2 (ja
Inventor
Tsuneichi Arai
常一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010162774A priority Critical patent/JP5812582B2/ja
Publication of JP2012027532A publication Critical patent/JP2012027532A/ja
Application granted granted Critical
Publication of JP5812582B2 publication Critical patent/JP5812582B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 従来、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することができなかった。
【解決手段】 上記の課題を解決するため、本発明に係る情報処理装置は、表示面上の接触位置を検知する検知手段と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有する。
【選択図】 図3

Description

本発明は、空間ジェスチャを認識する領域を設定する技術に関する。
従来、動画像から抽出された人の顔の横幅、縦の長さまたは面積に基づいて、前記動画像の一部を、ジェスチャを認識する領域として設定する技術が知られている(例えば、特許文献1)。また、画面に接触することで、機器を操作するタッチパネルが知られている。
特開2003−216955号公報
しかしながら、従来技術によると、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することができなかった。従って、本発明は、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することを目的とする。
上記の課題を解決するため、本発明に係る情報処理装置は、表示面上の接触位置を検知する検知手段と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有する。
本発明によれば、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することができる。
情報処理装置100のハードウェア構成図と機能ブロック図 入力部140、距離画像センサ160等を設置した様子を示す図 空間ジェスチャに応じた制御を実行する処理の流れを示すフローチャート ステップS308において設定されるジェスチャ認識領域を示す図 ステップS307において設定されるジェスチャ認識領域を示す図 ステップS306において設定されるジェスチャ認識領域を示す図 種々の空間ジェスチャに対応する制御を示す図 接触位置にオブジェクトが存在しない場合のジェスチャ認識領域を示す図
(第1の実施形態)
図1(a)は、本発明に係る情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU101、ROM102、RAM103、入力インタフェース(I/F)104、出力I/F105、入力I/F106、出力I/F107、通信I/F108を有する。尚、上記の各部は、システムバス109を介して接続されている。また、情報処理装置100は、入力部140、表示部150、距離画像センサ160、表示部170、ネットワーク180と接続されている。以下、情報処理装置100の各部と情報処理装置100と接続されている各部について説明する。
CPU101は、ROM102に格納されたプログラム等をRAM103に展開し、読み出すことで、情報処理装置100の各種動作を実現する。ROM102は、情報処理装置100の各種動作させるプログラム、プログラムの実行に必要なデータ等を格納する。RAM103は、ROM102に格納されたプログラムを展開するワークエリアを提供する。入力I/F104は、入力部140に対するユーザの指示入力(接触位置)を示すデータを取得する。出力I/F105は、表示部150に表示させる画像を示すデータを送信する。入力I/F106は、距離画像センサ160によって生成された距離画像を示すデータを取得する。出力I/F107は、表示部170に表示させる画像を示すデータを送信する。通信I/F108は、ネットワーク180を介して他のコンピュータ等と接続し、種々のデータの送受信を行う。
入力部140は、例えば、表示部150に重畳して設けられたタッチパネル、デジタイザ等であり、表示面上の接触位置の座標を検知する。表示部150は、例えば、液晶ディスプレイ(LCD)であり、画像、文字等を表示出力する。距離画像センサ160は、赤外線等の反射によって、所定の三次元の領域内に存在するオブジェクトと、基準となる面(例えば、距離画像センサが測距する方向に対して垂直な面であって、距離画像センサが存在する面)との距離を示す距離画像を生成する。尚、距離画像とは、所定の三次元の領域内に存在するオブジェクトと、基準となる面との距離を画素値とする画像である。表示部170は、例えば、LCDであり、画像、文字等を表示出力する。尚、表示部150と表示部170とは互いに連携し、マルチディスプレイとして機能してもよい。
図1(b)は、情報処理装置100の機能構成を示す図である。情報処理装置100は、検知部111、設定部112、取得部113、認識部114、制御部115を有する。尚、検知部111は、入力I/F104に相当し、取得部113は、入力I/F106に相当する。また、設定部112、認識部114、制御部115は、CPU101が、ROM102に格納された所定のプログラム等をRAM103に展開し、読み出すことで実現される。以下、各部について説明する。
検知部111は、入力部140上の接触位置の座標を検知する。尚、検知部111は、1点、複数の点、軌跡等の座標を検知する。また、検知部111によって、複数の点の座標が検知される場合とは、例えば、最初の接触位置の座標が検知されてから所定の時間内に、他の接触位置の座標が検知される場合である。また、検知部111によって、複数の点の座標が検知される場合とは、例えば、最初の接触位置の座標が検知されてから空間ジェスチャを認識する処理が開始される前に、他の接触位置の座標が検知される場合である。
設定部112は、検知部111によって検知された座標に基づいて、空間ジェスチャを認識する領域(ジェスチャ認識領域)を設定する。尚、空間ジェスチャとは、距離画像センサ160の検知領域となる三次元の領域内で、水平方向に横切るように手を移動させる動作、手を交差する動作、鉛直方向に手を移動させる動作、水平方向および鉛直方向に手を移動させる動作等をいう。また、設定部112によって設定されるジェスチャ認識領域は、距離画像センサ160の検知領域となる三次元の領域の一部に相当するものとする。
取得部113は、距離画像センサ160によって生成された距離画像を示すデータを取得する。認識部114は、取得された距離画像からジェスチャ認識領域に相当する部分を特定し、当該部分における空間ジェスチャを認識する。尚、空間ジェスチャは、例えば、入力部140に対する接触が検知された時点から所定の時間内に得られた複数の距離画像の画素値の変化に基づいて認識される。制御部115は、認識部114によって認識された空間ジェスチャに対応する処理を実行し、例えば、表示部150、170に表示させる画像、文字等を変更する。
図2は、情報処理装置100、入力部140、表示部150、距離画像センサ160、表示部170を設置した様子を示す図である。情報処理装置100は、他の各部と接続されていればよく、任意の場所に設置可能である。入力部140および表示部150は重畳して設置されており、本実施形態においては、机上に設置されているものとする。距離画像センサ160は、例えば、天井面(入力部140、表示部150の上空)に設置されており、距離画像センサ160の検知領域となる三次元の領域とは、例えば、破線で示された略錐台状の空間(入力部140、表示部150の上部の空間)とする。表示部170は、側面(壁面)に設置されているものとする。
尚、本実施形態では、水平方向の面をX軸とY軸とによって定義されるXY平面、鉛直方向の軸をZ軸として説明する。また、本実施形態では、入力部140、表示部150の1つの頂点近傍の点であって、入力部140、表示部150と略同じ高さの点を、XYZ空間の原点として説明する。
図3は、認識された空間ジェスチャに応じた制御を実行する処理の流れを示すフローチャートである。
ステップS301において、検知部111は、入力部140に対する接触が検知されたか否か判断し、接触が検知された場合、ステップS302の処理を実行する。一方、接触が検知されなかった場合、ステップS301の処理を繰り返す。ステップS302において、検知部111は、接触位置を示す情報を取得し、設定部112に当該情報を出力する。尚、接触位置を示す情報とは、例えば、接触位置の座標を示す情報、接触位置の移動軌跡の形状、軌跡の移動方向、軌跡の移動距離を示す情報、接触した点の個数を示す情報、接触位置に表示されているオブジェクトを示す情報、検知された接触の継続時間等である。
ステップS303において、設定部112は、接触位置を示す情報に基づいて、接触位置に表示されているオブジェクトが存在するか否か判断し、存在すると判断された場合、ステップS304の処理を実行する。一方、存在すると判断されなかった場合、一連の処理を終了する。尚、接触位置に表示されているオブジェクトが存在すると判断されなかった場合、距離画像センサ160の検知領域となる三次元の領域の全域をジェスチャ認識領域としてもよい。また、接触位置の移動軌跡の形状に基づいて、ジェスチャ認識領域を予測してもよい。
ステップS304において、設定部112は、接触の検知が所定時間(例えば、1秒間)継続しているか否か判断し、所定時間継続していると判断された場合、ステップS306の処理を実行する。一方、所定時間継続していると判断されなかった場合、ステップS305の処理を実行する。ステップS305において、設定部112は、ステップS301における検知を起点とする接触の検知終了後、所定時間内に再び接触が検知されたか否か判断し、所定時間内に再び接触が検知されたと判断された場合、ステップS307の処理を実行する。一方、所定時間内に再び接触が検知されなかった場合、ステップS308の処理を実行する。尚、ステップS304において、更に、接触位置の移動があるか否かを、接触が継続している状態で接触位置が所定の閾値以上移動したか否かによって判断してもよい。即ち、接触が継続している状態で接触位置(座標点)が所定の閾値以上移動しなかった場合(座標点の移動量が閾値以上でなかった場合)、接触位置の移動はないと判断される。
ステップS306において、設定部112は、1つの接触位置の座標と、接触位置の移動軌跡の距離、移動方向に基づいて、ジェスチャ認識領域を設定する。尚、ステップS306において、更に、接触位置の移動軌跡の移動速度、加速度に基づいて、ジェスチャ認識領域を設定してもよい。尚、移動軌跡とは、接触位置が時系列的に移動した際の接触位置の集合をいう。ステップS307において、設定部112は、複数個の接触位置の座標に基づいて、ジェスチャ認識領域を設定する。ステップS308において、設定部112は、1つの接触位置の座標に基づいて、ジェスチャ認識領域を設定する。尚、ステップS306、S307、S308において設定されるジェスチャ認識領域の説明については後述する。
ステップS309において、認識部114は、取得部113によって取得された距離画像のうち、ステップS306、307、308のいずれかによって設定されたジェスチャ認識領域に対応する部分における空間ジェスチャを認識する。ステップS310において、制御部115は、認識された空間ジェスチャに対応する制御を実行する。尚、認識される空間ジェスチャの種類については後述する。以上が認識された空間ジェスチャに応じた制御を実行する処理の流れである。
尚、以下に示す変形例も本発明の範疇である。即ち、前述したステップS304、S305に替えて、設定部112は、接触位置の移動軌跡の形状が線の形状(連続的な複数の点)に相当するか、離散的な複数の点の形状に相当するか、1つの点の形状に相当するか判断する。そして、接触位置の移動軌跡の形状が線の形状に相当すると判断された場合、ステップS306の処理を実行する。また、形状が離散的な複数の点に相当すると判断された場合、ステップS307の処理を実行する。また、形状が1つの点に相当すると判断された場合、ステップS308の処理を実行する。尚、接触位置の形状は、例えば、ROM102に予め登録された形状を示す特徴情報と検知された接触位置の移動軌跡(1または複数の座標点)とを比較することによって判断する。
次に、図4、5、6を用いて、ステップS308、S307、S306において設定されるジェスチャ認識領域を説明する。図4、5、6の(a)は、距離画像センサ160の検知領域となる三次元の領域を鉛直下向きに見たときの図である。また、図4、5、6の(b)は、距離画像センサ160の検知領域となる三次元の領域を水平方向に見たときの図である。
図4において、入力部140と接触している点は1つであり、接触位置にはオブジェクトが表示されている。従って、接触位置の上方であって、該接触位置を基準とする所定の領域(図4の破線部の領域)をジェスチャ認識領域とする。尚、ジェスチャ認識領域の縦、横、高さは、一般的な人の腕の長さを基準に決定してもよく、表示されているオブジェクトのサイズに応じて決定してもよい。
図5において、入力部140と接触している点は3つであり、それぞれの接触位置にはオブジェクトA、B、Cが表示されている。従って、3つの接触位置の上方であって、これら3つの接触位置の全てを含む領域(図5の破線部の領域)をジェスチャ認識領域とする。尚、図5の入力例の3つの点は、短時間に連続して3点が入力された例である。その場合、処理としては、短時間の接触入力データは、1つのデータ群として取り扱う処理を行う。即ち、接触の検知が終了した時点からカウントを行い、短時間で次の入力があればそのまま1つのデータ群として処理し、所定の短時間が経過した場合には、その時点で、接触入力データの入力待ち処理は終了する。
図6において、入力部140と接触している点は1つであり、接触位置にはオブジェクトAが表示されている。そして、接触位置は移動している。従って、接触位置の上方であって、該接触位置を基準とする所定の領域(図4の破線部の領域)を接触位置の移動軌跡の延長上に移動させた領域(図6の破線部の領域)をジェスチャ認識領域とする。
また、ステップS306において、接触位置の移動軌跡の移動速度、加速度に基づいて、ジェスチャ認識領域を設定する場合、移動速度、加速度が大きくなる程、ジェスチャ認識領域を広く設定してもよい。このようにすることによって、細かいタッチ操作を行った場合、細かい動きを伴う空間ジェスチャを精度良く認識することができ、ダイナミックなタッチ操作を行った場合には、大きな動きを伴う空間ジェスチャを精度良く認識することができる。
図7は、ジェスチャ認識領域において認識された種々の空間ジェスチャに対応する制御を示すテーブルの一例である。尚、接触位置にオブジェクトが表示されている場合、接触した点の個数、接触位置の移動の有無に応じても、実行する制御が異なる。また、図7に示すテーブルに相当するデータは、例えば、ROM102に格納されている。
図8は、ステップS303において、接触位置に表示されているオブジェクトが存在すると判断されなかった場合の処理の別の一例を示す図である。図8(a)は、距離画像センサ160の検知領域となる三次元の領域を鉛直下向きに見たときの図である。また、図8(b)は、距離画像センサ160の検知領域となる三次元の領域を水平方向に見たときの図である。
図8において、入力部140と接触している点は1つであり、接触位置にはオブジェクトAが表示されていない。そして、接触位置は移動している。そこで、接触位置の移動軌跡の形状に基づく領域として、例えば移動軌跡に外接する矩形(図8の破線部の領域)をジェスチャ認識領域とする。
本実施形態では、1人のユーザによる操作を説明したが、2人以上のユーザが同時に操作する場合も考えられる。例えば、入力部140、表示部150に相当する画面が、50インチや100インチ等の大きさの画面であれば、同時に2人のユーザが入力操作することは可能である。その場合に、画面上の離れた点(例えば1mから2m)で同時に入力が検知されると、複数のユーザが入力しているものとして取り扱ってもよい。即ち、それぞれ、ユーザAによる入力、ユーザBによる入力として、入力毎に上述した一連の処理を実行してもよい。また、画面上の離れた複数点への入力が検知された場合、互いのジェスチャ認識領域が排他的に位置するよう、それぞれの入力位置に応じて離れた領域をジェスチャ認識領域に設定してもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (5)

  1. 表示面上の接触位置を検知する検知手段と、
    検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有する情報処理装置。
  2. 前記検知手段は、更に、前記接触位置の移動軌跡の形状を検知し、
    前記設定手段は、前記移動軌跡の形状から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記検知手段は、更に、前記接触位置の移動軌跡の距離、移動方向、または移動速度を検知し、
    前記設定手段は、前記移動軌跡の距離、移動方向または移動速度から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする請求項1に記載の情報処理装置。
  4. 空間ジェスチャを認識する領域を設定する情報処理装置の動作方法であって、
    表示面上の接触位置を検知する検知工程と、
    検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定工程とを有する動作方法。
  5. 請求項4に記載の動作方法をコンピュータに実行させるためのプログラム。
JP2010162774A 2010-07-20 2010-07-20 情報処理装置および情報処理方法 Active JP5812582B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010162774A JP5812582B2 (ja) 2010-07-20 2010-07-20 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010162774A JP5812582B2 (ja) 2010-07-20 2010-07-20 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2012027532A true JP2012027532A (ja) 2012-02-09
JP5812582B2 JP5812582B2 (ja) 2015-11-17

Family

ID=45780418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010162774A Active JP5812582B2 (ja) 2010-07-20 2010-07-20 情報処理装置および情報処理方法

Country Status (1)

Country Link
JP (1) JP5812582B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235698A (ja) * 2013-06-05 2014-12-15 キヤノン株式会社 情報処理装置及びその制御方法
JP2015505393A (ja) * 2011-12-09 2015-02-19 マイクロチップ テクノロジー ジャーマニー ツー ゲーエ 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス
JP2017097608A (ja) * 2015-11-24 2017-06-01 矢崎総業株式会社 画像認識装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001005599A (ja) * 1999-06-22 2001-01-12 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理プログラムを記録した記録媒体
JP2003216955A (ja) * 2002-01-23 2003-07-31 Sharp Corp ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体
JP2003330697A (ja) * 2002-05-14 2003-11-21 Takenaka Komuten Co Ltd 情報表示装置
JP2008287142A (ja) * 2007-05-21 2008-11-27 Brother Ind Ltd 画像投影装置
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
US20100107099A1 (en) * 2008-10-27 2010-04-29 Verizon Data Services, Llc Proximity interface apparatuses, systems, and methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001005599A (ja) * 1999-06-22 2001-01-12 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理プログラムを記録した記録媒体
JP2003216955A (ja) * 2002-01-23 2003-07-31 Sharp Corp ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体
JP2003330697A (ja) * 2002-05-14 2003-11-21 Takenaka Komuten Co Ltd 情報表示装置
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP2008287142A (ja) * 2007-05-21 2008-11-27 Brother Ind Ltd 画像投影装置
US20100107099A1 (en) * 2008-10-27 2010-04-29 Verizon Data Services, Llc Proximity interface apparatuses, systems, and methods

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015505393A (ja) * 2011-12-09 2015-02-19 マイクロチップ テクノロジー ジャーマニー ツー ゲーエ 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス
JP2014235698A (ja) * 2013-06-05 2014-12-15 キヤノン株式会社 情報処理装置及びその制御方法
JP2017097608A (ja) * 2015-11-24 2017-06-01 矢崎総業株式会社 画像認識装置

Also Published As

Publication number Publication date
JP5812582B2 (ja) 2015-11-17

Similar Documents

Publication Publication Date Title
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US9092090B2 (en) Structured light for touch or gesture detection
JP5716502B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US10073493B2 (en) Device and method for controlling a display panel
EP3413163A1 (en) Method for processing data collected by touch panel, and terminal device
KR20080041809A (ko) 휴대용 단말기에서 디스플레이 제어 방법 및 장치
US20120056837A1 (en) Motion control touch screen method and apparatus
US20110080430A1 (en) Information Processing Apparatus, Information Processing Method, and Information Processing Program
EP2365426B1 (en) Display device and screen display method
US9377943B2 (en) Method and apparatus for outputting display data based on a touch operation on a touch panel
US9632690B2 (en) Method for operating user interface and electronic device thereof
JP2012221073A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
EP3267303A1 (en) Multi-touch display panel and method of controlling the same
US20120218308A1 (en) Electronic apparatus with touch screen and display control method thereof
JP2014182638A (ja) 表示制御装置、表示制御方法、コンピュータプログラム
JP2010218286A (ja) 情報処理装置およびプログラムおよび表示方法
US9823890B1 (en) Modifiable bezel for media device
JP5812582B2 (ja) 情報処理装置および情報処理方法
US10318047B2 (en) User interface for electronic device, input processing method, and electronic device
EP2876540B1 (en) Information processing device
US9348443B2 (en) Information processing apparatus, method of controlling the same, program and storage medium
CN102650926B (zh) 具触控式屏幕的电子装置及其显示控制方法
US20140282226A1 (en) Electronic Apparatus, Display Control Method and Storage Medium
JP2007048206A (ja) タッチパネルのインテリジェントタイプ移動の制御方法
JP2017228216A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150915

R151 Written notification of patent or utility model registration

Ref document number: 5812582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151