JPWO2012111230A1 - 情報処理端末およびその制御方法 - Google Patents

情報処理端末およびその制御方法 Download PDF

Info

Publication number
JPWO2012111230A1
JPWO2012111230A1 JP2012557795A JP2012557795A JPWO2012111230A1 JP WO2012111230 A1 JPWO2012111230 A1 JP WO2012111230A1 JP 2012557795 A JP2012557795 A JP 2012557795A JP 2012557795 A JP2012557795 A JP 2012557795A JP WO2012111230 A1 JPWO2012111230 A1 JP WO2012111230A1
Authority
JP
Japan
Prior art keywords
detection
display
contact
information
detection information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012557795A
Other languages
English (en)
Other versions
JP5846129B2 (ja
Inventor
是一 嶋
是一 嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2012557795A priority Critical patent/JP5846129B2/ja
Publication of JPWO2012111230A1 publication Critical patent/JPWO2012111230A1/ja
Application granted granted Critical
Publication of JP5846129B2 publication Critical patent/JP5846129B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本発明は、複数のタッチパネルディスプレイの間隙付近における操作性を向上した情報処理端末を提供するもので、情報処理端末は、第1の表示兼検知部と、第2の表示兼検知部と、検知部と、処理部とを有している。第1の表示兼検知部は、表示と接触検知の両方を行い、接触物の接触を検知すると第1の検知情報を出力する。第2の表示兼検知部は、表示と接触検知の両方を行い、接触物の接触を検知すると第2の検知情報を出力する。検知部は、第1の表示兼検知部と第2の表示兼検知部の間隙に配置され、接触検知を行い、接触物の接触を検知すると第3の検知情報を出力する。処理部は、第1の検知情報、第2の検知情報、および第3の検知情報のうち1つまたは複数または全ての検知情報に基づく処理を実行する。

Description

本発明は、複数のタッチパネルディスプレイを備えた情報処理端末に関する。
近年の携帯電話端末、スマートフォン、タブレット型端末、パーソナルコンピュータなどの情報処理端末ではタッチパネルディスプレイを備えたものが増えている。また、この種の情報処理端末の中には、2つ以上のタッチパネルディスプレイを備え、仮想的に大画面として利用するものもある(特許文献1参照)。
特に携帯電話端末やスマートフォンなどのモバイルデバイスの場合は持ち歩きのできるサイズにすることが求められるので、折り畳み可能に連結した複数の筐体のそれぞれにタッチパネルディスプレイを配置することで大画面と装置の小型化を両立させるのが有効である。取り外し可能に接続された複数の筐体のそれぞれにタッチパネルディスプレイを配置することでも大画面と装置の小型化を両立できる。
また、スマートフォンの普及に伴い、様々な利用シーンでタッチパネルディスプレイを操作する場面が増えている。特に寒冷地などではスマートフォンのユーザも手袋を着用しているケースが想定される。また、スマートフォンの用途が広がれば、ユーザが作業用の手袋を着用しているケースも想定される。そのため手袋をしたままタッチパネルディスプレイに対する操作ができることが要求される。
これについては静電容量タッチパネルには高感度モードを有するものがある。高感度モードの静電容量タッチパネルは、直接タッチパネル面に指が接触しなくても、指が近接しただけで、操作を検知することができる。このような高感度モードの静電容量タッチパネルを利用することで、手袋をしたままでのタッチパネルディスプレイへの操作が可能になる。
また、高感度の静電容量タッチパネルには、指がタッチパネル面に接触したのか、近接したのかを区別することができるものがある。これを利用することで、単純に接触だけを検知するタッチパネルディスプレイを用いたものよりも多様な操作が可能な情報処理端末も実現できる。
特開2010−176332号公報
複数のタッチパネルディスプレイを備えた情報処理端末には、ヒンジ部のような筐体間の連結部にタッチパネルディスプレイの間隙ができる。そのため、2つのタッチパネルディスプレイの間隙付近へのタッチ操作では、2つのディスプレイへの同時タッチ操作なのか、2つのディスプレイの中間へのシングルタッチ操作なのかを識別することが困難となる場合がある。
また、2つのタッチパネルディスプレイを仮想的に1つの大画面として使用する場合、2つのタッチパネルディスプレイをわたるように指をスライドさせると、タッチしている状態が間隙で途切れる場合がある。そのためソフトウェア処理におけるイベントが途切れ、大画面上で大きく指をスライドさせる1回の操作なのか、2つのタッチパネルディスプレイそれぞれにタッチする2回の操作なのかを識別することが困難となる。
2つのタッチパネルディスプレイの間隙付近において特別な処理を行うものとして特許文献1に記載された技術がある。特許文献1に記載された技術によれば、ユーザが指をスライドしてタッチパネルディスプレイの縁付近にオブジェクトを移動させると、オブジェクトの重心位置に基づいて、オブジェクトをどちらかのタッチパネルディスプレイに移動させる。これによれば、オブジェクトを1つのタッチパネルディスプレイから他のタッチパネルディスプレイに移動させることができる。
しかし、特許文献1の技術は、重心位置によってオブジェクトを自動的に移動させてしまうものなので、オブジェクトを1つのタッチパネルディスプレイから他のタッチパネルディスプレイに移動させるには良いが、2つのタッチパネルディスプレイにわたる連続的なスライド操作には不向きである。そのため、移動先のタッチパネルディスプレイ内でオブジェクトを更に移動させる場合、移動先のタッチパネルディスプレイにあらためてタッチしなおし、スライドしなければならないという不都合がある。
また、高感度の静電容量式タッチパネルでは指が近接したときの検出面積が広いので、複数のタッチパネルディスプレイを高感度の静電容量式で構成した場合にディスプレイ間隙付近に指があると、双方のタッチパネルディスプレイでポインティングが検出され、2つのイベントが発生する。また、大きな指で2つのタッチパネルディスプレイの間隙付近にシングルタッチ操作するとき、指が2つのタッチパネルディスプレイに同時に触れ、2つのイベントが発生する。このように、シングルタッチの操作なのか、マルチタッチの操作なのか、更には、接触なのか、近接なのかを正確に識別することは困難である。そのため、ユーザの意図した操作を正しく認識しづらいという問題がある。
以上の例のように、複数のタッチパネルディスプレイを有する情報処理端末では、タッチパネルディスプレイの間隙付近では、直感的な操作からユーザの意図を正しく認識して処理に反映させることが困難である。
本発明の目的は、複数のタッチパネルディスプレイの間隙付近における操作性を向上した情報処理端末を提供することである。
上記目的を達成するために、本発明の情報処理端末は、
第1の表示検知面で表示と接触検知の両方を行い、該第1の表示検知面への接触物の接触を検知すると第1の検知情報を出力する第1の表示兼検知部と、
第2の表示検知面で表示と接触検知の両方を行い、該第2の表示検知面への接触物の接触を検知すると第2の検知情報を出力する第2の表示兼検知部と、
前記第1の表示兼検知部の前記第1の表示検知面と前記第2の表示兼検知部の前記第2の表示検知面の間隙に配置され、接触検知を行い、接触物の接触を検知すると第3の検知情報を出力する検知部と、
前記第1の検知情報、前記第2の検知情報、および前記第3の検知情報のうち1つまたは複数または全ての検知情報に基づく処理を実行する処理部と、
を有している。
本発明の制御方法は、表示検知面での表示と接触検知の両方を行い、該表示検知面への接触を検知する第1および第2の表示兼検知部と、前記第1の表示兼検知部の第1の表示検知面と前記第2の表示兼検知部の第2の表示検知面の間隙に配置され、接触検知を行う検知部と、を有する情報処理端末の制御方法であって、
前記第1の表示兼検知部が接触を検知すると第1の検知情報を出力し、
前記第2の表示兼検知部が接触を検知すると第2の検知情報を出力し、
前記検知部が接触を検知すると第3の検知情報を出力し、
前記第1の検知情報、前記第2の検知情報、および前記第3の検知情報のうち1つまたは複数または全ての検知情報に基づく処理を実行するというものである。
本発明によれば、表示兼検知部の間隙付近における操作性を向上することができる。
本実施形態による情報処理端末の正面図である。 本実施形態による情報処理端末の機能的な構成を示すブロック図である。 第1の実施例による情報処理端末10の構成を示すブロック図である。 第1の実施例による情報処理端末の外観を示す斜視図である。 第1の実施例による情報処理端末の動作の一例を示すフローチャートである。 第2の実施例において、2つのタッチパネルディスプレイにまたがるような軌跡を描く操作が行われている様子を示す図である。 第2の実施例による情報処理端末の動作の一例を示すフローチャートである。 第3の実施例による情報処理端末の動作の一例を示すフローチャートである。 第4の実施例による情報処理端末の正面図である。 第4の実施例による情報処理端末の動作の一例を示すフローチャートである。
本発明の実施形態について図面を参照して詳細に説明する。
図1は、本実施形態による情報処理端末の正面図である。情報処理端末10は、2つの筐体14、15が、例えばヒンジ機構の連結部16によって、開閉可能に連結された構造である。図1には、開いた状態の情報処理端末10が示されている。
筐体14に表示兼検知部11が搭載され、筐体15に表示兼検知部12が搭載されている。表示兼検知部11、12は、表示と検知の両方を行うための表示検知面に画像を表示する機能と、その表示検知面への指などの接触物による接触を検知する機能とを有するタッチパネルディスプレイである。
表示兼検知部11の表示検知面と表示兼検知部12の表示検知面の間隙に位置する連結部16には検知部13が搭載されている。検知部13は、接触物の検知する機能を有しているが、表示兼検知部11、12とは異なり、表示機能を有しないタッチパネルである。
図2は、本実施形態による情報処理端末の機能的な構成を示すブロック図である。図2を参照すると、情報処理端末10は、表示兼検知部11、12、検知部13、および処理部17を有している。処理部17は、例えば、プロセッサがソフトウェアプログラムを実行することで実現される処理部であり、表示兼検知部11、12および検知部13からの検知情報に基づいて、表示兼検知部11、12への描画を含む各種処理を実行する。
本実施形態では、表示兼検知部11は、表示と接触検知の両方を行い、指などの接触物の接触を検知すると第1の検知情報を出力する。同様に、表示兼検知部12は、表示と接触検知の両方を行い、接触物の接触を検知すると第2の検知情報を出力する。
検知部13は、表示兼検知部11と表示兼検知部12の間隙にある連結部16に配置され、接触検知を行い、接触物の接触を検知すると第3の検知情報を出力する。
第1〜3の検知情報は処理部17に入力される。処理部17は、第1の検知情報、第2の検知情報、および第3の検知情報のうち1つまたは複数または全ての検知情報に基づいて各種処理を実行する。検知部13での検知の状況により、処理部17は、第1〜3の検知情報のうち、1つの検知情報に基づいて処理を実行する場合と、2つの検知情報に基づいて処理を実行する場合と、3つの検知情報に基づいて処理を実行する場合とがある。
その際、処理部17は、第1および第2の検知情報と、第3の検知情報との関係に基づいて、一か所へのタッチによる操作であるシングルタッチ操作か、表示兼検知部11と表示兼検知部12へのそれぞれのタッチによる操作であるマルチタッチ操作かを判断する。シングルタッチ操作は例えば1本の指でタップ、フリック、スライドを行う操作である。マルチタッチ操作は例えば複数の指でタップ、フリック、スライドを行う操作である。
以上、本実施形態によれば、表示兼検知部11、12の間隙付近における操作性を向上することができる。
また、一例として、表示兼検知部11、12が検知情報として接触座標を出力し、検知部13が検知情報として接触を検知した旨を出力するものであってもよい。
その場合、処理部17は、第1の検知情報と第2の検知情報と第3の検知情報が同時に入力されると、第1の検知情報が示す接触座標と第2の検知情報が示す接触座標の中点へのシングルタッチ操作が行われたと認識するとよい。
また、処理部17は、接触座標が軌跡を描く第1の検知情報が入力され、それに続いて、接触座標が軌跡を描く第2の検知情報が入力されたとき、第1の検知情報と第2の検知情報の間に第3の検知情報が入力されていたら、第1の検知情報の軌跡と第2の検知情報の軌跡を連結し、連結した軌跡に基づく処理を実行するとよい。
表示兼検知部11、12における検知部には各種のタッチパネルを採用することができる。例えば静電容量式や圧力式のタッチセンサーなどが採用できる。また、指が接触したのか、近接したのかを区別できるような高感度モードを備えた静電容量式のタッチセンサーも採用できる。例えば、指の近接による操作を検知した場合にユーザが手袋をしていると判断し、タッチ操作の検出論理やオブジェクト等の画面表示の大きさといった動作モードを自動的に変更する等の利用が考えられる。また、検知部13にも各種のタッチパネルやセンサーを採用することができる。また、指が接触したのか、近接したのかを区別できるような高感度モードを備えた静電容量式のタッチセンサーも採用できる。また、例えば静電容量式や圧力式のタッチパネルの他、座標を検知する必要が無く、接触の有無だけを検知できればよいのであれば、金属式の接触センサーであってもよい。
例えば、表示兼検知部11、12は、接触と近接を区別することが可能な第1、第2の検知情報を出力し、検知部13は、接触と近接を区別することが可能な第3の検知情報を出力することにしてもよい。その場合、処理部17は、近接を示す第1の検知情報と、近接を示す第2の検知情報と、近接を示す第3の検知情報とが同時に入力されたときには近接と判定するとよい。また、処理部17は、近接を示す第1の検知情報と、近接を示す第2の検知情報と、接触を示す第3の検知情報とが同時に入力されたときには接触と判定するとよい。
また、検知部13は必ずしも独立して存在する構成でなくてもよく、表示兼検知部11、12のいずれか一方あるいは両方と一体的に構成されていてもよい。典型的には、表示兼検知部11、12が液晶等によって画像を表示する表示ディスプレイ上に、透明タッチパネルを重ねた構造が想定される。その場合、透明タッチパネルを表示ディスプレイの表示面よりも大きいサイズとし、その透明タッチパネルにおける表示パネルの領域外の部分を検知部13とすることにしてもよい。これによれば、情報処理端末10は、表示兼検知部11、12の他に別途、検知部13を備えなくても、表示兼検知部11、12の間隙付近における操作性を向上することができる。
なお、本実施形態では、ヒンジ機構のような2つの筐体14、15を連結する連結部16に検知部13を設ける例を示したが、本発明がこれに限定されるものではない。検知部13を設けるのは、2つの表示兼検知部11、12の間隙であればよく、必ずしもそれが連結部である必要はない。他の例として、重なり合った2つの筐体をスライドして、2つの表示面を並べた使用態様にするスライド型の情報処理端末にも本発明を同様に適用できる。また、表示面に垂直で筐体の角付近の回転軸で、2つの筐体14、15が互いに回転するような接続機構を備えた情報処理端末では、2つの表示面を並べた使用態様において、2つの表示兼検知部11、12の間隙には連結部ではない。その場合、検知部13は連結部ではなく、間隙部に備えるのがよい。
以下、より具体的な実施例について説明する。
(第1の実施例)
図3は、第1の実施例による情報処理端末10の構成を示すブロック図である。第1の実施例による情報処理端末は、入力装置であるタッチパネル21、22と、出力装置であるディスプレイ26、27と、ディスプレイ26、27およびタッチパネル21、22を制御するタッチパネルディスプレイ制御部28、29と、タッチパネル21、22の間隙に配置された接触センサー23と、接触センサーを制御する接触センサー制御部30と、各種情報を記憶するメモリー31と、ソフトウェアプログラムを実行して各種処理を行う処理部32とを含む。ディスプレイ26は、タッチパネル21と物理的に重ねられている。同じくディスプレイ27も、タッチパネル22と物理的に重なられている。ディスプレイ26とタッチパネル21は筐体24に搭載され、ディスプレイ27とタッチパネル22は筐体25に搭載されている。
図4は、第1の実施例による情報処理端末の外観を示す斜視図である。筐体24と筐体25はヒンジ部33で連結されており、ヒンジ部33を軸として、図4(A)のように筐体24、25を閉じたり、図4(B)のように筐体24、25を開いたりできる。開いた状態では筐体24にはタッチパネル21が現れ、筐体25にはタッチパネル22が現れる。そして、双方のタッチパネル21、22の間に接触センサー23が配されている。この接触センサー23は指等の接触物の接触を検出する。
図3において、タッチパネル21、22は接触物の接触を検知し、その際、更にタッチパネル21、22上の接触位置を検知し、信号を出力する。タッチパネルディスプレイ制御部28、29は、タッチパネル21、22からの信号を処理用に変換して処理部32に送る。
また、接触センサー23は、接触物が接触したことを検知し、信号を出力する。接触センサー制御部30は、接触センサー23からの信号を処理用に変換して処理部32に送る。
処理部32は、メモリー31に記憶されたプログラムやデータ等に基づく処理を実行する処理部であり、タッチパネルディスプレイ28、29、接触センサー制御部30からの信号により入力された情報を用いて処理を実行する。処理部32は、処理を実行した結果、例えば、指によるタッチ操作への応答として、ディスプレイ26、27にオブジェクト、画像、メッセージテキストなどを表示する。
図5は、第1の実施例による情報処理端末の動作の一例を示すフローチャートである。
処理部32は、まずタッチパネル21から接触座標の情報が入力されたか否か判定する(ステップ101)。タッチパネル21の接触座標の情報が入力されていれば、処理部32は、次に、タッチパネル22から接触座標の情報が入力されたか否か判定する(ステップ102)。タッチパネル22の接触座標の情報が入力されていなければ、処理部32は、タッチパネル21へのシングルタッチであると判定し(ステップ103)、処理を実行する(ステップ104)。
ステップ102にて、タッチパネル22の接触座標の情報が入力されていれば、処理部32は、次に、接触センサー23への接触があることを示す情報が入力されたか否か判定する(ステップ105)。接触センサー23から接触があることを示す情報が入力されていれば、処理部32は、タッチパネル21とタッチパネル22の中間へのシングルタッチであると判定し(ステップ106)、処理を実行する(ステップ104)。
ステップ105にて、接触センサー23への接触があることを示す情報が入力されていなければ、処理部32は、タッチパネル21とタッチパネル22へタッチするマルチタッチであると判定し(ステップ107)、処理を実行する(ステップ104)。
ステップ101にて、タッチパネル21の接触座標の情報が入力されていなければ、処理部32は、次に、タッチパネル22から接触座標の情報が入力されたか否か判定する(ステップ108)。タッチパネル22の接触座標の情報が入力されていれば、処理部32は、タッチパネル22へのシングルタッチであると判定し(ステップ109)、処理を実行する(ステップ104)。タッチパネル22の接触座標の情報が入力されていなければ、処理部32は、タッチ操作が行われていないと判定し(ステップ110)、処理を実行しない。
本実施例によれば、タッチパネル21とタッチパネル22の間に配置した接触センサー23を用いることにより、接触物が大きい場合やタッチパネル21、22が高感度である場合のように1つの接触物による接触(シングルタッチ)がタッチパネル21とタッチパネル22にまたがっているのか、タッチパネル21とタッチパネル22のそれぞれに接触物の接触(マルチタッチ)が起こっているのかを識別することができる。
(第2の実施例)
第2の実施例では指等の接触物で2つのタッチパネルにまたがるような軌跡を描く操作を可能にしている。
第2の実施例による情報処理端末の基本的な構成は、図3、4に示した第1の実施例によるものと同じである。図6は、第2の実施例において、2つのタッチパネルディスプレイにまたがるような軌跡を描く操作が行われている様子を示す図である。図7は、第2の実施例による情報処理端末の動作の一例を示すフローチャートである。
2つのディスプレイ26、27を1つの大画面として用いる場合、タッチパネル21とタッチパネル22にわたる軌跡を描く操作が行われることがある。ここでは、図6のように、タッチパネル21からタッチパネル22へ指をスライドさせて、2つのタッチパネル21、22に時間的に連続してまたがる軌跡を描く操作を想定する。例えば、その操作により、ディスプレイ26上に表示されたオブジェクトを軌跡の開始点で選択し、ディスプレイ26からディスプレイ27へ移動させたあと、軌跡の終了点で移動を完了とする。その他にも、左右に画面をスクロールするジェスチャー命令を行う操作として、タッチパネル21とタッチパネル22にわたる軌跡を描く操作を利用できる。
図7を参照すると、1つのタッチパネル(ここではタッチパネル21)上に軌跡を描く操作がされたとき、処理部32は、タッチパネル21上に軌跡が描かれた後に接触センサー23への接触物の接触があったか否か判定する(ステップ201)。
接触物による接触センサー23への接触があった場合、処理部32は、次の軌跡の始点が他方のタッチパネル(ここではタッチパネル22)に存在するか否か判定する(ステップ202)。タッチパネル22に次の軌跡の始点があれば、処理部32は、双方のタッチパネル21、22の軌跡を連結し(ステップ203)、処理を実行する(ステップ204)。
ステップ201にて接触センサー23への接触が無かった場合と、ステップ202にて、次の軌跡が他方のタッチパネルに存在しなかった場合には、片側のタッチパネル内でのフリックあるいはスライドの操作であると判断し(ステップ205)、処理を実行する(ステップ204)。
本実施形態によれば、情報処理端末10はフリック動作などの軌跡がタッチパネル21、22をまたがる軌跡か、それぞれのタッチパネル21、22上の別々の軌跡かを正しく認識し、処理を行うことができる。
(第3の実施例)
第3の実施例では、2つのタッチパネルに高感度のものが用いられている。高感度のタッチパネルは、接触物が接触したことと、接触物が近接したことを区別し検出し、その接触あるいは近接した座標の情報を出力することができる。近接というのは指等が接触してはいないが、所定以内に近づいていることである。
第3の実施例による情報処理端末の基本的な構成は、図3、4に示した第1の実施例によるものと同じである。
図8は、第3の実施例による情報処理端末の動作の一例を示すフローチャートである。
処理部32は、まずタッチパネル21から接触あるいは近接した座標の情報が入力されたか否か判定する(ステップ301)。タッチパネル21の接触あるいは近接の座標の情報が入力されていれば、処理部32は、次に、タッチパネル22から近接の座標の情報が入力されたか否か判定する(ステップ302)。
タッチパネル22の近接座標の情報が入力されていれば、処理部32は、次に、接触センサー23から接触がある旨の情報が入力されたか否か判定する(ステップ303)。接触センサー23への接触がある旨の情報が入力されていれば、処理部32は、タッチパネル21とタッチパネル22の中間へのシングルタッチであると判定し(ステップ304)、処理を実行する(ステップ305)。
ステップ303にて、接触センサー23への接触がある旨の情報が入力されていなければ、処理部32は、ステップ301の判定結果に依存して、タッチパネル21へのシングルタッチの接触あるいは近接と判定し(ステップ306あるいはステップ307)、処理を実行する(ステップ305)。
ステップ302にて、タッチパネル22の近接座標の情報が入力されていなければ、処理部32は、次に、接触センサー23から接触がある旨の情報が入力されたか否か判定する(ステップ308)。接触センサー23への接触がある旨の情報が入力されていなければ、処理部32は、ステップ301での判定結果に依存して、タッチパネル21へのシングルタッチの接触あるいは近接と判定し(ステップ306あるいはステップ307)、処理を実行する(ステップ305)。ステップ308にて接触センサー23への接触がある旨の情報が入力されていれば、処理部32は、タッチパネル21へのシングルタッチの接触と判定し(ステップ306)、処理を実行する(ステップ305)。
ステップ301にて、タッチパネル21の接触の座標の情報も近接の座標の情報も入力されていれば、処理部32は、次に、タッチパネル22から近接の座標の情報が入力されたか否か判定する(ステップ309)。タッチパネル22の近接の座標の情報が入力されていれば、処理部32は、更に、接触センサー23への接触がある旨の情報が入力されているか否か判定する(ステップ310)。
接触センサー23への接触がある旨の情報が入力されていれば、処理部32は、タッチパネル22へのシングルタッチの接触と判定し(ステップ311)、処理を実行する(ステップ305)。接触センサー23への接触がある旨の情報が入力されていなければ、処理部32は、タッチパネル22への近接と判定する(ステップ307)。
ステップ309にてタッチパネル22の近接の座標の情報が入力されていなければ、処理部32は、タッチ操作が行われていないと判定し(ステップ312)、処理を実行しない。
本実施形態によれば、情報処理端末は、接触物がタッチパネル21、22のいずれにも接触していないが、接触センサー23だけに接触している場合にも接触と判断して処理を実行することができるので、タッチパネル21、22の間隙でのタッチ操作を正しく認識することができる。
(第4の実施例)
図9は、第4の実施例による情報処理端末の正面図である。第4の実施例では、タッチパネル21、22と、接触センサー23に相当する部分とが一体的に構成されている。
液晶等のディスプレイ装置には厚みがあり、また外周枠があるので、機構によって筐体24と筐体25を近接させたとしても、ディスプレイ26とディスプレイ27の表示領域を互いに近接させることは困難である。しかし、筐体24と筐体25を近接させれば、タッチパネル21とタッチパネル22の距離をディスプレイ26とディスプレイ27の距離よりも近くすることはできる。
そこで本実施例では、図9に示すように、タッチパネル21、22をディスプレイ26、27よりも大きいサイズとし、ディスプレイ26、27の間隙に、表示はできないが、タッチパネル21、22によってタッチ操作を検知できる部分を設けている。そして、その部分を接触センサー23として用いている。その結果、本実施例では、タッチパネル21とタッチパネル22の間にはほとんど間隙が存在しない。
図10は、第4の実施例による情報処理端末の動作の一例を示すフローチャートである。
処理部32は、まずタッチパネル21のディスプレイ26範囲内の接触座標の情報が入力されたか否か判定する(ステップ401)。タッチパネル21のディスプレイ26範囲内の接触座標の情報が入力されていれば、処理部32は、次に、タッチパネル22からディスプレイ27範囲内の接触座標の情報が入力されたか否か判定する(ステップ402)。タッチパネル22のディスプレイ27範囲内の接触座標の情報が入力されていなければ、処理部32は、タッチパネル21へのシングルタッチであると判定し(ステップ403)、処理を実行する(ステップ404)。
ステップ402にて、タッチパネル22のディスプレイ27範囲内の接触座標の情報が入力されていれば、処理部32は、次に、タッチパネル21、22のディスプレイ26、27範囲外の接触座標の情報が入力されたか否か判定する(ステップ405)。接触センサー23から接触があることを示す情報が入力されていれば、処理部32は、タッチパネル21とタッチパネル22の中間へのシングルタッチであると判定し(ステップ406)、処理を実行する(ステップ404)。
ステップ405にて、接触センサー23への接触があることを示す情報が入力されていなければ、処理部32は、タッチパネル21とタッチパネル22へタッチするマルチタッチであると判定し(ステップ407)、処理を実行する(ステップ404)。
ステップ401にて、タッチパネル21のディスプレイ26範囲内の接触座標の情報が入力されていなければ、処理部32は、次に、タッチパネル22からディスプレイ27範囲内の接触座標の情報が入力されたか否か判定する(ステップ408)。タッチパネル22のディスプレイ27範囲内の接触座標の情報が入力されていれば、処理部32は、タッチパネル22へのシングルタッチであると判定し(ステップ409)、処理を実行する(ステップ404)。タッチパネル22のディスプレイ27範囲内の接触座標の情報が入力されていなければ、処理部32は、タッチ操作が行われていないと判定し(ステップ410)、処理を実行しない。
本実施例によれば、情報処理端末は、物理的に独立した構成として接触センサー23を備えずに第1の実施例と同様の効果を得ることができる。
なお、上述した実施例においては、ディスプレイ26、27の間隙に設置する接触センサー23は接触座標を出力する必要がないので、典型的な例として金属板によるものが考えられる。しかし、本発明がこれに限定されるものではない。他の例として、圧力センサーを用いてもよく、静電容量式のタッチセンサーを用いてもよい。手袋をしたままで操作することを想定した場合には圧力センサーが好適であり、素手で操作することを想定した場合には金属の接触センサーが好適である。
また、接触センサー23に接触座標を出力できるものを用い、処理部32は、タッチパネル21、22からの座標の情報と接触センサー23からの座標の情報に基づいて処理を実行することにしてもよい。
以上、本発明の実施形態および実施例について述べてきたが、本発明は、これらの実施形態や実施例だけに限定されるものではなく、本発明の技術思想の範囲内において、これらの実施形態や実施例を組み合わせて使用したり、一部の構成を変更したりしてもよい。
この出願は、2011年2月16日に出願された日本出願特願2011−030970を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 情報処理端末
11 表示兼検知部
12 表示兼検知部
13 検知部
14、15 筐体
16 連結部
17 処理部
21、22 タッチパネル
23 接触センサー
24、25 筐体
26、27 ディスプレイ
28 タッチパネルディスプレイ制御部
30 接触センサー制御部
32 処理部
33 ヒンジ部

Claims (12)

  1. 第1の表示検知面で表示と接触検知の両方を行い、該第1の表示検知面への接触物の接触を検知すると第1の検知情報を出力する第1の表示兼検知部と、
    第2の表示検知面で表示と接触検知の両方を行い、該第2の表示検知面への接触物の接触を検知すると第2の検知情報を出力する第2の表示兼検知部と、
    前記第1の表示兼検知部の前記第1の表示検知面と前記第2の表示兼検知部の前記第2の表示検知面の間隙に配置され、接触検知を行い、接触物の接触を検知すると第3の検知情報を出力する検知部と、
    前記第1の検知情報、前記第2の検知情報、および前記第3の検知情報のうち1つまたは複数または全ての検知情報に基づく処理を実行する処理部と、
    を有する情報処理端末。
  2. 前記処理部は、前記第1および第2の検知情報と、前記第3の検知情報との関係に基づいて、シングルタッチ操作かマルチタッチ操作かを判断する、請求項1に記載の情報処理端末。
  3. 前記第1の表示兼検知部は前記第1の表示検知面内の接触座標を前記第1の検知情報として出力し、前記第2の表示兼検知部は前記第2の表示検知面内の接触座標を前記第2の検知情報として出力し、前記検知部は接触を検知した旨を前記第3の検知情報として出力する、請求項1に記載の情報処理端末。
  4. 前記処理部は、前記第1の検知情報と前記第2の検知情報と前記第3の検知情報が同時に入力されると、前記第1の検知情報が示す接触座標と前記第2の検知情報が示す接触座標の中点へのシングルタッチ操作が行われたと認識する、請求項3に記載の情報処理端末。
  5. 前記処理部は、接触座標が軌跡を描く第1の検知情報が入力され、それに続いて第3の検知情報が入力され、更に接触座標が軌跡を描く第2の検知情報が入力されたら、前記第1の検知情報の軌跡と前記第2の検知情報の軌跡を連結する、請求項3に記載の情報処理端末。
  6. 前記第1の表示兼検知部は、前記第1の表示検知面への前記接触物の接触と近接を区別することが可能な前記第1の検知情報を出力し、
    前記第2の表示兼検知部は、前記第2の表示検知面への前記接触物の接触と近接を区別することが可能な前記第2の検知情報を出力し、
    前記検知部は、前記接触物の接触と近接を区別することが可能な前記第3の検知情報を出力し、
    前記処理部は、近接を示す第1の検知情報と、近接を示す第2の検知情報と、近接を示す第3の検知情報とが同時に入力されたときには近接と判定し、近接を示す第1の検知情報と、近接を示す第2の検知情報と、接触を示す第3の検知情報とが同時に入力されたときには接触と判定する、請求項1に記載の情報処理端末。
  7. 前記第1の表示兼検知部と前記第2の表示兼検知部の少なくとも一方は、表示ディスプレイ上に透明タッチパネルを重ねた構造であり、
    前記透明タッチパネルが前記表示ディスプレイの表示面よりも大きいサイズであり、該透明タッチパネルにおける前記表示パネルの領域外の部分が前記検知部となっている、請求項1から6のいずれか一項に記載の情報処理端末。
  8. 表示検知面での表示と接触検知の両方を行い、該表示検知面への接触を検知する第1および第2の表示兼検知部と、前記第1の表示兼検知部の第1の表示検知面と前記第2の表示兼検知部の第2の表示検知面の間隙に配置され、接触検知を行う検知部と、を有する情報処理端末の制御方法であって、
    前記第1の表示兼検知部が接触を検知すると第1の検知情報を出力し、
    前記第2の表示兼検知部が接触を検知すると第2の検知情報を出力し、
    前記検知部が接触を検知すると第3の検知情報を出力し、
    前記第1の検知情報、前記第2の検知情報、および前記第3の検知情報のうち1つまたは複数または全ての検知情報に基づく処理を実行する、情報処理端末の制御方法。
  9. 前記第1および第2の検知情報と、前記第3の検知情報との関係に基づいて、シングルタッチ操作かマルチタッチ操作かを判断する、請求項8に記載の情報処理端末の制御方法。
  10. 前記第1の表示兼検知部は前記第1の表示検知面内の接触座標を前記第1の検知情報として出力し、前記第2の表示兼検知部は前記第2の表示検知面内の接触座標を前記第2の検知情報として出力し、前記検知部は接触を検知した旨を前記第3の検知情報として出力し、
    前記第1の検知情報と前記第2の検知情報と前記第3の検知情報が同時に出力されると、前記第1の検知情報が示す接触座標と前記第2の検知情報が示す接触座標の中点へのシングルタッチ操作が行われたと認識する、請求項8に記載の情報処理端末の制御方法。
  11. 前記第1の表示兼検知部は前記第1の表示検知面内の接触座標を前記第1の検知情報として出力し、前記第2の表示兼検知部は前記第2の表示検知面内の接触座標を前記第2の検知情報として出力し、前記検知部は接触を検知した旨を前記第3の検知情報として出力し、
    接触座標が軌跡を描く第1の検知情報が出力され、それに続いて、接触座標が軌跡を描く第2の検知情報が出力されたとき、前記第1の検知情報と前記第2の検知情報の間に第3の検知情報が出力されていたら、前記第1の検知情報の軌跡と前記第2の検知情報の軌跡を連結する、請求項8に記載の情報処理端末の制御方法。
  12. 前記第1の表示兼検知部は、前記第1の表示検知面への前記接触物の接触と近接を区別することが可能な前記第1の検知情報を出力し、前記第2の表示兼検知部は、前記第2の表示検知面への前記接触物の接触と近接を区別することが可能な前記第2の検知情報を出力し、前記検知部は、前記接触物の接触と近接を区別することが可能な前記第3の検知情報を出力し、
    近接を示す第1の検知情報と、近接を示す第2の検知情報と、近接を示す第3の検知情報とが同時に出力されたときには近接と判定し、
    近接を示す第1の検知情報と、近接を示す第2の検知情報と、接触を示す第3の検知情報とが同時に出力されたときには接触と判定する、請求項8に記載の情報処理端末の制御方法。
JP2012557795A 2011-02-16 2011-12-15 情報処理端末およびその制御方法 Active JP5846129B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012557795A JP5846129B2 (ja) 2011-02-16 2011-12-15 情報処理端末およびその制御方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011030970 2011-02-16
JP2011030970 2011-02-16
PCT/JP2011/079007 WO2012111230A1 (ja) 2011-02-16 2011-12-15 情報処理端末およびその制御方法
JP2012557795A JP5846129B2 (ja) 2011-02-16 2011-12-15 情報処理端末およびその制御方法

Publications (2)

Publication Number Publication Date
JPWO2012111230A1 true JPWO2012111230A1 (ja) 2014-07-03
JP5846129B2 JP5846129B2 (ja) 2016-01-20

Family

ID=46672179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012557795A Active JP5846129B2 (ja) 2011-02-16 2011-12-15 情報処理端末およびその制御方法

Country Status (5)

Country Link
US (1) US9122337B2 (ja)
EP (1) EP2677403A4 (ja)
JP (1) JP5846129B2 (ja)
CN (1) CN103384862B (ja)
WO (1) WO2012111230A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5960353B2 (ja) 2013-05-08 2016-08-02 アルプス電気株式会社 入力装置
JP6236308B2 (ja) * 2013-12-09 2017-11-22 シャープ株式会社 情報表示制御装置、情報表示制御方法、プログラム及び情報表示システム
US20150185839A1 (en) * 2013-12-28 2015-07-02 Aleksander Magi Multi-screen wearable electronic device for wireless communication
JP2015194983A (ja) * 2014-03-25 2015-11-05 パナソニックIpマネジメント株式会社 入力装置および表示装置
KR102408828B1 (ko) * 2015-09-03 2022-06-15 삼성디스플레이 주식회사 전자장치 및 그 구동방법
KR102510395B1 (ko) * 2015-12-01 2023-03-16 삼성디스플레이 주식회사 표시 장치 시스템
JP6396567B2 (ja) * 2017-10-30 2018-09-26 シャープ株式会社 情報表示制御装置、情報表示制御方法及びプログラム
USD891427S1 (en) * 2017-11-13 2020-07-28 Samsung Display Co., Ltd. Display device
JP6973025B2 (ja) * 2017-12-20 2021-11-24 コニカミノルタ株式会社 表示装置、画像処理装置及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5644469A (en) * 1991-03-06 1997-07-01 Canon Kabushiki Kaisha Information processing apparatus support system with support arms which are capable of closing toward a keyboard unit or away from a keyboard unit
JPH0926832A (ja) * 1995-07-07 1997-01-28 Seiko Epson Corp 情報処理装置および処理方法
US20090322689A1 (en) * 2008-06-30 2009-12-31 Wah Yiu Kwong Touch input across touch-sensitive display devices
JP2010176332A (ja) 2009-01-28 2010-08-12 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5606686B2 (ja) 2009-04-14 2014-10-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
CN103384862A (zh) 2013-11-06
EP2677403A1 (en) 2013-12-25
US20130335359A1 (en) 2013-12-19
JP5846129B2 (ja) 2016-01-20
CN103384862B (zh) 2017-04-12
US9122337B2 (en) 2015-09-01
WO2012111230A1 (ja) 2012-08-23
EP2677403A4 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
JP5846129B2 (ja) 情報処理端末およびその制御方法
JP5229083B2 (ja) 情報処理装置、情報処理方法及びプログラム
US8289292B2 (en) Electronic device with touch input function and touch input method thereof
KR200450989Y1 (ko) 양면 터치스크린을 구비한 플랫 패널 형상의 모바일 장치
JP4372188B2 (ja) 情報処理装置および表示制御方法
EP2657811B1 (en) Touch input processing device, information processing device, and touch input control method
US20180067638A1 (en) Gesture Language for a Device with Multiple Touch Surfaces
JP6319298B2 (ja) 情報端末、表示制御方法及びそのプログラム
JP2013546110A (ja) コンピューティング装置の動きを利用するコンピューティング装置と相互作用するときに発生する入力イベントの解釈の強化
TWI659353B (zh) 電子設備以及電子設備的工作方法
US20140195935A1 (en) Information processing device, information processing method, and information processing program
JP6304232B2 (ja) 携帯電子機器、その制御方法及びプログラム
JP5515951B2 (ja) 情報処理装置、入力制御方法、プログラム及び記録媒体
JP2011221822A (ja) 情報処理装置、操作入力装置、情報処理システム、情報処理方法、プログラム及び情報記憶媒体
US20150309601A1 (en) Touch input system and input control method
KR101678213B1 (ko) 터치 영역 증감 검출에 의한 사용자 인터페이스 장치 및 그 제어 방법
JP2013114645A (ja) 小型情報機器
KR20160000534U (ko) 터치패드를 구비한 스마트폰
JP2013228786A (ja) 情報端末、情報表示方法及びプログラム
JP2013020344A (ja) 入力装置及び入力検出方法
JP2016130976A (ja) 情報処理装置、情報処理装置の制御方法、および制御プログラム
TW201508613A (zh) 被遮蔽畫面投影方法及應用該方法之可攜式電子裝置
KR20140056868A (ko) 터치스크린을 구비한 단말기
EP2804079A1 (en) User equipment and method
WO2014041595A1 (ja) 表示装置、表示方法およびプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141112

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent or registration of utility model

Ref document number: 5846129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150