JP5993072B1 - 電子機器のユーザ・インターフェース、入力の処理方法および電子機器 - Google Patents

電子機器のユーザ・インターフェース、入力の処理方法および電子機器 Download PDF

Info

Publication number
JP5993072B1
JP5993072B1 JP2015167570A JP2015167570A JP5993072B1 JP 5993072 B1 JP5993072 B1 JP 5993072B1 JP 2015167570 A JP2015167570 A JP 2015167570A JP 2015167570 A JP2015167570 A JP 2015167570A JP 5993072 B1 JP5993072 B1 JP 5993072B1
Authority
JP
Japan
Prior art keywords
original image
display
partial image
proximity
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015167570A
Other languages
English (en)
Other versions
JP2017045298A (ja
Inventor
下遠野 享
享 下遠野
良太 野村
良太 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2015167570A priority Critical patent/JP5993072B1/ja
Priority to DE102016115479.2A priority patent/DE102016115479A1/de
Priority to US15/241,508 priority patent/US10318047B2/en
Priority to CN201610727203.XA priority patent/CN106484175B/zh
Application granted granted Critical
Publication of JP5993072B1 publication Critical patent/JP5993072B1/ja
Publication of JP2017045298A publication Critical patent/JP2017045298A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Abstract

【課題】タッチ・スクリーンに対するタッチ操作の感覚を損なわないようにしながら誤操作を防止するユーザ・インターフェースを提供する。【解決手段】ディスプレイ100の表面100aからわずかに離れた位置でフライング・フリック操作をする。フライング・フリック操作をすると、指先の直下の座標の周りを拡大した部分画像が、元画像に重ねて表示される。部分画像に対してディスプレイ10に指を接触させたタッチ操作をする。部分画像へのタッチ操作は元画像へのタッチ操作として処理される。フライング・フリック操作をする前は、指先をディスプレイ100に近づけても部分画像は表示されない。一旦部分画像が表示されたあとに指先を十分に表面から離すと部分画像は消える。【選択図】図1

Description

本発明は、タッチ・スクリーンに対する入力を容易にする技術に関し、特に、小さい操作オブジェクトを表示するタッチ・スクリーンに対する入力を容易にする技術に関する。
スマートフォンまたはタブレット端末のような電子機器は、表示ディスプレイとタッチ・センサを組み合わせたタッチ・スクリーンに表示した操作オブジェクトに対して指やスタイラス・ペンでタッチ操作をして画面の操作や文字の入力などをすることができる。タッチ・スクリーンが小さいと、操作オブジェクトも小さくなる傾向にあるため、ユーザは目標とする操作オブジェクトに隣接する操作オブジェクトにタッチ操作をすることがある。
また、Windows(登録商標)8/10のように、マウス・ポインターで操作するマウス操作モードと、タッチ・スクリーンに対するタッチ操作をするタッチ・パネル操作モードの両方を利用できるOSでは、マウス・ポインターを前提にした小さな操作オブジェクトを含む場合があり、一層タッチ操作がしにくくなっている。これを解決するためにさまざまな試みがなされている。Microsoft(登録商標)社では、Modern UIという新しい表示スタイルおよび操作ルールのユーザ・インターフェース(UI)を提供する。Modern UIには、タイルと呼ばれるタッチ操作に適した大きさのアイコンを表示する。
Lenovo社では、Aura UIという既存のOSに対してタッチ操作用に新しいシェルを重ねたUIを提供する。また、マルチタッチ対応のOSでは、2本の指を広げるようにタッチ操作をするピンチアウトで一時的に画面を拡大して誤操作を防ぐことができる。特許文献1は、指をタッチ・パネルの面上から離間した空間上の位置に翳すホバー操作と、ホバー操作によって翳された空間上の位置から指を、タッチ・スクリーンを構成するタッチ・パネルの面に対して略平行にスライドするホバー・スライド操作とタッチ操作で入力する表示装置を開示する。
表示装置は、ホバー操作およびホバー・スライド操作における指の座標とタッチ操作に対する指の座標をタッチ・パネルで検出する。表示装置は、ホバー操作でタッチ・パネルに指が接近すると、指の直下を中心とする拡大画面を元画像に重ねて表示し、ホバー・スライド操作が行われると目標地点の直下の拡大画面を表示する。特許文献2は、静電容量方式のタッチ・パネルに指を接近したときに拡大表示するタッチ・パネル装置を開示する。同文献には、画像キーボードに人差し指が最初に接近した画像キーを中心にして画像キーボードが拡大表示され、拡大した画像は指が離れるまで存在することを記載する。特許文献3は、静電容量方式のタッチ・パネルに指を接近したときに拡大表示するタッチ・パネル装置を開示する。同文献には、制御部が拡大表示領域の座標を拡大前の元の画像の座標に変換することを記載する。
特許文献4は、タッチ・パネルに指が接近したときに画面を拡大するタッチ・パネル表示の制御方法を開示する。同文献には、タッチ・パネルの表面から指が一定の距離にあるかぎり拡大画面を表示し、タッチ操作またはタッチ・パネルから指が遠く離れたときに拡大画面を消すことを記載する。特許文献5は、タッチ・パネルに対する指の距離に応じて倍率を変化させた拡大画面を表示するユーザ・インターフェースを開示する。
非特許文献1は、タブレットの表面に近接した位置で指が行うジェスチャを利用したインタフェースを開示する。同文献には、多層化したIRプレーンと高速カメラのシャッタを同期させて、指のジェスチャを検出することを記載している。また、地図を指さしてから指の高さを変えることでズームやスクロールをすることを記載している。
非特許文献2は、ユーザの指がタッチ・パネルに接触する前の近接状態を検知し、近接位置に応じてフォーカスを切り換えたりボタンを拡大したりする3次元タッチ・パネル・インターフェースを開示する。同文献は、通常のタッチ・パネルだけで指の接触状態に加えて指の近接状態を検知する3次元タッチ・パネルについて記載している。また、近接距離の時間遷移から指がタッチ・パネルに近づく速度や加速度を計算してUIを切り換えることを記載している。
特開2013−225261号公報 国際公開2012/132802号公報 国際公開2011/027665号公報 特開平11−65769号公報 米国特許出願公開第2013/0293490号明細書
Yoshiki Takeoka, et al. Ztouch:An Infrastructure for 3D gesture interaction in the proximity of tabletop surfaces、[online]、ITS 2010: Devices & Algorithms、[平成27年8月1日検索]、インターネット〈URL:http://lab.rekimoto.org/projects/z-touch/〉 Hiroyuki Washino, et al. 3D Touch Panel User Interface、[online]、情報処理学会インタラクション2009、[平成27年8月1日検索]、インターネット〈URL: http://www.interaction-ipsj.org/archives/paper2009/interactive/0037/0037.pdf〉
タッチ・スクリーンは画面の操作オブジェクトに対して直感的な操作ができる点で優れているが、誤操作の防止が求められている。Modern UIやAura UIは、特別な環境下で誤操作の少ないタッチ操作を実現しているが、既存のアプリケーションやOSに影響を与えない環境で実現できる方法が望ましい。また、スマートフォンやタブレット端末のようにタッチ・スクリーンを専用の入力デバイスとするような電子機器では、あらかじめ操作オブジェクトを指またはスタイラス・ペンの大きさに比べて大きくしておくことが一般的である。このことは、他方で所定の大きさの画面に組み込む操作オブジェクトの数を制限することになり、画面の密度または情報量が粗くなることに相当する。
また、マウス操作モードとタッチ・パネル操作モードの両方が行えるようにしたOSでは、操作オブジェクトをマウス操作に適する大きさにするとタッチ操作で誤操作が発生し、タッチ操作に適する大きさにすると画面がマウス操作で可能な程度よりも粗くなりすぎてしまう。ピンチアウトをして画面を拡大する方法は、ピンチアウトで画面を元に戻す操作を伴うこともありユーザに余分な負担をかけてしまう。タッチ操作をした座標を中心にして所定の領域を拡大してから、拡大した画像にタッチ操作をする方法もあるが拡大しないでタッチ操作ができる場合にもつねに拡大画像が表示されることになるためユーザに煩わしさを感じさせる。
先行技術文献では、タッチ操作の前に近接領域で行われるジェスチャを検出して画面を拡大する。これらの先行技術文献は、以下の問題点のいくつかを抱えている。まず、ユーザはタッチ操作をする前にタッチ・パネルの上で指を止めて、操作対象を選んだり考えたりする場合がある。このとき指の接近を検出するとただちに拡大した画面を表示するとすれば、拡大しないで広範囲の元画像を見続けていたいユーザに対して拡大画面を消す操作を強いることになり煩わしさを感じさせる。また、操作オブジェクトが拡大しないでも正確なタッチ操作ができるほど大きい場合にも拡大画面を表示することは、ユーザの元画像に対するタッチ操作の操作感を損なうことになる。
指がタッチ・パネルに接近するときのタッチ・パネルからの距離、接近時の速度、または加速度をユーザがコントロールして操作することは容易ではない。また、拡大画面を表示し続けるために、指をタッチ・パネルから一定の範囲に維持し続けることはユーザにとって苦痛になることもある。さらに、拡大画面が指の真下に表示される場合は、依然として操作オブジェクトが指の陰に隠れる場合もある。
拡大画面を表示する場合に、タッチ・スクリーンに対するタッチ操作の感覚を損なわないようにするためには、操作オブジェクトにタッチ操作をする動作に付加する操作をできるだけ簡単にする必要がある。また、従来からの拡大画面を表示しないで行うタッチ操作も残しておくことが望ましい。さらに拡大画面はユーザの意図に応じて表示できることが望ましい。
そこで本発明の目的は、タッチ・スクリーンに対するタッチ操作の感覚を損なわないようにしながら誤操作を防止するユーザ・インターフェースを提供することにある。さらに本発明の目的は、既存のOSやアプリケーションへの適応にすぐれたユーザ・インターフェースを提供することにある。さらに本発明の目的は、元画像に対する所定の倍率の部分画像をユーザが意図するときだけ表示するユーザ・インターフェースを提供することにある。さらに本発明の目的は、そのようなユーザ・インターフェースに適応した入力の処理方法、電子機器、およびコンピュータ・プログラムを提供することにある。
本発明は、電子機器に指示媒体で入力することが可能なユーザ・インターフェースに関する。ユーザ・インターフェースは、電子機器に組み込んでもよいし、電子機器に無線や有線で接続するものであってもよい。ユーザ・インターフェースは、ディスプレイと、元画像を表示したディスプレイの表面に対して近接状態に存在する指示媒体の近接座標を生成するための近接センサと、ディスプレイの表面に対して接触状態に存在する指示媒体の接触座標を生成するためのタッチ・センサと、近接座標から近接状態で行われた指示媒体のフライング・フリック操作を認識したときに元画像に重ねてディスプレイに元画像の所定の領域を拡大した部分画像を表示するためのデータを生成する部分画像制御部と、部分画像の接触座標を元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部とを有する。
指示媒体は指先でもスタイラス・ペンでもよい。上記構成によれば、元画像の所定の領域を簡単なフライング・フリック操作で拡大できるため、小さな文字をみるような場合に、画面全体を拡大するピンチアウトをする必要がない。フライング・フリック操作が行われるまでは、指示媒体が近接状態に存在しても部分画像が表示されない。よって部分画像はユーザが意図するときだけ表示することができるため、タッチ操作の前に元画像をみながら指先を接近状態にして思案しているユーザを妨げることがない。
また、ユーザは十分に大きな操作オブジェクトに対してはむしろ部分画像を表示しない方が都合のよい場合もあるが、本発明では、フライング・フリック操作をしなければ従来どおり部分画像を表示することなく元画像に対するタッチ操作をすることができる。したがって、タッチ・スクリーンに対してタッチ操作をするときの感覚を損なわないようにしながら誤操作を防止することができる。また、接触座標を元画像の接触座標としてユーザ・ファンクションに出力するため、既存のOSやアプリケーションの変更をする必要がなくなる。
近接センサとタッチ・センサをタッチ・パネルで構成し、ディスプレイとタッチ・パネルでタッチ・スクリーンを構成することができる。接触座標処理部は、接触状態に存在する指示媒体が元画像に対して行ったフリック操作に対応する接触座標をユーザ・ファンクションに出力することができる。ユーザ・インターフェースは、フライング・フリック操作を近接座標で処理するため、接触座標で処理するフリック方向への操作オブジェクトの移動および画面のスクロールなどのこれまでのフリック操作も可能にしている。ユーザ・インターフェースは、元画像が表示するマウス・カーソルを操作するイベントを生成するためのポインティング・デバイスを有するようにしてもよい。この場合、元画像がマウス・カーソルでの操作に適した小さい操作オブジェクトを含んでいても、部分画像に対するタッチ操作で誤操作を防ぐことができる。
元画像の所定の領域は、フライング・フリック操作の開始座標を含むようにしてもよい。ユーザはフライング・フリック操作の開始座標を容易に認識できるため、部分画像に開始座標を含ませることで、ユーザは容易に部分画像に開始座標に重なっていた操作オブジェクトを含ませることができるようになる。部分画像制御部は、近接状態に存在する指示媒体の直下にスポット画像を表示することができる。したがってユーザは、部分画像を表示しなくてもタッチ操作ができる可能性がある操作オブジェクトに対してスポット画像を利用して正確にタッチ操作ができるようになる。部分画像制御部は、元画像の操作オブジェクトの真上に近接状態の指示媒体が位置づけられた時に操作オブジェクトの表示を変化させるようにしてもよい。したがってユーザは、元画像ではわかりにくい操作オブジェクトの存在を表示の変化で認識できる。また、部分画像を表示しなくても意図する操作オブジェクトに正確にタッチ操作ができるようになる。
部分画像制御部は、部分画像を表示した後に指示媒体が離隔状態に移動してから所定時間が経過したときに部分画像を消すことができる。ユーザは、一旦部分画像が表示されても、入力を断念したときに指示媒体を離すだけでただちに元画像だけの状態に戻すことができる。部分画像制御部は、元画像が含む操作オブジェクトの近辺に部分画像が含む元画像の操作オブジェクトに対応する操作オブジェクトが位置するように部分画像を表示するためのデータを生成することができる。
部分画像制御部は、フライング・フリック操作の開始座標からの移動方向に応じて部分画像の元画像に対する位置を決定することができる。したがってユーザは、フライング・フリック操作の方向で部分画像の表示位置を制御することができる。部分画像制御部は、フライング・フリック操作の開始座標からの移動方向に応じて部分画像の元画像に対する倍率を決定することができる。したがってユーザは、フライング・フリック操作の方向を選択することで、拡大した部分画像または縮小した部分画像を表示することができる。また、ユーザは、ピンチインをしないでも必要な領域だけ縮小した画面を表示することができる。
部分画像制御部は、フライング・フリック操作をする際に移動する指示媒体が速度または加速度に応じて部分画像の元画像に対する倍率を決定することができる。ユーザは、たとえばより拡大した部分画像を表示したいときは、より速いフライング・フリック操作をすることができる。部分画像制御部は、所定の時間間隔以内で繰り返し行われるフライング・フリック操作のたびに元画像に対する倍率がステップ状に変化した部分画像を表示することができる。したがってユーザは、フライング・フリック操作を繰り返すことで部分画像の倍率を徐々に変更することができる。
部分画像制御部は、元画像が含む複数の操作オブジェクトの配列を認識し、操作オブジェクトの配列に応じて部分画像の形状およびサイズまたはいずれか一方を設定することができる。したがってユーザは、元画像に複数の操作オブジェクトが並んでいる場合に、タッチ操作をする可能性があるより多くの操作オブジェクトを一定の大きさの部分画像に含ませることができる。
本発明により、タッチ・スクリーンに対するタッチ操作の感覚を損なわないようにしながら誤操作を防止するユーザ・インターフェースを提供することができた。さらに本発明により、既存のOSやアプリケーションへの適応にすぐれたユーザ・インターフェースを提供することができた。さらに本発明により、元画像に対する所定の倍率の部分画像をユーザが意図するときだけ表示するユーザ・インターフェースを提供することができた。さらに本発明により、そのようなユーザ・インターフェースに適応した入力の処理方法、電子機器、およびコンピュータ・プログラムを提供することができた。
ディスプレイ100に対するタッチ操作とフライング・フリック操作をするときの様子を説明するための図である。 ユーザ・インターフェース200の構成を説明するための機能ブロック図である。 ユーザ・インターフェース200がフリック・ウィンドウを表示するときの手順の一例を説明するためのマスター・フローチャートで、 部分画像を表示する手順の一例を説明するためのフローチャートである。 元画像303に対するタップ操作の様子を説明するための図である。 指先の直下座標にスポット画像307を表示した様子およびフライング・フリック操作を開始したときの様子を説明するための図である。 元画像303に重ねて部分画像313を表示したときの様子を説明するための図である。 フライング・フリック操作の移動情報を利用してフリック・ウィンドウ325を構成する例を説明するための図である。 フライング・フリック操作の移動情報を利用してフリック・ウィンドウ325を構成する例を説明するための図である。 元画像303が含む操作オブジェクトの配列に基づいてフリック・ウィンドウ325の形状を決める例を説明するための図である。
[タッチ操作とフライング・フリック操作]
図1は、ディスプレイ100に対するタッチ操作とフライング・フリック操作をするときの様子を説明するための図である。ディスプレイ100の表面100aにX−Y軸を定義し、X−Y平面に垂直な方向にZ軸を定義する。ディスプレイ100に対する指先は、図1(B)に示すようにタッチ・スクリーンの表面100aからZ軸方向に距離Z1以上離れた状態、距離Z1未満で距離Z2以上離れた状態、距離Z2未満の状態が存在し、図1(C)に示すように距離Zがゼロのときに接触した状態が存在する。
本実施の形態にかかるユーザ・インターフェースは、図1(C)に示すように指が表面100aに接触した接触状態で行うタッチ操作で入力をするが、その際に必要に応じて、図1(B)に示すように指が表面100aに所定の距離まで近接した近接状態で行うフライング・フリック操作を補助的に利用することができる。指先が表面100aから距離Z1以上離れた状態を離隔状態という。離隔状態から指が表面100aに近づいて距離Z2未満になると近接状態に入る。一旦近接状態に入ると指先が接触状態になるか距離Z1以上離れるまで近接状態が維持される。
したがってZ軸方向の指先の位置が、距離0を超えて距離Z2までの間に存在する場合は近接状態に相当する。また、距離Z1と距離Z2の間に存在する場合は、そこに至るまでの経緯により近接状態と離隔状態のいずれかになる。なお、タッチ操作とフライング・フリック操作は、指先に代えてスタイラス・ペンのような導電性の指示媒体で行ってもよい。ここで、フライング・フリック操作について説明する。接触状態でのフリック操作はよく知られている。フライング・フリック操作は、接触状態で行うフリック操作(接触フリック操作)と同じ指先の移動を近接状態で行うジェスチャをいう。ただし、フライング・フリック操作は空中で行うため、接触フリック操作のようにスライドさせるガイド面がなく、Z軸方向にわずかな指先の移動が生じる。
接触状態で行うタッチ操作についてさまざまなジェスチャが定義されているが、フライング・フリック操作から抽出したX−Y方向への指の移動を接触フリック操作と同じアルゴリズムで検出することができる。タッチ操作は、ディスプレイ100の表面100aに指またはスタイラス・ペン(以後、本明細書においては両者を含めて単に指先という。)を接触させて行うすべての入力操作を意味する。タッチ操作は、ディスプレイ100が表示する特定のアプリケーションまたは特定のファイルなどに関連付けたアイコンや所定のアドレスに関連付けた文字または画像のオブジェクトのような操作オブジェクトに対する入力操作、および操作オブジェクト以外の表示領域に対する入力操作のいずれも含む。
タッチ操作は、一連の操作においてタッチ操作の位置を変化させないタップ操作と変化させるジェスチャ操作を含む。タップ操作を検出したシステムは、タッチ操作された座標と当該座標に対してタッチ操作が継続している時間、およびタッチ操作の回数などの情報を得ることができる。ジェスチャ操作は、フリック操作、スワイプ操作、ドラッグ操作、および回転操作などのシングルタッチ操作と、ピンチイン、ピンチアウトといったマルチタッチ操作を含む。ジェスチャ操作を検出したシステムは、タッチ操作された座標の軌跡および座標が変化する速度および加速度などの情報を得ることができる。そしてシステムは、座標の軌跡のパターンおよび変化の方向などからジェスチャの種類を識別することができる。
接触フリック操作は、タッチ操作をしている指を短い距離だけほぼ一定の方向に移動させる操作をいう。スワイプ操作は、タッチ操作をしている指をフリック操作よりも長い距離でほぼ一定の方向に移動させる操作をいいスライド操作ともいう。接触フリック操作はスワイプ操作よりも指の移動速度が速い操作をいう。ドラッグ操作は、特定オブジェクトに対してタッチ操作をした指を所定の位置まで移動させる操作をいう。
接触フリック操作は、スワイプ操作およびドラッグ操作に比べて移動距離が短く移動速度が速いという特徴の他に、指先の移動先の座標をユーザが意識する必要がないという特徴がある。したがって、接触フリック操作は、移動先の座標を問題にしないページめくり、高速での画面のスクロール、キーボードのフリック入力のように定まった方向への指先の移動で入力が確定するような場合に利用するのに適している。
フライング・フリック操作は、指先が表面100aに対して近接状態に存在するが、システムがX−Y方向の指先の移動速度および移動距離から接触フリック操作と同じアルゴリズムで検出することができるため、既存システムへの適用が容易である。フライング・フリック操作を検出するためには、近接状態での指先の座標を検出する近接センサが必要となる。
[ユーザ・インターフェースの構成]
図2は、ユーザ・インターフェース200の構成を説明するための機能ブロック図である。ユーザ・インターフェース200は、ディスプレイ151、近接センサ153、およびタッチ・センサ155からなる入力デバイスと、CPU、RAM、チップセットなどのハードウェア資源と、アプリケーション、OS、デバイス・ドライバなどのソフトウェア資源の協働で構成することができる。
ユーザ・インターフェース200は、マウス、ポインティング・スティック、またはタッチパッドのようなマウス・カーソルを操作するポインティング・デバイス157を備えてもよい。すなわち、ユーザ・インターフェース200は、マウス操作モードおよびタッチ・パネル操作モードの両方をサポートすることができる。ソフトウェア資源は実行前に、ユーザ・インターフェース200またはユーザ・インターフェース200を搭載するコンピュータ、タブレット端末またはスマートフォンのような電子機器に実装する不揮発性メモリに格納する。
近接センサ153は、近接状態に存在する指先の、ディスプレイ151に対するX、Y、Z座標を生成することが可能な物理量を出力する。近接センサ153の種類や原理は特に限定する必要はなく、ディスプレイ151とは異なるアセンブリとして設ける電磁誘導式センサ、赤外線を利用する光学ラインセンサー、ステレオ・カメラ、超音波センサなどを採用することができる。
タッチ・センサ155は、ディスプレイ151の表面に対する接触状態の指先のX、Y座標を生成することが可能な物理量を出力する。タッチ・センサ155の種類や原理も特に限定する必要はない。タッチ・センサとして機能する静電容量方式のタッチ・パネルは、近接状態に存在する指先のタッチ・パネル表面に対する距離Zを静電容量の大きさで検出することができる。本実施の形態では、近接センサ153とタッチ・センサ155として機能する透明電極で構成した静電容量式のタッチ・パネルと、ディスプレイ151で構成したタッチ・スクリーン150を例示して説明する。
近接座標生成部211、接触座標処理部215およびイベント生成部217は、一例ではデバイス・ドライバとデバイス・コントローラで構成することができる。近接座標生成部211は、タッチ・スクリーン150が出力する物理量から近接状態における指先のX−Y−Z方向の座標を生成する。近接状態では、タッチ・スクリーン150の表面と指先の距離がさまざまな値をとる。近接座標生成部211は、指先のZ軸方向の距離および当該距離に至るまでの履歴情報から近接状態を検出したときに、近接状態として特定できる物理量に対応する座標を近接座標として近接座標処理部209に出力する。
接触座標生成部215は、タッチ・スクリーン150が出力する物理量から接触状態における指先のX−Y方向の座標(接触座標)を生成する。接触座標生成部215は、指先のZ軸方向の距離またはタッチ・スクリーン150が出力する物理量から接触状態を検出したときに接触座標を出力する。近接座標系と接触座標系が異なる場合は、後に説明するように部分画像313(図7)に対するタッチ操作を元画像303(図7)に対するタッチ操作として処理するために両者を関連付けておく必要があるが、本実施の形態では2つの座標系をタッチ・スクリーン150で構成するために両者は一致している。ポインティング・デバイス157は、ユーザの操作に応じてマウス・カーソルを移動させる物理量を出力する。イベント生成部217は、マウス・カーソルを移動させるイベントまたはマウスのクリックに相当するイベントを出力する。
近接状態では接触状態に比べて、指先がより広い範囲のセルに静電容量の変化を与える。近接座標処理部209は、接触座標処理部215が接触座標を生成するときよりも、より広い範囲のセルについて近接座標として出力する。タッチ・スクリーン105に対する指先の腹からの垂線が形成するタッチ・スクリーン150のX−Y座標を直下座標という。近接座標処理部209は、近接座標の集合から直下座標を生成して部分画像制御部207に通知する。直下座標は一例として近接座標の集合の重心とすることができる。
接触座標処理部213は、接触座標の集合から指先の座標を生成してユーザ・ファンクション201に送る。接触座標処理部213は、タッチ操作されたときの接触座標を検出して開始座標、移動方向および移動する速度または加速度などの情報を含む操作データをユーザ・ファンクション201に送る。タッチ操作は接触フリック操作を含む。本実施の形態では、接触フリック操作をユーザ・ファンクション201に対して直接的な入力として処理するが、フライング・フリック操作はフリック・ウィンドウ325(図7)に関する入力としてだけ利用する。したがって、フライング・フリック操作は、元画像303に部分画像313を重ねて表示するだけなので、OSや既存のアプリケーションに影響を与えることはない。
ユーザ・ファンクション201は、アプリケーション、OSなどを含み、ユーザにタッチ・スクリーン150を通じてブラウザの閲覧、写真の編集、または文書の作成などの機能を提供する。ユーザ・ファンクション201は、元画像データ生成部203および部分画像制御部207に元画像のデータを生成するための画像情報を送る。元画像データ生成部203は、レンダリングした画像データを記憶するバッファを含み、ユーザ・ファンクション201から受け取った画像情報からタッチ・スクリーン150に表示するための画像データを生成する。
部分画像制御部207は、ユーザ・ファンクション201から受け取った画像情報から部分画像313のデータを生成する。部分画像制御部207は、直下座標の時間的な変化を監視して、フライング・フリック操作を認識する。部分画像制御部207は、フライング・フリック操作からフライング・フリック操作が開始された位置の直下座標(開始座標)、および移動方向、移動する速度または加速度などの移動情報を抽出する。
部分画像制御部207は、ユーザ・ファンクション201から受け取った画像情報と、フライング・フリック操作から抽出した開始座標および移動情報からフリック・ウィンドウ325に表示する部分画像313のデータを生成して画像データ合成部205に出力する。部分画像制御部207は、近接状態でかつフライング・フリック操作の直下座標に表示するスポット画像のデータを生成して画像データ合成部205に送ることができる。スポット画像は、ユーザが近接状態で直下座標に重なる操作オブジェクトを認識したり、フリック・ウィンドウ325を表示しないでタップ操作をしたりするのに利用できる。
部分画像制御部207は、タッチ・スクリーン150が表示している元画像が含む、ボタン、文字、または図形などの操作オブジェクトに直下座標が重なったときに、当該操作オブジェクトをハイライト表示するためのイベントをユーザ・ファンクション201に送ることができる。ハイライト表示はユーザが操作オブジェクトを明確に認識できるため、フライング・フリック操作をしないで直接タッチ操作をするときの誤操作の防止に有益である。
部分画像制御部207は、フライング・フリック操作が含む開始座標と移動情報に基づいて、フリック・ウィンドウ325のサイズ、形状、座標などを決定することができる。部分画像制御部207は、フライング・フリック操作が含む開始座標と移動情報に基づいて、元画像に対する部分画像の拡大または縮小の倍率を決定することができる。部分画像制御部207は、部分画像313の座標を接触座標処理部213に送る。接触座標処理部213は、部分画像313に対するタッチ操作の座標を元画像303に対するタッチ操作の座標に変換してユーザ・ファンクション201に送る。
[ユーザ・インターフェースの動作手順]
図3は、ユーザ・インターフェース200がフリック・ウィンドウを表示するときの手順の一例を説明するためのマスター・フローチャートで、図4は、フリック・ウィンドウを表示する手順の一例を説明するためのフローチャートである。図5〜図10は、フライング・フリック操作によりフリック・ウィンドウ325を表示するときの様子を説明するための図である。
ブロック501で操作を開始する前に、図5(A)に示すように、タッチ・スクリーン150がタイトル・バー302を含むウィンドウにオブジェクト303a〜303dを含む元画像303を表示している。タッチ・スクリーン150はまた、ポインティング・デバイス157で操作するマウス・カーソル305を表示している。ユーザ・インターフェース200は、元画像303に対してマウス操作モードとタッチ・パネル操作モードのいずれでも操作できるが、本発明はタッチ・パネル操作モードだけをサポートするユーザ・インターフェースにも適用できる。
マウス操作モードで操作する元画像は、タッチ・パネル操作モードだけで操作する元画像に比べて操作オブジェクトが小さい傾向があるため、本発明を適用すると効果的である。また本発明はマルチ・ウィンドウおよびシングル・ウィンドウのいずれの元画像に対しても適用できる。タイトル・バー302は、操作オブジェクトの一例である操作ボタン301a〜301cを含んでいる。ユーザは操作ボタン301aに、ウィンドウを閉じる際にタップ操作し、操作ボタン301bはウィンドウ・サイズの縮小および復帰にタップ操作し、操作ボタン301cはウィンドウを最小化する際にタップ操作をする。
これらの操作オブジェクトに対してマウス・カーソル305を移動させてクリック操作をしたり指先でタップ操作をしたりして活性化することで、操作オブジェクトが定義する機能が実行される。ブロック503でユーザが、図5(B)に示すようにボタン301aに対してタップ操作をして元画像303のウィンドウを閉じようとしている。ボタン301aのサイズは、指先のサイズに比べて十分に大きいとはいえないので、ユーザはボタン301aにタップ操作をするつもりで隣接するボタン301bにタップ操作をする場合がある。
ユーザは、ボタン301aの真上近辺に指先を移動させる。近接座標生成部211は、近接状態を検出すると近接座標の集合の出力を開始する。近接座標処理部209は、直下座標を出力する。ブロック505で、部分画像制御部207は、必要に応じて図6(A)に示すように直下座標にスポット画像307を表示する。スポット画像307は、見かけ上は元画像303に重なっているが、ユーザ・ファンクション201の動作に影響を与えることなく直下座標に表示される。ユーザはスポット画像303からフライング・フリック操作の開始座標を容易に認識でき、さらに、視差があってもフリック・ウィンドウ325を表示しないでスポット画像307に重なる比較的大きな操作オブジェクトにタッチ操作がし易くなる。
他の例では、部分画像制御部207は、直下座標に操作オブジェクトが存在するときに、ユーザ・ファンクション201に当該操作オブジェクトをハイライト表示するように指示する。ハイライト表示された操作オブジェクトは、元画像303の一部となり、ユーザは視差があってもフリック・ウィンドウ325を表示しないで正確にハイライトされた比較的大きな操作オブジェクトにタッチ操作をすることができる。
ユーザは指先が近接状態に入った状態でタップ操作をする前に本当にウィンドウを閉じるか否かを考える場合がある。場合によっては縮小したり最小化したりしようかと迷うかもしれない。しかし、指先が、近接状態に入っても部分画像制御部207はフライング・フリック操作を検出しないかぎりフリック・ウィンドウ325を表示しないため、ユーザは必要のないときにフリック・ウィンドウ325が表示される煩わしさを感じることはない。
ブロック507で図6(B)に示すように、ユーザが操作オブジェクト301aを開始座標306としてフライング・フリック操作をする。なお部分画像制御部207は、フライング・フリック操作の開始座標がいずれの操作オブジェクトとも重ならなくてもフリック・ウィンドウ325および部分画像を表示する。したがって、ユーザはフリック・ウィンドウを表示するために、操作を意図する操作オブジェクトを開始座標にする必要はない。ユーザは、人差し指の第2関節より先だけを動かして指先を素早く移動させてフライング・フリック操作をすることができる。部分画像制御部207は、部分画像313を生成して画像データ合成部205に送る。
ブロック509で画像データ合成部205は、元画像303に重ねて図7に示すフリック・ウィンドウ325を設定して部分画像313を表示する。部分画像313は操作オブジェクト301a、301b、301cに対応する操作オブジェクト315a、315b、315cを含む。ブロック509の手順は図4を参照して後に説明する。この時点では、元画像303に対するタッチ操作はない。ブロック511で近接座標生成部211は連続的に近接状態を監視し、離隔状態に移動したとき近接座標の出力を停止する。近接状態が維持されているときはブロック513に移行し、離隔状態に移動したときはブロック551に移行する。ブロック513でユーザは部分画像313が含む操作オブジェクト315aにタップ操作をする。
部分画像313が元画像303より拡大されているときは、指先で正確に操作オブジェクト315aにタップ操作をすることができる。フライング・フリック操作を終了した瞬間は、図6(B)に示すように操作オブジェクト315aの上に人差し指がないため、ユーザは図7(A)のように開始座標306の近辺に表示した部分画像313の操作オブジェクト315aを明瞭にみることができるため操作し易い。また、図7(B)のように部分画像313が開始座標306から離れた位置に存在するときは、元画像303と部分画像313の両方をみながらタップ操作をすることができるため、いずれの方法でも部分画像313をユーザに都合がよい位置に表示できる。
ブロック513でユーザが操作オブジェクト315aにタップ操作をすると接触座標処理部213が、座標を変換して元画像325が含む対応する操作オブジェクト301aの座標をユーザ・ファンクション201に送る。ブロック515でユーザ・ファンクション201は、元画像303の操作オブジェクト301aに対するタッチ操作に定義されている処理をする。ユーザ・ファンクション201は、部分画像313に対するタップ操作を処理するために部分画像313の座標を認識する必要はない。したがってユーザ・ファンクション201は、フリック・ウィンドウ325に部分画像313を表示することに伴う動作の変更をする必要がない。
フライング・フリック操作とは別に、ユーザは接触フリック操作をすることができる。ユーザ・ファンクション201は接触座標処理部213から、接触フリック操作に対応する座標データを受け取ると、画面のスクロール、ページめくり、またはソフトウェア・キーボードに対するフリック入力などに相当する処理をする。部分画像313の表示を接触フリック操作で実現する場合はこれらの機能が利用できなくなるが、本実施の形態では接触フリック操作とは別レイヤーで実現するため、それらの機能に影響を与えることはない。
ブロック551で部分画像制御部207は、指先が離隔状態に移動してから所定の時間が経過したか否かを直下座標の入力停止の時間から判断する。所定の時間が経過したときは、部分画像制御部207はブロック531で、近接状態の終了を認識して、フリック・ウィンドウ325の設定を解除して、部分画像313のデータの出力を停止する。その結果、画像データ合成部205は部分画像313の表示を消す。
したがってユーザは、一旦部分画像313が表示されても部分画像313に対するタップ操作を断念したときは、指先を離隔状態に移動させることで部分画像313を消すことができる。ブロック553で一定時間以内にふたたび指先が近接状態に移動したときは、ブロック513に移行してタップ操作が可能になる。したがって、開始座標からフライング・フリック操作を終了するまでの間に一時的に指先が離隔状態に移動しても、フライング・フリック操作を完了させることができるため、ユーザに厳密なジェスチャを強いることがなくなる。
つぎに図4を参照してブロック509の部分画像を表示する手順の一例を説明する。ブロック601でフライング・フリック操作を認識した部分画像制御部207は、ブロック603で拡大/縮小設定がされているか否かを判断する。部分画像制御部207に拡大/縮小設定がされているときはブロック651に移行し、設定されていないときはブロック605に移行する。ブロック605で部分画像制御部207は、繰り返しフライング・フリック操作が設定されているか否かを判断する。
繰り返しフライング・フリック操作は複数のフライング・フリック操作を所定の時間以内の間隔で連続的に行うことをいう。2回目以降のフライング・フリック操作は最初のフライング・フリック操作と時間的にまとまりのある一体的な操作であるとみなすことができるため、2回目以降のフライング・フリック操作の開始座標は最初のフライング・フリック操作の開始座標に一致させる必要はない。また、繰り返しフライング・フリック操作の開始座標は最初のフライング・フリック操作の開始座標とする。部分画像制御部207に繰り返しフライング・フリック操作が設定されているときはブロック631に移行し設定されてないときはブロック607に移行する。
ブロック607で部分画像制御部207は、フライング・フリック操作の方向を認識する。フライング・フリック操作の方向は、開始座標を起点にしたX−Y座標の方向とすることができる。部分画像制御部207は、あらかじめ、フライング・フリック操作の方向として開始座標306を起点にした4方向または8方向程度を定義し、それぞれの方向に対してフリック・ウィンドウ325および部分画像313の表示方法などを関連付けておくことができる。
ブロック609で部分画像制御部207は、フライング・フリック操作の移動情報からフリック・ウィンドウ325のサイズおよび形状を決める。フリック・ウィンドウ253のサイズは、デフォルトで決めておいてもよいし、フライング・フリック操作の速度または加速度に基づいて決めてもよい。たとえば部分画像制御部207は、指先の移動速度が速いほどサイズが大きくなるように設定することができる。
この場合ユーザは、フライング・フリック操作をする指先のX−Y方向での移動速度を調整するだけでフリック・ウィンドウ325のサイズを調整することができる。指先の移動にはZ軸方向の成分を含んでもよいが、部分画像制御部207はX−Y方向の成分だけを抽出することができる。ユーザはX−Y方向での指先の移動速度の調整をZ軸方向での調整に比べて容易にできる。
フリック・ウィンドウ325の形状は、縦長の長方形、横長の長方形、または円形などとすることができる。このとき部分画像制御部207は、フリック・ウィンドウ325の形状を、開始座標306の近辺に存在する操作オブジェクトの配列から決めてもよい。たとえば画像データ生成部207は、図5(A)に示すように元画像303のX軸方向に操作オブジェクト301a、301b、301cが並んでいる場合は、図7(A)、(B)に示すようにX軸方向に長い横長のフリック・ウィンドウ325を設定することができる。
また、部分画像制御部207は図10に示すように、Y軸方向に元画像303の操作オブジェクト381が並んでいる場合は、Y軸方向に長い縦長のフリック・ウィンドウ325を設定して、操作オブジェクト381に対応する操作オブジェクト383を部分画像313fの一部として表示することができる。また、開始座標306の近辺に操作オブジェクトが存在しないときは、円形や正方形のような方向性のないフリック・ウィンドウを設定することができる。
ブロック611で部分画像制御部207は、フリック・ウィンドウ325の座標を決める。フリック・ウィンドウ325の座標は、開始座標306にフリック・ウィンドウ325の重心が一致するように決めることができる。その場合にフリック・ウィンドウ325の一部が画面からはみ出るときは、図7(A)に例示するようにフリック・ウィンドウ325の操作オブジェクト315aと元画像303の操作オブジェクト301aが最も近づく位置で、かつ、フリック・ウィンドウ325が完全に画面に収まる位置に決めることができる。
他の例では、図7(B)に例示するように、フライング・フリック操作の方向で、かつ、開始座標306から所定の距離だけ離れた位置にフリック・ウィンドウ325の座標を決めることができる。このとき、部分画像制御部207はフライング・フリック操作の速度または加速度に基づいて開始座標からの距離を決めるようにしてもよい。たとえば部分画像制御部207は、速度または加速度が速いほど距離が長くなるように設定することができる。この場合ユーザは、フライング・フリック操作をする指先のX―Y方向での移動速度を調整するだけでフリック・ウィンドウ325の位置を決めることができる。
ブロック613で部分画像制御部207は、フリック・ウィンドウ325に表示する部分画像313の拡大率を決める。拡大率は、デフォルトで決めておいてもよいし、フライング・フリック操作の移動情報に基づいて決めるようにしてもよい。たとえば部分画像制御部207は、指先の移動速度が速いほど拡大率が大きくなるように設定することができる。ユーザは、フライング・フリック操作をする指先の移動速度を調整するだけで部分画像313の拡大率313を調整することができる。
ブロック614で部分画像制御部207は、接触座標処理部213にフリック・ウィンドウ325を範囲とする部分画像313の座標を通知する。以後、接触座標処理部213は、部分画像313に対するタッチ操作から検出した接触座標を元画像303の座標に変換してユーザ・ファンクション201に転送する。ブロック615で部分画像制御部207は、サイズ、形状、および座標を決定したフリック・ウィンドウ325に表示する部分画像313のデータを生成して画像データ合成部205に転送する。部分画像データ合成部205は、図3のブロック509でフリック・ウィンドウ325の位置に部分画像313を表示する。
ブロック651で部分画像制御部207はフライング・フリック操作の方向を認識する。フライング・フリック操作の方向の処理については、ブロック607に準ずることができる。いま図8(A)に示すように、部分画像制御部207は、一例としてY軸方向に方向321と方向323を定義し、方向321には図8(B)に示すように縮小した部分画像313aの生成を関連付け、方向323には図9(A)に示すように拡大した部分画像313bの生成を関連付けているとする。開始座標306は操作オブジェクトに対応する位置でも対応しない位置でもよいが、説明の便宜のために、図8(A)では開始座標320を元画像303の操作オブジェクトが存在しない位置にしている。
部分画像313aおよび部分画像313bは、開始座標320を中心にした元画像303の所定の領域を縮小または拡大した画像である。ブロック653で部分画像制御部207は、フリック・ウィンドウ325のサイズおよび形状を決める。このときの手順はブロック609の手順に準ずることができる。ブロック655で部分画像制御部207は、フリック・ウィンドウ325のサイズおよび形状を決める。このときの手順はブロック611の手順に準ずることができる。
ブロック657で部分画像制御部207は、開始座標306に対するフライング・フリック操作の方向が方向321のときは、図8(B)に示す縮小した部分画像313aのデータを生成し、方向323のときは図9(A)に示す拡大した部分画像313bのデータを生成する。部分画像313a、313bの縮小および拡大の倍率を決定する手順は、ブロック613の手順に準ずることができる。
ブロック631で部分画像制御部207は、繰り返しフライング・フリック操作が行われたか否かを判断する。部分画像制御部207は、図8(A)に示すように方向321には縮小した部分画像データの生成を関連付け、方向323には拡大した部分画像データの生成を関連付けているとする。
部分画像制御部207は、ブロック633で最初のフライング・フリック操作で方向を認識して縮小または拡大を判断する。フライング・フリック操作の方向の処理については、ブロック607に準ずることができる。部分画像制御部207は、最初のフライング・フリック操作によりブロック635でフリック・ウィンドウ325のサイズおよび形状を決定し、ブロック637でフリック・ウィンドウ325の座標を決定する。このときの手順は、ブロック609、611の手順に準ずることができる。
ブロック639で部分画像制御部207は、後続のフライング・フリック操作を認識する。方向323を認識したときに部分画像制御部207は、ブロック641で所定の時間以内に行われる後続のフライング・フリック操作を認識するたびに、図9(B)に示すようにフリック・ウィンドウ325b、325cにその直前のフリック・ウィンドウ325a、325bの部分画像313c、313dよりも拡大した部分画像313d、313eを表示するための画像データを生成する。
方向321を認識したときに部分画像制御部207は、所定時間以内に行われる後続のフライング・フリック操作を認識するたびに、フリック・ウィンドウ325にその直前よりも縮小した部分画像を表示するための画像データを生成する。なお、フリック・ウィンドウ325a〜325cのサイズは一定にして、部分画像の倍率だけを変化させてもよい。繰り返しフライング・フリック操作が設定されているときはブロック615で、ユーザがフライング・フリック操作をするたびに部分画像制御部207が、ステップ状に倍率が変化する縮小または拡大した部分画像のデータを画像データ合成部205に転送する。
これまで本発明について図面に示した特定の実施の形態をもって説明してきたが、本発明は図面に示した実施の形態に限定されるものではなく、本発明の効果を奏する限り、これまで知られたいかなる構成であっても採用することができることはいうまでもないことである。
100 ディスプレイ
100a ディスプレイの表面
200 ユーザ・インターフェース
301a〜301c、381 元画像303の操作オブジェクト
303 元画像
305 マウス・カーソル
306、320 開始座標
307 スポット画像
313、313a〜313f 部分画像
315a〜315c 部分画像313の操作オブジェクト
325、325a〜325c フリック・ウィンドウ
351a〜351b、353a〜353c、355a〜355c 操作オブジェクト
381 元画像303の操作オブジェクト
383 部分画像313の操作オブジェクト

Claims (18)

  1. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記フライング・フリック操作の開始座標を含む前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  2. 前記近接センサと前記タッチ・センサをタッチ・パネルで構成し、前記ディスプレイと前記タッチ・パネルでタッチ・スクリーンを構成した請求項1に記載のユーザ・インターフェース。
  3. 前記接触座標処理部は、前記接触状態に存在する前記指示媒体が前記元画像に対して行ったフリック操作に対応する接触座標を前記ユーザ・ファンクションに出力する請求項1に記載のユーザ・インターフェース。
  4. 前記元画像が表示するマウス・カーソルを操作するイベントを生成するためのポインティング・デバイスを有する請求項1に記載のユーザ・インターフェース。
  5. 前記部分画像制御部は、前記元画像が含む操作オブジェクトの近辺に前記部分画像が含む前記元画像の操作オブジェクトに対応する操作オブジェクトが位置するように前記部分画像を表示するためのデータを生成する請求項1に記載のユーザ・インターフェース。
  6. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接状態に存在する前記指示媒体の直下座標に表示するスポット画像のデータを生成し、前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  7. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部とを有し、
    前記部分画像制御部は、前記元画像の操作オブジェクトの真上に前記近接状態に存在する前記指示媒体が位置づけられた時に前記操作オブジェクトの表示を変化させるイベントを前記ユーザ・ファンクションに送るユーザ・インターフェース。
  8. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成し、前記部分画像を表示した後に前記指示媒体が離隔状態に移動してから所定時間が経過したときに前記部分画像の表示を停止する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  9. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成し、前記フライング・フリック操作の開始座標からの移動方向に応じて前記部分画像の前記元画像に対する位置を決定する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  10. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成し、前記フライング・フリック操作の開始座標からの移動方向に応じて前記部分画像の前記元画像に対する倍率を決定する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  11. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成し、前記フライング・フリック操作をする前記指示媒体の移動速度または移動加速度に応じて前記部分画像の前記元画像に対する倍率を決定する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  12. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成し、所定の時間間隔以内で繰り返し行われるフライング・フリック操作のたびに前記元画像に対する倍率がステップ状に変化した前記部分画像のデータを生成する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  13. 電子機器に指示媒体で入力することが可能なユーザ・インターフェースであって、
    ディスプレイと、
    元画像を表示した前記ディスプレイの表面に対して近接状態に存在する前記指示媒体の近接座標を生成するための近接センサと、
    前記ディスプレイの表面に対して接触状態に存在する前記指示媒体の接触座標を生成するためのタッチ・センサと、
    前記近接座標から前記近接状態で行われた前記指示媒体のフライング・フリック操作を認識したときに前記元画像に重ねて前記ディスプレイに前記元画像の所定の領域を拡大した部分画像を表示するためのデータを生成し、前記元画像が含む複数の操作オブジェクトの配列に応じて前記部分画像の形状およびサイズまたはいずれか一方を設定する部分画像制御部と、
    前記部分画像の接触座標を前記元画像の接触座標としてユーザ・ファンクションに出力する接触座標処理部と、
    を有するユーザ・インターフェース。
  14. 請求項1から請求項13のいずれかに記載のユーザ・インターフェースで入力が可能な電子機器。
  15. ディスプレイを備えるユーザ・インターフェースが入力を処理する方法であって、
    元画像を表示する前記ディスプレイに対して近接状態に移動した指示媒体の座標を検出するステップと、
    前記近接状態に存在する前記指示媒体の座標からフライング・フリック操作を検出するステップと、
    前記フライング・フリック操作から移動情報を抽出するステップと、
    前記フライング・フリック操作の検出に応答して前記元画像に重ねて前記元画像の所定の領域を部分的に拡大した部分画像を表示するステップと、
    前記移動情報に基づいて前記部分画像のサイズ、形状、座標、および前記元画像に対する倍率のいずれかを決定するステップと、
    前記部分画像に対するタッチ操作を前記元画像に対するタッチ操作として処理するステップと
    を有する方法。
  16. 前記ディスプレイに対して接触状態に移動した指示媒体が行った接触フリック操作を検出するステップと、
    前記接触フリック操作の検出に応答して前記元画像に対する処理をするステップと、
    を有する請求項15に記載の方法。
  17. 前記フライング・フリック操作をしないで前記元画像が含む操作オブジェクトに対するタッチ操作をするステップと、
    前記部分画像を表示しないで前記操作オブジェクトに対する処理をするステップと、
    を有する請求項15に記載の方法。
  18. 平面にX−Y座標を定義したディスプレイに対する指示媒体のジェスチャで入力することが可能なコンピュータに、
    前記ディスプレイに操作オブジェクトを含む元画像を表示する機能と、
    前記ディスプレイの表面から浮上した位置において所定値以上の速度で前記X−Y座標の方向に移動する前記指示媒体の座標を検出する機能と、
    前記座標の検出に応じて前記元画像に重ねて前記指示媒体が移動を開始した座標を含む前記元画像の所定の領域を部分的に拡大した部分画像を表示する機能と、
    前記部分画像が含む前記操作オブジェクトに対するタッチ操作を前記元画像に対するタッチ操作として処理する機能と
    実現させるためのコンピュータ・プログラム。
JP2015167570A 2015-08-27 2015-08-27 電子機器のユーザ・インターフェース、入力の処理方法および電子機器 Active JP5993072B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015167570A JP5993072B1 (ja) 2015-08-27 2015-08-27 電子機器のユーザ・インターフェース、入力の処理方法および電子機器
DE102016115479.2A DE102016115479A1 (de) 2015-08-27 2016-08-19 Nutzerschnittstelle für Elektronikgerät, Eingabeverarbeitungsverfahren und Elektronikgerät
US15/241,508 US10318047B2 (en) 2015-08-27 2016-08-19 User interface for electronic device, input processing method, and electronic device
CN201610727203.XA CN106484175B (zh) 2015-08-27 2016-08-25 电子设备的用户接口、输入的处理方法以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015167570A JP5993072B1 (ja) 2015-08-27 2015-08-27 電子機器のユーザ・インターフェース、入力の処理方法および電子機器

Publications (2)

Publication Number Publication Date
JP5993072B1 true JP5993072B1 (ja) 2016-09-14
JP2017045298A JP2017045298A (ja) 2017-03-02

Family

ID=56921050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015167570A Active JP5993072B1 (ja) 2015-08-27 2015-08-27 電子機器のユーザ・インターフェース、入力の処理方法および電子機器

Country Status (4)

Country Link
US (1) US10318047B2 (ja)
JP (1) JP5993072B1 (ja)
CN (1) CN106484175B (ja)
DE (1) DE102016115479A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7130514B2 (ja) * 2018-09-27 2022-09-05 キヤノン株式会社 情報処理装置およびその制御方法およびプログラム
JP2021176049A (ja) 2020-05-01 2021-11-04 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び情報処理方法
JP2022065419A (ja) 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072233A (ja) * 2005-09-08 2007-03-22 Matsushita Electric Ind Co Ltd 情報表示装置
JP2010271774A (ja) * 2009-05-19 2010-12-02 Sony Corp 情報処理装置、画像拡大縮小方法及びそのプログラム
JP2011134271A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012043452A (ja) * 2011-10-05 2012-03-01 Toshiba Corp 情報処理装置およびタッチ操作支援プログラム
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2013196203A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd 入力制御装置、入力制御プログラム、及び入力制御方法
JP2014035695A (ja) * 2012-08-09 2014-02-24 Panasonic Corp 表示制御装置、表示制御方法及びプログラム
JP2014115876A (ja) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
JP2015510211A (ja) * 2012-03-15 2015-04-02 ノキア コーポレイション タッチスクリーンホバリング入力処理

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165769A (ja) 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd タッチパネル表示制御方法及びそれを記録した記録媒体
KR100900295B1 (ko) * 2008-04-17 2009-05-29 엘지전자 주식회사 이동 디바이스와 이동 통신 시스템의 사용자 인터페이스방법
JP4843696B2 (ja) 2009-06-30 2011-12-21 株式会社東芝 情報処理装置およびタッチ操作支援プログラム
JP5675622B2 (ja) 2009-09-02 2015-02-25 レノボ・イノベーションズ・リミテッド(香港) 表示装置
US9129045B2 (en) 2010-04-23 2015-09-08 C Speed, Llc Interactive magnification tool
WO2012132802A1 (ja) 2011-03-28 2012-10-04 富士フイルム株式会社 タッチパネル装置及びその表示方法並びに表示用プログラム
EP2624116B1 (en) * 2012-02-03 2017-09-06 EchoStar Technologies L.L.C. Display zoom controlled by proximity detection
JP5828800B2 (ja) 2012-04-23 2015-12-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示装置、表示制御方法及びプログラム
US9075507B2 (en) * 2013-03-14 2015-07-07 Cellco Partnership Silence reminder

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072233A (ja) * 2005-09-08 2007-03-22 Matsushita Electric Ind Co Ltd 情報表示装置
JP2010271774A (ja) * 2009-05-19 2010-12-02 Sony Corp 情報処理装置、画像拡大縮小方法及びそのプログラム
JP2011134271A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012043452A (ja) * 2011-10-05 2012-03-01 Toshiba Corp 情報処理装置およびタッチ操作支援プログラム
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2015510211A (ja) * 2012-03-15 2015-04-02 ノキア コーポレイション タッチスクリーンホバリング入力処理
JP2013196203A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd 入力制御装置、入力制御プログラム、及び入力制御方法
JP2014035695A (ja) * 2012-08-09 2014-02-24 Panasonic Corp 表示制御装置、表示制御方法及びプログラム
JP2014115876A (ja) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法

Also Published As

Publication number Publication date
CN106484175B (zh) 2019-06-25
JP2017045298A (ja) 2017-03-02
DE102016115479A1 (de) 2017-03-02
US10318047B2 (en) 2019-06-11
US20170060324A1 (en) 2017-03-02
CN106484175A (zh) 2017-03-08

Similar Documents

Publication Publication Date Title
JP6215534B2 (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
Pfeuffer et al. Gaze and touch interaction on tablets
US9223471B2 (en) Touch screen control
EP3803562B1 (en) Devices, methods, and user interfaces for conveying proximity-based and contact-based input events
US9600090B2 (en) Multi-touch integrated desktop environment
US8988366B2 (en) Multi-touch integrated desktop environment
WO2013018480A1 (ja) タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム
US9335899B2 (en) Method and apparatus for executing function executing command through gesture input
US20120174044A1 (en) Information processing apparatus, information processing method, and computer program
JP2012118796A (ja) 情報処理装置、情報処理方法及びプログラム
JP6161418B2 (ja) 画像形成装置、画像形成装置の制御方法、並びにコンピュータプログラム
US20150169122A1 (en) Method for operating a multi-touch-capable display and device having a multi-touch-capable display
JP6248462B2 (ja) 情報処理装置及びプログラム
KR20150094967A (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
WO2018019050A1 (zh) 基于触敏表面—显示器的手势控制交互方法与设备
US9262005B2 (en) Multi-touch integrated desktop environment
CN103513914A (zh) 应用对象的触摸控制方法与装置
JP5993072B1 (ja) 電子機器のユーザ・インターフェース、入力の処理方法および電子機器
EP2661671B1 (en) Multi-touch integrated desktop environment
KR20130054990A (ko) 듀얼 터치 경험 필드를 달성하기 위한 싱글 터치 프로세스
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
JP2018116605A (ja) 表示制御装置及び表示制御方法
KR20150062677A (ko) 호버링을 이용하는 가상 터치패드 조작방법 및 이를 수행하는 단말기
KR20130077137A (ko) 터치 입력수단을 구비하는 입력장치 및 그 입력 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160818

R150 Certificate of patent or registration of utility model

Ref document number: 5993072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250