JP2013011983A - Electronic apparatus, control method and control program - Google Patents
Electronic apparatus, control method and control program Download PDFInfo
- Publication number
- JP2013011983A JP2013011983A JP2011143341A JP2011143341A JP2013011983A JP 2013011983 A JP2013011983 A JP 2013011983A JP 2011143341 A JP2011143341 A JP 2011143341A JP 2011143341 A JP2011143341 A JP 2011143341A JP 2013011983 A JP2013011983 A JP 2013011983A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- display unit
- detected
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、電子機器、制御方法および制御プログラムに関する。 The present invention relates to an electronic device, a control method, and a control program.
近年、携帯電話端末等の電子機器の多くがタッチパネルを備えるようになっている。利用者は、電子機器が備えるタッチパネルに表示されるオブジェクトに対して、指またはスタイラス等でタッチ操作を行うことにより、オブジェクトに関する処理を直感的に実行することができる。特許文献1では、長押しまたは短押し等を行ってから各種のタッチ操作を行うことにより、タッチ操作によって実行される処理を切り替える技術が開示されている。
In recent years, many electronic devices such as mobile phone terminals are provided with a touch panel. A user can intuitively execute processing related to an object by touching the object displayed on the touch panel included in the electronic device with a finger or a stylus.
タッチパネルは、オブジェクトに対する直感的な操作を可能にする反面で、検出できるタッチ操作の種類が限られる。このため、オブジェクトの移動や転記のためのタッチ操作が、他のタッチ操作と競合する場合がある。特許文献1で開示されている技術のように、他の操作を組み合わせることによって、それぞれのタッチ操作に割り当てる処理を増やし、競合を回避することも可能であるが、関連のない操作を組み合わせると操作の直感性が失われるおそれがある。
While the touch panel enables intuitive operations on objects, the types of touch operations that can be detected are limited. For this reason, a touch operation for moving or posting an object may conflict with another touch operation. As in the technique disclosed in
本発明は、上記に鑑みてなされたものであって、他の操作と競合することなく、利用者がオブジェクトを移動または転記させる操作を直感的に実行することができる電子機器、制御方法および制御プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an electronic apparatus, a control method, and a control that allow a user to intuitively execute an operation of moving or transcribing an object without competing with other operations. The purpose is to provide a program.
本発明に係る電子機器は、1つの態様において、オブジェクトを表示する表示部と、前記表示部上での第1の物体および第2の物体の位置を検出する検出部と、前記検出部によって検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させる制御部とを備える。 In one aspect, an electronic device according to the present invention is detected by a display unit that displays an object, a detection unit that detects positions of the first object and the second object on the display unit, and the detection unit. And a control unit that changes the display of the object when the positions of the first object and the second object are in the vicinity of the object displayed on the display unit.
また、本発明に係る電子機器の他の態様において、前記制御部は、表示を変化させた前記オブジェクトを選択し、その後、前記オブジェクトの表示領域以外の前記表示部上の位置で所定の動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該位置へ移動または転記する。 In another aspect of the electronic apparatus according to the present invention, the control unit selects the object whose display has been changed, and then performs a predetermined operation at a position on the display unit other than the display area of the object. When detected by the detection unit, the selected object is moved or transferred to the position.
また、本発明に係る制御方法は、1つの態様において、表示部を備える電子機器によって実行される制御方法であって、前記表示部にオブジェクトを表示するステップと、前記表示部上での第1の物体および第2の物体の位置を検出するステップと、検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップとを含む。 The control method according to the present invention is, in one aspect, a control method executed by an electronic device including a display unit, the step of displaying an object on the display unit, and a first on the display unit Detecting the positions of the object and the second object, and when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit Changing the display of.
また、本発明に係る制御プログラムは、1つの態様において、表示部を備える電子機器に、前記表示部にオブジェクトを表示するステップと、前記表示部上での第1の物体および第2の物体の位置を検出するステップと、検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップとを実行させる。 In one aspect, the control program according to the present invention includes a step of displaying an object on the display unit on an electronic device including the display unit, and the first object and the second object on the display unit. Detecting a position; and changing the display of the object when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit. Let it run.
本発明は、他の操作と競合することなく、利用者がオブジェクトを移動または転記させる操作を直感的に実行することができるという効果を奏する。 The present invention has an effect that a user can intuitively execute an operation of moving or transcribing an object without competing with other operations.
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA(Personal Data Assistance)、ポータブルナビゲーション装置、パソコン、ゲーム機等に対しても本発明は適用できる。 Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of an electronic device. However, the application target of the present invention is not limited to a mobile phone terminal. For example, PHS (Personal Handyphone System), PDA (Personal Data Assistance), The present invention can also be applied to portable navigation devices, personal computers, game machines, and the like.
まず、図1および図2を参照しながら、本実施例に係る携帯電話端末(電子機器)1の構成について説明する。図1は、携帯電話端末1の外観を示す正面図である。図2は、携帯電話端末1の機能的な構成を示すブロック図である。
First, the configuration of a mobile phone terminal (electronic device) 1 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a front view showing the appearance of the
図1および図2に示すように、携帯電話端末1は、操作部13と、マイク15と、レシーバ16と、制御部22と、記憶部24と、通信部26と、音声処理部30と、タッチパネル32とを有する。操作部13、マイク15、レシーバ16、およびタッチパネル32は、携帯電話端末1の正面に一部が露出する。
As shown in FIGS. 1 and 2, the
操作部13は、物理的なボタンを有し、押下されたボタンに対応する信号を制御部22へ出力する。なお、図1に示す例では、操作部13は1つのボタンのみを有しているが、操作部13が有するボタンの数は任意でよい。
The
マイク15は、外部の音声を取得する。レシーバ16は、通話時に通話相手の音声を出力する。音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から入力されるデジタル信号を復号してレシーバ16へ出力する。
The
通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介して、基地局との間にCDMA(Code Division Multiple Access)方式等による無線信号回線を確立する。通信部26は、基地局との間に確立された無線信号回線を通じて、他の装置との間で電話通信および情報通信を行う。
The
タッチパネル32は、文字、図形、画像等の各種の情報を表示するとともに、表示されたアイコン、ボタン、文字入力領域等の所定領域に対する入力操作を検出する。タッチパネル32は、表示部32aと、タッチセンサ32bとを重畳して構成される。
The
表示部32aは、液晶ディスプレイ(Liquid Crystal Display)または有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、制御部22から入力される制御信号に従って各種の情報を表示する。
The
タッチセンサ32bは、タッチパネル32の表面に対して行われる入力操作を検出し、検出した入力操作に応じた信号を制御部22へ出力する。すなわち、タッチセンサ32bは、利用者の操作を検出する検出部として機能する。タッチセンサ32bが各種操作を検出する方式は、例えば、静電容量方式、光学方式、または赤外線方式である。タッチセンサ32bによって検出される操作には、タップ操作、ダブルタップ操作、ロングタップ操作、スイープ(スワイプ)操作、フリック操作等が含まれる。
The
タップ操作とは、指をタッチパネル32に接触させた後すぐにタッチパネル32から離す操作である。ダブルタップ操作とは、指をタッチパネル32に接触させた後すぐにタッチパネル32から離す動作を2回繰り返す操作である。ロングタップ操作とは、指をタッチパネル32に接触させ、指がタッチパネル32に接触した状態を一定時間保った後に指をタッチパネル32から離す操作である。スイープ操作とは、指をタッチパネル32に接触させたままで移動させる操作である。スイープ操作は、タッチパネル32に表示されている何らかのオブジェクトがその操作に追随して移動する場合、ドラッグ操作と呼ばれることがある。フリック操作とは、指をタッチパネル32に接触させた後、何かを素早く払うように指を一方方向に高速で移動させる操作である。
The tap operation is an operation of releasing a finger from the
制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムおよびデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、表示部32a等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータおよびタッチセンサ32b等から入力される信号がパラメータまたは判定条件の一部として利用される。
The
記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置を含み、各種のプログラムおよびデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24aは、記憶媒体に記憶される。また、制御プログラム24aは、通信部26による無線通信によってサーバ装置等の他の装置から取得することとしてもよい。
The storage unit 24 includes a nonvolatile storage device such as a flash memory, and stores various programs and data. The program stored in the storage unit 24 includes a
制御プログラム24aは、携帯電話端末1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、利用者の操作を検出し、検出された操作に応じた処理を行う機能が含まれる。
The
次に、図3から図6を参照しながら、制御プログラム24aが提供する機能に基づいて実行される制御の例について説明する。図3および図4は、オブジェクトの移動操作について説明するための図である。図3は、タッチパネル32の正面からみた移動操作の流れを図示している。図4は、タッチパネル32の側方からみた移動操作の流れを図示している。なお、図4では、移動されるオブジェクトの位置が模式的に示されているが、タッチパネル32を側方からみた場合に、必ずしもこのようにオブジェクトの位置が分かるわけではない。
Next, an example of control executed based on the function provided by the
図3および図4に示すステップS11では、アイコンIC1を含む複数のアイコンが配置された標準画面(デスクトップ、ホーム画面、または壁紙ともいう)がタッチパネル32に表示されている。アイコンは、プログラムまたはデータに対応する画像を含むオブジェクトである。携帯電話端末1は、アイコンに対してタップ操作等の所定の操作が検出されると、アイコンに対応する処理を開始させる。
In step S11 shown in FIGS. 3 and 4, a standard screen (also referred to as a desktop, home screen, or wallpaper) on which a plurality of icons including the icon IC1 are arranged is displayed on the
利用者は、アイコンIC1を他の場所へ移動させたい場合、ステップS12に示すように、指F1および指F2をアイコンIC1の近傍でタッチパネル32に接触させ、さらに、指F1および指F2をアイコンIC1の表示領域の中心に近づける。携帯電話端末1は、アイコンIC1等の選択可能なオブジェクトの近傍でタッチパネル32に接触した2つの物体がオブジェクトの表示領域の中心に近づくのが検出されると、ステップS13に示すように、そのオブジェクトを選択状態にする。
When the user wants to move the icon IC1 to another location, as shown in step S12, the user brings the finger F1 and the finger F2 into contact with the
そして、携帯電話端末1は、オブジェクトの表示態様を変更し、それによって、オブジェクトが選択状態になったことを利用者に通知する。選択状態になったことの通知は、例えば、オブジェクトの全体または外周の色または明るさを変更することによって実現される。このような視覚的な通知に代えて、あるいは、このような視覚的な通知に加えて、音または振動による通知を行ってもよい。
Then, the
利用者は、アイコンIC1が選択状態になったことを確認すると、ステップS14に示すように、指F1および指F2を、間隔を保ったままで、タッチパネル32から離し、アイコンIC1の移動先へ向けて移動させる。
When the user confirms that the icon IC1 has been selected, as shown in step S14, the finger F1 and the finger F2 are separated from the
携帯電話端末1は、いずれかのオブジェクトを選択状態にした場合に、タッチパネル32の感度を高める。そのため、携帯電話端末1は、タッチパネル32から離れて移動する指F1および指F2の位置を検出することができる。例えば、タッチセンサ32bの検出方式が静電容量方式の場合、タッチパネル32は、感度を高めることにより、指F1との距離Dが数cmあってもタッチパネル32上の指F1の位置を検出することができる。
The
携帯電話端末1は、オブジェクトを選択状態に遷移させた複数の物体が間隔を保ちながらタッチパネル32から離れて移動するのを検出すると、物体の移動に追随するように、オブジェクトに対応する画像IM1をタッチパネル32に表示する。画像IM1は、例えば、対応するオブジェクトと同一の外観を有する画像、対応するオブジェクトを半透明で表示する画像、または対応する画像と略同じ大きさの枠である。このように画像IM1を表示することにより、利用者は、アイコンIC1の移動先の位置を正確に知ることができる。なお、画像IM1ではなく、アイコンIC1そのものを物体の移動に追随して移動させてもよい。
When the
利用者は、指F1および指F2が目的地に到達すると、ステップS15に示すように、指F1および指F2の間隔を拡げる。携帯電話端末1は、移動していた物体の間隔が所定の距離よりも拡がったことを検出すると、それらの物体の中心付近に選択状態のオブジェクトを移動させ、オブジェクトの選択状態を解除する。また、携帯電話端末1は、タッチパネル32の感度を元に戻す。その結果、ステップS16に示すように、アイコンIC1は、利用者が意図した位置に移動される。なお、ここでいう所定の距離とは、例えば、移動すべきオブジェクトのサイズに、指が無意識のうちに拡がりうる距離を加算した距離である。
When the finger F1 and the finger F2 reach the destination, the user widens the interval between the finger F1 and the finger F2, as shown in step S15. When the
このように、本実施例では、利用者は、オブジェクトの近傍で指をタッチパネル32に接触させ、さらに、指をオブジェクトの表示領域の中心に近づけることにより、移動させたいオブジェクトを選択することができる。かかる動作は、現実のオブジェクトを摘んで選択する動作と類似しており、利用者にとって直感的で分かりやすい。
As described above, in this embodiment, the user can select an object to be moved by bringing the finger into contact with the
また、本実施例では、利用者は、オブジェクトを選択した指を間隔を保ったままでタッチパネル32から離して移動させ、目的の場所で指の間隔を拡げることにより、選択したオブジェクトを目的の場所へ移動させることができる。かかる動作は、現実のオブジェクトを持ち上げて運び、目的の場所に落とす動作と類似しており、利用者にとって直感的で分かりやすい。
In this embodiment, the user moves the selected object to the target location by moving the selected finger away from the
また、標準画面では、タップ操作は、オブジェクトに対応する処理の起動等に割り当てられ、スイープ操作は、標準画面の他のページへの遷移等に割り当てられることが多いが、本実施例の移動操作は、検出される指の動作がこれらの従来の操作時の動作と重複しない。このため、本実施例に係る制御方法は、従来の操作と競合することなく、オブジェクトを移動させるための操作を実現することができる。 On the standard screen, the tap operation is assigned to start processing corresponding to the object, and the sweep operation is often assigned to transition to another page of the standard screen. The finger movements detected do not overlap with those of the conventional operation. For this reason, the control method according to the present embodiment can realize an operation for moving an object without competing with a conventional operation.
また、本実施例では、オブジェクトを選択状態にした物体がタッチパネル32から離れて目的の位置まで移動している間だけタッチパネル32の感度が高められる。このため、タッチパネル32から離れて移動する物体の位置を検出することを可能にしつつ、感度を高めることによる消費電力の増大を抑制することができる。
In the present embodiment, the sensitivity of the
携帯電話端末1は、図3および図4に示した動作以外の動作もオブジェクトの移動操作として受け付ける。例えば、携帯電話端末1は、オブジェクトが選択状態にした指をタッチパネル32から離して移動させた後、指をタッチパネル32に接触させてオブジェクトの移動先を確定させる動作も移動操作として受け付ける。
The
図5および図6は、指をタッチパネル32に接触させてオブジェクトの移動先を確定させる移動操作について説明するための図である。図5は、タッチパネル32の正面からみた移動操作の流れを図示している。図6は、タッチパネル32の側方からみた移動操作の流れを図示している。なお、図6では、移動されるオブジェクトの位置が模式的に示されているが、タッチパネル32を側方からみた場合に、必ずしもこのようにオブジェクトの位置が分かるわけではない。
FIG. 5 and FIG. 6 are diagrams for explaining a moving operation for making a finger touch the
ステップS21からステップS24は、既に説明したステップS11からステップS14と同様であるので説明を省略する。利用者は、タッチパネル32から離れて移動する指F1および指F2が目的地に到達すると、ステップS25に示すように、指F1および指F2の少なくとも一方をタッチパネル32に接触させる。
Steps S21 to S24 are the same as steps S11 to S14 that have already been described, and a description thereof will be omitted. When the finger F1 and the finger F2 moving away from the
携帯電話端末1は、移動していた物体がタッチパネル32に再び接触したことを検出すると、それらの物体の中心付近に選択状態のオブジェクトを移動させ、オブジェクトの選択状態を解除する。また、携帯電話端末1は、タッチパネル32の感度を元に戻す。その結果、ステップS26に示すように、アイコンIC1は、利用者が意図した位置に移動される。
When the
このように、本実施例では、利用者は、オブジェクトを選択した指をタッチパネル32から離して移動させ、目的の場所で指をタッチパネル32に再び接触させることにより、選択したオブジェクトを目的の場所へ移動させることができる。かかる動作は、現実のオブジェクトを持ち上げて運び、目的の場所に置く動作と類似しており、利用者にとって直感的で分かりやすい。また、かかる動作は、従来の操作時の動作と重複しない。
As described above, in this embodiment, the user moves the finger that has selected the object away from the
なお、図3から図6では、オブジェクトの移動操作について説明したが、上記の操作によって、オブジェクトが移動されるのではなく、オブジェクトが転記されることとしてもよい。操作によってオブジェクトが移動されるか転記されるかについては、利用者が予め行った設定に基づいて決定してもよいし、場面に応じて決定してもよい。場面に応じた決定は、タッチパネル32に表示されている画面に応じて行われてもよいし、利用者が同時または事前に行う他の操作(操作部13の押下等)に応じて行われてもよい。
3 to 6, the object moving operation has been described, but the object may be transferred instead of being moved by the above operation. Whether the object is moved or transcribed by the operation may be determined based on a setting made in advance by the user or may be determined according to the scene. The determination according to the scene may be made according to the screen displayed on the
次に、図7を参照しながら、移動(転記)処理の処理手順について説明する。図7は、移動(転記)処理の処理手順を示すフローチャートである。図7に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。図7に示す処理手順は、オブジェクトの操作に関する他の処理手順と並行して実行されてもよい。
Next, the processing procedure of the movement (transcription) process will be described with reference to FIG. FIG. 7 is a flowchart showing the processing procedure of the movement (transcription) processing. The processing procedure shown in FIG. 7 is realized by the
図7に示すように、制御部22は、まず、ステップS101として、オブジェクトを表示する。そして、制御部22は、ステップS102として、タッチパネル32によって、第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体は、例えば、利用者の指である。
As shown in FIG. 7, the
第1の物体および第2の物体が検出された場合(ステップS102,Yes)、制御部22は、ステップS103として、選択動作が検出されたかを判定する。選択動作とは、表示されているオブジェクトを選択するための動作である。選択動作は、例えば、移動または転記したいオブジェクトの近傍で複数の指をタッチパネル32に接触させ、指をオブジェクトの表示領域の中心に近づける動作である。
When the first object and the second object are detected (step S102, Yes), the
選択動作が検出された場合(ステップS103,Yes)、制御部22は、ステップS104として、選択動作が検出された位置に表示されているオブジェクトを選択状態にする。そして、制御部22は、ステップS105として、第1の物体および第2の物体がタッチパネル32から離れてもそれらの位置を検出できるように、タッチパネル(検出部)32の感度を上げる。
When the selection operation is detected (Yes at Step S103), the
続いて、制御部22は、ステップS106として、第1の物体および第2の物体の現在位置を取得する。現在位置を取得できた場合(ステップS107,Yes)、制御部22は、ステップS108として、選択状態のオブジェクトに対応する画像を現在位置に表示させる。そして、制御部22は、ステップS109として、確定動作が検出されたかを判定する。
Subsequently, in step S106, the
確定動作とは、オブジェクトの移動先を確定するための動作である。確定動作は、例えば、第1の物体および第2の物体の間隔を所定の距離よりも拡げる動作、またはタッチパネル32から離れて移動する第1の物体および第2の物体を再びタッチパネル32に接触させる動作である。
The confirmation operation is an operation for confirming the movement destination of the object. The confirming operation is, for example, an operation of expanding the interval between the first object and the second object beyond a predetermined distance, or bringing the first object and the second object moving away from the
確定動作が検出されない場合(ステップS109,No)、制御部22は、ステップS106以降を再実行する。確定動作が検出された場合、すなわち、オブジェクトの移動先が確定した場合(ステップS109,Yes)、制御部22は、ステップS110として、現在位置に他のオブジェクトが表示されているかを判定する。
When the confirming operation is not detected (No at Step S109), the
現在位置に他のオブジェクトが表示されていない場合(ステップS110,No)、制御部22は、ステップS111として、選択状態のオブジェクトを現在位置へ移動または転記する。そして、制御部22は、ステップS112として、オブジェクトの選択状態を解除し、ステップS113として、タッチパネル(検出部)32の感度を元に戻す。
When no other object is displayed at the current position (No at Step S110), the
続いて、制御部22は、ステップS114として、操作終了が検出されたかを判定する。操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出されてもよいし、タッチパネル32に対する所定の操作が行われた場合に検出されてもよい。操作終了が検出された場合(ステップS114,Yes)、制御部22は、移動(転記)処理を終了させる。操作終了が検出されない場合(ステップS114,No)、制御部22は、ステップS102以降を再実行する。
Subsequently, in step S114, the
ステップS102で第1の物体および第2の物体が検出されない場合(ステップS102,No)、またはステップS103で選択動作が検出されない場合(ステップS103,No)、制御部22は、ステップS114以降を実行する。
When the first object and the second object are not detected in step S102 (step S102, No), or when the selection operation is not detected in step S103 (step S103, No), the
ステップS107で第1の物体および第2の物体の現在位置を取得できない場合(ステップS107,No)、制御部22は、オブジェクトの移動または転記をキャンセルして、ステップS112以降を実行する。第1の物体および第2の物体の現在位置を取得できない場合には、第1の物体および第2の物体がタッチパネル32から離れ過ぎた場合が含まれる。
When the current positions of the first object and the second object cannot be acquired in step S107 (No in step S107), the
また、ステップS110で現在位置に他のオブジェクトが表示されている場合にも(ステップS110,Yes)、制御部22は、オブジェクトの移動または転記をキャンセルして、ステップS112以降を実行する。
Also, when another object is displayed at the current position in step S110 (step S110, Yes), the
上述してきたように、本実施例では、タッチパネルを用いた従来の操作と競合することなく、直感的な操作により、オブジェクトの移動または転記を実現することができる。 As described above, in this embodiment, the object can be moved or transcribed by an intuitive operation without competing with the conventional operation using the touch panel.
なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例で示した制御プログラム24aは、複数のモジュールに分割されていてもよいし、他のプログラムと統合されていてもよい。
In addition, the aspect of this invention shown by said Example can be arbitrarily changed in the range which does not deviate from the summary of this invention. For example, the
また、上記の実施例では、アイコンを移動または転記する例を示したが、本発明を用いて移動または転記されるオブジェクトはアイコンに限定されない。本発明を用いることにより、例えば、各種編集画面内の文字、図形、または画像等の編集要素、もしくは、ゲーム中のトランプまたは駒等のアイテムを移動または転記できるようにしてもよい。 Moreover, although the example which moves or transcribe | transfers an icon was shown in said Example, the object moved or transcribed using this invention is not limited to an icon. By using the present invention, for example, editing elements such as characters, graphics, or images in various editing screens, or items such as playing cards or pieces in a game may be moved or transcribed.
また、上記の実施例では、2次元のオブジェクトを移動または転記する例を示したが、本発明を用いて立体的に3次元表示されたオブジェクトを移動または転記できるようにしてもよい。オブジェクトの立体表示は、両眼の視差を利用して実現される。立体表示を実現する方式は、眼鏡を利用する方式でもよいし、裸眼で実現可能な方式でもよい。オブジェクトが立体表示される場合、指がタッチパネル32に接触していなくても選択動作および確定動作が検出されることが好ましい。
In the above-described embodiment, an example in which a two-dimensional object is moved or transcribed has been shown. However, an object displayed in a three-dimensional manner using the present invention may be moved or transcribed. The stereoscopic display of the object is realized using binocular parallax. The method for realizing the stereoscopic display may be a method using glasses or a method that can be realized with the naked eye. When the object is stereoscopically displayed, it is preferable that the selection operation and the confirmation operation are detected even if the finger is not in contact with the
また、上記の実施例では、指F1および指F2が間隔を保った状態でオブジェクトの選択、移動(転記)を行ったが、指F1および指F2を接触させた状態でオブジェクトの選択、移動(転記)を行ってもよい。 In the above-described embodiment, the object is selected and moved (transcribed) with the finger F1 and the finger F2 kept spaced from each other. However, the object is selected and moved with the finger F1 and the finger F2 in contact ( (Posting) may be performed.
また、上記の実施例では、利用者が、選択動作を行った後、目的の位置まで指をタッチパネルから離して移動させることとしたが、利用者が、目的の位置まで指をタッチパネルに接触させたままで移動させて確定動作を行った場合に、オブジェクトが移動または転記されてもよい。 In the above embodiment, the user moves the finger away from the touch panel to the target position after performing the selection operation. However, the user touches the touch panel to the target position. The object may be moved or transcribed when it is moved as it is and the confirmation operation is performed.
また、上記の実施例では、オブジェクトが選択状態になったときにオブジェクトの表示態様を変更することとしたが、オブジェクトを選択状態にした指がタッチパネルから離れたときにもオブジェクトの表示態様を変更してよい。例えば、指の上昇にともなってオブジェクトがめくれ上がる様子をアニメーション表示してもよい。また、タッチパネルが立体表示に対応している場合、オブジェクトを選択状態にした指がタッチパネルから離れるまではオブジェクトが基底面上に置かれ、指の上昇にともなってオブジェクトが浮き上がるように立体表示してもよい。 In the above embodiment, the display mode of the object is changed when the object is selected. However, the display mode of the object is also changed when the finger that has selected the object is separated from the touch panel. You can do it. For example, an animation may be displayed in which the object turns up as the finger is raised. Also, if the touch panel supports 3D display, the object is placed on the base until the finger with the selected object is released from the touch panel, and the object is displayed in 3D as the finger is lifted. Also good.
また、上記の実施例では、オブジェクトに対する操作を指で行うこととしたが、手等の身体の他の部位、または先端に静電気を帯びた棒等の道具を用いてオブジェクトを操作することとしてもよい。 In the above embodiment, the operation on the object is performed with a finger. However, the object may be operated using a tool such as a stick charged with static electricity on another part of the body such as a hand or the tip. Good.
また、上記の実施例では、移動先に他のオブジェクトがある場合にはオブジェクトの移動または転記をキャンセルすることとしたが、移動先に存在するオブジェクトがコンテナオブジェクトである場合には、コンテナオブジェクト内への移動または転記を実行してもよい。コンテナオブジェクトとは、他のオブジェクトを格納可能なオブジェクト、例えば、フォルダまたはゴミ箱である。 In the above embodiment, when there is another object at the destination, the movement or transcription of the object is canceled. However, when the object existing at the destination is a container object, Move or post to may be performed. A container object is an object that can store other objects, for example, a folder or a trash can.
図8は、移動先がコンテナオブジェクトである場合の移動操作について説明するための図である。ステップS31からステップS34は、タッチパネル32上にフォルダアイコンIC2がさらに表示されていることを除いて、既に説明したステップS11からステップS14と同一である。フォルダアイコンIC2は、他のアイコンを格納することができるコンテナオブジェクトである。
FIG. 8 is a diagram for explaining the movement operation when the movement destination is a container object. Steps S31 to S34 are the same as steps S11 to S14 already described, except that the folder icon IC2 is further displayed on the
利用者は、タッチパネル32から離れて移動する指F1および指F2が目的地であるフォルダアイコンIC2の上に到達すると、ステップS35に示すように、確定動作を実行する。携帯電話端末1は、コンテナオブジェクト上で確定動作を検出すると、選択状態のオブジェクトの選択状態を解除し、コンテナオブジェクトに格納する。また、携帯電話端末1は、タッチパネル32の感度を元に戻す。その結果、ステップS36に示すように、アイコンIC1は、フォルダアイコンIC2に格納され、表示されなくなる。
When the finger F1 and the finger F2 moving away from the
また、上記の実施例では、オブジェクトの近傍で指をタッチパネルに接触させ、指をオブジェクトの表示領域の中心へ近づける動作が選択動作として検出されることとしたが、本発明において検出される選択動作は、かかる動作に限定されない。 Further, in the above embodiment, the operation of bringing a finger into contact with the touch panel near the object and bringing the finger closer to the center of the display area of the object is detected as the selection operation. However, the selection operation detected in the present invention Is not limited to such an operation.
図9は、他の選択動作について説明するための図である。図9に示すステップS41では、既に説明したステップS11と同様に、アイコンIC1を含む複数のアイコンが配置された標準画面がタッチパネル32に表示されている。利用者は、アイコンIC1を他の場所へ移動させたい場合、ステップS42に示すように、指F1、指F2および指F3をアイコンIC1の近傍でタッチパネル32に接触させ、さらに、指F1、指F2および指F3をアイコンIC1の表示領域の中心に近づける。
FIG. 9 is a diagram for explaining another selection operation. In step S41 shown in FIG. 9, a standard screen on which a plurality of icons including the icon IC1 are arranged is displayed on the
携帯電話端末1は、アイコンIC1等の選択可能なオブジェクトの近傍でタッチパネル32に接触した3つ以上の物体がオブジェクトの表示領域の中心に近づくのが検出されると、ステップS43に示すように、そのオブジェクトを選択状態にする。それ以降のステップS44からステップS46は、既に説明したステップS14からステップS16と同様であるので説明を省略する。
When the
図10は、他の選択動作について説明するための図である。図10に示すステップS51では、既に説明したステップS11と同様に、アイコンIC1を含む複数のアイコンが配置された標準画面がタッチパネル32に表示されている。利用者は、アイコンIC1を他の場所へ移動させたい場合、ステップS52に示すように、指F1および指F2をアイコンIC1の近傍でタッチパネル32に接触させ、さらに、指F2を静止させたままで指F1を指F2に近づける。
FIG. 10 is a diagram for explaining another selection operation. In step S51 shown in FIG. 10, a standard screen on which a plurality of icons including the icon IC1 are arranged is displayed on the
携帯電話端末1は、アイコンIC1等の選択可能なオブジェクトの近傍または表示領域内でタッチパネル32に接触した複数の物体の一部が静止し、その他が静止している物体に近づくのが検出されると、ステップS53に示すように、そのオブジェクトを選択状態にする。それ以降のステップS54からステップS56は、既に説明したステップS14からステップS16と同様であるので説明を省略する。
The
図9および図10に示すように、携帯電話端末1は、3本以上の指を用いた操作、または一方の指を静止させた操作を選択動作として受け付けてよい。タッチパネルを用いた従来の操作には、2つの指を同時に逆方向にスイープして画面を拡大縮小させる操作(ピンチ操作)が含まれるが、図9および図10に示した選択動作は、従来の2つの指を用いる操作と判別可能である。
As shown in FIGS. 9 and 10, the
その他、携帯電話端末1は、例えば、予めオブジェクトの大きさに合うように拡げた複数の指を、オブジェクトを囲む(挟む)ような配置でタッチパネルに接触させる動作を選択動作として受け付けてもよい。すなわち、携帯電話端末1は、オブジェクトの表示領域の中心に指を近づける動作を伴うことなく、オブジェクトの近傍に複数の指を接触させる動作を選択動作として受け付けてもよい。また、携帯電話端末1は、オブジェクトの近傍に複数の指を所定の時間以上継続して接触させる動作を選択動作として受け付けてもよい。
In addition, for example, the
また、上記実施例では、表示されるオブジェクトに対する操作を検出するためにタッチセンサを検出部として用いる例を示したが、検出部はこれに限られない。例えば、撮影部を検出部として用いてもよい。図11を参照しながら、撮影部を検出部として用いる例について説明する。図11は、撮影部を検出部として用いる携帯電話端末(電子機器)2の外観を示す正面図である。図11に示すように、携帯電話端末2は、撮影部40および撮影部42を備える点において携帯電話端末1と異なる。
Moreover, although the example which uses a touch sensor as a detection part in order to detect operation with respect to the displayed object was shown in the said Example, a detection part is not restricted to this. For example, an imaging unit may be used as the detection unit. An example in which the photographing unit is used as a detection unit will be described with reference to FIG. FIG. 11 is a front view showing an external appearance of a mobile phone terminal (electronic device) 2 using the photographing unit as a detection unit. As shown in FIG. 11, the mobile phone terminal 2 is different from the
撮影部40および42は、CCD(Charge Coupled Device Image Sensor)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮影する。そして、撮影部40および42は、撮影した画像を信号に変換して制御部22へ出力する。撮影部40および42は、タッチパネル32に表示されるオブジェクトを操作する物体を検出する検出部としても機能する。
The
携帯電話端末2は、複数の撮影部を備えるため、他の指等が障害となってオブジェクトを操作する物体を撮影できない事態の発生を抑止できる。なお、携帯電話端末2が備える撮影部の数は、2つに限定されない。また、撮影部40および42は、立体視空間内のどこに指等の物体が位置していてもその物体を撮影することができるように画角や配置が設定されていることが好ましい。また、撮影部40および42は、可視光の画像を取得する装置であってもよいし、赤外線等の不可視光の画像を取得する装置であってもよい。
Since the mobile phone terminal 2 includes a plurality of photographing units, it is possible to suppress the occurrence of a situation in which an object that manipulates the object cannot be photographed due to an obstacle of another finger or the like. Note that the number of photographing units included in the mobile phone terminal 2 is not limited to two. In addition, it is preferable that the photographing
1、2 携帯電話端末
13 操作部
15 マイク
16 レシーバ
22 制御部
24 記憶部
24a 制御プログラム
26 通信部
30 音声処理部
32 タッチパネル
32a 表示部
32b タッチセンサ(検出部)
40、42 撮影部(検出部)
1, 2
40, 42 Imaging unit (detection unit)
Claims (15)
前記表示部上での第1の物体および第2の物体の位置を検出する検出部と、
前記検出部によって検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させる制御部と
を備えることを特徴とする電子機器。 A display for displaying objects;
A detection unit for detecting positions of the first object and the second object on the display unit;
A control unit that changes the display of the object when the positions of the first object and the second object detected by the detection unit are in the vicinity of the object displayed on the display unit. Electronic equipment characterized by
その後、前記オブジェクトの表示領域以外の前記表示部上の位置で所定の動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該位置へ移動または転記することを特徴とする請求項1に記載の電子機器。 The control unit selects the object whose display has been changed,
Thereafter, when a predetermined motion is detected by the detection unit at a position on the display unit other than the display region of the object, the selected object is moved or transferred to the position. Item 2. The electronic device according to Item 1.
その後、前記第1の物体および前記第2の物体が前記表示部と離れて移動し、他の位置で前記第1の物体および前記第2の物体の少なくとも一方が前記表示部と接触する動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該他の位置へ移動または転記することを特徴とする請求項2または3に記載の電子機器。 The control unit is configured such that the first object and the second object are in contact with the display unit, and the positions of the first object and the second object are displayed on the display unit. When the detection unit detects that the object is near, the object is selected,
Thereafter, the first object and the second object move away from the display unit, and at least one of the first object and the second object contacts the display unit at another position. 4. The electronic apparatus according to claim 2, wherein, when detected by the detection unit, the selected object is moved or transferred to the other position. 5.
その後、前記表示部と離れて移動する前記第1の物体と前記第2の物体との間の距離が、前記表示部上の他の位置において所定の距離よりも拡がる動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該他の位置へ移動または転記することを特徴とする請求項2または3に記載の電子機器。 The control unit is configured such that the first object and the second object are in contact with the display unit, and the positions of the first object and the second object are displayed on the display unit. When the detection unit detects that the object is near, the object is selected,
Thereafter, the detection unit detects an operation in which the distance between the first object and the second object moving away from the display unit is larger than a predetermined distance at another position on the display unit. 4. The electronic device according to claim 2, wherein when the object is selected, the selected object is moved or transferred to the other position. 5.
前記制御部は、前記オブジェクトの近傍において、前記第1の物体、前記第2の物体および前記第3の物体の位置が前記オブジェクトの表示領域の中心に近付いていることが前記検出部によって検出された場合に、前記オブジェクトの表示を変化させることを特徴とする請求項1から10のいずれか1項に記載の電子機器。 The detection unit further detects the position of the third object on the display unit,
In the control unit, the detection unit detects that the positions of the first object, the second object, and the third object are close to the center of the display area of the object in the vicinity of the object. The electronic device according to claim 1, wherein the display of the object is changed when it is detected.
前記検出部は、前記所定の領域内での第1の物体および第2の物体の位置を検出することを特徴とする請求項1から12のいずれか1項に記載の電子機器。 The display unit displays an object three-dimensionally within a predetermined area,
The electronic device according to claim 1, wherein the detection unit detects the positions of the first object and the second object in the predetermined region.
前記表示部にオブジェクトを表示するステップと、
前記表示部上での第1の物体および第2の物体の位置を検出するステップと、
検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップと
を含むことを特徴とする制御方法。 A control method executed by an electronic device including a display unit,
Displaying an object on the display unit;
Detecting the positions of the first object and the second object on the display unit;
And changing the display of the object when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit. Method.
前記表示部にオブジェクトを表示するステップと、
前記表示部上での第1の物体および第2の物体の位置を検出するステップと、
検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップと
を実行させることを特徴とする制御プログラム。 In electronic devices equipped with a display unit,
Displaying an object on the display unit;
Detecting the positions of the first object and the second object on the display unit;
Changing the display of the object when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit. Control program.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011143341A JP5815303B2 (en) | 2011-06-28 | 2011-06-28 | Electronic device, control method, and control program |
US13/467,833 US20120287065A1 (en) | 2011-05-10 | 2012-05-09 | Electronic device |
US14/518,763 US20150035781A1 (en) | 2011-05-10 | 2014-10-20 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011143341A JP5815303B2 (en) | 2011-06-28 | 2011-06-28 | Electronic device, control method, and control program |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015187172A Division JP2016001508A (en) | 2015-09-24 | 2015-09-24 | Electronic apparatus, control method and control program |
JP2015187173A Division JP5977415B2 (en) | 2015-09-24 | 2015-09-24 | Electronic device, control method, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013011983A true JP2013011983A (en) | 2013-01-17 |
JP5815303B2 JP5815303B2 (en) | 2015-11-17 |
Family
ID=47685828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011143341A Expired - Fee Related JP5815303B2 (en) | 2011-05-10 | 2011-06-28 | Electronic device, control method, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5815303B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013127753A (en) * | 2011-12-19 | 2013-06-27 | Sharp Corp | Input method for information processor and information processor |
JP2015219751A (en) * | 2014-05-19 | 2015-12-07 | 株式会社デンソーウェーブ | Operation unit of air conditioner |
WO2017164107A1 (en) * | 2016-03-25 | 2017-09-28 | ヤマハ株式会社 | Device and method for setting parameter |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311668A (en) * | 1994-05-19 | 1995-11-28 | Hitachi Ltd | Window and icon operating method and system using same |
JPH1028276A (en) * | 1996-07-10 | 1998-01-27 | Hitachi Ltd | Image-display device, image-transmitting device, image-display system and image-display method |
JP2000293467A (en) * | 1999-04-09 | 2000-10-20 | Canon Inc | Data processor and its method and storage medium for storing computer readable program |
JP2001228971A (en) * | 2000-02-15 | 2001-08-24 | Newcom:Kk | Touch panel system to be operated at plural indicating positions |
JP2001356878A (en) * | 2000-06-14 | 2001-12-26 | Hitachi Ltd | Icon control method |
US20100095206A1 (en) * | 2008-10-13 | 2010-04-15 | Lg Electronics Inc. | Method for providing a user interface using three-dimensional gestures and an apparatus using the same |
JP2010140300A (en) * | 2008-12-12 | 2010-06-24 | Sharp Corp | Display, control method, control program and recording medium |
WO2010089980A1 (en) * | 2009-02-06 | 2010-08-12 | パナソニック株式会社 | Image display device |
WO2010098050A1 (en) * | 2009-02-25 | 2010-09-02 | 日本電気株式会社 | Interface for electronic device, electronic device, and operation method, operation program, and operation system for electronic device |
JP2011108152A (en) * | 2009-11-20 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | Three-dimensional input display device |
-
2011
- 2011-06-28 JP JP2011143341A patent/JP5815303B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311668A (en) * | 1994-05-19 | 1995-11-28 | Hitachi Ltd | Window and icon operating method and system using same |
JPH1028276A (en) * | 1996-07-10 | 1998-01-27 | Hitachi Ltd | Image-display device, image-transmitting device, image-display system and image-display method |
JP2000293467A (en) * | 1999-04-09 | 2000-10-20 | Canon Inc | Data processor and its method and storage medium for storing computer readable program |
JP2001228971A (en) * | 2000-02-15 | 2001-08-24 | Newcom:Kk | Touch panel system to be operated at plural indicating positions |
JP2001356878A (en) * | 2000-06-14 | 2001-12-26 | Hitachi Ltd | Icon control method |
US20100095206A1 (en) * | 2008-10-13 | 2010-04-15 | Lg Electronics Inc. | Method for providing a user interface using three-dimensional gestures and an apparatus using the same |
JP2010140300A (en) * | 2008-12-12 | 2010-06-24 | Sharp Corp | Display, control method, control program and recording medium |
WO2010089980A1 (en) * | 2009-02-06 | 2010-08-12 | パナソニック株式会社 | Image display device |
WO2010098050A1 (en) * | 2009-02-25 | 2010-09-02 | 日本電気株式会社 | Interface for electronic device, electronic device, and operation method, operation program, and operation system for electronic device |
JP2011108152A (en) * | 2009-11-20 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | Three-dimensional input display device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013127753A (en) * | 2011-12-19 | 2013-06-27 | Sharp Corp | Input method for information processor and information processor |
JP2015219751A (en) * | 2014-05-19 | 2015-12-07 | 株式会社デンソーウェーブ | Operation unit of air conditioner |
US10473347B2 (en) | 2014-05-19 | 2019-11-12 | Denso Wave Incorporated | Method and apparatus for commanding temperatures targeted by air conditioner |
WO2017164107A1 (en) * | 2016-03-25 | 2017-09-28 | ヤマハ株式会社 | Device and method for setting parameter |
Also Published As
Publication number | Publication date |
---|---|
JP5815303B2 (en) | 2015-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6159078B2 (en) | Apparatus, method, and program | |
US9423952B2 (en) | Device, method, and storage medium storing program | |
JP5762944B2 (en) | Apparatus, method, and program | |
JP5715042B2 (en) | Apparatus, method, and program | |
US9268481B2 (en) | User arrangement of objects on home screen of mobile device, method and storage medium thereof | |
US9703382B2 (en) | Device, method, and storage medium storing program with control for terminating a program | |
US9542019B2 (en) | Device, method, and storage medium storing program for displaying overlapped screens while performing multitasking function | |
US20130167090A1 (en) | Device, method, and storage medium storing program | |
US9785324B2 (en) | Device, method, and storage medium storing program | |
US20130086523A1 (en) | Device, method, and storage medium storing program | |
JP2013084233A (en) | Device, method, and program | |
JP6058790B2 (en) | Apparatus, method, and program | |
US20130162574A1 (en) | Device, method, and storage medium storing program | |
JP5805685B2 (en) | Electronic device, control method, and control program | |
JP5858896B2 (en) | Electronic device, control method, and control program | |
JP5815303B2 (en) | Electronic device, control method, and control program | |
JP6096100B2 (en) | Electronic device, control method, and control program | |
JP6088358B2 (en) | Apparatus, control method, and program | |
JP5977415B2 (en) | Electronic device, control method, and control program | |
JP6553681B2 (en) | Smartphone, control method, and program | |
JP2016001508A (en) | Electronic apparatus, control method and control program | |
JP6393303B2 (en) | Apparatus, control method, and program | |
KR20140035081A (en) | Menu control method in mobile terminal | |
JP2013134709A (en) | Device, method, and program | |
JP2020035484A (en) | Electronic apparatus, character input control method, and character input program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150717 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5815303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |