JP2011154524A - Three-dimensional input device - Google Patents

Three-dimensional input device Download PDF

Info

Publication number
JP2011154524A
JP2011154524A JP2010015424A JP2010015424A JP2011154524A JP 2011154524 A JP2011154524 A JP 2011154524A JP 2010015424 A JP2010015424 A JP 2010015424A JP 2010015424 A JP2010015424 A JP 2010015424A JP 2011154524 A JP2011154524 A JP 2011154524A
Authority
JP
Japan
Prior art keywords
screen
input
finger
dimensional
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010015424A
Other languages
Japanese (ja)
Other versions
JP5463934B2 (en
Inventor
Hiroshi Kinugasa
洋 衣笠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Mobile Communications Ltd
Original Assignee
Fujitsu Toshiba Mobile Communication Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Toshiba Mobile Communication Ltd filed Critical Fujitsu Toshiba Mobile Communication Ltd
Priority to JP2010015424A priority Critical patent/JP5463934B2/en
Publication of JP2011154524A publication Critical patent/JP2011154524A/en
Application granted granted Critical
Publication of JP5463934B2 publication Critical patent/JP5463934B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional input device preventing a screen from becoming hard to be visually recognized because a magnified image overlaps an input medium when displaying the magnified image of an approach position when the input medium such as a finger approaches the screen. <P>SOLUTION: The three-dimensional input device includes: a display means displaying data; a specification means (S101) detecting a three-dimensional position of the input medium, and specifying the approach position in the screen of the display means from the three-dimensional position; a display control means (S103) making the magnified image of a range within a prescribed distance from the approach position be displayed in a position wherein the magnified image is moved to a prescribed direction from approach coordinates in the screen; and an input means (S115) inputting the data based on a contact position when detecting contact in the screen. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、入力媒体が画面に近接するのに伴ってその近接位置付近の拡大画像を表示させるとともに、入力媒体が画面に接触した際にその接触位置に基づいてデータを入力する3次元入力装置に関する。   The present invention displays a magnified image near the proximity position as the input medium approaches the screen, and inputs data based on the contact position when the input medium contacts the screen. About.

近年、ユーザが指などで画面に触れることによりデータを入力することができるタッチパネルが広く用いられるようになってきた。しかしながら、携帯電話機などの携帯型の情報処理端末では画面が小さく操作対象のオブジェクトを大きく表示できないため、あるいは指などにより画面の一部が覆われてオブジェクトが視認しにくくなるため、入力ミスなどによる誤操作が発生しやすかった。   In recent years, touch panels that allow a user to input data by touching a screen with a finger or the like have been widely used. However, a portable information processing terminal such as a cellular phone has a small screen and cannot display an object to be operated large, or a part of the screen is covered with a finger or the like so that the object is difficult to see. Misoperations were easy to occur.

そこで、利用者が選択対象を選び易いタッチパネル装置が提案されている(特許文献1参照)。このタッチパネル装置は、画面に表示される複数の選択対象のいずれが選択されたかを判定するタッチパネル装置であって、複数の選択対象が表示される画面と、画面の前面に設けられ、利用者により接触された場合に接触された領域を示す情報を出力するタッチパネルと、出力される情報に基づいて接触領域を決定する領域決定部と、複数の選択対象の中から、接触領域と重なる部分を有する選択対象を抽出する抽出部と、抽出された選択対象が複数あるか否かを判定する重複判定部と、複数あると判定された場合に、抽出された選択対象を拡大して画面に表示するための拡大倍率を接触領域の形状に基づいて決定する拡大条件決定部と、拡大倍率で拡大した、抽出された選択対象を画面に再表示させ
る表示制御部とを備えるものである。
Therefore, a touch panel device that allows a user to easily select a selection target has been proposed (see Patent Document 1). This touch panel device is a touch panel device that determines which one of a plurality of selection targets displayed on a screen is selected. The touch panel device is provided on a screen on which a plurality of selection targets are displayed and a front surface of the screen. A touch panel that outputs information indicating a contacted area when touched, an area determination unit that determines a contact area based on the output information, and a portion that overlaps the contact area from among a plurality of selection targets An extraction unit for extracting a selection target, an overlap determination unit for determining whether or not there are a plurality of selection targets to be extracted, and an enlarged selection target to be displayed on a screen when it is determined that there are a plurality of selection targets An enlargement condition determination unit for determining an enlargement magnification for the purpose based on the shape of the contact area, and a display control unit for redisplaying the extracted selection target enlarged at the enlargement magnification on the screen.

特開2009−32028号公報JP 2009-32028 A

タッチパネルを備えた携帯端末において、入力媒体による操作位置の拡大画像を表示する際に、その拡大画像をその操作位置において再表示させる方法では、ユーザが例えば指を入力媒体として入力操作を行っている場合には、拡大画像がユーザの指に覆われてしまい、ユーザが拡大画像を視認できないおそれがあった。また、このような携帯端末においてユーザが両手の指を用いて入力する場合には、各々の拡大画像が相互に重なってしまい、それぞれの入力操作を妨げてしまうおそれもあった。   When displaying an enlarged image of an operation position using an input medium on a mobile terminal equipped with a touch panel, the user performs an input operation using, for example, a finger as an input medium in the method of redisplaying the enlarged image at the operation position. In this case, the enlarged image is covered with the user's finger, and the user may not be able to visually recognize the enlarged image. In addition, when the user performs input using the fingers of both hands in such a portable terminal, the enlarged images may overlap each other, which may hinder each input operation.

本発明は、上記課題を鑑みてなされたものであり、指などの入力媒体が画面に近接した際、近接位置の拡大画像を表示させる場合に、拡大画像が入力媒体と重なって画面が視認しにくくなることを防止することができる3次元入力装置を提供することを目的とする。   The present invention has been made in view of the above problems. When an input medium such as a finger approaches the screen, when the enlarged image at the close position is displayed, the enlarged image overlaps the input medium and the screen is visually recognized. It is an object of the present invention to provide a three-dimensional input device capable of preventing difficulty.

上記課題を解決するために、本発明に係る3次元入力装置はデータを表示する表示手段と、入力媒体の3次元位置を検出してその3次元位置から前記表示手段の画面における近接位置を特定する特定手段と、前記近接位置から所定距離内の範囲の拡大画像を、前記表示手段の画面における前記近接座標から所定方向に移動させた位置に表示させる表示制御手段と、前記表示手段の画面において接触を検出した際、その接触位置に基づいてデータを入力する入力手段とを備えたことを特徴とする。   In order to solve the above problems, a three-dimensional input device according to the present invention includes a display means for displaying data, and a three-dimensional position of the input medium, and a proximity position on the screen of the display means is determined from the three-dimensional position. A display control means for displaying an enlarged image within a predetermined distance from the proximity position at a position moved in a predetermined direction from the proximity coordinates on the screen of the display means, and a screen of the display means. And an input means for inputting data based on the contact position when the contact is detected.

本発明に係る3次元入力装置によると、指などの入力媒体が画面に近接した際、近接位置の拡大画像を表示させる場合に、拡大画像が入力媒体と重なって画面が視認しにくくなることを防止することが可能となる。   According to the three-dimensional input device according to the present invention, when an enlarged image such as a finger is brought close to the screen, when the enlarged image at the close position is displayed, the enlarged image overlaps with the input medium so that the screen becomes difficult to visually recognize. It becomes possible to prevent.

本発明に係る3次元入力装置(携帯電話機)の斜視図。1 is a perspective view of a three-dimensional input device (cellular phone) according to the present invention. 本発明に係る3次元入力装置(携帯電話機)の機能を示すブロック図。The block diagram which shows the function of the three-dimensional input device (mobile telephone) which concerns on this invention. 本発明に係る3次元入力装置(携帯電話機)における入力操作を説明するための概略図。Schematic for demonstrating input operation in the three-dimensional input device (mobile telephone) which concerns on this invention. 本発明に係る3次元入力装置(携帯電話機)が入力制御処理を行う際の手順を示すフローチャート。The flowchart which shows the procedure at the time of the three-dimensional input device (cellular phone) concerning this invention performing an input control process. 本発明に係る3次元入力装置(携帯電話機)が拡大画像表示処理を行う際の手順を示すフローチャート。The flowchart which shows the procedure at the time of the three-dimensional input device (mobile telephone) which concerns on this invention performing an enlarged image display process. 本発明に係る3次元入力装置(携帯電話機)において入力制御処理が行われる際に「7」が入力される直前の状態を示す概略図。Schematic which shows the state just before "7" is input when input control processing is performed in the three-dimensional input device (cellular phone) according to the present invention. 本発明に係る3次元入力装置(携帯電話機)において入力制御処理が行われる際に「g」が入力される直前の状態を示す概略図。Schematic which shows the state just before "g" is input, when input control processing is performed in the three-dimensional input device (cellular phone) which concerns on this invention. 本発明に係る3次元入力装置(携帯電話機)において入力制御処理が行われる際に「7」の拡大画像が表示されている状態で「g」が入力される直前の状態を示す概略図。Schematic which shows the state just before "g" is input in the state where the enlarged image of "7" is displayed when the input control process is performed in the three-dimensional input device (cellular phone) according to the present invention.

本発明に係る3次元入力装置の実施形態について、添付図面を参照しながら説明する。本発明に係る3次元入力装置として、画面に入力項目が表示されるとともにユーザが指Uなどの入力媒体でその画面を触れることよりデータを入力することができる表示装置(タッチスクリーン)を備えた携帯電話機1を例に挙げて説明する。   An embodiment of a three-dimensional input device according to the present invention will be described with reference to the accompanying drawings. The three-dimensional input device according to the present invention includes a display device (touch screen) that displays input items on a screen and allows a user to input data by touching the screen with an input medium such as a finger U. The cellular phone 1 will be described as an example.

図1は、携帯電話機1を示す斜視図である。携帯電話機1は、図1に示すように、矩形の板状の筐体10を備えている。筐体10の一方の面には、データを表示するとともに入力媒体の接触を検出することによりデータを入力するタッチスクリーン11、音声を出力するスピーカ12、音声を入力するマイクロフォン13及びデータを入力する操作キー14が設けられている。   FIG. 1 is a perspective view showing a mobile phone 1. As shown in FIG. 1, the mobile phone 1 includes a rectangular plate-shaped housing 10. On one surface of the housing 10, a touch screen 11 for inputting data by displaying data and detecting contact of an input medium, a speaker 12 for outputting sound, a microphone 13 for inputting sound, and data are input. An operation key 14 is provided.

タッチスクリーン11は、画面11aにデータを表示する表示機能、及び、ユーザが指Uや専用ペンなどの入力媒体を画面11aに接触させた際にその接触位置を検出することによりその接触位置に対応するデータを入力する入力機能の双方の機能を備えている。接触を検知する方法は、静電気により検知する方法でも感圧により検知する方法でも良く、または赤外線を用いた方法でも良く、その他の方法でも良い。   The touch screen 11 displays the data on the screen 11a, and corresponds to the touch position by detecting the touch position when the user touches the screen 11a with an input medium such as a finger U or a dedicated pen. It has both functions of the input function to input data. The method for detecting contact may be a method for detecting by static electricity or a method for detecting by pressure, or a method using infrared rays, or other methods.

またタッチスクリーン11は、例えば、赤外線を発信する複数の赤外線発信装置と、その発信された赤外線が入力媒体によって反射した際の反射光を検出する複数の赤外線検出装置を備えている。複数の赤外線発信装置及び複数の赤外線検出装置は例えばタッチスクリーン11の画面11a上に格子状に配列されていて、タッチスクリーン11は、入力媒体が画面11aに接触していない状態でも、反射光を検出した赤外線検出装置の位置に基づいて入力媒体の3次元位置を推測することができる。なお、3次元位置検出の方法はこれに限定されず、任意の方法で良い。   The touch screen 11 includes, for example, a plurality of infrared transmission devices that transmit infrared rays, and a plurality of infrared detection devices that detect reflected light when the transmitted infrared rays are reflected by an input medium. The plurality of infrared transmission devices and the plurality of infrared detection devices are arranged in a grid on the screen 11a of the touch screen 11, for example, and the touch screen 11 transmits reflected light even when the input medium is not in contact with the screen 11a. The three-dimensional position of the input medium can be estimated based on the detected position of the infrared detection device. Note that the three-dimensional position detection method is not limited to this, and any method may be used.

操作キー14は、ユーザによる物理的な押下によりデータを入力するキーであっても、静電気または感圧により入力媒体の接触を検知してデータを入力するキーであっても良い。操作キー14は、例えば電源のON/OFFを切り替えたり待機状態から復帰したりするための電源キーや、発呼を開始するための発呼キーなどである。   The operation key 14 may be a key for inputting data by being physically pressed by a user, or a key for inputting data by detecting contact of an input medium by static electricity or pressure. The operation keys 14 are, for example, a power key for switching power ON / OFF or returning from a standby state, a call key for starting a call, and the like.

図2は、携帯電話機1の機能を示すブロック図である。携帯電話機1は、図2に示すように、主制御部20、電源回路部21、3次元入力検出部22、表示制御部23、音声制御部24、通信制御部25及び記憶部26がバスによって相互に通信可能に接続されて構成されている。   FIG. 2 is a block diagram showing functions of the mobile phone 1. As shown in FIG. 2, the mobile phone 1 includes a main control unit 20, a power supply circuit unit 21, a three-dimensional input detection unit 22, a display control unit 23, an audio control unit 24, a communication control unit 25, and a storage unit 26 via a bus. They are configured to be communicable with each other.

主制御部20は、CPU(Central Processing Unit)を具備し、携帯電話機1の総括的な制御を行うとともに、後述する入力制御処理や、その他の様々な演算処理や制御処理などを行う。また主制御部20は、いずれかの操作キー14の入力操作を検知すると、その操作キー14に対応する処理を行う。電源回路部21は、電源供給源(バッテリなど)を備え、例えば所定の操作キー14を介した入力に基づいて携帯電話機1の電源のON/OFF状態を切り替え、電源がON状態の場合に電力供給源から各部に対して電力を供給して、携帯電話機1を動作可能にする。   The main control unit 20 includes a CPU (Central Processing Unit), performs overall control of the mobile phone 1, and performs input control processing, which will be described later, and various other arithmetic processing and control processing. Further, when detecting an input operation of any one of the operation keys 14, the main control unit 20 performs a process corresponding to the operation key 14. The power supply circuit unit 21 includes a power supply source (battery or the like), for example, switches the power supply ON / OFF state of the mobile phone 1 based on an input via a predetermined operation key 14, and power is supplied when the power supply is ON. Electric power is supplied from the supply source to each unit to enable the mobile phone 1 to operate.

3次元入力検出部22は、タッチスクリーン11の画面11aにおいて入力媒体の接触を検出した際にその接触位置を示す信号を生成して主制御部20に伝送する。また3次元入力検出部22は、例えばユーザ操作に基づいて、または一定時間毎に、タッチスクリーン11の各々の赤外線発信装置から赤外線を発信させ、各々の赤外線検出装置にその赤外線の反射光を検出させる。3次元入力検出部22は、その検出値を示す信号を生成して主制御部20に伝送する。信号を受信した主制御部20は、それらの信号に基づいて入力媒体の3次元位置を推測して、その3次元位置に対応する処理を行う。   The three-dimensional input detection unit 22 generates a signal indicating the contact position when the contact of the input medium is detected on the screen 11 a of the touch screen 11 and transmits the signal to the main control unit 20. The three-dimensional input detection unit 22 transmits infrared rays from each infrared transmission device of the touch screen 11 based on, for example, a user operation or every predetermined time, and detects the reflected light of the infrared rays in each infrared detection device. Let The three-dimensional input detection unit 22 generates a signal indicating the detected value and transmits the signal to the main control unit 20. The main control unit 20 that has received the signals estimates a three-dimensional position of the input medium based on those signals, and performs processing corresponding to the three-dimensional position.

表示制御部23は、主制御部20の制御に基づいて画面表示用のデータを生成して、タッチスクリーン11の画面11aに表示させる。   The display control unit 23 generates screen display data based on the control of the main control unit 20 and displays the data on the screen 11 a of the touch screen 11.

音声制御部24は、主制御部20の制御に基づいて、マイクロフォン13で集音された音声からアナログ音声信号を生成し、このアナログ音声信号をデジタル音声信号に変換する。また音声制御部24は、デジタル音声信号を取得すると、主制御部20の制御に基づいて、このデジタル音声信号をアナログ音声信号に変換し、スピーカ12から音声として出力する。   The sound control unit 24 generates an analog sound signal from the sound collected by the microphone 13 based on the control of the main control unit 20, and converts the analog sound signal into a digital sound signal. Further, when acquiring the digital audio signal, the audio control unit 24 converts the digital audio signal into an analog audio signal based on the control of the main control unit 20, and outputs the analog audio signal as audio from the speaker 12.

通信制御部25はアンテナ25aを備えていて、主制御部20の制御に基づいて、基地局からアンテナ25aを介して受信した受信信号を復号化処理してデータを復元する。このデータは、主制御部20の指示により、音声制御部24に伝送されてスピーカ12から出力されたり、または記憶部26に記録されたりする。また通信制御部25は、主制御部20の制御に基づいて、マイクロフォン13で集音された音声データや、記憶部26に記憶されたデータを取得すると、これらのデータに対して符号化処理を行い、基地局に対してアンテナ25aを介して送信する。   The communication control unit 25 includes an antenna 25a, and based on the control of the main control unit 20, the received signal received from the base station via the antenna 25a is decoded to restore the data. This data is transmitted to the voice control unit 24 and output from the speaker 12 or recorded in the storage unit 26 according to an instruction from the main control unit 20. In addition, when the communication control unit 25 acquires voice data collected by the microphone 13 or data stored in the storage unit 26 based on the control of the main control unit 20, the communication control unit 25 performs encoding processing on these data. And transmit to the base station via the antenna 25a.

記憶部26は、主制御部20が行う処理について、処理プログラムや処理に必要なデータなどを格納するROM(Read Only Memory)やハードディスク、不揮発性メモリ、主制御部20が処理を行う際に使用されるデータを一時的に記憶するRAM(Random Access Memory)などから構成される。また、主制御部20が後述する入力制御処理を行う際の処理プログラムは、例えばROMに記憶されているものとする。   The storage unit 26 is used when processing performed by the main control unit 20 is performed by a ROM (Read Only Memory), a hard disk, a non-volatile memory, and the main control unit 20 that store processing programs and data necessary for the processing. RAM (Random Access Memory) that temporarily stores data to be stored. Further, it is assumed that a processing program when the main control unit 20 performs input control processing described later is stored in, for example, a ROM.

図3は、ユーザがタッチスクリーン11を用いて入力操作を行う様子を示す概略図である。図3に示すように、タッチスクリーン11に例えば格子状に配列された各々の赤外線出力装置は、画面11aに対してほぼ垂直に赤外線を出力している。そして、ユーザが指Uをタッチスクリーン11の画面11aに近接させると、赤外線が指Uにより反射されて、その反射光が、タッチスクリーン11に同様に格子状に配列された赤外線検出装置のいずれかにより検出される。携帯電話機1は、反射光を検出した赤外線検出装置の位置に基づいて、指Uの近接位置(3次元位置)を推測する。   FIG. 3 is a schematic diagram illustrating how the user performs an input operation using the touch screen 11. As shown in FIG. 3, each infrared output device arranged in a grid, for example, on the touch screen 11 outputs infrared rays substantially perpendicular to the screen 11a. When the user brings the finger U close to the screen 11 a of the touch screen 11, the infrared light is reflected by the finger U, and the reflected light is any one of the infrared detection devices arranged in a grid pattern on the touch screen 11. Is detected. The mobile phone 1 estimates the proximity position (three-dimensional position) of the finger U based on the position of the infrared detection device that has detected the reflected light.

携帯電話機1は、指Uの近接位置に基づいて、指Uの画面11aにおける近接座標を特定して、その近接座標の周辺(例えば近接座標から所定距離内の範囲)を拡大表示させる。そして、更に指Uが画面11aに近接して、タッチスクリーン11の画面11aに指Uが接触した場合、タッチスクリーン11により指Uの接触が検知され、接触位置に対応する入力処理が実行される。   The mobile phone 1 specifies the proximity coordinates on the screen 11a of the finger U based on the proximity position of the finger U, and enlarges and displays the vicinity of the proximity coordinates (for example, a range within a predetermined distance from the proximity coordinates). When the finger U further approaches the screen 11a and the finger U touches the screen 11a of the touch screen 11, the touch of the finger U is detected by the touch screen 11, and input processing corresponding to the contact position is executed. .

携帯電話機1は、タッチスクリーン11における指Uの近接操作により近接位置の周辺を拡大表示する際、その拡大画像が近接操作を行なっている指Uに重ならないように拡大画像の表示位置を調整する。携帯電話機1が拡大画像の表示位置を調整する際、例えば、指Uの近接位置から20mm上方(Y軸プラス方向)に移動させた位置を拡大画像の中心位置として半径10mmの拡大画像を表示する。また、例えばユーザが両手で入力を行っている場合などにおいて、拡大画像の表示位置に別の拡大画像が表示されていた場合、あるいは、拡大画像の表示位置が指Uにより近接操作が行なわれている位置と重なる場合には、携帯電話機1は拡大画像の表示位置をさらに横方向(X軸のいずれかの方向)に移動させる。これらにより、拡大画像により入力操作が妨げられることが防止される。   When the cellular phone 1 enlarges and displays the vicinity of the proximity position by the proximity operation of the finger U on the touch screen 11, the display position of the enlarged image is adjusted so that the enlarged image does not overlap the finger U performing the proximity operation. . When the mobile phone 1 adjusts the display position of the enlarged image, for example, an enlarged image with a radius of 10 mm is displayed with the position moved 20 mm upward (Y-axis plus direction) from the proximity position of the finger U as the center position of the enlarged image. . Further, for example, when the user is inputting with both hands, when another enlarged image is displayed at the display position of the enlarged image, or when the display position of the enlarged image is operated by the finger U. If the position overlaps with the existing position, the mobile phone 1 further moves the display position of the enlarged image in the horizontal direction (any direction of the X axis). These prevent the input operation from being hindered by the enlarged image.

上述したように、ユーザが入力操作を行うために指Uをタッチスクリーン11の画面11aに近接させた際に、携帯電話機1が指Uの近接位置に基づいて拡大画像を表示させるとともに、ユーザが指Uをタッチスクリーン11の画面11aに接触させた際に、指Uの接触位置に基づいてデータを入力する入力制御処理を行う際の手順について、図4、図5に示すフローチャートに基づいて説明する。   As described above, when the user brings the finger U close to the screen 11a of the touch screen 11 in order to perform an input operation, the mobile phone 1 displays an enlarged image based on the proximity position of the finger U, and the user The procedure for performing input control processing for inputting data based on the contact position of the finger U when the finger U is brought into contact with the screen 11a of the touch screen 11 will be described based on the flowcharts shown in FIGS. To do.

図4に示すように、始めに主制御部20は、指Uの近接が検出されたかを判断する(S101)。この際、主制御部20は、例えば3次元入力検出部22が指Uなどの3次元位置を検出し、その3次元位置がタッチスクリーン11の画面11aから所定距離内であった場合に、指Uの近接を検出したものと判断する。指Uの近接が検出されていない場合(S101のNo)は、主制御部20はそのまま待機する。   As shown in FIG. 4, first, the main control unit 20 determines whether or not the proximity of the finger U is detected (S101). At this time, for example, when the three-dimensional input detection unit 22 detects a three-dimensional position such as the finger U and the three-dimensional position is within a predetermined distance from the screen 11a of the touch screen 11, the main control unit 20 detects the finger. It is determined that the proximity of U has been detected. When the proximity of the finger U is not detected (No in S101), the main control unit 20 stands by as it is.

指Uの近接が検出された場合(S101のYes)は、主制御部20は、近接位置付近を拡大させて表示させる拡大表示処理を行う。図5は、携帯電話機1がこの拡大表示処理を行う際の手順を示すフローチャートである。図5に示すように、主制御部20は、拡大位置(拡大画像の表示位置)の中心を、例えば指Uの近接位置からY方向上方(Y軸プラス方向)に20mmずらした位置として、この中心から例えば半径10mmの領域内を拡大位置とする(S201)。   When the proximity of the finger U is detected (Yes in S101), the main control unit 20 performs an enlarged display process for enlarging and displaying the vicinity of the proximity position. FIG. 5 is a flowchart showing a procedure when the cellular phone 1 performs the enlarged display process. As shown in FIG. 5, the main control unit 20 sets the center of the enlarged position (displayed position of the enlarged image) as a position shifted 20 mm upward from the proximity position of the finger U in the Y direction (Y axis plus direction), for example. For example, an area having a radius of 10 mm from the center is set as an enlarged position (S201).

主制御部20は、拡大位置に既に拡大画像が表示されているか否かを判断する(S203)。例えばユーザが両手の指Uを用いて入力を行っている場合などには、複数の拡大画像が表示される。その場合には、各々の拡大画像が相互に重ならないように表示させる必要がある。そこで、拡大位置に既に拡大画像が表示されていた場合(S203のYes)は、主制御部20は、新たに表示される拡大画像を、他の拡大画像と重ならないように拡大位置をX方向のいずれかに移動させる(S205)。   The main control unit 20 determines whether an enlarged image is already displayed at the enlarged position (S203). For example, when the user performs input using the fingers U of both hands, a plurality of enlarged images are displayed. In that case, it is necessary to display the enlarged images so as not to overlap each other. Therefore, when an enlarged image has already been displayed at the enlarged position (Yes in S203), the main control unit 20 sets the enlarged position of the newly displayed enlarged image in the X direction so as not to overlap with other enlarged images. (S205).

主制御部20は、拡大位置の近接に入力操作を行っている範囲があるか否かを判断する(S207)。例えばユーザが両手の指Uを用いて入力を行っている場合などに、一方の指Uで入力操作をしようとしている位置に新たな拡大表示をしてしまうと、その指Uでの入力操作ができなくなってしまう。そこで、拡大位置の近接に入力操作を行っている範囲があった場合(S207のYes)は、主制御部20は、入力操作を行っている範囲に重ならないように拡大位置をX方向に移動させる(S209)。   The main control unit 20 determines whether there is a range in which an input operation is performed in the vicinity of the enlargement position (S207). For example, when the user performs input using the fingers U of both hands, and the user performs a new enlarged display at a position where the input operation is to be performed with one finger U, the input operation with the finger U is performed. It becomes impossible. Therefore, if there is a range where the input operation is performed in the vicinity of the expansion position (Yes in S207), the main control unit 20 moves the expansion position in the X direction so as not to overlap the range where the input operation is performed. (S209).

主制御部20は、拡大位置を中心にして、例えば半径10mmの拡大画像を表示させる(S211)。   The main control unit 20 displays an enlarged image with a radius of 10 mm, for example, with the enlarged position as the center (S211).

このようにして主制御部20は、指Uがタッチスクリーン11の画面11aに近接した際に、その近接位置の拡大画像を適切な位置に表示させる。そして主制御部20は、拡大画像内に、指Uの近接位置を示す十字(「+」)マークを表示させる(S105)。なお、このマークは「+」マークに限定されず、任意の形状のマークで良い。   In this way, when the finger U approaches the screen 11a of the touch screen 11, the main control unit 20 displays an enlarged image of the proximity position at an appropriate position. Then, the main control unit 20 displays a cross (“+”) mark indicating the proximity position of the finger U in the enlarged image (S105). This mark is not limited to the “+” mark, but may be a mark of any shape.

拡大画像の具体的な表示例を、図6乃至図8に基づいて説明する。図6は、携帯電話機1において入力制御処理が行われる際に、指Uによるユーザ操作により「7」が入力される直前の状態を示す概略図であり、図7は、指Uによるユーザ操作により「g」が入力される直前の状態を示す概略図である。また、図8は、携帯電話機1において入力制御処理が行われる際に、「7」の表示の近辺の拡大画像が表示されている状態で「g」が入力される直前の状態を示す概略図である。   A specific display example of the enlarged image will be described with reference to FIGS. 6 is a schematic diagram illustrating a state immediately before “7” is input by a user operation with the finger U when input control processing is performed in the mobile phone 1, and FIG. It is the schematic which shows the state just before "g" is input. FIG. 8 is a schematic diagram illustrating a state immediately before “g” is input in a state where an enlarged image near the display of “7” is displayed when input control processing is performed in the mobile phone 1. It is.

図6に示すように、ユーザが携帯電話機1に「7」を入力したい場合には、指Uの近接位置30を画面11a上の「7」が表示されている位置に近接させる。その場合、指Uの近接位置30をY軸プラス方向に移動させた位置に拡大画像31が表示され、その拡大画像31において近接位置30に対応する位置に「+」マーク32が表示される。なお、近接位置30の周囲の点線の円は、近接位置30を中心とした所定半径(例えば5mm)の円であり、拡大表示を行う領域を示している。   As shown in FIG. 6, when the user wants to input “7” into the mobile phone 1, the proximity position 30 of the finger U is brought close to the position where “7” is displayed on the screen 11a. In that case, an enlarged image 31 is displayed at a position where the proximity position 30 of the finger U is moved in the Y-axis plus direction, and a “+” mark 32 is displayed at a position corresponding to the proximity position 30 in the enlarged image 31. A dotted circle around the proximity position 30 is a circle having a predetermined radius (for example, 5 mm) with the proximity position 30 as the center, and indicates an area to be enlarged.

同様に、図7に示すように、ユーザが携帯電話機1に「g」を入力したい場合には、指Uの近接位置30aを画面11a上の「g」が表示されている位置近辺に位置させる。その場合、指Uの近接位置30をY軸プラス方向に移動させた位置に拡大画像31が表示され、その拡大画像31において近接位置30に対応する位置に「+」マーク32が表示される。   Similarly, as shown in FIG. 7, when the user wants to input “g” to the mobile phone 1, the proximity position 30 a of the finger U is positioned near the position where “g” is displayed on the screen 11 a. . In that case, an enlarged image 31 is displayed at a position where the proximity position 30 of the finger U is moved in the Y-axis plus direction, and a “+” mark 32 is displayed at a position corresponding to the proximity position 30 in the enlarged image 31.

また、例えばユーザが右手の指Uで「7」を入力しようとしている最中に、左手の指Uで「g」を入力しようとした場合などに、図8に示すように、画面11aにおいて「g」が表示されている周辺の範囲について、Y軸プラス方向に移動させて拡大画像31aを表示させようとすると、「7」の周辺の拡大画像31と、「g」の周辺の拡大画像31aとが重なり合ってしまう。なお、双方の拡大画像31、31aの各々の外周の円が交差する場合に、拡大画像31、31aが重なっているものと判定されると良い。拡大画像31、31aが重なっていた場合には、図8に示すように、携帯電話機1は、ステップS205にて「g」の周辺の拡大画像31aをX軸のいずれかの方向に移動させて表示させる。   Further, for example, when the user tries to input “g” with the left hand finger U while the user is trying to input “7” with the right hand finger U, as shown in FIG. If the enlarged image 31a is displayed by moving in the Y-axis plus direction in the peripheral range where “g” is displayed, the enlarged image 31 around the “7” and the enlarged image 31a around the “g” are displayed. Will overlap. It should be noted that when the circles on the outer circumferences of both enlarged images 31, 31a intersect, it may be determined that the enlarged images 31, 31a overlap. If the enlarged images 31 and 31a overlap, as shown in FIG. 8, the mobile phone 1 moves the enlarged image 31a around “g” in any direction of the X axis in step S205. Display.

また主制御部20は、画面11aに指Uが近接した状態で、指Uが水平方向(画面11aに対して平行な方向)に移動したか否かを判断する(S107)。指Uが水平方向に移動した場合(S107のYes)は、ステップS103に戻って、主制御部20は再びステップS103乃至S107の処理を行う。   Further, the main control unit 20 determines whether or not the finger U has moved in the horizontal direction (direction parallel to the screen 11a) with the finger U approaching the screen 11a (S107). When the finger U has moved in the horizontal direction (Yes in S107), the process returns to step S103, and the main control unit 20 performs the processes of steps S103 to S107 again.

指Uが水平方向に移動していない場合(S107のNo)は、主制御部20は指がタッチスクリーン11の画面11aから離れたか否かを判断する(S109)。この際、主制御部20は、ステップS101と同様の方法で、例えば3次元入力検出部22が指Uなどの3次元位置を検出し、その3次元位置がタッチスクリーン11の画面11aから所定距離外であった場合に、指Uが離れたものと判断する。   When the finger U has not moved in the horizontal direction (No in S107), the main control unit 20 determines whether or not the finger has left the screen 11a of the touch screen 11 (S109). At this time, the main control unit 20 detects the three-dimensional position of the finger U, for example, by the same method as in step S101, and the three-dimensional position is a predetermined distance from the screen 11a of the touch screen 11. When it is outside, it is determined that the finger U is separated.

指Uが画面11aから離れていない場合(S109のNo)は、主制御部20は指Uがタッチスクリーン11の画面11aに接触したか否かを判断する(S111)。指Uが画面11aに接触していない場合(S111のNo)は、主制御部20はユーザにより入力指示が行われていないものとして、ステップS103に戻って、再びステップS103乃至S107の処理を行う。   When the finger U is not separated from the screen 11a (No in S109), the main control unit 20 determines whether or not the finger U has touched the screen 11a of the touch screen 11 (S111). When the finger U is not in contact with the screen 11a (No in S111), the main control unit 20 returns to Step S103 and performs the processing of Steps S103 to S107 again, assuming that no input instruction has been given by the user. .

指Uが画面11aに接触した場合(S111のYes)は、主制御部20はユーザにより入力指示が行われたものとして、接触位置の拡大画像を表示させる(S113)。拡大画像の表示位置は、ステップS211における表示位置と同様とする。そして主制御部20は、接触位置に対応する処理を実行する(S115)。接触位置に対応する処理は指Uの接触後に行われる処理全般であり、指Uが画面11aに対して非接触になるまで待機する処理なども含む。   When the finger U touches the screen 11a (Yes in S111), the main control unit 20 displays an enlarged image of the contact position on the assumption that an input instruction has been given by the user (S113). The display position of the enlarged image is the same as the display position in step S211. Then, the main control unit 20 executes a process corresponding to the contact position (S115). The processing corresponding to the contact position is general processing performed after contact with the finger U, and includes processing for waiting until the finger U is not in contact with the screen 11a.

主制御部20は、指Uがタッチスクリーン11の画面11aから離れたか否かを判断する(S117)。この際、主制御部20は、ステップS101と同様の方法で、例えば3次元入力検出部22が指Uなどの3次元位置を検出し、その3次元位置がタッチスクリーン11の画面11aから所定距離外であった場合に、指Uが離れたものと判断する。   The main control unit 20 determines whether or not the finger U has left the screen 11a of the touch screen 11 (S117). At this time, the main control unit 20 detects the three-dimensional position of the finger U, for example, by the same method as in step S101, and the three-dimensional position is a predetermined distance from the screen 11a of the touch screen 11. When it is outside, it is determined that the finger U is separated.

指Uが画面11aから離れていない場合(S117のNo)は、ステップS103に戻って、主制御部20は再びS103乃至S117の処理を行う。指Uが画面11aから離れた場合(S109のYes、S117のYes)は、主制御部20は、ステップS211またはS113にて表示された拡大画像を非表示にして、入力制御処理を終了させる。   When the finger U is not away from the screen 11a (No in S117), the process returns to step S103, and the main control unit 20 performs the processes from S103 to S117 again. When the finger U has left the screen 11a (Yes in S109, Yes in S117), the main control unit 20 hides the enlarged image displayed in step S211 or S113, and ends the input control process.

このようにして携帯電話機1は、指Uのタッチスクリーン11の画面11aへの近接を検出すると、近接位置の周囲の拡大画像を、その近接位置からずらした位置に画面11aに表示させるとともに、拡大画像内において指の近接位置を示す「+」マークを表示させる。そして携帯電話機1は、指Uが画面11aに近接した状態で移動した場合には、指Uの移動に伴って拡大範囲も更新して表示させる。   In this way, when the cellular phone 1 detects the proximity of the finger U to the screen 11a of the touch screen 11, the cellular phone 1 displays an enlarged image around the proximity position on the screen 11a at a position shifted from the proximity position, and enlarges. A “+” mark indicating the proximity position of the finger is displayed in the image. Then, when the finger U moves in a state of being close to the screen 11a, the cellular phone 1 updates and displays the enlarged range as the finger U moves.

携帯電話機1は、指Uがタッチスクリーン11の画面11aに接触すると接触位置に対応する入力処理を実行する。この接触中においては、指Uが画面11aに近接しているときと同様に、拡大画像が表示されている。画面11aでの接触後に指Uが画面11aに対して所定距離内にある場合、拡大画像の表示が継続される。一方で携帯電話機1は、ユーザが指Uをタッチスクリーン11の画面11aに対して所定距離外に移動させると、拡大画像の表示を停止させる。   When the finger U touches the screen 11a of the touch screen 11, the mobile phone 1 executes an input process corresponding to the contact position. During this contact, the enlarged image is displayed in the same manner as when the finger U is close to the screen 11a. When the finger U is within a predetermined distance with respect to the screen 11a after contact on the screen 11a, the display of the enlarged image is continued. On the other hand, when the user moves the finger U outside the predetermined distance with respect to the screen 11 a of the touch screen 11, the mobile phone 1 stops displaying the enlarged image.

本発明に係る3次元入力装置(携帯電話機1)によると、指Uなどの入力媒体が画面11aに近接した際、近接位置の拡大画像を入力媒体の近接位置から移動させて表示させることにより、拡大画像が入力媒体と重なって画面11aが視認しにくくなることが防止されるとともに、複数の入力媒体により入力が行われた場合であっても、各々の拡大画像が重なり合って入力操作が妨げられることを防止することが可能となる。   According to the three-dimensional input device (mobile phone 1) according to the present invention, when an input medium such as the finger U approaches the screen 11a, an enlarged image of the close position is moved from the close position of the input medium and displayed. It is possible to prevent the enlarged image from overlapping the input medium and make it difficult to visually recognize the screen 11a, and even when input is performed using a plurality of input media, the respective enlarged images are overlapped to hinder the input operation. This can be prevented.

本発明の説明として、携帯電話機1について説明したが、これに限らず、PHS(Personal Handyphone System)、PDA(Personal Digital Assistants)、MID(Mobile Internet Device)、携帯音楽プレイヤー、携帯ビデオカメラ、携帯ゲーム機など、3次元入力機能を備えている情報処理端末であれば、任意の情報処理端末であっても良い。   As an explanation of the present invention, the mobile phone 1 has been described. However, the present invention is not limited to this, but PHS (Personal Handyphone System), PDA (Personal Digital Assistants), MID (Mobile Internet Device), mobile music player, mobile video camera, mobile game Any information processing terminal may be used as long as the information processing terminal has a three-dimensional input function such as a computer.

1…携帯電話機,10…筐体,11…タッチスクリーン,11a…画面,12…スピーカ,13…マイクロフォン,14…操作キー,20…主制御部,21…電源回路部,22…3次元入力検出部,23…表示制御部,24…音声制御部,25…通信制御部,25a…アンテナ,26…記憶部,30、30a…近接位置,31、31a…拡大画像,32、32a…十字(「+」)マーク。   DESCRIPTION OF SYMBOLS 1 ... Mobile phone, 10 ... Housing | casing, 11 ... Touch screen, 11a ... Screen, 12 ... Speaker, 13 ... Microphone, 14 ... Operation key, 20 ... Main control part, 21 ... Power supply circuit part, 22 ... Three-dimensional input detection 23, display control unit, 24 ... voice control unit, 25 ... communication control unit, 25a ... antenna, 26 ... storage unit, 30, 30a ... proximity position, 31, 31a ... enlarged image, 32, 32a ... cross (" + ") Mark.

Claims (5)

データを表示する表示手段と、
入力媒体の3次元位置を検出してその3次元位置から前記表示手段の画面における近接位置を特定する特定手段と、
前記近接位置から所定距離内の範囲の拡大画像を、前記表示手段の画面における前記近接座標から所定方向に移動させた位置に表示させる表示制御手段と、
前記表示手段の画面において接触を検出した際、その接触位置に基づいてデータを入力する入力手段とを備えたことを特徴とする3次元入力装置。
Display means for displaying data;
A specifying means for detecting a three-dimensional position of the input medium and specifying a proximity position on the screen of the display means from the three-dimensional position;
Display control means for displaying an enlarged image within a predetermined distance from the proximity position at a position moved in a predetermined direction from the proximity coordinates on the screen of the display means;
3. A three-dimensional input device comprising: an input unit that inputs data based on a contact position when contact is detected on the screen of the display unit.
前記表示制御手段は、前記拡大画像を表示させる際、前記拡大画像内に前記近接位置を示すマークを表示させることを特徴とする請求項1記載の3次元入力装置。   The three-dimensional input device according to claim 1, wherein the display control unit displays a mark indicating the proximity position in the enlarged image when the enlarged image is displayed. 前記特定手段は、前記入力媒体の3次元位置の移動に併せて近接位置を逐次更新し、
前記表示制御手段は、前記特定手段により更新された近接位置に併せて拡大画像の範囲を逐次更新することを特徴とする請求項1記載の3次元入力装置。
The specifying unit sequentially updates the proximity position in accordance with the movement of the three-dimensional position of the input medium,
The three-dimensional input device according to claim 1, wherein the display control unit sequentially updates a range of the enlarged image in accordance with the proximity position updated by the specifying unit.
前記表示制御手段は、入力媒体が複数存在した場合、各々の入力媒体による拡大画像が相互に重ならないように各々の拡大画像の位置を調整して表示させることを特徴とする請求項1記載の3次元入力装置。   2. The display control unit according to claim 1, wherein when there are a plurality of input media, the display control unit adjusts and displays the positions of the enlarged images so that the enlarged images of the input media do not overlap each other. 3D input device. 前記表示制御手段は、入力媒体が前記表示手段の画面に対して所定距離内にある場合に拡大画像を表示させることを特徴とする請求項1記載の3次元入力装置。   The three-dimensional input device according to claim 1, wherein the display control means displays an enlarged image when the input medium is within a predetermined distance with respect to the screen of the display means.
JP2010015424A 2010-01-27 2010-01-27 3D input device Expired - Fee Related JP5463934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010015424A JP5463934B2 (en) 2010-01-27 2010-01-27 3D input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010015424A JP5463934B2 (en) 2010-01-27 2010-01-27 3D input device

Publications (2)

Publication Number Publication Date
JP2011154524A true JP2011154524A (en) 2011-08-11
JP5463934B2 JP5463934B2 (en) 2014-04-09

Family

ID=44540439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010015424A Expired - Fee Related JP5463934B2 (en) 2010-01-27 2010-01-27 3D input device

Country Status (1)

Country Link
JP (1) JP5463934B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014035695A (en) * 2012-08-09 2014-02-24 Panasonic Corp Display control device, display control method, and program
WO2014069504A1 (en) * 2012-11-05 2014-05-08 株式会社Nttドコモ Terminal device, screen display method, hover location correction method, and recording medium
JP2016154037A (en) * 2014-02-12 2016-08-25 ソフトバンク株式会社 Display control device, display control method and display control program
US9772757B2 (en) 2012-04-23 2017-09-26 Panasonic Intellectual Property Corporation Of America Enlarging image based on proximity of a pointing object to a display screen
JP2018022516A (en) * 2011-12-08 2018-02-08 オラクル・インターナショナル・コーポレイション Magnifying tool for viewing and interacting with data visualization on mobile device
WO2023149671A1 (en) * 2022-02-03 2023-08-10 삼성전자 주식회사 Augmented reality device switching input mode, and method therefor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
WO2000075766A1 (en) * 1999-06-02 2000-12-14 Ncr International, Inc. Self-service terminal
JP2006031499A (en) * 2004-07-20 2006-02-02 Denso Corp Information input/display device
JP2006520024A (en) * 2002-11-29 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface using moved representation of contact area
JP2008009759A (en) * 2006-06-29 2008-01-17 Toyota Motor Corp Touch panel device
JP2009026155A (en) * 2007-07-20 2009-02-05 Toshiba Corp Input display apparatus and mobile wireless terminal apparatus
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
WO2000075766A1 (en) * 1999-06-02 2000-12-14 Ncr International, Inc. Self-service terminal
JP2006520024A (en) * 2002-11-29 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface using moved representation of contact area
JP2006031499A (en) * 2004-07-20 2006-02-02 Denso Corp Information input/display device
JP2008009759A (en) * 2006-06-29 2008-01-17 Toyota Motor Corp Touch panel device
JP2009026155A (en) * 2007-07-20 2009-02-05 Toshiba Corp Input display apparatus and mobile wireless terminal apparatus
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022516A (en) * 2011-12-08 2018-02-08 オラクル・インターナショナル・コーポレイション Magnifying tool for viewing and interacting with data visualization on mobile device
US9772757B2 (en) 2012-04-23 2017-09-26 Panasonic Intellectual Property Corporation Of America Enlarging image based on proximity of a pointing object to a display screen
JP2014035695A (en) * 2012-08-09 2014-02-24 Panasonic Corp Display control device, display control method, and program
US9665216B2 (en) 2012-08-09 2017-05-30 Panasonic Intellectual Property Corporation Of America Display control device, display control method and program
WO2014069504A1 (en) * 2012-11-05 2014-05-08 株式会社Nttドコモ Terminal device, screen display method, hover location correction method, and recording medium
JP2014092988A (en) * 2012-11-05 2014-05-19 Ntt Docomo Inc Terminal device, screen display method, hover position correction method, and program
JP2016154037A (en) * 2014-02-12 2016-08-25 ソフトバンク株式会社 Display control device, display control method and display control program
WO2023149671A1 (en) * 2022-02-03 2023-08-10 삼성전자 주식회사 Augmented reality device switching input mode, and method therefor

Also Published As

Publication number Publication date
JP5463934B2 (en) 2014-04-09

Similar Documents

Publication Publication Date Title
CN111666013B (en) Electronic apparatus and control method thereof
US9423952B2 (en) Device, method, and storage medium storing program
US9619139B2 (en) Device, method, and storage medium storing program
JP6159078B2 (en) Apparatus, method, and program
JP5045559B2 (en) Mobile device
US9563347B2 (en) Device, method, and storage medium storing program
JP5446769B2 (en) 3D input display device
JP5463934B2 (en) 3D input device
JP5883745B2 (en) Portable terminal, cursor position control program, and cursor position control method
US20130265250A1 (en) Device, method and storage medium storing program
US20130113737A1 (en) Information processing device, information processing method, and computer program
US9542019B2 (en) Device, method, and storage medium storing program for displaying overlapped screens while performing multitasking function
JP2013131108A (en) Device, method, and program
US20130298079A1 (en) Apparatus and method for unlocking an electronic device
US10572148B2 (en) Electronic device for displaying keypad and keypad displaying method thereof
JP2013228953A (en) Device, method, and program
JP2013065289A (en) Device, method, and program
JP2016213762A (en) Portable apparatus, control method and control program
WO2014148090A1 (en) Information processing device and information processing method
JP2013182463A (en) Portable terminal device, touch operation control method, and program
JP2012208614A (en) Portable electronic equipment
JP6831184B2 (en) Electronic devices, character input control methods, and character input control programs
JP2013065287A (en) Device, method, and program
JP6987489B2 (en) Electronic devices, character input control methods, and character input control programs
JP2013134709A (en) Device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131018

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees