JP2011003202A - Image display apparatus - Google Patents

Image display apparatus Download PDF

Info

Publication number
JP2011003202A
JP2011003202A JP2010163581A JP2010163581A JP2011003202A JP 2011003202 A JP2011003202 A JP 2011003202A JP 2010163581 A JP2010163581 A JP 2010163581A JP 2010163581 A JP2010163581 A JP 2010163581A JP 2011003202 A JP2011003202 A JP 2011003202A
Authority
JP
Japan
Prior art keywords
image
unit
image display
finger
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010163581A
Other languages
Japanese (ja)
Other versions
JP2011003202A5 (en
JP5659595B2 (en
Inventor
Takumi Sasaki
匠 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010163581A priority Critical patent/JP5659595B2/en
Publication of JP2011003202A publication Critical patent/JP2011003202A/en
Publication of JP2011003202A5 publication Critical patent/JP2011003202A5/en
Application granted granted Critical
Publication of JP5659595B2 publication Critical patent/JP5659595B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display apparatus displaying information with easy visibility.SOLUTION: The image display apparatus includes: an image display unit having a touch panel which can be operated with contact of a pointer; a proximity detection unit which detects the proximity of the pointer for each region of the image display unit; a control unit which controls operations of the image display unit; and an image creation unit which creates first and second images. When the first image created by the image creation unit is displayed on the image display unit and the proximity detection unit detects the proximity of the pointer, the control unit displays the second image created by the image creation unit on one of four corners of the image display unit closest to the region to which the pointer comes close.

Description

本発明は、画像表示装置に関し、例えばカーナビゲーション装置に適用することができる。本発明は、表示画面に配置したタッチパネルによりユーザーの操作を受け付ける場合に、このタッチパネルへの指の接近によりメニューを表示することにより、大きさの限られた表示画面を有効に利用して、種々の情報を確実に提供することができるようにする。   The present invention relates to an image display device, and can be applied to, for example, a car navigation device. In the present invention, when a user's operation is received by a touch panel arranged on a display screen, a menu is displayed by the approach of a finger to the touch panel, thereby effectively using a display screen with a limited size. Make sure that you can provide the information.

従来、カーナビゲーション装置においては、ユーザーによる使い勝手を向上する目的で、表示画面に配置したタッチパネルによりユーザーの操作を受け付けるようになされている。   Conventionally, in a car navigation apparatus, a user operation is received by a touch panel arranged on a display screen for the purpose of improving usability for the user.

すなわちカーナビゲーション装置においては、例えば液晶表示パネルの表面に透過型のタッチパネルが配置され、この液晶表示パネルを用いて、道案内の画像等をメニューと共に表示する。これによりユーザーにおいては、必要に応じてこのメニューの操作により、例えば道案内の画像を拡大する等の操作を実行できるようになされ、さらには現在位置近傍のレストラン等を検索できるようになされている。   That is, in a car navigation device, for example, a transmissive touch panel is disposed on the surface of a liquid crystal display panel, and a road guide image and the like are displayed together with a menu using the liquid crystal display panel. As a result, the user can execute an operation such as enlarging a route guidance image, for example, by operating the menu as necessary, and can search for restaurants near the current position. .

ところで実際上、カーナビゲーション装置においては、車載により使用されることにより、7〜8インチ程度の小型の液晶表示パネルにより各種画像を表示するようになされており、これにより各種の表示が見辛い問題がある。   By the way, in practice, in a car navigation apparatus, various images are displayed on a small liquid crystal display panel of about 7 to 8 inches by being used in a vehicle, which makes it difficult to see various displays. There is.

このような大きさの限られた表示画面を有効に利用して、種々の情報を確実に提供することができれば、この種の装置の使い勝手をさらに一段と向上できると考えられる。   It would be possible to further improve the usability of this type of device if various kinds of information can be reliably provided by effectively using such a limited display screen.

本発明は以上の点を考慮してなされたもので、大きさの限られた表示画面を有効に利用して、種々の情報を確実に提供することができる画像表示装置を提案しようとするものである。   The present invention has been made in view of the above points, and intends to propose an image display device capable of reliably providing various information by effectively using a display screen having a limited size. It is.

上記課題を解決するために、本発明のある観点によれば、ポインタの接触により操作可能なタッチパネルを有する画像表示部と、前記画像表示部の領域毎に前記ポインタの接近を検出する接近検出部と、前記画像表示部の動作を制御する制御部と、第1及び第2の画像を生成する画像生成部と、を備え、前記画像生成部により生成された第1の画像が前記画像表示部に表示された状態で、前記接近検出部により前記ポインタの接近が検出された場合、前記制御部は、前記ポインタが接近した領域に最も近い、前記画像表示部の四隅の一つに前記画像生成部により生成された第2の画像を表示する、画像表示装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, an image display unit having a touch panel that can be operated by touching a pointer, and an approach detection unit that detects approach of the pointer for each region of the image display unit And a control unit that controls the operation of the image display unit, and an image generation unit that generates first and second images, wherein the first image generated by the image generation unit is the image display unit. When the approach detection unit detects the approach of the pointer in the state displayed on the screen, the control unit generates the image at one of the four corners of the image display unit that is closest to the area to which the pointer has approached. An image display device that displays the second image generated by the unit is provided.

また、前記制御部は、前記接近検出部により前記ポインタが遠ざかったことが検出されると、所定の表示時間だけ経過した時点で前記第2の画像の表示を終了するように構成されていてもよい。   The control unit may be configured to end the display of the second image when a predetermined display time has elapsed when the approach detection unit detects that the pointer has moved away. Good.

また、前記制御部は、前記表示時間の変更を受け付けるように構成されていてもよい。   Moreover, the said control part may be comprised so that the change of the said display time may be received.

また、前記接近検出部は、赤外線を送出する発光部と、前記発光部に対応するように配置されて、前記指による前記赤外線の遮光を検出する受光部と、を有していてもよい。   The approach detection unit may include a light emitting unit that transmits infrared rays, and a light receiving unit that is disposed so as to correspond to the light emitting units and detects light shielding of the infrared rays by the finger.

また、前記指接近検出部は、マイクロ波を送出する送信部と、前記送信部に対応するように配置されて、前記指の接近により変化する前記マイクロ波を受信する受信部と、を有していてもよい。   The finger approach detection unit includes a transmission unit that transmits a microwave, and a reception unit that is arranged to correspond to the transmission unit and that receives the microwave that changes as the finger approaches. It may be.

また、前記第1の画像又は前記第2の画像は、メニューであってもよい。   Further, the first image or the second image may be a menu.

また、上記の画像表示装置は、現在位置の情報を取得する位置情報取得部をさらに備えていてもよい。この場合、前記画像生成部は、前記位置情報取得部により取得された現在位置の情報に基づき、前記第1の画像としてユーザーの道案内に供する案内画像を生成する。   The image display device may further include a position information acquisition unit that acquires information on the current position. In this case, the image generation unit generates a guide image to be used for the user's route guidance as the first image based on the information on the current position acquired by the position information acquisition unit.

上述のように本発明によれば、表示画面に配置したタッチパネルによりユーザーの操作を受け付ける場合に、このタッチパネルへの指の接近によりメニューを表示することにより、大きさの限られた表示画面を有効に利用して、種々の情報を確実に提供することができる。   As described above, according to the present invention, when a user's operation is received by the touch panel arranged on the display screen, the display screen with a limited size is effectively displayed by displaying the menu by the approach of the finger to the touch panel. It is possible to reliably provide various information.

本発明の実施の形態に係るカーナビゲーション装置の表示画面を示す平面図である。It is a top view which shows the display screen of the car navigation apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るカーナビゲーション装置を示すブロック図である。It is a block diagram which shows the car navigation apparatus which concerns on embodiment of this invention. 図2のカーナビゲーション装置の画像表示ユニットを示す平面図及び断面図である。It is the top view and sectional drawing which show the image display unit of the car navigation apparatus of FIG. 図1のカーナビゲーション装置における信号処理回路を周辺構成と共に示す接続図である。FIG. 2 is a connection diagram showing a signal processing circuit in the car navigation device of FIG. 1 together with a peripheral configuration.

以下、適宜図面を参照しながら本発明の実施の形態を詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.

(1)実施の形態の構成
図2は、本発明の実施の形態に係るカーナビゲーション装置を示すブロック図である。このカーナビゲーション装置1は、画像表示ユニット2によりユーザーの操作を検出し、このユーザーの操作により画像表示ユニット2に地図等を表示し、これにより種々の情報をユーザーに提供する。
(1) Configuration of Embodiment FIG. 2 is a block diagram showing a car navigation apparatus according to an embodiment of the present invention. The car navigation device 1 detects a user operation by the image display unit 2, displays a map or the like on the image display unit 2 by the user operation, and thereby provides various information to the user.

ここで画像表示ユニット2は、例えば液晶表示パネルとバックライトとにより構成される表示部3の表面側に、透過式のタッチパネル4、指の接近を検出するセンサ5A〜5Gを配置して形成される。すなわち図3に平面図、この平面図をA−A線により切り取った断面図を示すように、画像表示ユニット2は、例えば樹脂を射出成形したフレーム6にタッチパネル4、表示部3を順次積層して配置し、このフレーム6に形成された開口により、タッチパネル4を介して表示部3に表示された各種の画像を目視できるように構成され、またこのタッチパネル4によりユーザーの操作を検出できるように構成される。   Here, the image display unit 2 is formed by arranging a transmissive touch panel 4 and sensors 5 </ b> A to 5 </ b> G for detecting the approach of a finger on the surface side of a display unit 3 constituted by, for example, a liquid crystal display panel and a backlight. The That is, as shown in FIG. 3 and a cross-sectional view taken along the line AA, the image display unit 2 sequentially stacks the touch panel 4 and the display unit 3 on a frame 6 made of, for example, resin. The opening formed in the frame 6 is configured so that various images displayed on the display unit 3 can be viewed through the touch panel 4, and the user's operation can be detected by the touch panel 4. Composed.

センサ5A〜5Gは、タッチパネル4へのユーザーの指の接近を検出する指接近検出機構を構成し、それぞれ発光ダイオードによる赤外線発光素子7A〜7Gと対応する受光素子8A〜8Gとにより形成される。センサ5A〜5Gは、表示部3による画像表示面の各領域を各センサ5A〜5Gがそれぞれ分担するように、これら発光素子7A〜7G及び受光素子8A〜8Gが、フレーム6の内側、画像表示面の周囲に配置される。   The sensors 5A to 5G constitute a finger approach detection mechanism that detects the approach of the user's finger to the touch panel 4, and are formed by infrared light emitting elements 7A to 7G and corresponding light receiving elements 8A to 8G, respectively. In the sensors 5A to 5G, the light emitting elements 7A to 7G and the light receiving elements 8A to 8G are arranged on the inner side of the frame 6 so that the respective areas of the image display surface by the display unit 3 are shared by the sensors 5A to 5G. Located around the surface.

すなわち第1〜第3のセンサ5A〜5Bは、画像表示面を上下方向に分割してなる各領域に割り当てられ、この実施の形態では画像表示面の左方に、上方より順次発光素子7A〜7Cが配置され、画像表示面を間に挟んで対向するように、画像表示面の右方に、上方より、順次受光素子8A〜8Cが配置される。また第4〜第7のセンサ5C〜5Gは、画像表示面を横方向に分割してなる各領域に割り当てられ、この実施の形態では、画像表示面の下方に、左側より順次発光素子7C〜7G配置され、画像表示面を間に挟んで対向するように、画像表示面の上方に、左側より、順次受光素子8C〜8Gが配置される。   That is, the first to third sensors 5A to 5B are assigned to the respective areas obtained by dividing the image display surface in the vertical direction, and in this embodiment, the light emitting elements 7A to 7A are sequentially arranged on the left side of the image display surface from above. 7C is disposed, and light receiving elements 8A to 8C are sequentially disposed on the right side of the image display surface from above so as to face each other with the image display surface interposed therebetween. In addition, the fourth to seventh sensors 5C to 5G are assigned to respective regions obtained by dividing the image display surface in the horizontal direction. In this embodiment, the light emitting elements 7C to 7C are sequentially arranged from the left side below the image display surface. The light receiving elements 8C to 8G are sequentially arranged on the upper side of the image display surface from the left side so as to face each other with the image display surface interposed therebetween.

これらにより各センサ5A〜5Gは、ユーザーがタッチパネル4に指を近づけると、発光素子7A〜7Gから射出された赤外線が遮光されて、対応する受光素子8A〜8Gで受光される赤外線の光量が減少するようになされ、この光量の変化により各領域への指の接近を検出するようになされている。   As a result, when the user brings the finger close to the touch panel 4, each of the sensors 5A to 5G blocks the infrared rays emitted from the light emitting elements 7A to 7G, and reduces the amount of infrared rays received by the corresponding light receiving elements 8A to 8G. The approach of the finger to each region is detected by the change in the amount of light.

カーナビゲーション装置1において(図2)、信号処理回路10は、これらセンサ5A〜5Gを駆動すると共に、受光結果を処理し、処理結果をメインマイコン(メインマイクロコンピュータ)11に通知する。すなわち図4に示すように、信号処理回路10は、図示しない駆動回路によりセンサ5A〜5Gの各発光素子7A〜7Gを点灯させ、また各受光素子8A〜8Gの受光結果をそれぞれ所定利得で増幅して比較回路12A〜12Gに入力する。   In the car navigation apparatus 1 (FIG. 2), the signal processing circuit 10 drives the sensors 5A to 5G, processes the light reception result, and notifies the main microcomputer (main microcomputer) 11 of the processing result. That is, as shown in FIG. 4, the signal processing circuit 10 turns on the light emitting elements 7A to 7G of the sensors 5A to 5G by a drive circuit (not shown), and amplifies the light reception results of the light receiving elements 8A to 8G with a predetermined gain, respectively. And input to the comparison circuits 12A to 12G.

各比較回路12A〜12Gは、それぞれ所定の基準電源13A〜13Gとの比較により、各受光素子8A〜8Gにおける受光光量の変化を検出し、比較結果をレジスタ16に出力する。レジスタ16は、これら比較結果を所定周期で取り込んでメインマイコン11に出力し、これによりカーナビゲーション装置1では、メインマイコン11において、タッチパネル4の何れの領域にユーザーが指を近づけたかを検出できるようになされている。   Each of the comparison circuits 12A to 12G detects a change in the amount of received light in each of the light receiving elements 8A to 8G by comparison with predetermined reference power supplies 13A to 13G, and outputs the comparison result to the register 16. The register 16 captures these comparison results at a predetermined cycle and outputs them to the main microcomputer 11, so that the car navigation device 1 can detect in the main microcomputer 11 which area of the touch panel 4 the user has placed his finger. Has been made.

位置検出部(図2)16は、メインマイコン11による制御により、現在位置の位置情報を取得してメインマイコン11に通知する。なおここで位置検出部13は、例えばGPS(Global Positioning System )により位置情報を取得する。光ディスク部13は、地図の情報、レストラン、土産物店等の各種店舗の位置情報等を記録してなる光ディスクをメインマイコン11の制御によりアクセスし、これらの情報をメインマイコン11に出力する。   The position detection unit (FIG. 2) 16 acquires position information of the current position under the control of the main microcomputer 11 and notifies the main microcomputer 11 of the position information. Here, the position detection unit 13 acquires position information by, for example, GPS (Global Positioning System). The optical disc unit 13 accesses an optical disc in which map information, location information of various stores such as restaurants, souvenir stores, and the like are recorded under the control of the main microcomputer 11, and outputs these information to the main microcomputer 11.

表示マイコン(表示マイクロコンピュータ)14は、メインマイコン11の制御により、LCDドライバ15を駆動し、これにより表示部3に各種画像等を表示する。   The display microcomputer (display microcomputer) 14 drives the LCD driver 15 under the control of the main microcomputer 11, thereby displaying various images and the like on the display unit 3.

メインマイコン11は、このカーナビゲーション装置1の動作を制御するコンピュータであり、図示しない操作子の操作により、またタッチパネル4の操作、信号処理回路10を介して検出されるユーザーの操作により、表示部3に道案内用の地図等を表示する。   The main microcomputer 11 is a computer that controls the operation of the car navigation device 1. The display unit is operated by operating an operator (not shown), by operating the touch panel 4, or by a user operation detected via the signal processing circuit 10. 3 shows a map for directions.

すなわちメインマイコン11は、ユーザーによる図示しない操作子の操作により、カーナビゲーション装置1の電源が立ち上げられると、表示画面に所定の初期画面を表示する。ここでこの初期画面は、所定のメニューを配置して構成され、メインマイコン11は、タッチパネル4を介して検出されるユーザーによるメニューの選択により、全体の動作を切り換える。   That is, the main microcomputer 11 displays a predetermined initial screen on the display screen when the power of the car navigation device 1 is started by the operation of an operator (not shown) by the user. Here, the initial screen is configured by arranging a predetermined menu, and the main microcomputer 11 switches the entire operation by the menu selection by the user detected via the touch panel 4.

すなわちユーザーが道案内のメニューを選択すると、位置検出部12より現在位置情報を取得する。またユーザーによる操作に応動して順次表示画面の表示を切り換えて目的地の入力を受け付け、この現在位置から目的地までのルートを光ディスクに記録された地図情報を基準にして検索する。さらにこの検索結果に基づいて、図1(A)に示すように、現在位置を基準にした目的地までのルートを表示画面に表示する。またこのような処理と併せて、音声によるガイドをユーザーに提供する。これによりこのカーナビゲーション装置1では、表示部3の表示画面を介して種々の情報をユーザーに提供するようになされている。   That is, when the user selects a menu for road guidance, the current position information is acquired from the position detection unit 12. In addition, the display on the display screen is sequentially switched in response to an operation by the user to receive an input of the destination, and a route from the current position to the destination is searched based on the map information recorded on the optical disc. Further, based on the search result, as shown in FIG. 1A, the route to the destination based on the current position is displayed on the display screen. In addition to such processing, an audio guide is provided to the user. As a result, the car navigation apparatus 1 provides various information to the user via the display screen of the display unit 3.

このようにして表示画面を介して種々の情報を提供している際に、センサ5A〜5Gによりタッチパネル4への指の接近が検出されると、メインマイコン11は、図1(B)に示すように、所定のメニューをアイコンにより表示する。ここでこのメニューは、選択可能な処理の一覧を表示するものである。メインマイコン11は、指の接近が検出された領域に応じて、このメニューの表示位置を設定する。すなわちメインマイコン11は、ユーザーが表示画面の右上側の領域に指を近づけた場合、右上隅にメニューを表示する。またユーザーが表示画面の右下側の領域に指を近づけた場合、右下隅にメニューを表示する。また同様にして、ユーザーが表示画面の左上側の領域、左下側の領域に指を近づけた場合、それぞれ左上隅、左下隅にメニューを表示する。   When various information is provided via the display screen in this way, when the approach of the finger to the touch panel 4 is detected by the sensors 5A to 5G, the main microcomputer 11 is shown in FIG. As described above, a predetermined menu is displayed by an icon. Here, this menu displays a list of selectable processes. The main microcomputer 11 sets the display position of this menu according to the area where the approach of the finger is detected. That is, the main microcomputer 11 displays a menu in the upper right corner when the user brings a finger close to the upper right area of the display screen. When the user brings his finger close to the lower right area of the display screen, a menu is displayed in the lower right corner. Similarly, when the user brings a finger close to the upper left area and lower left area of the display screen, menus are displayed at the upper left corner and the lower left corner, respectively.

さらにメインマイコン11は、このようにしてメニューを表示して、ユーザーによるメニューの選択がタッチパネル4で検出されると、このメニューの選択に対応するように全体の動作を制御し、必要に応じて表示画面の表示を切り換える。これに対してユーザーによりメニューが選択されないで、指が遠ざけられたことが検出されると、所定の表示時間の経過により、メニューの表示を中止する。   Further, the main microcomputer 11 displays the menu in this way. When the menu selection by the user is detected by the touch panel 4, the main microcomputer 11 controls the entire operation so as to correspond to this menu selection, and if necessary, Switches the display screen display. On the other hand, when it is detected that the menu is not selected by the user and the finger is moved away, the display of the menu is stopped when a predetermined display time elapses.

さらにこのようなメニューの選択により、ユーザーが設定のメニューを選択すると、メインマイコン11は、所定の設定用画面を表示してユーザーによるタッチパネル4の操作を検出し、これにより表示時間の設定を受け付ける。   Further, when the user selects a setting menu by selecting such a menu, the main microcomputer 11 displays a predetermined setting screen and detects the operation of the touch panel 4 by the user, thereby accepting the setting of the display time. .

(2)実施の形態の動作
以上の構成において、カーナビゲーション装置1では(図2)、電源が立ち上げられると、メインマイコン11の制御により表示マイコン14、LCDドライバ15で表示部3が駆動され、所定のメニューが表示される。カーナビゲーション装置1では、ユーザーが指を近づけてメニューに指を触れると、この操作がタッチパネル4により検出され、これによりメインマイコン11からの指示により、このユーザーによるメニューの操作に応動して表示が切り換えられる。
(2) Operation of Embodiment In the above configuration, in the car navigation apparatus 1 (FIG. 2), when the power is turned on, the display microcomputer 3 and the LCD driver 15 are driven by the display microcomputer 14 under the control of the main microcomputer 11. A predetermined menu is displayed. In the car navigation device 1, when the user brings a finger close to the menu and touches the menu, this operation is detected by the touch panel 4, and in response to an instruction from the main microcomputer 11, display is performed in response to the menu operation by the user. Can be switched.

これにより例えばユーザーが道案内を指示した場合、位置検出部12で検出される現在位置情報により光ディスク部13で光ディスクがアクセスされ、この光ディスクに記録された情報の検索により、ルートが設定され、またこのルートを指示する地図が表示部3により表示される。これによりカーナビゲーション装置1では、この表示部3の表示画面を介して種々の情報をユーザーに提供するようになされている。   Thus, for example, when the user gives directions, the optical disk is accessed by the optical disk unit 13 based on the current position information detected by the position detection unit 12, and a route is set by searching for information recorded on the optical disk. A map indicating this route is displayed by the display unit 3. As a result, the car navigation apparatus 1 provides various information to the user via the display screen of the display unit 3.

このようにして例えば地図により情報を提供している際に(図1)、ユーザーがタッチパネル4に指を近づけると、カーナビゲーション装置1では、表示画面の周囲に配置されたセンサ5A〜5Gの何れかにおいて(図3)、発光素子7A〜7Gより送出される赤外線が遮られ、対応する受光素子8A〜8Gにおける受光光量が減少し、信号処理回路10において、この光量の減少により指の接近が、その接近した領域と共に検出される。   Thus, for example, when information is provided by a map (FIG. 1), when the user brings a finger close to the touch panel 4, the car navigation device 1 uses any of the sensors 5 </ b> A to 5 </ b> G arranged around the display screen. (FIG. 3), the infrared rays transmitted from the light emitting elements 7A to 7G are blocked, and the received light amount of the corresponding light receiving elements 8A to 8G is reduced. In the signal processing circuit 10, the reduction of the light amount causes the approach of the finger. , Detected along with the approached area.

カーナビゲーション装置1では、この検出結果によるメインマイコン11の処理により、指が接近されてなる領域に対応した位置に、メニューが表示される。   In the car navigation device 1, the menu is displayed at a position corresponding to the area where the finger is approached by the processing of the main microcomputer 11 based on the detection result.

これによりユーザーにおいては、表示部3の表示画面の全面を使用して種々の情報の提供を受け、必要に応じて指を近づけてメニューを選択することが可能となる。これによりこのカーナビゲーション装置1では、指の接近を検出して表示を切り換え、大きさの限られた表示画面を有効に利用して種々の情報を確実に提供することができるようになされている。   As a result, the user can receive various information using the entire display screen of the display unit 3 and select a menu by bringing his / her finger closer as necessary. As a result, the car navigation device 1 detects the approach of a finger and switches the display, and can effectively provide various information by effectively using a display screen having a limited size. .

すなわちカーナビゲーション装置1では、このようにして表示したメニューの操作がタッチパネル4で検出されると、この操作に対応するように全体処理が切り換えられ、これによりユーザーの所望する情報が提供される。   That is, in the car navigation device 1, when the operation of the menu displayed in this way is detected by the touch panel 4, the entire process is switched so as to correspond to this operation, thereby providing information desired by the user.

このようにして処理するにつき、ユーザーが指を近づけた領域に対応する位置にメニューが表示されることにより、ユーザーにおいては、指を近づけて速やかに所望するメニューを選択することができ、その分、使い勝手を向上することができる。   When processing is performed in this way, the menu is displayed at a position corresponding to the area where the user brings his finger close, so that the user can quickly select a desired menu by bringing his finger close. , Can improve usability.

これに対してこのようにしてメニューを表示して、ユーザーによりタッチパネル4が操作されないまま、指が遠ざけられた場合、カーナビゲーション装置1では、所定時間の経過後に、メニューが閉じられる。これによりカーナビゲーション装置1では、指を遠ざけたり、近づけたりした場合の、頻繁な表示の切り換えを防止し、ユーザーの煩わしさを解消するようになされている。   On the other hand, when the menu is displayed in this way and the finger is moved away without the touch panel 4 being operated by the user, the car navigation device 1 closes the menu after a predetermined time has elapsed. As a result, the car navigation apparatus 1 prevents frequent switching of the display when the finger is moved away from or close to the user, thereby eliminating the troublesomeness of the user.

またこのような所定時間については、ユーザーの操作により可変できるようになされ、これによりユーザーの好みに応じてこのようなメニューの切り換え速度を設定して使い勝手を向上できるようになされている。   Further, such a predetermined time can be changed by a user's operation, so that the user-friendliness can be improved by setting such a menu switching speed according to the user's preference.

(3)実施の形態の効果
以上の構成によれば、表示画面に配置したタッチパネルによりユーザーの操作を受け付ける場合に、このタッチパネルへの指の接近によりメニューを表示することにより、大きさの限られた表示画面を有効に利用して、種々の情報を確実に提供することができる。これによりカーナビゲーション装置においては、ユーザーに安全運転を促すことができる。
(3) Effects of the embodiment According to the above configuration, when a user operation is received by the touch panel arranged on the display screen, the size is limited by displaying a menu by the approach of the finger to the touch panel. By effectively using the display screen, various information can be provided reliably. Thereby, in the car navigation apparatus, it is possible to prompt the user to drive safely.

またこのとき、この指の接近を、赤外線を送出する発光部と、この発光部に対応するように配置されて、指による赤外線の遮光を検出する受光部とにより構成することにより、簡易かつ確実に、指の接近を検出することができ、また必要に応じてこれらの組み合わせを複数配置することにより、指の接近した領域を検出して対応する処理を実行することができる。   Also, at this time, the approach of the finger is simple and reliable by comprising a light emitting unit that transmits infrared rays and a light receiving unit that is arranged so as to correspond to the light emitting units and detects the shielding of infrared rays by the fingers. In addition, it is possible to detect the approach of the finger, and by arranging a plurality of these combinations as necessary, it is possible to detect a region where the finger is approached and execute a corresponding process.

またこのとき、指が接近してなる領域に応じて、メニューの表示位置を設定することにより、指を近づけて迅速に所望するメニューを選択することができ、その分、使い勝手を向上することができる。   At this time, by setting the display position of the menu according to the area where the finger approaches, it is possible to quickly select the desired menu by bringing the finger closer, and the usability can be improved accordingly. it can.

また指が遠ざかったことが検出されると、所定の表示時間だけ経過した時点でメニューの表示を終了することにより、指を遠ざけたり、近づけたりした場合の、頻繁な表示の切り換えを防止し、ユーザーの煩わしさを解消することができる。   When it is detected that the finger has moved away, the display of the menu is terminated when the predetermined display time has elapsed, thereby preventing frequent switching of the display when the finger is moved away or moved closer. The user's troublesomeness can be eliminated.

またこの表示時間の変更を受け付けるようにしたことにより、ユーザーの好みに応じてこのようなメニューの切り換え速度を設定して使い勝手を向上することができる。   Further, by accepting the change in the display time, it is possible to set the menu switching speed according to the user's preference and improve the usability.

(4)他の実施の形態
なお上述の実施の形態においては、指が近づけられた領域に応じてメニューを表示する場合について述べたが、本発明はこれに限らず、表示中の画像に応じて表示位置を設定するようにしてもよい。すなわち上述したようなカーナビゲーション装置においてルートを表示している場合には、表示画面上における現在位置の表示、目的地の表示に応じて、この現在位置から目的地までの表示に邪魔にならない位置にメニューを表示するようにして、使い勝手を向上することができる。またこのような表示位置を種々に設定する処理に代えて、例えば事前に設定された所定位置にメニューを表示するようにしてもよい。
(4) Other Embodiments In the above-described embodiment, the case where the menu is displayed according to the area where the finger is brought close has been described. However, the present invention is not limited to this, and the menu is displayed according to the image being displayed. In this case, the display position may be set. That is, when a route is displayed on the car navigation device as described above, a position that does not interfere with the display from the current position to the destination according to the display of the current position on the display screen and the display of the destination. It is possible to improve the usability by displaying a menu on the screen. Further, instead of the process of setting various display positions, for example, a menu may be displayed at a predetermined position set in advance.

また上述の実施の形態においては、地図等を表示した状態で、指が近づけられるとメニューを表示する場合について述べたが、本発明はこれに限らず、例えば初期画面等であるメニュー画面を表示した状態で、指が近づけられると、この指が近づけられたメニューの下位のメニューを開く場合等にも広く適用することができる。   Further, in the above-described embodiment, the case where the menu is displayed when the finger is brought close with the map or the like displayed is described. In this state, when the finger is brought closer, the present invention can be widely applied to a case where a menu below the menu where the finger is brought closer is opened.

また上述の実施の形態においては、赤外線の遮光により指の接近を検出する場合について述べたが、本発明はこれに限らず、赤外線の散乱により指の接近を検出する場合等にも広く適用することができる。また赤外線の発光素子及び受光素子に代えて、マイクロ波の送信部と受信部とを配置し、指の接近によるマイクロ波受信結果の減衰、増大により指の接近を検出する場合、さらには受信したマイクロ波におけるドップラーシフトを検出して指の接近を検出する場合にも広く適用することができる。またこのような赤外線、マイクロ波による検出に代えて、タッチパネルに対する静電容量の変化により指の接近を検出するようにしてもよい。   Further, in the above-described embodiment, the case where the approach of the finger is detected by shielding the infrared rays has been described. However, the present invention is not limited to this, and is widely applied to the case where the approach of the finger is detected by scattering of the infrared rays. be able to. In place of the infrared light emitting element and light receiving element, a microwave transmitting part and a receiving part are arranged, and when the approach of the finger is detected by the attenuation or increase of the microwave reception result due to the approach of the finger, it is further received. The present invention can be widely applied to the case where the approach of the finger is detected by detecting the Doppler shift in the microwave. Further, instead of such detection by infrared rays or microwaves, the approach of a finger may be detected by a change in capacitance with respect to the touch panel.

また上述の実施の形態においては、単に指の接近を検出して表示を切り換える場合について述べたが、本発明はこれに限らず、指の移動を併せて検出して表示を切り換えるようにしてもよい。なおこの場合、表示画面に近接した状態における指の移動により、表示を拡大、縮小する場合、表示をスクロールさせる場合等が考えられる。   In the above-described embodiment, the case where the display is simply switched by detecting the approach of the finger has been described. However, the present invention is not limited to this, and the display may be switched by detecting the movement of the finger. Good. In this case, the display may be enlarged or reduced by moving the finger in the state of being close to the display screen, or the display may be scrolled.

また上述の実施の形態においては、カーナビゲーション装置に本発明を適用する場合について述べたが、本発明はこれに限らず、携帯型の各種画像表示装置、パーソナルコンピュータのディスプレイ等、種々の画像表示装置に広く適用することができる。   In the above-described embodiment, the case where the present invention is applied to the car navigation apparatus has been described. However, the present invention is not limited to this, and various image displays such as various portable image display apparatuses and personal computer displays can be used. Can be widely applied to the device.

また上述の実施の形態においては、指の接近を検出して表示を切り換える場合について述べたが、本発明はこれに限らず、タッチパネルの操作に使用する各種ポインタの接近を検出して表示を切り換える場合に広く適用することができる。なお、このようなポインタとしては、指のみに限らず、ペン、指示棒等、タッチパネルを操作する種々の器具が含まれる。   In the above-described embodiments, the case where the approach of the finger is detected and the display is switched is described. However, the present invention is not limited to this, and the display is switched by detecting the approach of various pointers used for touch panel operations. Can be widely applied to cases. Such a pointer is not limited to a finger, and includes various instruments that operate a touch panel, such as a pen and a pointing stick.

1……カーナビゲーション装置、2……画像表示ユニット、3……表示部、4……タッチパネル、5A〜5G……センサ、11……メインマイコン   DESCRIPTION OF SYMBOLS 1 ... Car navigation apparatus, 2 ... Image display unit, 3 ... Display part, 4 ... Touch panel, 5A-5G ... Sensor, 11 ... Main microcomputer

Claims (7)

ポインタの接触により操作可能なタッチパネルを有する画像表示部と、
前記画像表示部の領域毎に前記ポインタの接近を検出する接近検出部と、
前記画像表示部の動作を制御する制御部と、
第1及び第2の画像を生成する画像生成部と、
を備え、
前記画像生成部により生成された第1の画像が前記画像表示部に表示された状態で、前記接近検出部により前記ポインタの接近が検出された場合、前記制御部は、前記ポインタが接近した領域に最も近い、前記画像表示部の四隅の一つに前記画像生成部により生成された第2の画像を表示する、
画像表示装置。
An image display unit having a touch panel that can be operated by touching a pointer;
An approach detection unit for detecting the approach of the pointer for each area of the image display unit;
A control unit for controlling the operation of the image display unit;
An image generation unit for generating first and second images;
With
When the approach detection unit detects the approach of the pointer in a state where the first image generated by the image generation unit is displayed on the image display unit, the control unit is configured to display an area where the pointer approaches. Displaying the second image generated by the image generation unit at one of the four corners of the image display unit closest to
Image display device.
前記制御部は、前記接近検出部により前記ポインタが遠ざかったことが検出されると、所定の表示時間だけ経過した時点で前記第2の画像の表示を終了する、
請求項1に記載の画像表示装置。
When the control unit detects that the pointer has moved away, the display of the second image ends when a predetermined display time has elapsed.
The image display device according to claim 1.
前記制御部は、前記表示時間の変更を受け付ける、
請求項2に記載の画像表示装置。
The control unit accepts a change in the display time.
The image display device according to claim 2.
前記接近検出部は、
赤外線を送出する発光部と、
前記発光部に対応するように配置されて、前記指による前記赤外線の遮光を検出する受光部と、
を有する、
請求項3に記載の画像表示装置。
The approach detection unit is
A light emitting unit for transmitting infrared rays;
A light receiving portion that is arranged to correspond to the light emitting portion, and detects the shielding of the infrared light by the finger;
Having
The image display device according to claim 3.
前記指接近検出部は、
マイクロ波を送出する送信部と、
前記送信部に対応するように配置されて、前記指の接近により変化する前記マイクロ波を受信する受信部と、
を有する、
請求項3に記載の画像表示装置。
The finger approach detection unit is
A transmitter for transmitting microwaves;
A receiver that is arranged to correspond to the transmitter and receives the microwave that changes as the finger approaches;
Having
The image display device according to claim 3.
前記第1の画像又は前記第2の画像は、メニューである、
請求項1に記載の画像表示装置。
The first image or the second image is a menu.
The image display device according to claim 1.
現在位置の情報を取得する位置情報取得部をさらに備え、
前記画像生成部は、前記位置情報取得部により取得された現在位置の情報に基づき、前記第1の画像としてユーザーの道案内に供する案内画像を生成する、
請求項1に記載の画像表示装置。
It further comprises a location information acquisition unit that acquires information on the current location,
The image generation unit generates a guide image to be used for a user's route guidance as the first image based on the current position information acquired by the position information acquisition unit.
The image display device according to claim 1.
JP2010163581A 2010-07-21 2010-07-21 Information processing apparatus, information processing method, and program Expired - Fee Related JP5659595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010163581A JP5659595B2 (en) 2010-07-21 2010-07-21 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010163581A JP5659595B2 (en) 2010-07-21 2010-07-21 Information processing apparatus, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001166087A Division JP2002358162A (en) 2001-06-01 2001-06-01 Picture display device

Publications (3)

Publication Number Publication Date
JP2011003202A true JP2011003202A (en) 2011-01-06
JP2011003202A5 JP2011003202A5 (en) 2012-01-26
JP5659595B2 JP5659595B2 (en) 2015-01-28

Family

ID=43561060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010163581A Expired - Fee Related JP5659595B2 (en) 2010-07-21 2010-07-21 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5659595B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013091183A (en) * 2011-10-24 2013-05-16 Nissei Plastics Ind Co Display device for production machine
JP2013135378A (en) * 2011-12-27 2013-07-08 Denso Corp Display system for vehicle, and device for vehicle
JP2015089390A (en) * 2013-11-05 2015-05-11 パナソニックIpマネジメント株式会社 Operation device and washing machine
JP2017517062A (en) * 2014-06-03 2017-06-22 グーグル インコーポレイテッド Radar gesture recognition through wearable devices
JP2017519315A (en) * 2014-04-28 2017-07-13 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. Touch identification device, method and touch screen based on Doppler effect
KR101806652B1 (en) * 2013-03-22 2017-12-07 폭스바겐 악티엔 게젤샤프트 Information reproduction system for a vehicle and method for providing information for the user of a vehicle
US10496182B2 (en) 2015-04-30 2019-12-03 Google Llc Type-agnostic RF signal representations
US10572027B2 (en) 2015-05-27 2020-02-25 Google Llc Gesture detection and interactions
US10664061B2 (en) 2015-04-30 2020-05-26 Google Llc Wide-field radar-based gesture recognition
US10768712B2 (en) 2015-10-06 2020-09-08 Google Llc Gesture component with gesture library
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US12085670B2 (en) 2023-05-04 2024-09-10 Google Llc Advanced gaming and virtual reality control using radar

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619612A (en) * 1992-07-01 1994-01-28 Matsushita Electric Ind Co Ltd Pen input/menu display device
JPH0916074A (en) * 1995-06-27 1997-01-17 Fujitsu Ten Ltd Navigation device
JPH09269883A (en) * 1996-03-29 1997-10-14 Seiko Epson Corp Information processor and method therefor
JPH1039748A (en) * 1996-07-18 1998-02-13 Koonet:Kk Electronic map system, information providing device, and storage medium using it
JPH10161810A (en) * 1996-11-28 1998-06-19 Tokai Rika Co Ltd Display device
JPH10239085A (en) * 1997-02-26 1998-09-11 Casio Comput Co Ltd Map displaying device, map displaying method and recording medium
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
JP2000029598A (en) * 1998-07-13 2000-01-28 Matsushita Electric Ind Co Ltd Device and method for controlling display and computer- readable recording medium recording display control program
JP2000329577A (en) * 1999-05-18 2000-11-30 Fujitsu Ten Ltd Electronic apparatus
JP2001108475A (en) * 1999-10-12 2001-04-20 Yazaki Corp Navigation apparatus for vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619612A (en) * 1992-07-01 1994-01-28 Matsushita Electric Ind Co Ltd Pen input/menu display device
JPH0916074A (en) * 1995-06-27 1997-01-17 Fujitsu Ten Ltd Navigation device
JPH09269883A (en) * 1996-03-29 1997-10-14 Seiko Epson Corp Information processor and method therefor
JPH1039748A (en) * 1996-07-18 1998-02-13 Koonet:Kk Electronic map system, information providing device, and storage medium using it
JPH10161810A (en) * 1996-11-28 1998-06-19 Tokai Rika Co Ltd Display device
JPH10239085A (en) * 1997-02-26 1998-09-11 Casio Comput Co Ltd Map displaying device, map displaying method and recording medium
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
JP2000029598A (en) * 1998-07-13 2000-01-28 Matsushita Electric Ind Co Ltd Device and method for controlling display and computer- readable recording medium recording display control program
JP2000329577A (en) * 1999-05-18 2000-11-30 Fujitsu Ten Ltd Electronic apparatus
JP2001108475A (en) * 1999-10-12 2001-04-20 Yazaki Corp Navigation apparatus for vehicle

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013091183A (en) * 2011-10-24 2013-05-16 Nissei Plastics Ind Co Display device for production machine
JP2013135378A (en) * 2011-12-27 2013-07-08 Denso Corp Display system for vehicle, and device for vehicle
KR101806652B1 (en) * 2013-03-22 2017-12-07 폭스바겐 악티엔 게젤샤프트 Information reproduction system for a vehicle and method for providing information for the user of a vehicle
US10449857B2 (en) 2013-03-22 2019-10-22 Volkswagen Ag Information reproduction system for a vehicle and method for providing information for the user of a vehicle
JP2015089390A (en) * 2013-11-05 2015-05-11 パナソニックIpマネジメント株式会社 Operation device and washing machine
JP2017519315A (en) * 2014-04-28 2017-07-13 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. Touch identification device, method and touch screen based on Doppler effect
JP2019003683A (en) * 2014-06-03 2019-01-10 グーグル エルエルシー Radar-based gesture-recognition through wearable device
US9971415B2 (en) 2014-06-03 2018-05-15 Google Llc Radar-based gesture-recognition through a wearable device
US10509478B2 (en) 2014-06-03 2019-12-17 Google Llc Radar-based gesture-recognition from a surface radar field on which an interaction is sensed
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
JP2017517062A (en) * 2014-06-03 2017-06-22 グーグル インコーポレイテッド Radar gesture recognition through wearable devices
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US10496182B2 (en) 2015-04-30 2019-12-03 Google Llc Type-agnostic RF signal representations
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10664061B2 (en) 2015-04-30 2020-05-26 Google Llc Wide-field radar-based gesture recognition
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10572027B2 (en) 2015-05-27 2020-02-25 Google Llc Gesture detection and interactions
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US10908696B2 (en) 2015-10-06 2021-02-02 Google Llc Advanced gaming and virtual reality control using radar
US11256335B2 (en) 2015-10-06 2022-02-22 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US10768712B2 (en) 2015-10-06 2020-09-08 Google Llc Gesture component with gesture library
US11132065B2 (en) 2015-10-06 2021-09-28 Google Llc Radar-enabled sensor fusion
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US12085670B2 (en) 2023-05-04 2024-09-10 Google Llc Advanced gaming and virtual reality control using radar

Also Published As

Publication number Publication date
JP5659595B2 (en) 2015-01-28

Similar Documents

Publication Publication Date Title
JP5659595B2 (en) Information processing apparatus, information processing method, and program
JP2002358162A (en) Picture display device
KR101611205B1 (en) A displaying apparatus, a vehicle the displaying apparatus installed in and method of controlling the displaying apparatus
JP5259898B2 (en) Display device and display processing method
JP5409657B2 (en) Image display device
JP4836050B2 (en) Input system for in-vehicle electronic devices
JP2006047534A (en) Display control system
JP2006220884A (en) Map display method and navigation system
EP2560076A1 (en) Display device
KR20140130727A (en) Method for Displaying and Inputting Information in a Motor Vehicle, and Display Device
US20140210795A1 (en) Control Assembly for a Motor Vehicle and Method for Operating the Control Assembly for a Motor Vehicle
WO2016143613A1 (en) Mirror, in-vehicle operation device, and vehicle
JP2008216991A (en) Display device
JP2008217767A (en) Display device
JP6177660B2 (en) Input device
JP2015035134A (en) Input device
JP2019175449A (en) Information processing apparatus, information processing system, movable body, information processing method, and program
JP2010205146A (en) Input device
JP2007156991A (en) Onboard display apparatus
JP2004271439A (en) Operation system and cursor controller unit
JP2008009856A (en) Input device
JP2008209915A (en) Display device
JP2008114772A (en) Display device
US11354030B2 (en) Electronic device, control method, and program
KR20110076910A (en) Method and device for displaying information, in particular in a vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140418

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R151 Written notification of patent or utility model registration

Ref document number: 5659595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees