JP4591501B2 - In-vehicle operation device - Google Patents

In-vehicle operation device Download PDF

Info

Publication number
JP4591501B2
JP4591501B2 JP2007316024A JP2007316024A JP4591501B2 JP 4591501 B2 JP4591501 B2 JP 4591501B2 JP 2007316024 A JP2007316024 A JP 2007316024A JP 2007316024 A JP2007316024 A JP 2007316024A JP 4591501 B2 JP4591501 B2 JP 4591501B2
Authority
JP
Japan
Prior art keywords
display
operation device
unit
cpu
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007316024A
Other languages
Japanese (ja)
Other versions
JP2008100680A (en
Inventor
清貴 田口
広居 浜西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007316024A priority Critical patent/JP4591501B2/en
Publication of JP2008100680A publication Critical patent/JP2008100680A/en
Application granted granted Critical
Publication of JP4591501B2 publication Critical patent/JP4591501B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、ユーザが方向を指示するための方向指示操作手段と、前記方向指示操作手段の操作に対して反力や推力などの力を発生可能な力発生手段と、表示画面を表示手段に表示させる制御手段とを備えた車載操作装置および当該車載操作装置の操作支援方法に関する。   The present invention provides a direction indicating operation means for a user to indicate a direction, a force generating means capable of generating a force such as a reaction force or a thrust against the operation of the direction indicating operation means, and a display screen as a display means. The present invention relates to an in-vehicle operation device including a control means for displaying and an operation support method for the in-vehicle operation device.

従来より、車室内において、ユーザがジョイスティックやトラックボールなどを操作することにより、車載ディスプレイの表示画面上でのボタンを選択可能とした車載操作装置がある。このものによれば、例えば表示画面上で選択可能なボタンがカーソルの上方向に配置されている場合であれば、ジョイスティックを前方向に傾動させたり、トラックボールを前方向に回転させたりし、カーソルを所望のボタン上に移動させることにより、所望のボタンを選択することができ、エアコンの温度を調整したり、オーディオ機器の音量を調整したり、電動ミラーの角度を調節したりするなどの所望の動作を行わせることができる。   2. Description of the Related Art Conventionally, there is an in-vehicle operation device that allows a user to select a button on a display screen of an in-vehicle display by operating a joystick or a trackball in a vehicle interior. According to this, for example, if a selectable button on the display screen is arranged above the cursor, the joystick can be tilted forward, the trackball can be rotated forward, By moving the cursor over the desired button, you can select the desired button, such as adjusting the temperature of the air conditioner, adjusting the volume of the audio equipment, adjusting the angle of the electric mirror, etc. A desired operation can be performed.

ところで、この種の車載操作装置では、ユーザの操作性を高めるために、ジョイスティックやトラックボールの操作に対して反力や推力などの力を発生させ、ジョイスティックやトラックボールを適切な操作方向に案内する構成となっている。すなわち、例えば表示画面上で選択可能なボタンがカーソルの上方向に配置されている場合であれば、ジョイスティックの傾動方向を前方向に案内したり、トラックボールの回転方向を前方向に案内したりするように、反力や推力などの力を発生させ、ユーザに操作感(操作フィーリング)を付与する構成となっている(例えば特許文献1参照)。
特開2002−189556号公報
By the way, in this kind of in-vehicle operation device, in order to improve the operability for the user, a force such as a reaction force or a thrust force is generated for the operation of the joystick or the trackball, and the joystick or the trackball is guided in an appropriate operation direction. It is the composition to do. That is, for example, when a selectable button on the display screen is arranged above the cursor, the tilt direction of the joystick is guided forward, the rotation direction of the trackball is guided forward, etc. As described above, a force such as a reaction force or a thrust is generated to give the user a feeling of operation (operation feeling) (see, for example, Patent Document 1).
JP 2002-189556 A

ところで、このようにジョイスティックやトラックボールなどの操作に対して反力や推力などの力を発生させる構成は、表示画面の画面構成を示す画面構成データ、つまり、表示画面上でのボタンの位置を示すデータが予め車載操作装置の不揮発性メモリに記憶されているので、予め車載操作装置の不揮発性メモリに記憶されている画面構成データを読出すことにより可能となるものである。   By the way, the configuration that generates a reaction force or a thrust force in response to an operation of a joystick, a trackball, or the like in this way is the screen configuration data indicating the screen configuration of the display screen, that is, the position of the button on the display screen. Since the data shown is stored in advance in the non-volatile memory of the in-vehicle operation device, it is possible to read out the screen configuration data stored in advance in the non-volatile memory of the in-vehicle operation device.

その一方で、近年では、車室内においても、ブラウザを起動させることにより、サーバからインターネットを通じてWebページをダウンロードさせて車載ディスプレイに表示させたり、各種のアプリケーションソフトを起動させて車載ディスプレイに表示させたりすることが可能となっている。   On the other hand, in recent years, even in the passenger compartment, by launching a browser, a web page can be downloaded from the server via the Internet and displayed on the in-vehicle display, or various application software can be activated and displayed on the in-vehicle display. It is possible to do.

さて、Webページやアプリケーションソフトの表示画面では、URLやボタンが記述されている場合がある。このような事情から、ユーザにおいては、Webページやアプリケーションソフトの表示画面上にURLやボタンが記述されている場合に、ジョイスティックやトラックボールなどを操作することにより、表示画面上に記述されている所望のURLや所望のボタンを選択して接続(リンク)することが考えられる。   There are cases where URLs and buttons are described on the display screen of a Web page or application software. For these reasons, when a URL or button is described on the display screen of a web page or application software, the user operates the joystick or the trackball to describe the URL or button. It is conceivable that a desired URL or a desired button is selected and connected (linked).

しかしながら、Webページやアプリケーションソフトの表示画面の画面構成を示す画面構成データは、予め車載操作装置の不揮発性メモリに記憶されているものではないので、Webページやアプリケーションソフトの表示画面上でURLやボタンが記述されている位置を識別することは困難である。そのため、ジョイスティックやトラックボールなどを操作してWebページやアプリケーションソフトの表示画面上に記述されている所望のURLや所望のボタンを選択するときには、ジョイスティックやトラックボールなどの操作に対して反力や推力などの力を発生させることは困難であり、その結果、ユーザの操作性が低下するという問題がある。   However, since the screen configuration data indicating the screen configuration of the display screen of the Web page or application software is not stored in advance in the nonvolatile memory of the in-vehicle operation device, the URL or the URL is displayed on the display screen of the Web page or application software. It is difficult to identify the location where the button is described. Therefore, when a desired URL or a desired button described on the display screen of a web page or application software is selected by operating a joystick, a trackball, or the like, reaction force against the operation of the joystick, the trackball, etc. It is difficult to generate a force such as a thrust, and as a result, there is a problem that the operability of the user is lowered.

本発明は、上記した事情に鑑みてなされたものであり、その目的は、方向指示操作手段を操作してWebページやアプリケーションソフトの表示画面上に記述されている所望の領域を選択するときに、方向指示操作手段の操作に対して反力や推力などの力を発生させることにより、ユーザに操作感を付与することができ、ユーザの操作性を高めることができる車載操作装置および操作支援方法を提供することにある。   The present invention has been made in view of the above circumstances, and its purpose is to select a desired area described on a display page of a Web page or application software by operating a direction instruction operation means. An in-vehicle operation device and an operation support method that can give the user a feeling of operation by generating a force such as a reaction force or a thrust with respect to the operation of the direction instruction operation means, and can improve the user's operability. Is to provide.

請求項1に記載した車載操作装置によれば、画像解析手段は、表示画面の画像を解析し、制御手段は、表示手段の表示領域を画像解析手段による画像解析結果に基づいて複数のグリットに分割し、グリットカーソルを当該分割された複数のグリットのうちいずれかのグリット上に表示させる。そして、制御手段は、方向指示操作手段が操作されると、力発生手段により方向指示操作手段の操作に対して反力や推力などの力を発生させ、表示手段のグリットカーソルを方向指示操作手段の操作に応じて他のいずれかのグリット上に移動させる。   According to the in-vehicle operation device of the first aspect, the image analysis unit analyzes the image on the display screen, and the control unit sets the display area of the display unit to a plurality of grids based on the image analysis result by the image analysis unit. The grid cursor is displayed, and the grid cursor is displayed on any grid among the divided grids. When the direction indicating operation unit is operated, the control unit generates a force such as a reaction force or a thrust against the operation of the direction indicating operation unit by the force generating unit, and the grit cursor of the display unit is moved to the direction indicating operation unit. Move it on any other grit in response to the operation.

これにより、ユーザがWebページやアプリケーションソフトの表示画面上に記述されている例えば所望のURLや所望のボタンを選択するためにジョイスティックやトラックボールなどの方向指示操作手段を操作すると、表示手段のグリットカーソルが方向指示操作手段の操作に応じて他のいずれかのグリット上に移動されるように構成したので、所望のURLや所望のボタンが記述されているグリット上にグリットカーソルを移動させることにより、所望のURLや所望のボタンを選択することができる。   As a result, when the user operates a direction indicating operation means such as a joystick or a trackball to select a desired URL or a desired button described on the display screen of the Web page or application software, the grid of the display means is displayed. Since the cursor is moved on any other grid according to the operation of the direction instruction operation means, the grid cursor is moved on the grid where a desired URL or a desired button is described. A desired URL and a desired button can be selected.

このとき、ユーザが方向指示操作手段を操作する際に、方向指示操作手段の操作に対して反力や推力などの力が発生されるように構成したので、ユーザに操作感を付与することができ、ユーザの操作性を高めることができる。また、ユーザに操作感を付与することにより、ユーザにグリットカーソルの移動量や移動軌跡を知らせることをもでき、ユーザがブラインドタッチ感覚で方向指示操作手段を操作することができる。さらに、表示領域が表示画面の画像解析結果に基づいて複数のグリットに分割されるように構成したので、表示領域をURLやボタンの配置に応じた最適な形態で複数のグリットに分割することができ、これによっても、ユーザの操作性を高めることができる。   At this time, when the user operates the direction indicating operation means, a force such as a reaction force or a thrust is generated with respect to the operation of the direction indicating operation means. The user operability can be improved. Further, by giving the user a feeling of operation, the user can be notified of the movement amount and movement locus of the grid cursor, and the user can operate the direction indicating operation means with a blind touch feeling. Furthermore, since the display area is configured to be divided into a plurality of grids based on the image analysis result of the display screen, the display area can be divided into a plurality of grids in an optimal form according to the URL and button arrangement. This can also improve user operability.

請求項2に記載した車載操作装置によれば、画像解析手段は、表示画面の画像に対して文字認識を行い、制御手段は、表示手段の表示領域を画像解析手段による文字認識結果に基づいて複数のグリットに分割する。これにより、表示画面に文字や文章が記述されている場合に、文字や文章を認識することにより、文字や文章を単位として表示領域を最適な形態で複数のグリットに分割することができ、ユーザが所望の文字や所望の文章を確実に選択することができる。   According to the in-vehicle operation device described in claim 2, the image analysis means performs character recognition on the image on the display screen, and the control means determines the display area of the display means based on the character recognition result by the image analysis means. Divide into multiple grit. As a result, when characters and sentences are described on the display screen, by recognizing the characters and sentences, the display area can be divided into a plurality of grids in an optimal form for each character or sentence. Can reliably select a desired character or a desired sentence.

請求項3に記載した車載操作装置によれば、画像解析手段は、表示画面の画像に対して図形認識を行い、制御手段は、表示手段の表示領域を画像解析手段による図形認識結果に基づいて複数のグリットに分割する。これにより、表示画面に図面が記述されている場合に、図形を認識することにより、図形を単位として表示領域を最適な形態で複数のグリットに分割することができ、ユーザが所望の図形を確実に選択することができる。   According to the in-vehicle operation device of the third aspect, the image analysis means performs figure recognition on the image on the display screen, and the control means determines the display area of the display means based on the figure recognition result by the image analysis means. Divide into multiple grit. As a result, when a drawing is described on the display screen, by recognizing the figure, the display area can be divided into a plurality of grids in an optimal form by using the figure as a unit, and the user can reliably obtain the desired figure. Can be selected.

以下、本発明の一実施例について、図面を参照して説明する。図1は、車載操作装置の構成を機能ブロック図により示している。車載操作装置1は、CPU2(本発明でいう制御手段)と、手動操作機器3と、通信機器4と、メインディスプレイ5(本発明でいう表示手段)と、サブディスプレイ6と、揮発性メモリ7と、不揮発性メモリ8と、画像解析部9(本発明でいう画像解析手段)とを備えて構成されている。   An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the in-vehicle operation device. The in-vehicle operation device 1 includes a CPU 2 (control means in the present invention), a manual operation device 3, a communication device 4, a main display 5 (display means in the present invention), a sub-display 6, and a volatile memory 7. And a nonvolatile memory 8 and an image analysis unit 9 (image analysis means in the present invention).

CPU2は、マイクロコンピュータを主体として構成されており、制御プログラムを実行して装置全体の動作を制御する。手動操作機器3は、基本的には運転手が運転しながら操作可能となるように車室内の運転席の脇に設置されているもので、図2にも示すように、ジョイスティック10(本発明でいう方向指示操作手段)が筐体11から立設した構成となっている。ジョイスティック10は、下端部の球体部10aが360度の全ての方向に回転することにより、球体部10aを支点として360度の全ての方向に傾動可能となっている。手動操作機器3は、ジョイスティック10が傾動すると、その傾動方向(操作方向)や傾動角度(操作量)を操作検出信号としてCPU2に出力する。   The CPU 2 is mainly composed of a microcomputer, and executes a control program to control the operation of the entire apparatus. The manual operation device 3 is basically installed on the side of the driver's seat in the passenger compartment so that the driver can operate while driving. As shown in FIG. The direction instructing operation means) stands up from the housing 11. The joystick 10 can be tilted in all directions of 360 degrees with the sphere part 10a as a fulcrum by rotating the sphere part 10a at the lower end in all directions of 360 degrees. When the joystick 10 tilts, the manual operation device 3 outputs the tilt direction (operation direction) and tilt angle (operation amount) to the CPU 2 as an operation detection signal.

筐体11の内部には、例えば複数の小型モータなどの部品が組合わされて構成される力発生機構12(本発明でいう力発生手段)が配設されている。力発生機構12は、CPU2から力発生信号が手動操作機器3に入力されると、ジョイスティック10の操作に対して反力や推力などの力を発生させる。また、ジョイスティック10の上端部には決定ボタン13が配設されていると共に、筐体11の上面部には拡大ボタン14と縮小ボタン15とが配設されている。手動操作機器3は、これら決定ボタン13、拡大ボタン14および縮小ボタン15のいずれかが操作されると、操作検出信号をCPU2に出力する。   Inside the housing 11, for example, a force generating mechanism 12 (force generating means in the present invention) configured by combining a plurality of components such as a small motor is disposed. When a force generation signal is input from the CPU 2 to the manual operation device 3, the force generation mechanism 12 generates a force such as a reaction force or a thrust against the operation of the joystick 10. A determination button 13 is disposed on the upper end of the joystick 10, and an enlargement button 14 and a reduction button 15 are disposed on the upper surface of the housing 11. The manual operation device 3 outputs an operation detection signal to the CPU 2 when any one of the determination button 13, the enlargement button 14, and the reduction button 15 is operated.

通信機器4は、サーバ16からインターネット17を通じてWebページをダウンロードするもので、CPU2は、ブラウザを起動させることにより、サーバ16からWebページをインターネット17を通じて通信機器4にダウンロードさせ、ダウンロードされたWebページをメインディスプレイ5やサブディスプレイ6に表示させる。   The communication device 4 downloads a Web page from the server 16 through the Internet 17, and the CPU 2 starts the browser to download the Web page from the server 16 to the communication device 4 through the Internet 17, and the downloaded Web page. Is displayed on the main display 5 and the sub-display 6.

メインディスプレイ5は、運転席のコックピット付近に設置されているもので、CPU2から表示指令信号が入力されると、表示画面を表示領域に表示する。このとき、運転手は、メインディスプレイ5が運転席のコックピット付近に設置されているので、メインディスプレイ5に表示されている表示画面を運転中に目視するためには、目線を移動する必要がある。   The main display 5 is installed near the cockpit of the driver's seat and displays a display screen in the display area when a display command signal is input from the CPU 2. At this time, since the main display 5 is installed near the cockpit of the driver's seat, the driver needs to move his / her line of sight in order to view the display screen displayed on the main display 5 during driving. .

サブディスプレイ6は、上記したメインディスプレイ5の表示領域よりも小さい表示領域を有し、例えばハンドルの後方(奥側)のダッシュボード上に設置されているもので、CPU2から表示指令信号が入力されると、表示画面を表示領域に表示する。このとき、運転手は、サブディスプレイ6がハンドルの後方のダッシュボード上に設置されているので、サブディスプレイ6に表示されている表示画面を運転中に目視するためには、目線を移動する必要はない。   The sub display 6 has a display area smaller than the display area of the main display 5 described above, and is installed on a dashboard behind the handle (back side), for example, and receives a display command signal from the CPU 2. Then, the display screen is displayed in the display area. At this time, since the sub display 6 is installed on the dashboard behind the steering wheel, the driver needs to move his / her line of sight in order to view the display screen displayed on the sub display 6 while driving. There is no.

揮発性メモリ7は、サーバ16からインターネット17を通じて通信機器4にダウンロードされたWebページの画像を記憶する。不揮発性メモリ8は、車載操作装置1のアプリケーションソフトの表示画面の画面構成データを記憶可能に構成されているもので、CPU2から読出信号が入力されると、記憶されている画面構成データをCPU2に出力する。尚、ここでいう車載操作装置1のアプリケーションソフトとは、例えばエアコンの温度を調整したり、オーディオ機器の音量を調整したり、電動ミラーの角度を調節したりするためのものである。   The volatile memory 7 stores an image of a Web page downloaded from the server 16 to the communication device 4 through the Internet 17. The non-volatile memory 8 is configured to be able to store screen configuration data of the display screen of the application software of the in-vehicle operation device 1. When a read signal is input from the CPU 2, the stored screen configuration data is transferred to the CPU 2. Output to. Note that the application software of the in-vehicle operation device 1 here is for adjusting the temperature of an air conditioner, adjusting the volume of an audio device, or adjusting the angle of an electric mirror, for example.

画像解析部9は、CPU2から画像解析信号が入力されると、揮発性メモリ7に記憶されているWebページの画像を解析し、解析した結果を画像解析結果としてCPU2に出力する。   When the image analysis signal is input from the CPU 2, the image analysis unit 9 analyzes the Web page image stored in the volatile memory 7 and outputs the analyzed result to the CPU 2 as an image analysis result.

次に、上記した構成の作用について、図3ないし図8を参照して説明する。尚、ここでは、表示画面をメインディスプレイ5に表示する場合を前提と、
(1)メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトである場合
(2)メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトでない場合
について順次説明する。
Next, the operation of the above configuration will be described with reference to FIGS. Here, on the assumption that the display screen is displayed on the main display 5,
(1) When the display screen displayed on the main display 5 is the application software of the in-vehicle operation device 1 (2) The case where the display screen displayed on the main display 5 is not the application software of the in-vehicle operation device 1 will be described sequentially.

(1)メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトである場合
まず、「メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトである場合」を説明する。
(1) When the display screen displayed on the main display 5 is application software of the in-vehicle operation device 1 First, “when the display screen displayed on the main display 5 is application software of the in-vehicle operation device 1” will be described.

CPU2は、メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトであるか否かを判定し(ステップS1)、メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトであることを検出すると(ステップS1にて「YES」)、この場合は、車載操作装置1のアプリケーションソフトの表示画面の画面構成データが不揮発性メモリ8に記憶されているので、読出信号を不揮発性メモリ8に出力し、不揮発性メモリ8から該当する画面構成データを読出す(ステップS2)。   The CPU 2 determines whether or not the display screen to be displayed on the main display 5 is application software of the in-vehicle operation device 1 (step S1), and the display screen to be displayed on the main display 5 is application software of the in-vehicle operation device 1. If this is detected ("YES" in step S1), in this case, since the screen configuration data of the display screen of the application software of the in-vehicle operation device 1 is stored in the nonvolatile memory 8, the read signal is transmitted to the nonvolatile memory. The corresponding screen configuration data is read out from the nonvolatile memory 8 (step S2).

そして、CPU2は、これ以降、アプリケーションソフトの表示画面をメインディスプレイ5に表示させ、ジョイスティック10が操作されたことを検出すると、力発生信号を手動操作機器3に出力し、画面構成データに基づいて力発生機構12によりジョイスティック10の操作に対して反力や推力を発生させたり、反力や推力を解除したりする(ステップS3)。   After that, when the CPU 2 displays the display screen of the application software on the main display 5 and detects that the joystick 10 is operated, the CPU 2 outputs a force generation signal to the manual operation device 3 and based on the screen configuration data. The force generation mechanism 12 generates a reaction force or thrust against the operation of the joystick 10 or cancels the reaction force or thrust (step S3).

(2)メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトでない場合
次に、「メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトでない場合」を説明する。
(2) When the display screen to be displayed on the main display 5 is not application software of the in-vehicle operation device 1 Next, “when the display screen to be displayed on the main display 5 is not application software of the in-vehicle operation device 1” will be described.

CPU2は、サーバ16からインターネット17を通じてWebページの画像が通信機器4にダウンロードされると、ダウンロードされたWebページの画像を揮発性メモリ7に記憶させる。さて、CPU2は、メインディスプレイ5に表示させる表示画面が車載操作装置1のアプリケーションソフトでないことを検出すると(ステップS1にて「NO」)、この場合は、次に説明する処理を行う。   When the image of the Web page is downloaded from the server 16 to the communication device 4 through the Internet 17, the CPU 2 stores the downloaded image of the Web page in the volatile memory 7. When the CPU 2 detects that the display screen to be displayed on the main display 5 is not application software of the in-vehicle operation device 1 (“NO” in step S1), in this case, the following process is performed.

すなわち、CPU2は、メインディスプレイ5に表示させる表示画面がブラウザ上で動作するアプリケーションソフトであるか否かを判定する(ステップS4)。ここで、CPU2は、メインディスプレイ5に表示させる表示画面がブラウザ上で動作するアプリケーションソフトであることを検出すると(ステップS4にて「YES」)、HTMLのタグを解析して画面情報を作成する(ステップS5)。   That is, the CPU 2 determines whether or not the display screen to be displayed on the main display 5 is application software that operates on the browser (step S4). When the CPU 2 detects that the display screen to be displayed on the main display 5 is application software that operates on the browser (“YES” in step S4), the CPU 2 analyzes the HTML tag and creates screen information. (Step S5).

次いで、CPU2は、メインディスプレイ5に表示させる表示画面がJava(登録商標)やFlash(登録商標)などで記述されているアプリケーションソフトであるか否かを判定する(ステップS6)。そして、CPU2は、メインディスプレイ5に表示させる表示画面がJava(登録商標)やFlash(登録商標)などで記述されているアプリケーションソフトであることを検出すると(ステップS6にて「YES」)、アプリケーションソフトの領域の大きさをタグに基づいて解析し、先に作成された画面情報を詳細化する(ステップS7)。   Next, the CPU 2 determines whether or not the display screen to be displayed on the main display 5 is application software described in Java (registered trademark), Flash (registered trademark), or the like (step S6). When the CPU 2 detects that the display screen to be displayed on the main display 5 is application software described in Java (registered trademark) or Flash (registered trademark) (“YES” in step S6), the application 2 The size of the software area is analyzed based on the tag, and the previously created screen information is detailed (step S7).

次いで、CPU2は、ブラウザ上で動作するアプリケーションソフトの構造解析が可能であるか否かを判定する(ステップS8)。そして、CPU2は、ブラウザ上で動作するアプリケーションソフトの構造解析が可能であることを検出すると(ステップS8にて「YES」)、アプリケーションソフトの構造解析を行って先に作成された画面情報を詳細化し(ステップS9)、メインディスプレイ5の表示領域を画面情報に基づいて複数のグリットに分割する(ステップS10)。   Next, the CPU 2 determines whether or not the structure analysis of the application software that operates on the browser is possible (step S8). When the CPU 2 detects that the structure analysis of the application software running on the browser is possible (“YES” in step S8), the CPU 2 performs the structure analysis of the application software and details the screen information previously created. (Step S9), and the display area of the main display 5 is divided into a plurality of grids based on the screen information (step S10).

これに対して、CPU2は、ブラウザ上で動作するアプリケーションソフトの構造解析が可能でないことを検出すると(ステップS8にて「NO」)、詳しくは後述する画像認識を行い(ステップS11)、メインディスプレイ5の表示領域を画像認識結果による画面情報に基づいて複数のグリットに分割する(ステップS10)。   On the other hand, when the CPU 2 detects that the structure analysis of the application software running on the browser is not possible (“NO” in step S8), it performs image recognition (to be described later in detail) (step S11), and the main display. The display area 5 is divided into a plurality of grids based on the screen information based on the image recognition result (step S10).

また、CPU2は、ブラウザ上で動作するアプリケーションソフトでないことを検出する
と(ステップS4にて「NO」)、アプリケーションソフトの構造解析が可能であるか否かを判定する(ステップS12)。そして、CPU2は、アプリケーションソフトの構造解析が可能であることを検出すると(ステップS12にて「YES」)、アプリケーションソフトの構造解析を行って画面情報を作成し(ステップS13)、メインディスプレイ5の表示領域を画面情報に基づいて複数のグリットに分割する(ステップS10)。
If the CPU 2 detects that the application software does not operate on the browser (“NO” in step S4), the CPU 2 determines whether the structure analysis of the application software is possible (step S12). When the CPU 2 detects that the structure analysis of the application software is possible (“YES” in step S12), the CPU 2 analyzes the structure of the application software and creates screen information (step S13). The display area is divided into a plurality of grids based on the screen information (step S10).

これに対して、CPU2は、アプリケーションソフトの構造解析が可能でないことを検出すると(ステップS12にて「NO」)、このときも、詳しくは後述する画像認識を行い(ステップS14)、メインディスプレイ5の表示領域を画像認識結果による画面情報に基づいて複数のグリットに分割する(ステップS10)。   On the other hand, when the CPU 2 detects that the structure analysis of the application software is not possible (“NO” in step S12), the CPU 2 also performs image recognition described later in detail (step S14), and the main display 5 Is divided into a plurality of grids based on the screen information based on the image recognition result (step S10).

次に、CPU2が行う画像認識処理について、図5に示すフローチャートを参照して説明する。CPU2は、画像認識処理に移行すると、画像解析信号を画像解析部9に出力し、揮発性メモリ7に記憶されているWebページの画像を解析する。まず、CPU2は、画像に文字領域が有るか否かを判定し(ステップS41)、画像に文字領域が有ることを検出すると(ステップS41にて「YES」)、文字認識を行って文字や文章を単位とするグリットを生成する(ステップS42)。   Next, image recognition processing performed by the CPU 2 will be described with reference to a flowchart shown in FIG. When the CPU 2 shifts to the image recognition process, the CPU 2 outputs an image analysis signal to the image analysis unit 9 and analyzes the image of the Web page stored in the volatile memory 7. First, the CPU 2 determines whether or not there is a character area in the image (step S41). When the CPU 2 detects that there is a character area in the image (“YES” in step S41), the CPU 2 performs character recognition and performs a character or sentence. A grit is generated in units of (step S42).

次いで、CPU2は、画像に特殊な文字列が有るか否かを判定し(ステップS43)、画像に特殊な文字列が有ることを検出すると(ステップS43にて「YES」)、特殊な文字列を単位とするグリットを生成する(ステップS44)。次いで、CPU2は、画像に図形領域が有るか否かを判定し(ステップS45)、画像に図形領域が有ることを検出すると(ステップS45にて「YES」)、図形認識を行って図形を単位とするグリットを生成し(ステップS46)、これに続いて色認識を行ってグリットを修正する(ステップS47)。   Next, the CPU 2 determines whether or not there is a special character string in the image (step S43), and detects that there is a special character string in the image (“YES” in step S43), the special character string. A grit is generated in units of (step S44). Next, the CPU 2 determines whether or not there is a graphic area in the image (step S45). When the CPU 2 detects that there is a graphic area in the image (“YES” in step S45), the CPU 2 performs graphic recognition and unitizes the graphic. A grid is generated (step S46), followed by color recognition to correct the grid (step S47).

これにより、CPU2は、図6に示すように、メインディスプレイ5の表示領域を表示画面の文字や図形を単位として複数のグリットに分割することが可能となる。そして、これ以降、CPU2は、表示指令信号をメインディスプレイ5に出力し、サーバ16からダウンロードされたWebページをメインディスプレイ5に表示させると共に、グリットカーソル(図6中、P参照)をいずれかのグリット上に表示させる(ステップS15)。具体的に説明すると、CPU2は、グリットカーソル(図6中、P参照)を例えば「速報 ○○さんが記者会見」という文章が記述されているグリット上に表示させる。そして、CPU2は、手動操作機器3から操作検出信号が入力されるのを待機する(ステップS16)。   As a result, as shown in FIG. 6, the CPU 2 can divide the display area of the main display 5 into a plurality of grids in units of characters and figures on the display screen. Thereafter, the CPU 2 outputs a display command signal to the main display 5 to display the web page downloaded from the server 16 on the main display 5 and also displays a grid cursor (see P in FIG. 6). It is displayed on the grid (step S15). More specifically, the CPU 2 displays a grit cursor (see P in FIG. 6) on a grit in which, for example, a sentence “Breaking News Mr. XX is a press conference” is described. Then, the CPU 2 waits for an operation detection signal to be input from the manual operation device 3 (step S16).

CPU2は、ユーザがジョイスティック10を操作したことにより手動操作機器3から操作検出信号が入力されると(ステップS16にて「YES」)、入力された操作検出信号を解析し(ステップS17)、ジョイスティック10が操作されたことを検出する(ステップS18にて「YES」)。   When the operation detection signal is input from the manual operation device 3 by the user operating the joystick 10 (“YES” in step S16), the CPU 2 analyzes the input operation detection signal (step S17), and the joystick. 10 is detected ("YES" in step S18).

このとき、CPU2は、ジョイスティック10が操作されたことを検出したことにより、力発生信号を手動操作機器3に出力し、力発生機構12によりジョイスティック10の操作に対して反力や推力を発生させる(ステップS19)。具体的に説明すると、CPU2は、ジョイスティック10の傾動方向が左方向であれば、ジョイスティック10の左方向への傾動に対して反力や推力を発生させ、また、ジョイスティック10の傾動方向が後方向であれば、ジョイスティック10の後方向への傾動に対して反力や推力を発生させる。   At this time, when the CPU 2 detects that the joystick 10 has been operated, the CPU 2 outputs a force generation signal to the manual operation device 3 and causes the force generation mechanism 12 to generate a reaction force or a thrust against the operation of the joystick 10. (Step S19). More specifically, if the tilt direction of the joystick 10 is the left direction, the CPU 2 generates a reaction force or a thrust against the tilt of the joystick 10 in the left direction, and the tilt direction of the joystick 10 is the backward direction. If so, a reaction force or a thrust is generated with respect to the backward tilting of the joystick 10.

次いで、CPU2は、表示指令信号をメインディスプレイ5に出力し、グリットカーソルをジョイスティック10の操作方向に応じて移動させる(ステップS20)。具体的に説明すると、CPU2は、ジョイスティック10の傾動方向が左方向であれば、グリットカーソルを左方向のグリット上に移動させ、また、ジョイスティック10の傾動方向が後方向であれば、グリットカーソルを後方向のグリット上に移動させる。   Next, the CPU 2 outputs a display command signal to the main display 5 and moves the grid cursor according to the operation direction of the joystick 10 (step S20). More specifically, the CPU 2 moves the grit cursor to the left grit if the tilt direction of the joystick 10 is the left direction, and moves the grit cursor if the tilt direction of the joystick 10 is the rear direction. Move it back on the grid.

そして、CPU2は、グリットカーソルを移動させた直後に反力や推力を解除し(ステップS21)、上記したステップS16に戻り、手動操作機器3から操作検出信号が入力されるのを再度待機する。これにより、ユーザは、ジョイスティック10を操作したときに、反力や推力が発生されたことにより、操作感を感じることができる。   Then, the CPU 2 releases the reaction force and the thrust immediately after moving the grid cursor (step S21), returns to the above step S16, and waits again for the operation detection signal to be input from the manual operation device 3. Thereby, when the user operates the joystick 10, the user can feel an operational feeling due to the generation of reaction force and thrust.

次に、ユーザは、このようにしてグリットカーソルを所望のリンク先(文字や図形)が記述されているグリット上に移動させると、そのグリットカーソルが位置しているグリットを選択グリットとして決定するために、決定ボタン13の操作を行うことになる。CPU2は、ユーザが決定ボタン13を操作したことにより手動操作機器3から操作検出信号が入力されると(ステップS16にて「YES」)、入力された操作検出信号を解析し(ステップS17)、決定ボタン13が操作されたことを検出する(ステップS22にて「YES」)。   Next, when the user moves the grid cursor onto the grid where the desired link destination (character or graphic) is described in this way, the grid where the grid cursor is located is determined as the selected grid. Then, the determination button 13 is operated. When the operation detection signal is input from the manual operation device 3 by the user operating the enter button 13 (“YES” in step S16), the CPU 2 analyzes the input operation detection signal (step S17). It is detected that the determination button 13 has been operated (“YES” in step S22).

次いで、CPU2は、グリットカーソルが位置しているグリットを選択グリットとして決定可能であるか否かを判定する(ステップS23)。ここで、CPU2は、グリットカーソルが位置しているグリットを選択グリットとして決定可能であれば(ステップS23にて「YES」)、グリットカーソルが位置しているグリットを選択グリットとして決定し、選択グリットとして決定されたグリット内に記述されているリンク先に接続する処理を行う(ステップS24)。これにより、ユーザは、これ以降、所望のリンク先のWebページをダウンロードさせて閲覧することができる。   Next, the CPU 2 determines whether or not the grid where the grid cursor is located can be determined as the selected grid (step S23). Here, if the grit where the grit cursor is located can be determined as the selected grit ("YES" in step S23), the CPU 2 determines the grit where the grit cursor is located as the selected grit, and selects the selected grit. A process of connecting to the link destination described in the grid determined as is performed (step S24). Thereby, the user can download and browse a desired linked web page thereafter.

具体的に説明すると、ユーザは、図6に示すように、グリットカーソルが例えば「速報 ○○さんが記者会見」という文章が記述されているグリット上に位置しているときに、ジョイスティック10を左方向に操作することにより、図7に示すように、グリットカーソルを「社会」という文字が記述されているグリット上に移動させることができ、これに続いて決定ボタン13を操作することにより、「社会」に関する内容のWebページをダウンロードさせて閲覧することができる。   Specifically, as shown in FIG. 6, when the grit cursor is positioned on the grit in which a sentence “breaking news ○○ is a press conference” is described, the user moves the joystick 10 to the left. By operating in the direction, as shown in FIG. 7, the grid cursor can be moved over the grid in which the characters “society” are described, and by subsequently operating the enter button 13, “ Web pages with contents related to “society” can be downloaded and viewed.

また、ユーザは、図6に示すように、グリットカーソルが例えば「速報 ○○さんが記者会見」という文章が記述されているグリット上に位置しているときに、ジョイスティック10を後方向に操作することにより、図8に示すように、グリットカーソルを図形(写真画像)が記述されているグリット上に移動させることができ、これに続いて決定ボタン13を操作することにより、例えば該当する図形を拡大して閲覧することができる。   Further, as shown in FIG. 6, the user operates the joystick 10 backward when the grit cursor is positioned on the grit in which the sentence “Breaking News XX is a press conference” is described, for example. Thus, as shown in FIG. 8, the grid cursor can be moved over the grid where the graphic (photo image) is described, and by operating the decision button 13 subsequently, for example, the corresponding graphic is displayed. It can be enlarged and viewed.

以上に説明した一連の処理により、ユーザは、サーバ16からダウンロードされてメインディスプレイ5に表示されたWebページにリンク先が記述されている場合に、ジョイスティック10を操作してグリットカーソルを所望のリンク先が記述されているグリット上に移動させることにより、所望のリンク先に接続することができ、所望のWebページをダウンロードさせて閲覧することができる。このとき、ユーザは、ジョイスティック10を操作するときに、反力や推力が発生されることにより、操作感を感じることができる。   Through the series of processes described above, the user operates the joystick 10 to move the grid cursor to a desired link when the link destination is described in the Web page downloaded from the server 16 and displayed on the main display 5. By moving on the grid where the destination is described, it is possible to connect to a desired link destination and download and browse a desired Web page. At this time, when the user operates the joystick 10, a reaction force or a thrust is generated, so that the user can feel an operational feeling.

ところで、ユーザが拡大ボタン14を操作したときには、CPU2は、ユーザが拡大ボタン14を操作したことにより手動操作機器3から操作検出信号が入力されると(ステップS16にて「YES」)、入力された操作検出信号を解析し(ステップS17)、拡大ボタン14が操作されたことを検出する(ステップS25にて「YES」)。次いで、CPU2は、グリットカーソルが位置しているグリットを拡大可能であるか否かを判定し(ステップS26)、拡大可能であれば(ステップS26にて「YES」)、メインディスプレイ5の表示領域をグリットのサイズを小さくして複数のグリットに再分割し(ステップS27)、グリットカーソルをいずれかのグリット上に表示させ(ステップS28)、上記したステップS16に戻り、手動操作機器3から操作検出信号が入力されるのを再度待機する。   By the way, when the user operates the enlarge button 14, the CPU 2 is input when an operation detection signal is input from the manual operation device 3 due to the user operating the enlarge button 14 ("YES" in step S16). The detected operation detection signal is analyzed (step S17), and it is detected that the enlargement button 14 has been operated ("YES" in step S25). Next, the CPU 2 determines whether or not the grit where the grit cursor is located can be enlarged (step S26). If the grit can be enlarged ("YES" in step S26), the display area of the main display 5 is displayed. Is reduced to a plurality of grids by reducing the size of the grid (step S27), the grid cursor is displayed on any grid (step S28), the process returns to step S16, and the operation is detected from the manual operation device 3. Wait again for the signal to be input.

また、ユーザが縮小ボタン15を操作したときには、CPU2は、ユーザが縮小ボタン15を操作したことにより手動操作機器3から操作検出信号が入力されると(ステップS16にて「YES」)、入力された操作検出信号を解析し(ステップS17)、縮小ボタン15が操作されたことを検出する(ステップS29にて「YES」)。次いで、CPU2は、グリットカーソルが位置しているグリットを縮小可能であるか否かを判定し(ステップS30)、縮小可能であれば(ステップS30にて「YES」)、メインディスプレイ5の表示領域をグリットのサイズを大きくして複数のグリットに再分割し(ステップS31)、グリットカーソルをいずれかのグリット上に表示させ(ステップS32)、上記したステップS16に戻り、手動操作機器3から操作検出信号が入力されるのを再度待機する。   When the user operates the reduction button 15, the CPU 2 inputs an operation detection signal from the manual operation device 3 due to the user operating the reduction button 15 ("YES" in step S16). The detected operation detection signal is analyzed (step S17), and it is detected that the reduction button 15 has been operated (“YES” in step S29). Next, the CPU 2 determines whether or not the grid where the grid cursor is located can be reduced (step S30). If the grid can be reduced (“YES” in step S30), the display area of the main display 5 is displayed. The size of the grid is increased and re-divided into a plurality of grids (step S31), the grid cursor is displayed on one of the grids (step S32), the process returns to step S16, and the operation is detected from the manual operation device 3. Wait again for the signal to be input.

つまり、CPU2は、画面情報を階層で管理しており、画面情報を作成可能な階層が下位にあることを条件として、グリットカーソルが位置しているグリットを拡大することになり、これに対して、画面情報を作成可能な階層が上位にあることを条件として、グリットカーソルが位置しているグリットを縮小することになる。   That is, the CPU 2 manages the screen information in a hierarchy, and on the condition that the hierarchy in which the screen information can be created is lower, the grid where the grid cursor is located is expanded. The grid on which the grid cursor is located is reduced on the condition that the hierarchy in which screen information can be created is higher.

ところで、以上は、表示画面をメインディスプレイ5に表示する場合を前提として説明したものであるが、表示画面をサブディスプレイ6に表示する場合も、これと同様の処理を行うものであり、この場合であれば、運転しながら目線を移動することなく、所望のURLや所望のボタンを選択することができる。   By the way, the above has been described on the assumption that the display screen is displayed on the main display 5. However, when the display screen is displayed on the sub display 6, the same processing is performed. Then, it is possible to select a desired URL and a desired button without moving the line of sight while driving.

以上に説明したように本実施例によれば、車載操作装置1において、サーバ16からダウンロードされたWebページの表示画面を画像解析し、メインディスプレイ5を複数のグリットに分割してWebページの表示画面をメインディスプレイ5に表示し、ジョイスティック10を操作すると、グリットカーソルが移動されるように構成したので、所望のURLが記述されているグリット上にグリットカーソルを移動させることにより、所望のURLを選択することができる。   As described above, according to the present embodiment, the in-vehicle operation device 1 performs image analysis on the display screen of the Web page downloaded from the server 16, and displays the Web page by dividing the main display 5 into a plurality of grids. Since the screen is displayed on the main display 5 and the joystick 10 is operated, the grid cursor is moved. Therefore, by moving the grid cursor over the grid in which the desired URL is described, the desired URL is displayed. You can choose.

このとき、ユーザがジョイスティック10を操作する際に、ジョイスティック10の操作に対して反力や推力などの力が発生されるように構成したので、ユーザに操作感を付与することができ、ユーザの操作性を高めることができる。また、ユーザに操作感を付与することにより、ユーザにグリットカーソルの移動量を知らせることをもできるので、ユーザがブラインドタッチ感覚でジョイスティック10を操作することができる。さらに、メインディスプレイ5の表示領域が表示画面の画像解析結果に基づいて複数のグリットに分割されるように構成したので、表示領域をURLやボタンの配置に応じた最適な形態で複数のグリットに分割することができ、これによっても、ユーザの操作性を高めることができる。   At this time, when the user operates the joystick 10, a force such as a reaction force or a thrust is generated with respect to the operation of the joystick 10, so that the user can be given an operational feeling. Operability can be improved. Further, by giving the user a feeling of operation, the user can be notified of the amount of movement of the grit cursor, so that the user can operate the joystick 10 as if it were a blind touch. Furthermore, since the display area of the main display 5 is configured to be divided into a plurality of grids based on the image analysis result of the display screen, the display area is divided into a plurality of grids in an optimum form according to the URL and button arrangement. It can be divided, and this also improves the operability for the user.

本発明は、上記した実施例にのみ限定されるものではなく、以下のように変形または拡張することができる。   The present invention is not limited to the embodiments described above, and can be modified or expanded as follows.

方向指示操作手段は、ジョイスティックに限らず、トラックボールなどの他のものであっても良い。   The direction instruction operation means is not limited to a joystick, but may be other things such as a trackball.

手動操作機器に制御回路(CPU)を持たせることにより、CPUと手動操作機器の制御回路とが連携して力発生機構における反力や推力の発生を制御する構成であっても良い。   The manual operation device may be provided with a control circuit (CPU) so that the CPU and the control circuit of the manual operation device cooperate to control the reaction force and the generation of thrust in the force generation mechanism.

グリットの形状は、矩形に限らず、三角形や六角形や円形であっても良い。 ジョイスティックを中心に引戻す力を発生させる場合に適用しても良い。   The shape of the grid is not limited to a rectangle, but may be a triangle, a hexagon, or a circle. You may apply when generating the force which pulls a joystick back to the center.

表示領域を単語単位や文節単位に基づいてグリットに分割する構成であっても良い。また、拡大ボタンや縮小ボタンを操作することにより、文字単位、単語単位、文節単位、文章単位で切替えてグリットに分割する構成であっても良い。   The display area may be divided into grids based on word units or phrase units. Moreover, the structure which switches by a character unit, a word unit, a phrase unit, and a sentence unit, and divides | segments into a grid may be sufficient by operating an enlargement button or a reduction button.

本発明の一実施例を示す機能ブロック図Functional block diagram showing an embodiment of the present invention 手動操作機器の外観斜視図External perspective view of manual operation equipment フローチャートflowchart 図3相当図3 equivalent figure 図3相当図3 equivalent figure メインディスプレイの表示領域が複数のグリットに分割された一例を示す図The figure which shows an example in which the display area of the main display was divided into a plurality of grids グリットカーソルが移動された態様の例を示す図The figure which shows the example of the aspect by which the grid cursor was moved グリットカーソルが移動された態様の他の例を示す図The figure which shows the other example of the aspect to which the grid cursor was moved

符号の説明Explanation of symbols

図面中、1は車載操作装置、2はCPU(制御手段)、5はメインディスプレイ(表示手段)、9は画像解析部(画像解析手段)、10はジョイスティック(方向指示操作手段)、12は力発生機構(力発生手段)である。   In the drawings, 1 is an in-vehicle operation device, 2 is a CPU (control means), 5 is a main display (display means), 9 is an image analysis unit (image analysis means), 10 is a joystick (direction instruction operation means), and 12 is force. A generating mechanism (force generating means).

Claims (4)

ユーザが方向を指示するために操作する方向指示操作手段と、
前記方向指示操作手段の操作に対して反力や推力などの力を発生可能な力発生手段と、
表示画面を表示手段に表示させる制御手段とを備えた車載操作装置であって、
前記表示画面の構造解析が可能でない場合に、該表示画面の画像を解析する画像解析手段を備え、
前記制御手段は、前記表示手段の表示領域を前記画像解析手段による画像解結果に基づいて複数のグリットに分割し、グリットカーソルを当該分割された複数のグリットのうちいずれかのグリット上に表示させ、前記方向指示操作手段が操作されたときに、前記力発生手段により前記方向指示操作手段の操作に対して反力や推力などの力を発生させ、前記表示手段のグリットカーソルを前記方向指示操作手段の操作に応じて他のいずれかのグリット上に移動させることを特徴とする車載操作装置。
Direction instruction operation means operated by the user to instruct the direction;
Force generating means capable of generating a force such as a reaction force or a thrust with respect to the operation of the direction indicating operation means;
An in-vehicle operation device comprising a control means for displaying a display screen on the display means,
When the structure analysis of the display screen is not possible, the image analysis means for analyzing the image of the display screen,
The control unit divides the display area of the display unit into a plurality of grids based on an image solution result by the image analysis unit, and causes a grid cursor to be displayed on any one of the divided grids. When the direction indicating operation unit is operated, the force generating unit generates a reaction force, a thrust, or the like with respect to the operation of the direction indicating operation unit, and the grit cursor of the display unit is moved to the direction indicating operation. A vehicle-mounted operation device that is moved on any other grit in accordance with the operation of the means.
請求項1に記載した車載操作装置において、前記画像解析手段は、表示画面の画像に対して文字認識を行い、前記制御手段は、前記表示手段の表示領域を前記画像解析手段による文字認識結果に基づいて複数のグリットに分割することを特徴とする車載操作装置。   The in-vehicle operation device according to claim 1, wherein the image analysis unit performs character recognition on an image on a display screen, and the control unit converts a display area of the display unit into a character recognition result by the image analysis unit. An in-vehicle operation device that is divided into a plurality of grids based on the above. 請求項1または2に記載した車載操作装置において、前記画像解析手段は、表示画面の画像に対して図形認識を行い、前記制御手段は、前記表示手段の表示領域を前記画像解析手段による図形認識結果に基づいて複数のグリットに分割することを特徴とする車載操作装置。   3. The in-vehicle operation device according to claim 1, wherein the image analysis unit performs graphic recognition on an image on a display screen, and the control unit recognizes a display area of the display unit by using the image analysis unit. An in-vehicle operation device that is divided into a plurality of grids based on the result. 請求項1ないし3のいずれかに記載した車載操作装置において、前記画像解析手段は、表示画面の画像に対して色認識を行い、前記制御手段は、前記表示手段の表示領域を前記画像解析手段による色認識結果に基づいて複数のグリットに分割することを特徴とする車載操作装置。   4. The in-vehicle operation device according to claim 1, wherein the image analysis unit performs color recognition on an image on a display screen, and the control unit defines a display area of the display unit as the image analysis unit. An in-vehicle operation device that is divided into a plurality of grids based on a color recognition result obtained by the above.
JP2007316024A 2007-12-06 2007-12-06 In-vehicle operation device Expired - Fee Related JP4591501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007316024A JP4591501B2 (en) 2007-12-06 2007-12-06 In-vehicle operation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007316024A JP4591501B2 (en) 2007-12-06 2007-12-06 In-vehicle operation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002366986A Division JP2004199383A (en) 2002-12-18 2002-12-18 Vehicle-mounted operation device and method for supporting operation of same

Publications (2)

Publication Number Publication Date
JP2008100680A JP2008100680A (en) 2008-05-01
JP4591501B2 true JP4591501B2 (en) 2010-12-01

Family

ID=39435326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007316024A Expired - Fee Related JP4591501B2 (en) 2007-12-06 2007-12-06 In-vehicle operation device

Country Status (1)

Country Link
JP (1) JP4591501B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014088104A (en) * 2012-10-30 2014-05-15 Denso It Laboratory Inc Vehicular information processing system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528259A (en) * 1991-07-23 1993-02-05 Mitsubishi Electric Corp Graphic input device
JPH0652309A (en) * 1992-07-31 1994-02-25 Hitachi Ltd Inclination detecting method and image processor
JPH0981743A (en) * 1995-09-14 1997-03-28 Toshiba Corp Character and graphic processor and method therefor
JPH1167017A (en) * 1997-08-12 1999-03-09 Fuji Heavy Ind Ltd On-vehicle concentrated control device
JP2001257871A (en) * 2001-02-09 2001-09-21 Matsushita Electric Ind Co Ltd Image processor
JP2002109470A (en) * 2000-09-27 2002-04-12 Minolta Co Ltd Image recognition device, image recognition method, and computer readable recording medium stored with image recognition program
JP2002520919A (en) * 1998-07-07 2002-07-09 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド Electronic program guide using markup language

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528259A (en) * 1991-07-23 1993-02-05 Mitsubishi Electric Corp Graphic input device
JPH0652309A (en) * 1992-07-31 1994-02-25 Hitachi Ltd Inclination detecting method and image processor
JPH0981743A (en) * 1995-09-14 1997-03-28 Toshiba Corp Character and graphic processor and method therefor
JPH1167017A (en) * 1997-08-12 1999-03-09 Fuji Heavy Ind Ltd On-vehicle concentrated control device
JP2002520919A (en) * 1998-07-07 2002-07-09 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド Electronic program guide using markup language
JP2002109470A (en) * 2000-09-27 2002-04-12 Minolta Co Ltd Image recognition device, image recognition method, and computer readable recording medium stored with image recognition program
JP2001257871A (en) * 2001-02-09 2001-09-21 Matsushita Electric Ind Co Ltd Image processor

Also Published As

Publication number Publication date
JP2008100680A (en) 2008-05-01

Similar Documents

Publication Publication Date Title
JP5177120B2 (en) Display control device for remote operation device
US8436814B2 (en) In-vehicle manipulation apparatus and in-vehicle input apparatus
JP4997988B2 (en) Switch control device and switch control method
JP4960127B2 (en) Operation device
JP2002062966A (en) Information processor and control method thereof
US10388249B2 (en) Multifunctional operating device for displaying a remote application in a vehicle
JP2011193040A (en) Input device for vehicle, and pointer display method
EP2699443B1 (en) Text browsing, editing and correction methods for automotive applications
JP5625804B2 (en) In-vehicle device
JP2006264615A (en) Display device for vehicle
WO2004084057A1 (en) Display control device and program
JP2008195142A (en) Operation supporting device and method for on-vehicle equipment
JP4591501B2 (en) In-vehicle operation device
US9026449B2 (en) Communication system and method for representing information in a communication
JP4122958B2 (en) In-vehicle operation device
JP5125977B2 (en) Input support device
JP2004199383A (en) Vehicle-mounted operation device and method for supporting operation of same
JP4347903B2 (en) Input control apparatus and input control method
JP4997998B2 (en) In-vehicle device operation assistance system, operation assistance method.
JP2005208798A (en) Information provision terminal and information provision method
JP5728957B2 (en) Vehicle control device
JP2010277319A (en) Operation method presentation device
JP2009301082A (en) Operation sense imparting type input device
JP2017149425A (en) Vehicle display device
JP4052117B2 (en) In-vehicle operation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees