WO2007043229A1 - データ処理装置 - Google Patents

データ処理装置 Download PDF

Info

Publication number
WO2007043229A1
WO2007043229A1 PCT/JP2006/314271 JP2006314271W WO2007043229A1 WO 2007043229 A1 WO2007043229 A1 WO 2007043229A1 JP 2006314271 W JP2006314271 W JP 2006314271W WO 2007043229 A1 WO2007043229 A1 WO 2007043229A1
Authority
WO
WIPO (PCT)
Prior art keywords
seat
driver
processing content
sensor
processing
Prior art date
Application number
PCT/JP2006/314271
Other languages
English (en)
French (fr)
Inventor
Makoto Satou
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP06768297A priority Critical patent/EP1932725A4/en
Priority to US12/089,452 priority patent/US20090243999A1/en
Priority to CN2006800373157A priority patent/CN101282859B/zh
Publication of WO2007043229A1 publication Critical patent/WO2007043229A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/22
    • B60K35/654
    • B60K35/656
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • B60K2360/141
    • B60K2360/1438
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • B60R11/0235Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes of flat type, e.g. LCD
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0264Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0005Dashboard
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/941Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated using an optical detector
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K2217/00Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00
    • H03K2217/94Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated
    • H03K2217/941Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated using an optical detector
    • H03K2217/94102Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated using an optical detector characterised by the type of activation
    • H03K2217/94108Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated using an optical detector characterised by the type of activation making use of reflection

Definitions

  • the present invention relates to a data processing device that processes data, and more particularly to an audiovisual device, a navigation device, and the like.
  • Patent Document 1 Japanese Patent Laid-Open No. 2005-91475 (see paragraphs 0029-0031 and FIG. 9) Disclosure of Invention
  • the operation target of the remote controller is switched according to the display posture, so that the driver can operate the display with the remote controller.
  • the display area is directed toward the driver.
  • the passenger in the passenger seat cannot see the display area.
  • the driver or passenger is operating with the remote controller, it does not make sense to display different screens simultaneously in multiple directions from one display area on the display.
  • a data processing device outputs a display device that displays different images in one direction and another direction, and a detection value corresponding to the coordinates of the object on the display area of the display device.
  • a data processing apparatus connected to a coordinate sensor, and if the direction of presence of an object obtained from detection values output from sensors provided around the display area is the one direction, the data is output by the coordinate sensor. Depending on the detected value, the processing content for one direction is executed. On the other hand, if the existence direction of the object is the other direction, another direction is determined according to the detected value output by the coordinate sensor.
  • a control unit that executes the processing contents for Is. The interpretation of the lexical terms in the present invention is as follows.
  • JP-A-8-136909 is disclosed in JP-A-2002-992.
  • An "object” is a tangible object.
  • the body finger or arm
  • pen or stylus For example, the pen or stylus.
  • the “coordinate sensor” is a concept including a contact sensor and a non-contact sensor.
  • Examples of “contact sensors” include resistive touch panels and capacitive touch panels.
  • “Sensor” is a concept including a contact sensor and a non-contact sensor.
  • the “contact sensor” is a sensor that outputs a detection value in response to contact, and includes, for example, a pressure sensor.
  • the “non-contact sensor” is a sensor that emits a detection medium to a detection target, receives the reflected detection medium, and outputs a detection value, and includes, for example, a pulse sensor and an infrared sensor.
  • Detected value is a concept including a logical value and a numerical value.
  • the “logical value” is a value mainly corresponding to whether or not the object is in contact with the display device and whether or not the distance between the display device and the object is a predetermined value.
  • the “numerical value” is a value corresponding to the distance between the display device and the object.
  • the detected force is also obtained means that it does not matter whether the subject to be obtained is a data processor or not.
  • the "object presence direction” is a direction indicating a position where an object that approaches the display device (or display area) exists from a position where the display device (or display area) exists.
  • “close” means that the object is in contact with the display device and the distance between the display device and the object is a predetermined value. It is a concept including being within.
  • control unit realizes control by cooperation of hardware or hardware and software.
  • the "control unit" preferably uses the processing content for one direction as the processing content corresponding to the existence coordinates P (k) of the object.
  • the processing content for the other direction is executed as the processing content corresponding to the existence coordinate P (k) of the object.
  • the "data processing device” does not matter whether the force is mounted on the vehicle. In particular, if the “data processing device” is mounted on a vehicle, this is an “in-vehicle data processing device”. The invention's effect
  • the processing content for one direction is executed according to the detection value output by the coordinate sensor, while the existence direction of the object is the other direction. If so, the processing content for the other direction is executed in accordance with the detection value output from the coordinate sensor, so that different images are visually recognized for the user in one direction and the user in the other direction. It is possible to distinguish the operations performed by each user while performing the operation.
  • FIG. 1 is a nodeware configuration diagram showing the configuration of the best mode for carrying out a data processing apparatus according to the present invention.
  • FIG. 11 (a) Diagram showing contents of operation table for driver's seat (b) Operation table for passenger seat Showing the contents of
  • FIG. 12 (a) Diagram showing how an object approaches from the driver's seat (b) Diagram showing a display example of operation items in the case of (a)
  • FIG. 13 (a) Diagram showing how an object approaches from the direction of the passenger seat (b) Diagram showing a display example of operation items in the case of (a)
  • FIGS. 1-10 The best mode for carrying out a data processing apparatus according to the present invention is shown in FIGS.
  • the configuration of the navigation system 1 according to the present embodiment is shown in FIG.
  • the navigation system 1 includes a liquid crystal display 2 (corresponding to a “display device”) that displays different images in the driver seat direction and the passenger seat direction, and a navigation device 3 (“data processing device”) connected to the liquid crystal display 2. And a proximity sensor 5 (corresponding to “sensor”) connected to the navigation device 3 via the A / D converter 4.
  • the navigation system 1 includes a positioning sensor 6 that outputs data corresponding to the current position, a touch panel 7 (corresponding to a “coordinate sensor”) that outputs data according to contact, and a speech power 8 that outputs sound. Is provided.
  • the configuration of the liquid crystal display 2 is shown in FIGS.
  • the liquid crystal display 2 has a first pixel group and a second pixel group.
  • Each pixel group is a group of pixels composed of a liquid crystal element and a microlens, and displays different images in a plurality of directions (see Japanese Patent Laid-Open No. 8-136909).
  • the liquid crystal display Ray 2 displays different images almost simultaneously in the direction of the driver and passenger seats (see Figure 2).
  • the liquid crystal display 2 has eight proximity sensors 5 embedded around the display area 2a. Two proximity sensors 5 are embedded in one side of the liquid crystal display 2. The arrangement order of the proximity sensors 5 is 0th to 7th in the clockwise direction (see FIG. 3). Further, the proximity sensor 5 is provided in a state where the emission direction of the detection medium (for example, infrared rays) and the normal direction of the display region 2a are parallel to each other (see FIG. 4).
  • a touch panel 7 is provided on the display area 2 a of the liquid crystal display 2. The display coordinates on the liquid crystal display 2 and the operation coordinates on the touch panel 7 substantially coincide.
  • the configuration of the navigation device 3 is shown in FIG.
  • the navigation device 3 executes IZOI I that inputs and outputs data, HDD 12 that stores various programs and data, ROM 13 that stores basic programs such as BIOS, and programs stored in HD D 12 and ROM 13 CPU 14, RAM 15 that stores processing data in CPU 14, audio LSI 16 that processes audio data, image LSI 17 that processes image data, and VRAM 18 that holds processing data in image LSI 17 And a timer 19 for outputting start data at a specific cycle, and these hardware are connected by a bus.
  • a proximity sensor 5 is connected to the input side of IZOI I via an AZD converter 4.
  • a positioning sensor 6 and a touch panel 7 are connected.
  • the liquid crystal display 2 and the speaker 8 are connected to the output side of the IZOI I.
  • the presence coordinates “P (k) (x (k), y (k ))
  • the processing content for the driver's seat is executed as the processing content corresponding to j.
  • the processing content for the passenger seat is the processing content corresponding to the object coordinates P (k).
  • a program for causing the CPU 14 to execute a process for executing the process contents of the process is stored in the HDD 12. Further, the proximity sensor 5 outputs whether or not the HDD 12 is capable of displaying the operation item on the liquid crystal display 2.
  • the presence of an object obtained from the detection value output from the proximity sensor 5 is controlled according to the detected value. If the current direction is the driver's seat direction, the operation items for the driver's seat are displayed on the driver's seat direction on the liquid crystal display 2, while if the direction of the object is the passenger's seat direction, the liquid crystal display 2 is displayed. A program for causing the CPU 14 to execute processing for displaying the operation items for the passenger seat in the direction of the passenger seat is stored. Further, the operation item data for the driver seat, the operation item data for the passenger seat, the operation table for the driver seat, the operation table for the passenger seat, and the like are stored in the HDD 12.
  • the configuration of the proximity sensor 5 is shown in FIG. 5 and FIG.
  • the proximity sensor 5 includes an emission element 5a that emits a detection medium and a detection element 5b that detects the detection medium.
  • the detection element 5b detects the detection medium reflected by the object and corresponds to the physical quantity (for example, energy) of the detection medium.
  • Detection value data (hereinafter referred to as detection value) is output (see Fig. 5).
  • the physical quantity (for example, energy) of the detected medium is detected according to the distance between the proximity sensor 5 and the object (see Fig. 6).
  • FIGS. 1-10 Data processing in this embodiment is shown in FIGS.
  • the CPU 14 develops various programs and data stored in the HDD 12 in the RAM 15 and executes the following processing.
  • the storing process is shown in FIG.
  • the CPU 14 periodically executes the following processing with the activation data output from the timer 14 as an interrupt.
  • step S2 If it is determined in step S2 that the detected value Vsn is greater than or equal to the predetermined value Vsc (Yes in S2)
  • the CPU 14 stores the detection value Vsn in the RAM 15 (step S3). Specifically, the detection value Vsn input to the nth port address is stored in the Nth detection value storage area (N) of the RAMI 5. At this time, the count number 1 is added to the number of times stored in the RAM 15. Here, the storage count is the number of times the detection value Vsn is stored in the detection value storage area (N) of the RAM 15.
  • step S21 when it is determined in step S21 that the detected value Vsn is not greater than or equal to the predetermined value Vsc.
  • step S2 to step S3 When the processing from step S2 to step S3 is executed for one port address,
  • the CPU 14 determines whether or not the storage process has been executed for all the port addresses (step S4). Specifically, the number of executions of processing from step S2 to step S3 is counted, and it is determined whether or not the number of executions and the total number of port addresses are equal.
  • step S4 If it is determined in step S4 that the storage process has been executed for all port addresses (No in S4), the CPU 14 changes the port address and starts from step S2. Repeat the process up to step S3.
  • step S3 when it is determined in step S3 that the storage process has been executed for all the port addresses (Yes in S4), the CPU 14 ends the storage process.
  • Operation-related processing is a part of normal processing and loops with other processing.
  • the CPU 14 determines whether or not the detection value Vsn input to the port address is stored one or more times (step S11). Specifically, the number of times stored in the RAM 15 is referred to, and it is determined whether or not the number is “0”.
  • step S11 it is determined that the number of times of storage is not 1 or more (No in S11), that is, if it is determined that the number of times of storage is 0, the CPU 14 End processing.
  • step S11 determines whether the number of times of storage is one or more (Yes in S11). If it is determined in step S11 that the number of times of storage is one or more (Yes in S11), the CPU 14 sets the maximum value VsN (max) of the detection values VsN stored in the detection value storage area. Calculation (Step S12). Specifically, the maximum value selection method and the quick sort method are used as algorithms.
  • the CPU 14 determines whether the maximum value VsN (max) is greater than or equal to the predetermined value Vd (step S13).
  • step S 13 When it is determined in step S 13 that the maximum value VsN (max) is not greater than or equal to the predetermined value Vd! /
  • step S15 the CPU 14 compares the average value Vsr obtained in step S14 with the average value Vsl obtained in step S15 (step S16).
  • step S16 When the result of “Vsr> Vsl” is obtained in step S16 (“>” in S16), the CPU 14 displays the operation items for the driver's seat on the liquid crystal display 2 in the direction of the driver's seat. Outputs control data (step S17).
  • “Vsr> Vsl” indicates that the direction in which the object exists is the driver's seat direction.
  • the image LSI 17 expands the operation item data for the driver's seat stored in the HDD 12 in the area for the driver's seat in the VRAM 18 according to the control data from the CPU 14 (see FIG. 10), and expands it in the VRAM 18 Operation item data for the driver's seat Output to the LCD 2.
  • step S17 When an operation item for the driver's seat is displayed in step S17, the CPU 14 sets the operation table for the driver's seat (see FIG. 11 (a)) in the area of RAM 15 (step S18). . At this time, the CPU 14 applies the coordinate value output from the touch panel 7 to the operation table for the driver's seat and determines the processing content.
  • step S16 the CPU 14 displays the operation items for the driver's seat on the liquid crystal display 2 in the direction of the driver's seat.
  • Control data for output is output (step S19).
  • “Vsr ku Vsl” indicates that the direction of the object is the passenger seat direction.
  • the image LSI 17 expands the operation item data for the passenger seat stored in the HDD 12 in the area for the passenger seat of the VRAM 18 according to the control data from the CPU 14 (see FIG. 10), and expands it to the VRAM 18
  • the operation item data for the passenger seat is output to the LCD 2.
  • step S 19 When the operation item for the passenger seat is displayed in step S 19, the CPU 14 sets the operation table for the passenger seat (see FIG. 11B) in the area of the RAM 15 (step S 20). At this time, the CPU 14 applies the coordinate value output from the touch panel 7 to the operation table for the passenger seat and determines the processing content.
  • FIGS. Display examples in the present embodiment are shown in FIGS.
  • the operation items related to the map menu are displayed (see Fig. 12 (b)).
  • the operation items related to the TV menu are displayed (see Fig. 13 (b)).
  • FIGS. Examples of operations in the present embodiment are shown in FIGS.
  • an operation item if an object such as a finger approaches the liquid crystal display 2 from the direction of the driver's seat (see Fig. 12 (a)), an operation table for the driver's seat is set. Therefore, if the object force S touch panel 7 touches the coordinates (x4, yO) (see Fig. 12 (b)), the surrounding facility guidance is displayed (see Fig. 11 (a)).
  • the object approaches the liquid crystal display 2 from the direction of the passenger seat (see Fig. 13 (a)
  • an operation table for the passenger seat is set. Therefore, if the object touches at the coordinates (x4, yO) of the touch panel 7 (see Fig. 13 (b)). And 2ch program display is executed (see 011 (b)).
  • the proximity sensor 5 is embedded around the display area of the liquid crystal display 2 and the direction of presence of an object approaching the liquid crystal display 2 is determined by the proximity sensor 5 It discriminate
  • the operation item for the driver's seat is displayed only in the driver's seat direction on condition that the object is approaching.
  • the operation items for the passenger seat are displayed only in the passenger seat direction on condition that the object is approaching. Therefore, an operation item is not included for a driver seat user and a passenger seat user, and an image can be shown.
  • the present invention can be implemented even if a non-contact sensor such as a force infrared sensor using the touch panel 7 is used.
  • the discharge direction of the detection medium by the proximity sensor 5 and the normal direction of the display area 2a are parallel, but the discharge direction of the detection medium by the proximity sensor 5 and the display area 2a Even if the normal direction is perpendicular, the present invention can be implemented.
  • ⁇ Modification 3> In the present embodiment, even if a sensor is used in which the proximity sensor 5 outputs a numerical value as a detection value and outputs a force logical value (for example, a binary value indicating on / off), the present invention It can be implemented. Processing for determining the direction in which the object exists is as follows. The logical value of each sensor is stored in the RAM 15 in chronological order, and the direction in which the object exists is determined by the order of turning on (or off). For example, when the sensor arrangement is the same as in the present embodiment, if the seventh sensor is turned on after the 0th sensor is turned on, the direction in which the object exists is the driver's seat direction.
  • the present invention has an effect, such as an audio visual device and a navigation device. It is useful as a device.

Abstract

 本発明は、複数のユーザに対して異なる画像を視認させつつ各ユーザによる操作を区別することができなかった、という課題を解決するためのものである。  HDD12には、近接センサ5で出力される検出値から求まる物体の存在方向が運転席方向であれば、物体の存在座標(x(k),y(k))に対応する処理内容として運転席用の処理内容を実行し、他方、物体の存在方向が助手席方向であれば、物体の存在座標(x(k),y(k))に対応する処理内容として助手席用の処理内容を実行する処理をCPU14に実行させるためのプログラムが記憶されている。さらに、HDD12には、運転席用の操作項目データ、助手席用の操作項目データ、運転席用の操作テーブ ルおよび助手席用の操作テーブルなどが記憶されている。

Description

明 細 書
データ処理装置
技術分野
[0001] 本発明は、データを処理するデータ処理装置に関するものであって、より詳しくは、 オーディオヴイジユアル装置、ナビゲーシヨン装置などに関するものである。
背景技術
[0002] 背景技術として、 1つの表示領域力 複数の方向に異なる画面を同時に表示する ディスプレイと、このディスプレイを回動自在に保持するネック部と、リモートコントロー ラの操作対象をディスプレイの姿勢に応じて切り換える制御手段とを備えるカーナビ ゲーシヨンシステムが知られて 、る(特許文献 1を参照)。
特許文献 1 :特開 2005— 91475号公報 (段落 0029— 0031ならびに図 9を参照) 発明の開示
発明が解決しょうとする課題
[0003] 他方、特許文献 1に記載のものによれば、リモートコントローラの操作対象がデイス プレイの姿勢に応じて切り換るので、運転者は、リモートコントローラで操作をするた めに、ディスプレイの表示領域を運転者側を向けることになる。このとき、助手席にい る同乗者は、ディスプレイの表示領域を見られない。つまり、運転者または同乗者がリ モートコントローラで操作をして 、る間、ディスプレイに対して 1つの表示領域から複 数の方向に異なる画面を同時に表示させる意味がな 、。
課題を解決するための手段
[0004] 本発明に係るデータ処理装置は、一方向および他方向に対して異なる画像を表示 する表示装置と、この表示装置の表示領域上での物体の存在座標に対応する検出 値を出力する座標センサとに接続されるデータ処理装置であって、前記表示領域の 周囲に設けられたセンサで出力された検出値から求まる物体の存在方向が前記一 方向であれば、前記座標センサで出力された検出値に応じて一の方向用の処理内 容を実行し、他方、前記物体の存在方向が前記他の方向であれば、前記座標セン サで出力された検出値に応じて他の方向用の処理内容を実行する制御部を備える ものである。本発明における字句の解釈は、次のとおりである。
[0005] 「一の方向および他の方向に対して異なる画像を表示する表示装置」として、 Vヽゎ ゆる視野角制御型液晶ディスプレイ(特開平 8— 136909号公報ゃ特開 2002— 992
23号公報などを参照)などがある。
[0006] 「一の方向」と「他の方向」との関係として、「運転席の方向」と「助手席の方向」との 関係や「右方向」と「左方向」との関係などがある。
[0007] 「物体」とは、広く有体物である。例えば、身体 (指や腕など)、ペンやスタイラスなど がある。
[0008] 「座標センサ」とは、接触センサおよび非接触センサを含む概念である。「接触セン サ」として、抵抗膜式タツチパネルや静電容量式タツチパネルなどがある。他方、「非 接触センサ」として、赤外線式タツチパネルなどがある。
[0009] 「表示領域の周囲に設けられた」とは、表示領域の周囲にあれば足り、センサが表 示装置に埋め込まれて 、るか否かを問わな 、ことを意味する。
[0010] 「センサ」とは、接触センサおよび非接触センサを含む概念である。「接触センサ」と は、接触に応じて検出値を出力するセンサであって、例えば、圧力センサなどがある 。「非接触センサ」とは、検出対象に対して検出媒体を放出し、反射された検出媒体 を受けて検出値を出力するセンサであって、例えば、パルスセンサや赤外線センサ などがある。
[0011] 「検出値」とは、論理値および数値を含む概念である。「論理値」とは、主に、表示装 置に対する物体の接触の有無や表示装置と物体との距離が所定値であるか否かに 対応する値である。「数値」とは、表示装置と物体との距離に対応する値である。
[0012] 「検出値力も求まる」とは、求める主体がデータ処理装置である力否かを問わないこ とを意味する。
[0013] 「求まる」とは、演算処理で求まることおよびテーブル処理で求まることを含む概念 である。
[0014] 「物体の存在方向」とは、表示装置 (または表示領域)が存在する位置から表示装 置 (または表示領域)に接近する物体が存在する位置を指す方向である。ここで、「接 近」とは、物体が表示装置に接触することおよび表示装置と物体との距離が所定値 以内であることを含む概念である。
[0015] 「制御部」とは、ハードウェアまたはハードウェアおよびソフトウェアの協働によって 制御を実現するものである。
[0016] 「制御部」は、好ましくは、前記物体の存在方向が前記一の方向であれば、前記物 体の存在座標 P (k)に対応する処理内容として一の方向用の処理内容を実行し、他 方、前記物体の存在方向が前記他の方向であれば、前記物体の存在座標 P (k)に 対応する処理内容として他の方向用の処理内容を実行するものである。
[0017] 「データ処理装置」は、車両に搭載される力否かを問わない。特に、「データ処理装 置」が車両に搭載されるものであれば、これは「車載用データ処理装置」である。 発明の効果
[0018] 本発明は、物体の存在方向が一方向であれば、座標センサで出力された検出値に 応じて一の方向用の処理内容を実行し、他方、物体の存在方向が他の方向であれ ば、座標センサで出力された検出値に応じて他の方向用の処理内容を実行するの で、一の方向に 、るユーザおよび他の方向に 、るユーザに対して異なる画像を視認 させつつ各ユーザによる操作を区別することができるという効果を有する。
図面の簡単な説明
[0019] [図 1]本発明に係るデータ処理装置を実施するための最良の形態の構成を示すノヽー ドウエア構成図
[図 2]液晶ディスプレイ、運転席および助手席の関係を示す図
[図 3]液晶ディスプレイと近接センサとの配置関係を示す図
[図 4]近接センサによる検出媒体の放出方向を示す図
[図 5]近接センサの構成を示す構成図
[図 6]近接センサにおける近接距離と検出値との関係を示す関係図
[図 7]格納処理の流れを示すフロー図
[図 8]近接センサ、ポートアドレスおよび格納領域の関係を示す関係図
[図 9]操作関連処理の流れを示すフロー図
[図 10]VRAMでの操作項目データの展開領域を示す図
[図 11] (a)運転席用の操作テーブルの内容を示す図(b)助手席用の操作テーブル の内容を示す図
[図 12] (a)物体が運転席方向から接近する様子を示す図 (b) (a)の場合における操 作項目の表示例を示す図
[図 13] (a)物体が助手席方向から接近する様子を示す図 (b) (a)の場合における操 作項目の表示例を示す図
符号の説明
[0020] 2 液晶ディスプレイ (表示装置)
2a 表示領域
3 ナビゲーシヨン装置 (データ処理装置)
5 近接センサ (センサ)
7 タツチパネル (座標センサ)
14 CPU (制御部)
発明を実施するための最良の形態
[0021] 本発明に係るデータ処理装置を実施するための最良の形態は、図 1ないし図 13で 示される。
<ナビゲーションシステム 1の構成 >本実施の形態に係るのナビゲーションシステム 1の構成は、図 1で示される。ナビゲーシヨンシステム 1は、運転席方向および助手席 方向に異なる画像を表示する液晶ディスプレイ 2 (「表示装置」に相当する)と、液晶 ディスプレイ 2に接続されるナビゲーシヨン装置 3 (「データ処理装置」および「車載用 データ処理装置」に相当する)と、 A/Dコンバータ 4を介してナビゲーシヨン装置 3に 接続される近接センサ 5 (「センサ」に相当する)とを備える。また、ナビゲーシヨンシス テム 1は、現在位置に対応するデータを出力する測位センサ 6、接触に応じてデータ を出力するタツチパネル 7 (「座標センサ」に相当する)および音声を出力するスピー 力 8とを備える。
く液晶ディスプレイ 2の構成〉液晶ディスプレイ 2の構成は、図 2ないし図 4で示され る。液晶ディスプレイ 2は、第 1の画素群および第 2の画素群を有する。各画素群は、 液晶素子およびマイクロレンズからなる画素の集合であり、異なる画像を複数の方向 に表示する(特開平 8— 136909号公報を参照)。本実施の形態では、液晶ディスプ レイ 2は、異なる画像を運転席方向および助手席方向にほぼ同時に表示する(図 2を 参照)。
[0022] く液晶ディスプレイ 2と近接センサ 5との関係〉液晶ディスプレイ 2は、 8個の近接セ ンサ 5が表示領域 2aの周囲に埋め込まれているものである。液晶ディスプレイ 2の一 辺には、 2個の近接センサ 5が埋め込まれている。そして、近接センサ 5の配置順は、 時計回りに第 0番目ないし第 7番目である(図 3を参照)。また、近接センサ 5は、その 検出媒体 (例えば、赤外線)の放出方向と表示領域 2aの法線方向とが平行となる状 態で設けられている(図 4を参照)。また、液晶ディスプレイ 2の表示領域 2a上には、タ ツチパネル 7が設けられて ヽる。液晶ディスプレイ 2における表示座標とタツチパネル 7における操作座標とはほぼ一致している。
<ナビゲーシヨン装置 3の構成 >ナビゲーシヨン装置 3の構成は、図 1で示されている 。ナビゲーシヨン装置 3は、データを入出力する IZOI Iと、各種プログラムやデータ などを記憶する HDD12と、 BIOSなどの基本プログラムを記憶する ROM13と、 HD D 12および ROM 13に記憶されたプログラムを実行する CPU 14と、 CPU 14での処 理データなどを記憶する RAM15と、音声データを処理する音声 LSI16と、画像デ ータを処理する画像 LSI17と、画像 LSI17での処理データを保持する VRAM18と、 特定の周期で起動データを出力するタイマ 19とを備え、これらのハードウェアは、バ スで接続されている。
[0023] IZOI Iの入力側には、近接センサ 5が AZDコンバータ 4を介して接続されている 。また、測位センサ 6およびタツチパネル 7が接続されている。他方、 IZOI Iの出力 側には、液晶ディスプレイ 2およびスピーカ 8が接続されて 、る。
[0024] HDD12には、近接センサ 5で出力される検出値から求まる物体の存在方向が運 転席方向であれば、物体の存在座標「P (k) = (x (k) , y (k) ) jに対応する処理内容 として運転席用の処理内容を実行し、他方、物体の存在方向が助手席方向であれ ば、物体の存在座標 P (k)に対応する処理内容として助手席用の処理内容を実行す る処理を CPU 14に実行させるためのプログラムが記憶されている。また、 HDD12に は、液晶ディスプレイ 2に対して操作項目を表示させる力否かを近接センサ 5で出力 された検出値に応じて制御し、近接センサ 5で出力される検出値から求まる物体の存 在方向が運転席方向であれば、液晶ディスプレイ 2に対して運転席用の操作項目を 運転席方向に表示させ、他方、物体の存在方向が助手席方向であれば、液晶ディス プレイ 2に対して助手席用の操作項目を助手席方向に表示させる処理を CPU14に 実行させるためのプログラムが記憶されている。さらに、 HDD12には、運転席用の 操作項目データ、助手席用の操作項目データ、運転席用の操作テーブルおよび助 手席用の操作テーブルなどが記憶されて 、る。
<近接センサ 5の構成 >近接センサ 5の構成は、図 5および図 6で示される。近接セ ンサ 5は、検出媒体を放出する放出素子 5aおよび検出媒体を検出する検出素子 5b を備える。物体が近接センサ 5に対向する場合、放出素子 5aが検出媒体を放出する と、検出素子 5bは、物体で反射された検出媒体を検出し、この検出媒体の物理量( 例えば、エネルギー)に対応する検出値データ (以下、検出値という)を出力する(図 5を参照)。検出される検出媒体の物理量 (例えば、エネルギー)は、近接センサ 5と 物体との距離に対応して!/ヽる(図 6を参照)。
<データ処理 >本実施の形態におけるデータ処理は、図 7ないし図 13で示される。 CPU14は、 HDD12に記憶された各種プログラムおよびデータを RAM15に展開し 、以下の処理を実行する。
く格納処理 >格納処理は、図 7で示される。 CPU14は、タイマ 14で出力される起動 データを割り込みとして、以下の処理を周期的に実行する。格納処理とは、所定値 V scよりも小さな検出値を「0」とみなす処理であって、 I/O 11のポートアドレス(n = 0) 力も順に実行される。なぜなら、近接センサ 5は、物体が存在しない場合であっても、 検出値 Vsnを出力している力 である。
[0025] CPU14は、 RAM15の検出値格納領域(N = 0〜7)を初期化する(ステップ Sl)。
具体的には、初期値として「0」が検出値格納領域 (N = 0〜7)に格納される(図 8を 参照)。
[0026] ステップ S1で初期化がなされると、 CPU14は、検出値 Vsnが所定値 Vsc以上であ るか否かを判定する(ステップ S2)。具体的には、 IZOI Iのポートアドレス(n=0〜7 )には、それぞれ、近接センサ 5 (第 0〜7番目)で出力された検出値 Vsnが入力され ており(図 8を参照)、各検出値 Vsnと所定値 Vscとが比較される。本実施の形態では 、「¥5。= 16011^」が用いられている。
[0027] ステップ S2で検出値 Vsnが所定値 Vsc以上であるとの判定がなされると(S2の Yes
;)、 CPU14は、検出値 Vsnを RAM 15に格納する (ステップ S3)。具体的には、第 n 番目のポートアドレスに入力された検出値 Vsnは、 RAMI 5の第 N番目の検出値格 納領域 (N)に格納される。このとき、カウント数 1が RAM15に保持された格納回数に 加算される。ここで、格納回数とは、検出値 Vsnが RAM 15の検出値格納領域 (N)に 格納された回数である。
[0028] 他方、ステップ S21で検出値 Vsnが所定値 Vsc以上ではないとの判定がなされると
(S 2の No)、検出値 Vsnは RAM 15に格納されず、初期値「0」が維持される。
[0029] ステップ S2からステップ S3までの処理が 1つのポートアドレスに対して実行されると
、 CPU14は、格納処理が全てのポートアドレスに対して実行されたか否かを判定す る (ステップ S4)。具体的には、ステップ S2からステップ S3までの処理の実行数が計 数され、その実行数とポートアドレスの全数とが等 ヽか否かが判定される。
[0030] ステップ S4で格納処理が全てのポートアドレスに対しては実行されて!ヽな 、との判 定がなされると(S4の No)、 CPU14は、ポートアドレスを変えて、ステップ S2からステ ップ S3までの処理を再び実行する。
[0031] 他方、ステップ S3で格納処理が全てのポートアドレスに対して実行されたとの判定 がなされると(S4の Yes)、 CPU14は、格納処理を終了する。
<操作関連処理 >操作関連処理は、図 9で示される。操作関連処理は、通常処理 の一部であって、他の処理とともにループをなしている。
[0032] CPU14は、ポートアドレスに入力された検出値 Vsnの格納回数が 1回以上である か否かを判定する (ステップ S 11)。具体的には、 RAM15に保持された格納回数が 参照され、その回数は「0」であるか否かが判定される。
[0033] ステップ S11で格納回数が 1回以上ではないとの判定がなされる(S11の No)、す なわち、格納回数が 0回であるとの判定がなされると、 CPU14は、操作関連処理を 終了する。
[0034] 他方、ステップ S11で格納回数が 1回以上であるとの判定がなされる(S11の Yes) 、 CPU14は、検出値格納領域に格納された検出値 VsNの最大値 VsN (max)を算 出する (ステップ S12)。具体的には、最大値選択法やクイックソート法などがアルゴリ ズムとして用いられる。
[0035] ステップ S12で最大値 VsN (max)が求められると、 CPU14は、最大値 VsN (max )が所定値 Vd以上である力否かを判定する (ステップ S13)。本実施の形態では、所 定値 Vdは「Vd= 500mV」に設定されて!、る。
[0036] ステップ S 13で最大値 VsN (max)は所定値 Vd以上ではな!/、との判定がなされると
(S13の No)、 CPU14は、操作関連処理を終了する。
[0037] 他方、ステップ S6で最大値 VsN (max)は所定値 Vd以上であるとの判定がなされ ると(S13の Yes)、 CPU14は、検出値 VsN (N = 0〜3)の平均値 Vsrを算出する(ス テツプ S14)。ここで、 RAM15のアドレス(N=0〜7)は、それぞれ、近接センサの番 号(0〜7)に対応している(図 8を参照)。したがって、例えば、 RAM15のアドレス(N =0)には、第 0番目の近接センサ 5での検出値または初期値が格納されている。また 、本実施の形態では、 VsN (N = 0〜3)は、運転席方向からの物体の接近を検出す るための検出値である。
[0038] ステップ S14で平均値 Vsrが算出されると、 CPU14は、検出値 VsN (N=4〜7)の 平均値 Vslを算出する (ステップ S 15)。本実施の形態では、 VsN (N=4〜7)は、助 手席方向からの物体の接近を検出するための検出値である。
[0039] ステップ S15で平均値 Vslが算出されると、 CPU14は、ステップ S14で得られた平 均値 Vsrとステップ S 15で得られた平均値 Vslとを比較する(ステップ S 16)。
[0040] ステップ S16で「Vsr=Vsl」との結果が得られると(S16の「 =」)、 CPU14は、操作 関連処理を終了する。なぜなら、「Vsr=Vsl」は、操作が行われていないことを示す 力 である。
[0041] ステップ S16で「Vsr>Vsl」との結果が得られると(S16の「>」)、 CPU14は、液晶 ディスプレイ 2に対して運転席用の操作項目を運転席方向に表示するための制御デ ータを出力する(ステップ S17)。ここで、「Vsr>Vsl」は、物体の存在方向が運転席 方向であることを示している。このとき、画像 LSI17は、 CPU14からの制御データに 従って、 HDD 12に記憶された運転席用の操作項目データを VRAM 18の運転席用 の領域に展開し(図 10を参照)、 VRAM18に展開された運転席用の操作項目デー タを液晶ディスプレイ 2に出力する。
[0042] ステップ S 17で運転席用の操作項目が表示されると、 CPU14は、運転席用の操作 テーブル(図 11 (a)を参照)を RAM 15の領域に設定する (ステップ S 18)。このとき、 CPU14は、タツチパネル 7で出力された座標値を運転席用の操作テーブルにあて はめ、処理内容を決定する。
[0043] 他方、ステップ S16で「Vsrく Vsl」との結果が得られると(S16の「く」)、 CPU14は 、液晶ディスプレイ 2に対して運転席用の操作項目を運転席方向に表示するための 制御データを出力する(ステップ S19)。ここで、「Vsrく Vsl」は、物体の存在方向が 助手席方向であることを示している。このとき、画像 LSI17は、 CPU14からの制御デ ータに従って、 HDD12に記憶された助手席用の操作項目データを VRAM18の助 手席用の領域に展開し(図 10を参照)、 VRAM18に展開された助手席用の操作項 目データを液晶ディスプレイ 2に出力する。
[0044] ステップ S 19で助手席用の操作項目が表示されると、 CPU14は、助手席用の操作 テーブル(図 11 (b)を参照)を RAM15の領域に設定する (ステップ S20)。このとき、 CPU14は、タツチパネル 7で出力された座標値を助手席用の操作テーブルにあて はめ、処理内容を決定する。
く表示例〉本実施の形態での表示例は、図 12および図 13で示される。指などの物 体が運転席方向から液晶ディスプレイ 2に接近すれば(図 12 (a)を参照)、地図メニュ 一に係る操作項目が表示される(図 12 (b)を参照)。他方、物体が助手席方向から液 晶ディスプレイ 2に接近すれば(図 13 (a)を参照)、テレビメニューに係る操作項目が 表示される(図 13 (b)を参照)。
く操作例〉本実施の形態での操作例は、図 11ないし図 13で示される。操作項目が 表示されていない場合に、指などの物体が運転席方向から液晶ディスプレイ 2に接 近する場合 (図 12 (a)を参照)、運転席用の操作テーブルが設定される。したがって 、物体力 Sタツチパネル 7で座標 (x4, yO)で接触すれば(図 12 (b)を参照)、周辺施設 案内の表示が実行される(図 11 (a)を参照)。他方、物体が助手席方向から液晶ディ スプレイ 2に接近する場合(図 13 (a)を参照)、助手席用の操作テーブルが設定され る。したがって、物体がタツチパネル 7の座標(x4, yO)で接触すれば(図 13 (b)を参 照)、 2chの番組の表示が実行される (011 (b)を参照)。
<本実施の形態における効果 >本実施の形態によれば、近接センサ 5が液晶ディス プレイ 2の表示領域の周囲に埋め込まれ、液晶ディスプレイ 2に接近している物体の 存在方向は、近接センサ 5での検出値を用いて判別される。したがって、タツチパネ ル 7の座標 (X (k) , y (k) )での接触が運転席のユーザによるものか助手席のユーザ によるもの力は、液晶ディスプレイ 2を回転させることなく区別され、運転席のユーザ および助手席のユーザに対して異なる画像を視認させつつ両者による操作を区別す ることがでさる。
本実施の形態によれば、物体が運転席方向から液晶ディスプレイ 2に接近していれ ば、運転席用の操作項目は、物体の接近を条件として、運転席方向にのみ表示され る。他方、物体が助手席方向から液晶ディスプレイ 2に接近していれば、助手席用の 操作項目は、物体の接近を条件として、助手席方向にのみ表示される。したがって、 運転席のユーザおよび助手席のユーザに対して操作項目が含まれな 、画像を見せ ることがでさる。
<変形例 1 >本実施の形態では、タツチパネル 7が用いられている力 赤外線センサ などの非接触センサが用いられても、本発明は実施可能である。
<変形例 2 >本実施の形態では、近接センサ 5による検出媒体の放出方向と表示領 域 2aの法線方向とが平行であるが、近接センサ 5による検出媒体の放出方向と表示 領域 2aの法線方向とが垂直であっても、本発明は実施可能である。
<変形例 3 >本実施の形態では、近接センサ 5が検出値として数値を出力して 、る 力 論理値 (例えば、オンオフを示す 2値)を出力するセンサが用いられても、本発明 は実施可能である。物体の存在方向を判定するための処理は、次のとおりである。各 センサの論理値が時系列に沿って RAM15に保持され、物体の存在方向はオン(ま たはオフ)になった順序によって決定される。例えば、センサの配置が本実施の形態 と同様である場合、第 0番目のセンサがオンになった後に、第 7番目のセンサがオン となれば、物体の存在方向は運転席方向となる。他方、第 7番目のセンサがオンにな つた後に、第 0番目のセンサがオンとなれば、物体の存在方向は助手席方向となる。 産業上の利用可能性 以上のように、本発明は、複数のユーザに対して異なる画像を視認させつつ各ュ 一ザによる操作を区別することができると 、う効果を有し、オーディオヴイジユアル装 置やナビゲーシヨン装置などとして有用である。

Claims

請求の範囲
[1] 運転席方向および助手席方向に対して異なる画像を表示する表示装置と、この表 示装置の表示領域上での物体の存在座標に対応する検出値を出力する座標センサ とに接続されるデータ処理装置であって、
前記表示領域の周囲に設けられたセンサで出力された検出値力 求まる物体の存 在方向が前記運転席方向であれば、前記座標センサで出力された検出値に応じて 運転席用の処理内容を実行し、他方、前記物体の存在方向が前記助手席方向であ れば、前記座標センサで出力された検出値に応じて助手席用の処理内容を実行す る制御部を備える車載用データ処理装置。
[2] 前記制御部は、前記物体の存在方向が前記運転席方向であれば、前記物体の存 在座標 P (k)に対応する処理内容として運転席用の処理内容を実行し、他方、前記 物体の存在方向が前記助手席方向であれば、前記物体の存在座標 P (k)に対応す る処理内容として助手席用の処理内容を実行することを特徴とする請求項 1に記載 の車載用データ処理装置。
[3] 一方向および他方向に対して異なる画像を表示する表示装置と、この表示装置の 表示領域上での物体の存在座標に対応する検出値を出力する座標センサとに接続 されるデータ処理装置であって、
前記表示領域の周囲に設けられたセンサで出力された検出値力 求まる物体の存 在方向が前記一方向であれば、前記座標センサで出力された検出値に応じて一の 方向用の処理内容を実行し、他方、前記物体の存在方向が前記他の方向であれば 、前記座標センサで出力された検出値に応じて他の方向用の処理内容を実行する 制御部を備えるデータ処理装置。
[4] 前記制御部は、前記物体の存在方向が前記一の方向であれば、前記物体の存在 座標 P (k)に対応する処理内容として一の方向用の処理内容を実行し、他方、前記 物体の存在方向が前記他の方向であれば、前記物体の存在座標 P (k)に対応する 処理内容として他の方向用の処理内容を実行することを特徴とする請求項 3に記載 のデータ処理装置。
PCT/JP2006/314271 2005-10-07 2006-07-19 データ処理装置 WO2007043229A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP06768297A EP1932725A4 (en) 2005-10-07 2006-07-19 DATA PROCESSING DEVICE
US12/089,452 US20090243999A1 (en) 2005-10-07 2006-07-19 Data processing device
CN2006800373157A CN101282859B (zh) 2005-10-07 2006-07-19 数据处理设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005294814A JP3938193B2 (ja) 2005-10-07 2005-10-07 データ処理装置
JP2005-294814 2005-10-07

Publications (1)

Publication Number Publication Date
WO2007043229A1 true WO2007043229A1 (ja) 2007-04-19

Family

ID=37942491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/314271 WO2007043229A1 (ja) 2005-10-07 2006-07-19 データ処理装置

Country Status (5)

Country Link
US (1) US20090243999A1 (ja)
EP (1) EP1932725A4 (ja)
JP (1) JP3938193B2 (ja)
CN (1) CN101282859B (ja)
WO (1) WO2007043229A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310643A (ja) * 2007-06-15 2008-12-25 Pioneer Electronic Corp 情報処理装置及び画像表示制御方法
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
DE102008048821A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Bedienvorrichtung und Verfahren zum Betreiben einer Bedienvorrichtung mit verbesserter Annäherungserfassung
US20100328221A1 (en) * 2009-06-24 2010-12-30 Nokia Corporation Multiview display
WO2012008960A1 (en) * 2010-07-15 2012-01-19 Hewlett-Packard Development Company L.P. First response and second response
GB201020282D0 (en) * 2010-11-30 2011-01-12 Dev Ltd An improved input device and associated method
JP5595312B2 (ja) * 2011-03-15 2014-09-24 株式会社Nttドコモ 表示装置、表示装置の制御方法、及びプログラム
DE102012015255A1 (de) * 2012-08-01 2014-02-06 Volkswagen Aktiengesellschaft Anzeige- und Bedieneinrichtung und Verfahren zur Ansteuerung einer Anzeige- und Bedieneinrichtung
CN103777796A (zh) * 2012-10-22 2014-05-07 联想(北京)有限公司 一种信息处理方法及电子设备
US20140152600A1 (en) * 2012-12-05 2014-06-05 Asustek Computer Inc. Touch display device for vehicle and display method applied for the same
WO2015083264A1 (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置及び表示制御方法
CN104750253B (zh) * 2015-03-11 2018-10-12 苏州佳世达电通有限公司 一种供用户进行体感输入的电子装置
US10281990B2 (en) * 2016-12-07 2019-05-07 Ford Global Technologies, Llc Vehicle user input control system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06236152A (ja) * 1993-02-10 1994-08-23 Nippondenso Co Ltd 多重映像表示装置
JP2004126354A (ja) * 2002-10-04 2004-04-22 Fujitsu Ten Ltd 車載用表示装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08184449A (ja) * 1994-12-28 1996-07-16 Aqueous Res:Kk 操作制限装置
JP2000329577A (ja) * 1999-05-18 2000-11-30 Fujitsu Ten Ltd 電子装置
NZ521505A (en) * 2002-09-20 2005-05-27 Deep Video Imaging Ltd Multi-view display
EP1604266B1 (en) * 2003-03-10 2008-02-20 Koninklijke Philips Electronics N.V. Multi-view display
KR20070083817A (ko) * 2004-10-27 2007-08-24 후지쓰 텐 가부시키가이샤 표시 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06236152A (ja) * 1993-02-10 1994-08-23 Nippondenso Co Ltd 多重映像表示装置
JP2004126354A (ja) * 2002-10-04 2004-04-22 Fujitsu Ten Ltd 車載用表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1932725A4 *

Also Published As

Publication number Publication date
EP1932725A1 (en) 2008-06-18
JP3938193B2 (ja) 2007-06-27
CN101282859B (zh) 2010-10-13
JP2007102077A (ja) 2007-04-19
CN101282859A (zh) 2008-10-08
EP1932725A4 (en) 2012-03-07
US20090243999A1 (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP3938193B2 (ja) データ処理装置
WO2007043213A1 (ja) データ処理装置
JP2008197934A (ja) 操作者判別方法
JP5334618B2 (ja) タッチパネル装置および入力方向検知装置
WO2015001875A1 (ja) 情報処理装置
US20030184574A1 (en) Touch screen interface with haptic feedback device
JP2014139042A (ja) ユーザインタフェース装置および入力取得方法
US20200257371A1 (en) Gesture interface system of vehicle and operation method thereof
US8855855B2 (en) Vehicle control apparatus
JP6323960B2 (ja) 入力装置
US10558310B2 (en) Onboard operation apparatus
US20190250776A1 (en) Vehicular display apparatus
JP2008129689A (ja) タッチパネルを備えた入力装置、その入力受付方法
US20150378504A1 (en) Operation detective device
WO2007043230A1 (ja) データ処理装置
KR20050086618A (ko) 거울 디스플레이 메시지 보드
US11221735B2 (en) Vehicular control unit
JP2007108842A (ja) 画像表示システム
US20220073089A1 (en) Operating system with portable interface unit, and motor vehicle having the operating system
JP6565878B2 (ja) 表示システム
US10705650B2 (en) Information processing apparatus and display system
EP3179348B1 (en) Touch device providing tactile feedback
JP2009214681A (ja) 遠隔操作システム
JP2011090628A (ja) 柔らかさ提示装置
US20230004285A1 (en) Control Value Setting Device and Control Value Setting Program

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680037315.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 12089452

Country of ref document: US

Ref document number: 2006768297

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)