JP6014420B2 - Operation control device, operation control method, and program for operation control device - Google Patents

Operation control device, operation control method, and program for operation control device Download PDF

Info

Publication number
JP6014420B2
JP6014420B2 JP2012188848A JP2012188848A JP6014420B2 JP 6014420 B2 JP6014420 B2 JP 6014420B2 JP 2012188848 A JP2012188848 A JP 2012188848A JP 2012188848 A JP2012188848 A JP 2012188848A JP 6014420 B2 JP6014420 B2 JP 6014420B2
Authority
JP
Japan
Prior art keywords
operation item
operation control
control device
contact
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012188848A
Other languages
Japanese (ja)
Other versions
JP2014048721A (en
Inventor
真人 針谷
真人 針谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2012188848A priority Critical patent/JP6014420B2/en
Publication of JP2014048721A publication Critical patent/JP2014048721A/en
Application granted granted Critical
Publication of JP6014420B2 publication Critical patent/JP6014420B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本願は、操作制御装置、操作制御方法、および、操作制御装置用プログラムの技術分野に属する。より詳細には、ユーザからの操作の入力を受け付けて操作対象を制御するための操作制御装置、操作制御方法、および、操作制御装置用プログラムの技術分野に属する。   The present application belongs to the technical field of operation control devices, operation control methods, and programs for operation control devices. More specifically, the present invention belongs to a technical field of an operation control device, an operation control method, and an operation control device program for receiving an operation input from a user and controlling an operation target.

移動体の一例の車両の運転中に、ナビゲーション等の電子機器等を操作するための操作制御装置が開発されている。例えば、下記特許文献1には、ステアリングホイールのスクロールスイッチと舵角センサとを用いて、ナビゲーション画面のスクロールを行っているナビゲーション・スクロール方法が開示されている。   An operation control device has been developed for operating electronic devices such as navigation while driving a vehicle as an example of a moving body. For example, Patent Document 1 below discloses a navigation / scrolling method in which a navigation screen is scrolled using a scroll switch of a steering wheel and a steering angle sensor.

特開2001−66143号公報JP 2001-66143 A

しかしながら、上記特許文献1に記載されている技術では、舵角を考慮してナビゲーションの地図等を動かすことだけなので、例えば、ナビゲーション画面等の画面上にある操作項目のフォーカスの移動等のように操作項目を特定する等、画面上における操作項目に対する細かな操作が難しく、ユーザが入力しやすいとは言えなかった。   However, since the technique described in Patent Document 1 only moves the navigation map in consideration of the steering angle, for example, the focus of the operation item on the screen such as the navigation screen is moved. Detailed operations on the operation items on the screen, such as specifying the operation item, are difficult, and it cannot be said that the user can easily input.

そこで本願は、上記の各問題点に鑑みて為されたもので、その課題の一例は、ユーザが入力しやすい操作制御装置等を提供することにある。   Therefore, the present application has been made in view of the above problems, and an example of the problem is to provide an operation control device and the like that are easy for a user to input.

上記課題を解決するため、請求項1に記載の発明は、ーザからの入力を受け付ける入力部の入力面が接触された位置情報を取得する位置情報取得手段と、前記入力部の姿勢に関する角度情報を取得する角度情報取得手段と、前記入力面が前記ユーザによって接触された際の接触速度を算出する接触速度算出手段と、を備え、前記位置情報と前記角度情報と前記接触速度とに基づき、表示部に表示された操作対象を前記ユーザが操作するための操作手段を制御することを特徴とする。 To solve the above problems, a first aspect of the present invention, the position information acquisition means for acquiring location information input surface of the input unit that receives an input from the User chromatography The is touched, to the attitude of the input section Angle information acquisition means for acquiring angle information; and contact speed calculation means for calculating a contact speed when the input surface is touched by the user, the position information, the angle information, and the contact speed . Based on this, an operation means for operating the operation target displayed on the display unit by the user is controlled .

また請求項7に記載の発明は、表示部に表示された複数の操作項目に従いユーザが操作対象を操作する操作手段を制御するための操作制御装置の操作制御方法において、前記ユーザからの入力を受け付ける入力部の入力面が接触された位置情報を取得する位置情報取得ステップと、前記入力部の姿勢に関する角度情報を取得する角度情報取得ステップと、前記入力面が前記ユーザによって接触された際の接触速度を算出する接触速度算出ステップと、前記位置情報と前記角度情報と前記接触速度とに基づき、前記表示部に表示された前記操作対象を前記ユーザが操作するための操作手段を制御する制御ステップと、を含むことを特徴とする。 According to a seventh aspect of the present invention, in the operation control method of the operation control device for controlling the operation means for the user to operate the operation target according to the plurality of operation items displayed on the display unit, the input from the user is received. A position information acquisition step of acquiring position information where the input surface of the input unit to be received is contacted; an angle information acquisition step of acquiring angle information regarding the posture of the input unit; and when the input surface is contacted by the user Control for controlling the operation means for the user to operate the operation target displayed on the display unit based on the contact speed calculation step for calculating the contact speed, the position information, the angle information, and the contact speed. And a step.

実施形態に係る操作制御装置の概要構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the operation control apparatus which concerns on embodiment. 実施例に係る操作制御装置の概要構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the operation control apparatus which concerns on an Example. 実施例に係る操作制御装置の取り付けの一例を示す模式図である。It is a schematic diagram which shows an example of attachment of the operation control apparatus which concerns on an Example. 実施例に係る操作制御装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the operation control apparatus which concerns on an Example. 図3の入力部にユーザの指が触れる様子の一例を示す模式図である。It is a schematic diagram which shows an example of a user's finger | toe touching the input part of FIG. 図3の入力部にユーザの指が触れた軌跡の一例を示す模式図である。It is a schematic diagram which shows an example of the locus | trajectory which the user's finger touched the input part of FIG. 図3のステアリングが傾いた一例を示す模式図である。It is a schematic diagram which shows an example in which the steering of FIG. 3 inclined. 図3の表示部における操作項目の表示の一例を示す模式図である。It is a schematic diagram which shows an example of the display of the operation item in the display part of FIG. 図3の表示部における操作項目の表示の一例を示す模式図である。It is a schematic diagram which shows an example of the display of the operation item in the display part of FIG. 操作項目の形状の変形例を示す模式図である。It is a schematic diagram which shows the modification of the shape of an operation item. 操作項目の形状の変形例を示す模式図である。It is a schematic diagram which shows the modification of the shape of an operation item. 図3の表示部における操作項目の表示の一例を示す模式図である。It is a schematic diagram which shows an example of the display of the operation item in the display part of FIG. 図3の表示部における操作項目の表示の一例を示す模式図である。It is a schematic diagram which shows an example of the display of the operation item in the display part of FIG. 図3の表示部における操作項目の表示の一例を示す模式図である。It is a schematic diagram which shows an example of the display of the operation item in the display part of FIG.

本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る操作制御装置の概要構成の一例を示すブロック図である。   An embodiment for carrying out the present application will be described with reference to FIG. FIG. 1 is a block diagram illustrating an example of a schematic configuration of the operation control apparatus according to the embodiment.

図1に示すように、表示部に表示された複数の操作項目に従いユーザが操作対象を操作する操作手段を制御するための操作制御装置10は、位置情報取得手段10aと、角度情報取得手段10bと、操作項目特定手段10cと、を備えて構成されている。   As shown in FIG. 1, an operation control device 10 for controlling an operation means for a user to operate an operation object according to a plurality of operation items displayed on a display unit includes a position information acquisition means 10 a and an angle information acquisition means 10 b. And an operation item specifying means 10c.

ここで、操作対象の一例として、カーナビゲーション装置、空調装置、オーディオ装置、電話、インターネット閲覧用のブラウザ等が挙げられる。   Here, examples of the operation target include a car navigation device, an air conditioner, an audio device, a telephone, a browser for browsing the Internet, and the like.

また、表示部の一例として、液晶表示素子またはEL(Electro Luminescence)素子等からなるカーナビゲーション装置の表示部、車両、自動二輪車、航空機、船舶等の移動体のダッシュボード部分の表示部、ヘッドアップディスプレイ(Head-Up Display)等が挙げられる。また、ヘッドアップディスプレイの方式として、移動体のウインドシールドに映し出したり、ユーザがかける眼鏡のレンズに映し出したりしてもよい。また、表示部に表示される操作項目は、表示部に表示されるオブジェクトであり、一例として、操作対象や操作内容や選択肢等を示したアイコンや、アップやダウンや確定等を示すボタン、または、文字等を示したキー等が挙げられる。   In addition, as an example of the display unit, a display unit of a car navigation device including a liquid crystal display element or an EL (Electro Luminescence) element, a display unit of a dashboard part of a moving body such as a vehicle, a motorcycle, an aircraft, and a ship, a head-up Examples include a display (Head-Up Display). Further, as a head-up display system, it may be displayed on a windshield of a moving object or may be displayed on a spectacle lens worn by a user. The operation item displayed on the display unit is an object displayed on the display unit. As an example, an icon indicating an operation target, an operation content, an option, a button indicating up, down, confirmation, or the like, or , A key indicating a character or the like.

また、操作対象を操作する操作手段の一例として、操作対象を操作するための情報を受け付ける入力手段(入力部を含む)や、操作対象を操作するための操作項目等の情報を出力する出力手段(表示部を含む)等が挙げられる。   Further, as an example of an operation unit that operates the operation target, an input unit (including an input unit) that receives information for operating the operation target, and an output unit that outputs information such as operation items for operating the operation target (Including the display unit).

この構成において位置情報取得手段10aは、ユーザからの入力を受け付ける入力部の入力面が接触された位置情報を取得する。   In this configuration, the position information acquisition unit 10a acquires position information in which the input surface of the input unit that receives input from the user is touched.

この操作制御装置10の入力部の一例として、タッチパッド、タッチパネル等が挙げられる。また、操作制御装置10の一例として、パーソナルコンピュータやスマートフォンを含む携帯型無線電話機やPDA等の携帯端末が挙げられる。さらに、操作制御装置10の入力部の一例として、携帯端末の画面の入力部が挙げられる。   Examples of the input unit of the operation control device 10 include a touch pad and a touch panel. Examples of the operation control device 10 include portable terminals such as portable wireless telephones and PDAs including personal computers and smartphones. Furthermore, an example of the input unit of the operation control apparatus 10 is an input unit for a screen of a mobile terminal.

また、位置情報の一例として、ユーザの指が入力部に接触した接触点、接触面、ユーザの指が入力部をなぞった軌跡等の入力部における座標等の位置に関する情報が挙げられる。また、操作制御装置10は、カーナビゲーションなどの車載機器、自動車機器のコントローラ、ゲーム機、テレビリモコン等に適用可能である。   Further, as an example of the position information, information on the position such as coordinates in the input unit such as a contact point where the user's finger contacts the input unit, a contact surface, and a locus traced by the user's finger on the input unit can be given. Further, the operation control device 10 can be applied to in-vehicle devices such as car navigation, controllers for automobile devices, game machines, TV remote controllers, and the like.

角度情報取得手段10bは、入力部の姿勢に関する角度情報を取得する。ここで、角度情報取得手段10bの一例として、移動体のステアリングに取り付けられた傾きセンサ等があげられる。傾きセンサの一例として、傾斜による液面の変化を捉えるセンサ、加速度センサやジャイロセンサ等が挙げられる。また、入力部の姿勢に関する角度情報の一例として、移動体のステアリングの角度の情報等が挙げられ、角度の一例として、移動体の直進状態の位置からのステアリングのホイールの回転位置が挙げられる。   The angle information acquisition unit 10b acquires angle information related to the attitude of the input unit. Here, as an example of the angle information acquisition unit 10b, an inclination sensor or the like attached to the steering of the moving body can be cited. Examples of the tilt sensor include a sensor that captures a change in the liquid level due to the tilt, an acceleration sensor, a gyro sensor, and the like. Further, as an example of the angle information related to the attitude of the input unit, information on the steering angle of the moving body can be cited, and as an example of the angle, the rotational position of the steering wheel from the position of the straight traveling state of the moving body can be cited.

操作項目特定手段10cは、位置情報取得手段10aが取得した位置情報と、角度情報取得手段10bが取得した角度情報とに基づき、操作項目を特定する。操作項目の特定の一例として、画面上の操作項目のフォーカス、選択等が挙げられる。なお、操作項目がフォーカスされている一例として、操作項目の表示が強調される等により、他の操作項目から区別できるようになった状態が挙げられる。また、操作項目の選択の一例として、操作項目が選択されることにより、操作項目が示す処理等が実行される状態が挙げられる。   The operation item specifying unit 10c specifies an operation item based on the position information acquired by the position information acquiring unit 10a and the angle information acquired by the angle information acquiring unit 10b. As an example of specifying the operation item, focus, selection, and the like of the operation item on the screen can be given. An example in which the operation item is focused is a state where the operation item can be distinguished from other operation items by highlighting the display of the operation item. Further, as an example of selection of the operation item, there is a state in which a process or the like indicated by the operation item is executed when the operation item is selected.

以上説明したように、実施形態に係る操作制御装置10の動作によれば、ユーザが見て把握している表示部の操作項目の位置とユーザが入力している入力部に対する指の動きとを、入力部の傾きを考慮してユーザの感覚に近い形で対応づけて、操作項目を特定できるので、ユーザにとって操作項目の操作がしやすくなる。   As described above, according to the operation of the operation control apparatus 10 according to the embodiment, the position of the operation item of the display unit that the user sees and understands and the movement of the finger with respect to the input unit that the user is inputting. Since the operation item can be specified by associating the input unit with inclination in consideration of the inclination of the input unit, it is easy for the user to operate the operation item.

[1.操作制御装置の構成および機能概要] [1. Operation control device configuration and function overview]

次に、上述した実施形態に対応する具体的な実施例について、図2および図3を用いて説明する。なお以下に説明する実施例は、移動体の一例である車両等に取り付けられた操作制御装置に対して、本願を適用した場合の実施例である。   Next, specific examples corresponding to the above-described embodiment will be described with reference to FIGS. In addition, the Example described below is an Example at the time of applying this application with respect to the operation control apparatus attached to the vehicle etc. which are examples of a mobile body.

図2に示すように、実施形態に係る操作制御装置10の一例としての操作制御装置10は、ユーザからの入力を受け付ける入力部11と、操作対象20を操作するための操作信号を出力する操作信号出力部12と、操作制御装置10を制御するためのプログラム等を記憶する記憶部13と、操作制御装置10の外部との送受信を行う通信部14と、入力部11の傾きの情報を測定する傾きセンサ15と、操作制御装置10を制御するシステム制御部16と、入出力インターフェース部17と、を備えている。そして、システム制御部16と入出力インターフェース部17とは、システムバス18を介して接続されている。   As illustrated in FIG. 2, the operation control device 10 as an example of the operation control device 10 according to the embodiment includes an input unit 11 that receives input from a user and an operation that outputs an operation signal for operating the operation target 20. The signal output unit 12, the storage unit 13 that stores a program for controlling the operation control device 10, the communication unit 14 that transmits / receives data to / from the outside of the operation control device 10, and the tilt information of the input unit 11 are measured. An inclination sensor 15, a system control unit 16 for controlling the operation control device 10, and an input / output interface unit 17. The system control unit 16 and the input / output interface unit 17 are connected via a system bus 18.

操作制御装置10は、操作信号出力部12を介して、カーナビゲーション装置、空調装置、オーディオ装置、電話等の操作対象20に接続されている。また、操作制御装置10は、ユーザからの入力に関する情報を処理するコンピュータとして機能する。操作制御装置10は、入力部11で受け付けた操作入力に基づき、操作信号を操作対象20に出力する。   The operation control device 10 is connected to an operation target 20 such as a car navigation device, an air conditioner, an audio device, and a telephone via an operation signal output unit 12. Further, the operation control device 10 functions as a computer that processes information related to input from the user. The operation control device 10 outputs an operation signal to the operation target 20 based on the operation input received by the input unit 11.

入力部11は、例えば、位置入力機能を有するタッチパッドである。位置入力機能の部分は、例えば、静電容量方式、抵抗膜方式等を実現する素子により構成される。そして、入力部11は、位置入力機能により、ユーザの指等が接触または近接した入力部11の面の位置情報を、所定の分解能の画素単位で取得する。なお、入力部11は、表示機能と位置入力機能を有するタッチパネルでもよい。   The input unit 11 is, for example, a touch pad having a position input function. The part of the position input function is configured by an element that realizes, for example, a capacitance method, a resistance film method, or the like. And the input part 11 acquires the positional information on the surface of the input part 11 which a user's finger | toe etc. contacted or adjoined by the position input function in the pixel unit of predetermined resolution. The input unit 11 may be a touch panel having a display function and a position input function.

操作信号出力部12は、各操作対象20とのインターフェースの機能を有する。操作信号出力部12は、各操作対象20と接続され、各操作対象20に操作信号を出力する。   The operation signal output unit 12 has a function of an interface with each operation target 20. The operation signal output unit 12 is connected to each operation target 20 and outputs an operation signal to each operation target 20.

記憶部13は、例えば、シリコンディスクドライブ等からなる。記憶部13は、入力部11の設定状態を記憶したり、操作制御装置10を制御するための各種プログラム等を記憶したりする。各種プログラムは、オペレーティングシステム、入力部11から取得した位置情報を処理するプログラム等が挙げられる。なお、各種プログラムは、例えば、無線通信網等のネットワークを介して取得されるようにしてもよいし、CD(Compact Disc)、DVD(Digital Versatile Disc)等の記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。   The storage unit 13 is composed of, for example, a silicon disk drive. The storage unit 13 stores the setting state of the input unit 11 and stores various programs for controlling the operation control device 10. Examples of the various programs include an operating system, a program for processing position information acquired from the input unit 11, and the like. The various programs may be acquired via a network such as a wireless communication network, or may be recorded on a recording medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc) and the drive device It may be configured to be read through.

また、記憶部13には、初期値として、表示部に表示させる操作項目の表示数、操作項目の大きさ、各操作項目に対する重み等のデフォルト情報が記憶されている。   The storage unit 13 stores default information such as the number of operation items to be displayed on the display unit, the size of the operation items, and the weight for each operation item as initial values.

通信部14は、操作対象20や、車両の速度、車両の走行位置、車両のギアの状態等の走行に関連する走行関連情報を測定する機器等と通信を制御する。なお、操作制御装置10は、通信部14を介して、操作対象を含む機器に接続している。また、走行関連情報に基づき、操作制御装置10は、車両が走行状態になったと判定した場合、操作対象20へのユーザが意図しない操作等を防ぐため、入力部11の状態を、操作対象20への操作入力を受け付けないホールド状態にしてもよい。ここで、走行状態の例として、車両の速度が所定の速度以上になった場合、ギアがドライブ状態になった場合等が挙げられる。また、ヘッドアップディスプレイ等、カーナビゲーション装置21の表示部21aでない表示部を用いる場合は、ホールド状態にしなくてもよい。   The communication unit 14 controls communication with the operation target 20, a device that measures travel-related information related to travel, such as the speed of the vehicle, the travel position of the vehicle, and the state of the gears of the vehicle. The operation control device 10 is connected to a device including an operation target via the communication unit 14. Further, when the operation control device 10 determines that the vehicle is in the traveling state based on the traveling related information, the operation unit 20 changes the state of the input unit 11 to the operation target 20 in order to prevent an operation unintended by the user to the operation target 20. A hold state in which no operation input is accepted may be used. Here, examples of the running state include a case where the speed of the vehicle is equal to or higher than a predetermined speed, a case where the gear is in a driving state, and the like. In addition, when a display unit that is not the display unit 21a of the car navigation device 21 such as a head-up display is used, the hold state may not be set.

傾きセンサ15は、傾斜による液面の変化を捉えるセンサ、加速度センサやジャイロセンサ等が挙げられる。   Examples of the tilt sensor 15 include a sensor that captures a change in the liquid level due to tilt, an acceleration sensor, a gyro sensor, and the like.

システム制御部16は、例えば、CPU(Central Processing Unit)16aと、ROM(Read Only Memory)16bと、RAM(Random Access Memory)16cと、を有する。システム制御部16は、CPU16aが、ROM16bや、RAM16cや、記憶部13に記憶された各種プログラムを読み出して実行する。例えば、システム制御部16は、入力部11で受け付けた入力を判定するプログラムを実行する。   The system control unit 16 includes, for example, a CPU (Central Processing Unit) 16a, a ROM (Read Only Memory) 16b, and a RAM (Random Access Memory) 16c. In the system control unit 16, the CPU 16 a reads out and executes various programs stored in the ROM 16 b, the RAM 16 c, and the storage unit 13. For example, the system control unit 16 executes a program for determining an input received by the input unit 11.

入出力インターフェース部17は、入力部11等の各部とシステム制御部16とのインターフェースである。   The input / output interface unit 17 is an interface between each unit such as the input unit 11 and the system control unit 16.

また、操作制御装置10は、入力部11に指が触れた時間を測定するために内部時計(図示せず)を有する。   In addition, the operation control device 10 has an internal clock (not shown) for measuring the time when the finger touches the input unit 11.

次に、図3に示すように、操作制御装置10の入力部11は、移動体の一例である車両のステアリング30の表側に取り付けられている。また、傾きセンサ15は、ステアリング30の回転角度を測定できるように、入力部11またはステアリング30に取り付けられている。   Next, as shown in FIG. 3, the input unit 11 of the operation control device 10 is attached to the front side of the steering 30 of the vehicle, which is an example of the moving body. The tilt sensor 15 is attached to the input unit 11 or the steering 30 so that the rotation angle of the steering 30 can be measured.

ステアリング30は、ステアリングシャフト(図示せず)と接続されたステアリング本体部31と、車両を運転するユーザが握る部分であり、リング形状を有するステアリングホイール部32と、を有する。   The steering 30 includes a steering body 31 that is connected to a steering shaft (not shown), and a steering wheel 32 that has a ring shape and is a portion that is gripped by a user who drives the vehicle.

入力部11は、ステアリング本体部31の表側において、中心部からステアリングホイール部32側に取り付けられている。すなわち、ユーザがステアリングホイール部32を握る際、ユーザの親指が入力部11に触れることができる位置に入力部11が、設置されている。ステアリングホイール部32の回転位置が、車両の直進状態の位置の場合、ユーザが車両の運転席に座った際の、ステアリング本体部31のユーザの右手側に、入力部11が取り付けられる。なお、入力部11の取り付け位置は、ユーザの左手側や、ステアリング本体部31の中心部でもよい。   The input unit 11 is attached to the steering wheel unit 32 side from the center on the front side of the steering body 31. That is, the input unit 11 is installed at a position where the user's thumb can touch the input unit 11 when the user grips the steering wheel unit 32. When the rotational position of the steering wheel portion 32 is a position where the vehicle is traveling straight, the input portion 11 is attached to the user's right hand side of the steering body portion 31 when the user sits in the driver's seat of the vehicle. The attachment position of the input unit 11 may be the user's left hand side or the center of the steering body 31.

次に、図3に示すように、車両には、操作対象20の一例として、カーナビゲーション装置21、空調装置22と、オーディオ装置23等が設置されている。また、操作対象20の一例として、ユーザの携帯型無線電話機と近距離無線通信規格で接続し、ユーザが携帯型無線電話機を受けられるようにするための通信機器(図示せず)も設定されている。これらの操作対象20は、操作制御装置10の操作信号出力部12および通信部14と接続している。   Next, as shown in FIG. 3, a car navigation device 21, an air conditioner 22, an audio device 23, and the like are installed in the vehicle as an example of the operation target 20. In addition, as an example of the operation target 20, a communication device (not shown) for connecting the user's portable wireless telephone with the short-range wireless communication standard so that the user can receive the portable wireless telephone is set. Yes. These operation objects 20 are connected to the operation signal output unit 12 and the communication unit 14 of the operation control device 10.

カーナビゲーション装置21は、タッチパネル等を含む表示部21aと、加速度センサやジャイロセンサやGPS(Global Positioning System)センサ等の各種のセンサと、CPU、RAMおよびROM等を含む処理部、情報を記憶する記憶部と、操作制御装置10等の他の機器との通信を行う通信部と、カーナビゲーション装置21を操作するための操作部と、を有する。なお、カーナビゲーション装置21は、インターネットに接続でき、表示部21aにおいて、インターネットの閲覧ができる構成を有していてもよい。   The car navigation device 21 stores a display unit 21a including a touch panel, various sensors such as an acceleration sensor, a gyro sensor, and a GPS (Global Positioning System) sensor, a processing unit including a CPU, a RAM, a ROM, and the like, and information. It has a memory | storage part, a communication part which communicates with other apparatuses, such as the operation control apparatus 10, and an operation part for operating the car navigation apparatus 21. The car navigation device 21 may be connected to the Internet, and the display unit 21a may be configured to allow browsing of the Internet.

表示部21aは、表示機能と位置入力機能を有するタッチパネルである。表示機能の部分は、例えば、液晶表示素子またはEL素子等によって構成される。位置入力機能の部分は、例えば、静電容量方式、抵抗膜方式等を実現する素子により構成される。なお、表示部が、ヘッドアップディスプレイの場合、表示部は、投影手段と、投影手段から投影された画像を映し出すスクリーン手段(ウインドシールド、眼鏡のレンズ部等)とを有する。   The display unit 21a is a touch panel having a display function and a position input function. The display function part is constituted by, for example, a liquid crystal display element or an EL element. The part of the position input function is configured by an element that realizes, for example, a capacitance method, a resistance film method, or the like. When the display unit is a head-up display, the display unit includes a projecting unit and a screen unit (a windshield, a lens unit of spectacles, etc.) that displays an image projected from the projecting unit.

また、表示部21aには、操作対象20を操作するための複数の操作項目iが表示される。操作項目iは、例えば、所定の操作対象20の操作内容を表したアイコンである。   In addition, a plurality of operation items i for operating the operation target 20 are displayed on the display unit 21a. The operation item i is, for example, an icon representing the operation content of the predetermined operation target 20.

空調装置22は、コンプレッサー(図示せず)、車両内に空調された空気を送風する送風部(図示せず)を有し、車両の内部の温度、湿度を制御する。空調装置22の吹き出し口22aが、車両内に設置されている。   The air conditioner 22 has a compressor (not shown) and a blower (not shown) for blowing air conditioned in the vehicle, and controls the temperature and humidity inside the vehicle. The air outlet 22a of the air conditioner 22 is installed in the vehicle.

オーディオ装置23は、CD、DVD等の再生、ラジオやテレビの電波を受信して、音をスピーカに出力し、映像をカーナビゲーション装置21の表示部21aに出力する。   The audio device 23 receives a CD or DVD playback, radio or television radio wave, outputs sound to a speaker, and outputs video to the display unit 21 a of the car navigation device 21.

[2.操作制御装置の動作]
(2.1 操作制御装置の動作例)
実施例に係る操作制御装置の動作について、図4から図9を用い説明する。
[2. Operation of operation control unit]
(2.1 Operation example of operation control device)
The operation of the operation control apparatus according to the embodiment will be described with reference to FIGS.

図4は、第1実施例に係る操作制御装置の動作の一例を示すフローチャートである。図5は、入力部にユーザの指が触れる様子の一例を示す模式図である。図6は、入力部にユーザの指が触れた軌跡の一例を示す模式図である。図7は、ステアリングが傾いた一例を示す模式図である。図8および図9は、表示部における操作項目の表示の一例を示す模式図である。   FIG. 4 is a flowchart illustrating an example of the operation of the operation control apparatus according to the first embodiment. FIG. 5 is a schematic diagram illustrating an example of how a user's finger touches the input unit. FIG. 6 is a schematic diagram illustrating an example of a locus in which a user's finger touches the input unit. FIG. 7 is a schematic diagram showing an example in which the steering is tilted. 8 and 9 are schematic diagrams illustrating an example of display of operation items on the display unit.

図4に示すように、操作制御装置10は、操作項目を表示させる(ステップS1)。具体的には、システム制御部16は、初期設定等の複数の操作項目iを表示部21aに表示させるように、操作項目iに関するデータを、カーナビゲーション装置21に送信する。カーナビゲーション装置21は、図3に示すように、複数の操作項目iを表示部21aに表示する。なお、移動体のエンジンがかかり、操作制御装置10やカーナビゲーション装置21等が起動すると、操作制御装置10のシステム制御部16は、記憶部13から、表示部21aに表示させる操作項目iに関するデフォルト情報を取得する。また、デフォルト情報の中には、フォーカスしている操作項目の情報もある。   As shown in FIG. 4, the operation control apparatus 10 displays an operation item (step S1). Specifically, the system control unit 16 transmits data related to the operation item i to the car navigation device 21 so that a plurality of operation items i such as initial settings are displayed on the display unit 21a. As shown in FIG. 3, the car navigation device 21 displays a plurality of operation items i on the display unit 21a. When the engine of the moving body is started and the operation control device 10 or the car navigation device 21 is activated, the system control unit 16 of the operation control device 10 defaults from the storage unit 13 regarding the operation item i displayed on the display unit 21a. Get information. Also, the default information includes information on the operation item being focused.

また、選択された操作項目iに対応する操作対象の操作を行うための処理が行われた後、選択される前の操作項目が表示される場合や、選択されたことにより新たな操作項目が表示される場合もある。   In addition, after the process for performing the operation of the operation target corresponding to the selected operation item i is performed, the operation item before the selection is displayed, or a new operation item is displayed due to the selection. It may be displayed.

そして、表示部21aに表示された操作項目を見ながら、例えば、指で入力部11の面をなぞったり、タップしたりすることにより、操作項目の特定の一例として、操作項目のフォーカスを移動させたり、操作項目を選択したりする。   Then, while looking at the operation item displayed on the display unit 21a, for example, by tracing or tapping the surface of the input unit 11 with a finger, the focus of the operation item is moved as an example of specifying the operation item. Or select an operation item.

なお、複数の操作項目i等が同じ画素に重なって表示されている場合、最前面に表示されている操作項目iをフォーカスや選択の対象とする。   When a plurality of operation items i and the like are displayed overlapping the same pixel, the operation item i displayed in the foreground is set as a focus or selection target.

次に、操作制御装置10は、入力部における接触された位置情報を取得する(ステップS2)。具体的には、図5に示すように、位置情報取得手段の一例として、操作制御装置10のシステム制御部16は、入力部11の面において、ユーザの指5によりなぞられた部分のx座標およびy座標の位置情報を入力部11から取得する。さらに具体的には、図6に示すように、システム制御部16は、ある時間におけるユーザの指が接触している部分の接触領域Cのx座標およびy座標の位置情報を入力部11から取得する。   Next, the operation control apparatus 10 acquires the touched position information in the input unit (step S2). Specifically, as illustrated in FIG. 5, as an example of the position information acquisition unit, the system control unit 16 of the operation control device 10 determines the x coordinate of the portion traced by the user's finger 5 on the surface of the input unit 11. And the position information of the y coordinate are acquired from the input unit 11. More specifically, as shown in FIG. 6, the system control unit 16 acquires, from the input unit 11, position information of the x coordinate and the y coordinate of the contact area C of the part in contact with the user's finger at a certain time. To do.

そして、システム制御部16は、ある時間間隔で、接触領域Cの位置情報を取得し、接触領域Cの中心座標を算出することにより、接触領域Cの軌跡tのx座標およびy座標の位置情報を取得する。なお、接触領域Cの中心座標は、接触領域Cの重心位置等を算出することにより求める。また、接触領域Cのx座標の値が最小の値または最大の値の点の軌跡でもよい。   Then, the system control unit 16 acquires the position information of the contact area C at a certain time interval and calculates the center coordinates of the contact area C, whereby the position information of the x coordinate and the y coordinate of the trajectory t of the contact area C is obtained. To get. The center coordinates of the contact area C are obtained by calculating the position of the center of gravity of the contact area C. Further, the locus of the point having the minimum value or the maximum value of the x coordinate value of the contact area C may be used.

そして、システム制御部16は、取得した位置情報に関連付けて、取得した時間を記憶部13、または、RAM16cに記憶する。なお、記憶する際、軌跡t全体の情報に限らず、軌跡tの始点、終点の座標、軌跡tのx座標の最大値、最小値、y座標の最大値、最小値でもよい。   Then, the system control unit 16 stores the acquired time in the storage unit 13 or the RAM 16c in association with the acquired position information. When storing, not only the information of the entire trajectory t, but the start point and end point coordinates of the trajectory t, the maximum value and the minimum value of the x coordinate of the trajectory t, the maximum value and the minimum value of the y coordinate may be used.

このように、操作制御装置10は、ユーザからの入力を受け付ける入力部の入力面が接触された位置情報を取得する位置情報取得手段の一例として機能する。   As described above, the operation control apparatus 10 functions as an example of a position information acquisition unit that acquires position information in which the input surface of the input unit that receives input from the user is touched.

次に、操作制御装置10は、接触速度、接触角度を算出する(ステップS3)。具体的には、システム制御部16は、接触の始点の位置情報(x1,y1)および取得時間と、接触の終点の位置情報(x2,y2)および取得時間から、接触速度vおよび接触角度θ1を算出する。例えば、システム制御部16は、入力部に触れている接触時間s(接触時間の一例)を、
接触時間s=位置情報(x2,y2)の取得時間−位置情報(x1,y1)の取得時間
により算出する。システム制御部16は、移動距離dを、
移動距離d=√(a2+b2
より算出する。ここで、a=x2−x1、b=y2−y1である。そして、システム制御部16は、接触速度vおよび接触角度θ1を、
接触速度v=d/s、
接触角度θ1=tan-1(b/a)
より算出する。
Next, the operation control apparatus 10 calculates a contact speed and a contact angle (step S3). Specifically, the system control unit 16 determines the contact speed v and the contact angle θ1 from the position information (x1, y1) and acquisition time of the contact start point, and the position information (x2, y2) and acquisition time of the contact end point. Is calculated. For example, the system control unit 16 determines the contact time s (an example of contact time) that is touching the input unit,
Contact time s = calculation time of position information (x2, y2) −acquisition time of position information (x1, y1). The system control unit 16 sets the movement distance d to
Travel distance d = √ (a 2 + b 2 )
Calculate from Here, a = x2-x1 and b = y2-y1. Then, the system control unit 16 sets the contact speed v and the contact angle θ1 as
Contact speed v = d / s,
Contact angle θ1 = tan −1 (b / a)
Calculate from

なお、軌跡tの長さと、接触時間sから接触速度vを算出してもよい。軌跡tの長さは、ある時間間隔で取得した接触領域Cの位置情報の隣り合う座標から、隣り合う距離を算出し、これらを足し合わせて長さでもよい。   Note that the contact speed v may be calculated from the length of the trajectory t and the contact time s. The length of the trajectory t may be the length obtained by calculating the adjacent distance from the adjacent coordinates of the position information of the contact area C acquired at a certain time interval, and adding these.

このように、操作制御装置10は、位置情報から、接触された接触方向を算出する接触方向算出手段の一例として機能する。また、操作制御装置10は、位置情報と接触時間から接触速度を算出する接触速度算出手段の一例として機能する。   As described above, the operation control apparatus 10 functions as an example of a contact direction calculation unit that calculates a contact direction in contact with the position information. In addition, the operation control device 10 functions as an example of a contact speed calculation unit that calculates the contact speed from the position information and the contact time.

次に、操作制御装置10は、ステアリングの傾きデータを取得する(ステップS4)。具体的には、図7に示すように、システム制御部16は、傾きセンサ15から、入力部11の姿勢に関する角度情報の一例として、入力部11が設置されたステアリングの傾き角度θ2のデータを取得する。なお、ステアリングの傾きを求める方法として、カメラでステアリング30を撮影した画像を用いて、システム制御部16は、画像処理を行いステアリング30の傾き角度θ2を求めてもよい。   Next, the operation control device 10 acquires steering tilt data (step S4). Specifically, as shown in FIG. 7, the system control unit 16 uses the tilt sensor 15 as an example of angle information related to the attitude of the input unit 11 to obtain data on the tilt angle θ2 of the steering wheel on which the input unit 11 is installed. get. As a method for obtaining the steering tilt, the system control unit 16 may obtain an inclination angle θ2 of the steering wheel 30 by performing image processing using an image obtained by photographing the steering wheel 30 with a camera.

このように、操作制御装置10は、入力部の姿勢に関する角度情報を取得する角度情報取得手段の一例として機能する。   As described above, the operation control device 10 functions as an example of an angle information acquisition unit that acquires angle information related to the posture of the input unit.

次に、操作制御装置10は、操作項目のフォーカスの移動が否かを判定する(ステップS5)。具体的には、システム制御部16は、接触時間sと接触の移動距離dより、フォーカスが当たっているオブジェクトの選択かフォーカス移動かを判定する。例えば、接触時間sが0.1秒未満であれば、操作項目の選択とシステム制御部16は判定し、0.1秒以上であればフォーカス移動と、判定する。または、接触の移動距離dが所定値以下であれば、システム制御部16は、操作項目の選択と判定し、移動距離dが所定値より大きければ、フォーカス移動と判定する。また、ダブルタップのように、所定時間内における接触回数が所定以上の場合は、システム制御部16は、操作項目の選択と判定してもよい。   Next, the operation control apparatus 10 determines whether or not the focus of the operation item has been moved (step S5). Specifically, the system control unit 16 determines whether the focused object is selected or focused based on the contact time s and the contact moving distance d. For example, if the contact time s is less than 0.1 seconds, the selection of the operation item and the system control unit 16 determines, and if it is 0.1 seconds or more, the focus movement is determined. Or if the movement distance d of a contact is below a predetermined value, the system control part 16 will determine with selection of an operation item, and if the movement distance d is larger than a predetermined value, it will determine with a focus movement. Moreover, when the number of times of contact within a predetermined time is greater than or equal to a predetermined value, such as a double tap, the system control unit 16 may determine that the operation item is selected.

フォーカスの移動の場合(ステップS5;YES)、操作制御装置10は、接触速度、接触角度、ステアリングの傾きの角度に基づき、フォーカスする操作項目を特定する(ステップS6)。まず、例えば、図8に示すように、現在フォーカスが当たっている操作項目i1の基点(例えば、操作項目i1の中心oもしくは重心画素)から、接触角度θ1およびステアリングの傾きの角度θ2に関する方向(例えばθ1+θ2)の線L上にある操作項目i4、i5を、次のフォーカスの候補の操作項目として、システム制御部16は特定する。   In the case of focus movement (step S5; YES), the operation control device 10 specifies an operation item to be focused based on the contact speed, the contact angle, and the steering tilt angle (step S6). First, for example, as shown in FIG. 8, from the base point of the operation item i1 currently focused (for example, the center o or the barycentric pixel of the operation item i1), the direction related to the contact angle θ1 and the steering tilt angle θ2 ( For example, the system control unit 16 identifies the operation items i4 and i5 on the line L of [theta] 1+ [theta] 2) as the next focus candidate operation items.

そして、システム制御部16は、中心oを基点に線L上にある画素に応じて、順に所定の値を、ステップS3で算出した接触速度vの値から減算していく。例えば、線L上で操作項目i外の画素を通過する場合、画素毎に値nにより減算し、線L上で操作項目i内の画素を通過する場合、画素毎に値mにより減算するというように、システム制御部16は、操作項目i内外で違う値を減算する。システム制御部16は、操作項目i1の中心oから減算して、v=np+mq(pは操作項目i外を通過した画素数、qは操作項目i内を通過した画素数)となる画素を求めることになる。すなわち、図9に示すように、減算してゼロになった画素の点zを求める。値nは、操作項目i外の画素に対する重み、値mは、操作項目i内の画素に対する重みである。   Then, the system control unit 16 sequentially subtracts a predetermined value from the value of the contact speed v calculated in step S3 in accordance with the pixels on the line L with the center o as the base point. For example, when passing a pixel outside the operation item i on the line L, the value n is subtracted for each pixel, and when passing a pixel within the operation item i on the line L, the pixel is subtracted by the value m. As described above, the system control unit 16 subtracts different values inside and outside the operation item i. The system control unit 16 subtracts from the center o of the operation item i1 to obtain a pixel that becomes v = np + mq (p is the number of pixels that have passed outside the operation item i, and q is the number of pixels that have passed through the operation item i). It will be. That is, as shown in FIG. 9, the point z of the pixel that is zeroed by subtraction is obtained. The value n is a weight for pixels outside the operation item i, and the value m is a weight for pixels within the operation item i.

そして、システム制御部16は、接触速度vの値から減算してゼロになった画素からフォーカスする操作項目を特定する。   Then, the system control unit 16 specifies an operation item to be focused from a pixel that is subtracted from the value of the contact speed v and becomes zero.

操作項目i内で、接触速度vの値から減算してゼロになった場合、その操作項目iにフォーカスが移動する。例えば、操作項目i4内で、減算してゼロになった場合、操作項目i4にフォーカスが移動し、操作項目i5内で、ゼロになった場合、操作項目i5にフォーカスが移動する。なお、操作項目i4、i5が、基点から接触速度の値に応じた距離の付近にある操作項目の一例である。   In the operation item i, when it is subtracted from the value of the contact speed v and becomes zero, the focus moves to the operation item i. For example, when the subtraction is zero within the operation item i4, the focus moves to the operation item i4, and when the subtraction is zero within the operation item i5, the focus moves to the operation item i5. The operation items i4 and i5 are examples of operation items in the vicinity of a distance corresponding to the contact speed value from the base point.

操作項目i外で、接触速度vの値から減算してゼロになった場合、現フォーカス操作項目i1により近い操作項目iにフォーカスが移動する。例えば、操作項目i4と操作項目i5の間の画素で、減算してゼロになった場合、操作項目i4にフォーカスが移動する。また、図9に示すように、操作項目i5を超えたところで、減算してゼロになった場合、操作項目i5にフォーカスが移動する。なお、操作項目i4、i5が、基点から接触速度の値に応じた距離の付近にある操作項目の一例である。   When the contact speed v is subtracted from the value of the contact speed v outside the operation item i, the focus moves to the operation item i closer to the current focus operation item i1. For example, when the pixel between the operation item i4 and the operation item i5 is subtracted to zero, the focus moves to the operation item i4. Also, as shown in FIG. 9, when the subtraction is zero when the operation item i5 is exceeded, the focus moves to the operation item i5. The operation items i4 and i5 are examples of operation items in the vicinity of a distance corresponding to the contact speed value from the base point.

線L上を、現フォーカス操作項目i1から次の操作項目i4にいく前に、減算してゼロになった場合、フォーカスの移動はしない。例えば、操作項目i1内や操作項目i1と操作項目i4との間で、減算してゼロになった場合、フォーカスが操作項目i1のまま移動しない。   If the subtraction reaches zero on the line L before going from the current focus operation item i1 to the next operation item i4, the focus is not moved. For example, when subtraction becomes zero within the operation item i1 or between the operation item i1 and the operation item i4, the focus does not move with the operation item i1.

なお、システム制御部16は、線L上にある操作項目iのうち、ゼロになった画素の点zに一番近い操作項目i5(基点から接触速度の値に応じた距離の付近にある操作項目の一例)を、次にフォーカスにする操作項目iとして特定してもよい。   Note that the system control unit 16 sets the operation item i5 closest to the point z of the pixel that has become zero among the operation items i on the line L (operation near the distance corresponding to the contact speed value from the base point). An example of the item may be specified as the operation item i to be focused next.

なお、操作項目i1の中心oの他に、操作項目i1の内部の点や、操作項目i1の近傍の画素を基点としてもよい。   In addition to the center o of the operation item i1, a point inside the operation item i1 or a pixel near the operation item i1 may be used as a base point.

このように、操作制御装置10は、位置情報と角度情報とに基づき、操作項目を特定する操作項目特定手段の一例として機能する。また、操作制御装置10は、表示部において既に特定されている前記操作項目を基点に、接触方向と角度情報とに基づき、次の操作項目を特定する操作項目特定手段の一例として機能する。また、操作制御装置10は、基点から接触方向と角度情報とに応じた方向にある操作項目の中から、接触速度に基づき、操作項目を特定する操作項目特定手段の一例として機能する。また、操作制御装置10は、基点から接触速度の値に応じた距離の付近にある操作項目を特定する操作項目特定手段の一例として機能する。   As described above, the operation control apparatus 10 functions as an example of an operation item specifying unit that specifies an operation item based on the position information and the angle information. The operation control device 10 functions as an example of an operation item specifying unit that specifies the next operation item based on the contact direction and the angle information with the operation item already specified in the display unit as a base point. In addition, the operation control device 10 functions as an example of an operation item specifying unit that specifies an operation item based on the contact speed from operation items in a direction corresponding to the contact direction and the angle information from the base point. The operation control device 10 functions as an example of an operation item specifying unit that specifies an operation item in the vicinity of a distance corresponding to the value of the contact speed from the base point.

次に、操作制御装置10は、フォーカスを移動させる(ステップS7)。具体的には、図9に示すように、システム制御部16は、操作項目i1の形態(例えば、操作項目i1の色)を、フォーカスされて無い通常の形態に戻し、操作項目i5をフォーカス用の形態にする。   Next, the operation control apparatus 10 moves the focus (step S7). Specifically, as shown in FIG. 9, the system control unit 16 returns the operation item i1 to a normal form that is not focused, for example, the color of the operation item i1 (for example, the color of the operation item i1). In the form of

次に、操作制御装置10は、終了か否かを判定する(ステップS8)。例えば、システム制御部16は、操作制御装置10の電源がONかOFFかを判定する。電源がONの場合(ステップS8;NO)、システム制御部16は、ステップS2の処理に戻り位置情報を取得する。電源がOFFの場合(ステップS8;YES)、システム制御部16は、処理を終了する。   Next, the operation control apparatus 10 determines whether or not it is finished (step S8). For example, the system control unit 16 determines whether the operation control device 10 is powered on or off. When the power is ON (step S8; NO), the system control unit 16 returns to the process of step S2 and acquires position information. If the power is OFF (step S8; YES), the system control unit 16 ends the process.

一方、フォーカスの移動で無い場合(ステップS5;NO)、フォーカスされている操作項目iを選択する(ステップS9)。具体的には、システム制御部16は、フォーカスされている操作項目i1がユーザに選択されたとして、操作項目i1に対応する操作対象の操作を行うための処理をする。   On the other hand, when the focus is not moved (step S5; NO), the focused operation item i is selected (step S9). Specifically, the system control unit 16 performs a process for performing an operation on the operation target corresponding to the operation item i1, assuming that the focused operation item i1 is selected by the user.

選択されたことにより新たな操作が必要な場合、システム制御部16は、ステップS1に戻り、新たな操作項目を表示する。   If a new operation is required due to the selection, the system control unit 16 returns to step S1 and displays a new operation item.

また、選択されたことにより新たな操作が必要でない場合、システム制御部16は、ステップS1に戻り、選択された時の操作項目を表示する。   If a new operation is not required due to the selection, the system control unit 16 returns to step S1 and displays the operation item at the time of the selection.

以上説明したように、実施例に係る動作によれば、表示部21aに表示された複数の操作項目iに従いユーザが操作対象を操作する操作手段を制御するための操作制御装置10において、ユーザからの入力を受け付ける入力部11の入力面が接触された位置情報を取得し、入力部11の姿勢に関する角度情報(θ2)を取得し、位置情報と角度情報とに基づき、操作項目を特定することにより、ユーザが見て把握している表示部21aの操作項目iの位置とユーザが入力している入力部11に対する指5の動きとを、入力部11の傾きを考慮してユーザの感覚に近い形で対応づけて、操作項目iを特定できるので、ユーザにとって操作項目iの操作がしやすくなる。   As described above, according to the operation according to the embodiment, in the operation control device 10 for controlling the operation means for the user to operate the operation target according to the plurality of operation items i displayed on the display unit 21a, To acquire position information where the input surface of the input unit 11 that receives the input is touched, acquire angle information (θ2) related to the posture of the input unit 11, and specify an operation item based on the position information and the angle information Thus, the position of the operation item i on the display unit 21a which the user sees and grasps and the movement of the finger 5 with respect to the input unit 11 input by the user can be changed to the user's sense in consideration of the inclination of the input unit 11. Since the operation item i can be specified by associating in a close manner, the user can easily operate the operation item i.

ステアリング30上にタッチパッド等の入力部11があるため、入力部11が常に水平になっているわけではない。そのため、ステアリング30の傾きに応じた補正をかけることにより、ユーザはステアリング30の傾きを意識することなく、表示部21a画面を見たまま意図した方向へ、操作項目iのフォーカスを決めることができる。   Since the input unit 11 such as a touch pad is on the steering 30, the input unit 11 is not always horizontal. Therefore, by applying correction according to the tilt of the steering wheel 30, the user can determine the focus of the operation item i in the intended direction while viewing the display unit 21a without being aware of the tilt of the steering wheel 30. .

また、表示部21aの画面上のタッチパッド操作を前提に作成されたUI(User Interface)としての操作項目iを、表示部21aの操作項目iを見ながらマウスなどのポインタを使わずに、操作項目iに対する操作ができる。   Further, an operation item i as a UI (User Interface) created on the premise of the touch pad operation on the screen of the display unit 21a is operated without using a pointer such as a mouse while looking at the operation item i of the display unit 21a. The item i can be operated.

また、実施例によれば、スマートフォンやタブレット用に作成されたアプリケーションを、再度移動体専用のUIへ開発を行わなくても、使用することができる。   Further, according to the embodiment, an application created for a smartphone or a tablet can be used without re-development into a mobile-only UI.

なお、スマートフォンやタブレットの普及により、PC(Personal Computer)等で使用されるマウスやキーボードを使わず、画面を直接触ることで操作をするのが当たり前になっている。これらの機器で使用されるアプリケーションはユーザが自由にインストールすることが可能で、車載用の機器にもユーザが自由にアプリケーションをインストールしたいというニーズがある。   With the spread of smartphones and tablets, it has become commonplace to operate by touching the screen directly without using a mouse or keyboard used in a PC (Personal Computer) or the like. Applications that are used in these devices can be freely installed by the user, and there is a need for the user to freely install the application in in-vehicle devices.

一方、車載用の機器では、運転中等において、ステアリング30からできるだけ、手を離さずに、アプリケーションを操作したい場合がある。しかし、アプリケーションを操作するためには、フォーカスを移動してオブジェクト等の操作項目を選択するという操作が必要であるが、アプリケーションは、画面上を直接触ることを前提に作られている。実施例によれば、ステアリング30の入力部11に対する操作により、操作項目に対するフォーカスの移動と、操作項目の選択を実現することができる。   On the other hand, in the case of a vehicle-mounted device, there are cases where it is desired to operate an application without releasing the hand as much as possible from the steering wheel 30 during driving. However, in order to operate the application, an operation of moving the focus and selecting an operation item such as an object is necessary, but the application is made on the assumption that the screen is directly touched. According to the embodiment, it is possible to realize the movement of the focus with respect to the operation item and the selection of the operation item by the operation on the input unit 11 of the steering wheel 30.

また、位置情報から、接触方向(例えばθ1)を算出し、表示部21aにおいて既に特定されている操作項目(例えば操作項目i1)を基点に、接触方向と角度情報(例えばθ2)とに基づき、次の操作項目(例えば操作項目i5)を特定する場合、ユーザが入力した接触方向により、ユーザの感覚にあった操作項目iを特定できるので、ユーザにとって操作項目iの操作がしやすくなる。また、接触方向と角度情報とにより、例えば、角度(θ1+θ2)の線L上にある画素を含む操作項目iをフォーカス移動の候補として絞り込むことができる。   In addition, the contact direction (for example, θ1) is calculated from the position information, and based on the contact direction and the angle information (for example, θ2) based on the operation item (for example, the operation item i1) already specified in the display unit 21a. When the next operation item (for example, operation item i5) is specified, the operation item i suitable for the user's sense can be specified by the contact direction input by the user, so that the user can easily operate the operation item i. Further, for example, the operation item i including the pixel on the line L of the angle (θ1 + θ2) can be narrowed down as a focus movement candidate based on the contact direction and the angle information.

また、接触時間をs取得し、位置情報と接触時間sから接触速度vを算出し、基点から接触方向(例えばθ1)と角度情報(例えばθ2)とに基づいた方向にある操作項目(例えば、操作項目i4、i5)の中から、接触速度vに基づき、操作項目(例えば、操作項目i5)を特定する場合、入力部11に対する操作での指5の接触速度に応じて、ユーザの感覚にあった操作項目iを特定できるので、ユーザにとって操作項目iの操作がしやすくなる。例えば、入力部11に対する操作での指5の接触速度を早くすることで、より離れた操作項目iへフォーカスを一瞬で飛ばし、指5の接触速度を遅くすることで、近くの操作項目iを特定するといった使い方ができる。また、ユーザの入力部11に対する操作の加減により、フォーカス変更を直感的に一回の操作で行うことができる。   Also, the contact time s is acquired, the contact speed v is calculated from the position information and the contact time s, and the operation item (for example, the direction based on the contact direction (for example, θ1) and the angle information (for example, θ2) from the base point (for example, When an operation item (for example, operation item i5) is specified from the operation items i4 and i5) based on the contact speed v, the user feels according to the contact speed of the finger 5 when operating the input unit 11. Since the operation item i that has been found can be specified, the user can easily operate the operation item i. For example, by increasing the contact speed of the finger 5 in the operation with respect to the input unit 11, the focus is instantaneously moved to the operation item i that is farther away, and by reducing the contact speed of the finger 5, It can be used to specify. In addition, the focus can be changed intuitively by a single operation by adjusting the operation on the input unit 11 by the user.

また、基点(例えば、操作項目i)から接触速度vの値に応じた距離の付近にある操作項目を特定する場合、入力部11に対する操作での指5の接触速度に応じた距離感を入力できるので、ユーザにとって操作項目iの操作がしやすくなる。   Further, when specifying an operation item in the vicinity of a distance corresponding to the value of the contact speed v from the base point (for example, the operation item i), a sense of distance corresponding to the contact speed of the finger 5 in the operation on the input unit 11 is input. This makes it easier for the user to operate the operation item i.

操作項目に対応する画像の画素に対して重み付けをし、基点から接触方向と角度情報とに応じた方向にある画素に対する重みに従い、接触速度vの値から順次減算し、接触速度vの値がゼロになる付近にある操作項目を特定する場合、操作項目iに応じて、フォーカスへの当てやすさを変えることができる。   The pixel of the image corresponding to the operation item is weighted, and sequentially subtracted from the value of the contact speed v according to the weight for the pixel in the direction corresponding to the contact direction and the angle information from the base point. When specifying an operation item near zero, the ease of focusing can be changed according to the operation item i.

(2.2 操作項目の形状の変形例)
次に、操作項目の形状の変形例について、図10および図11を用いて説明する。
図10および図11は、操作項目の形状の変形例を示す模式図である。
(2.2 Modification of shape of operation item)
Next, a modified example of the shape of the operation item will be described with reference to FIGS. 10 and 11.
10 and 11 are schematic diagrams illustrating modifications of the shape of the operation item.

図10および図11に示すように、操作項目iiの形状が矩形でない場合、操作項目iiが外接する矩形irや多角形ipを、上述の操作項目iとみなしてもよい。このように、操作項目ii自体の形状を、上述の操作項目iと同じように取り扱うことができる。なお、操作項目ii自体の形状を、上述の操作項目iとみなしてもよい。このように、矩形の操作項目でなくても適用できる。   As shown in FIGS. 10 and 11, when the shape of the operation item ii is not a rectangle, the rectangle ir or the polygon ip circumscribing the operation item ii may be regarded as the operation item i described above. Thus, the shape of the operation item ii itself can be handled in the same manner as the operation item i described above. Note that the shape of the operation item ii itself may be regarded as the operation item i described above. Thus, the present invention can be applied even if the operation item is not rectangular.

(2.3 フォーカスの移動先の特定の変形例)
次に、フォーカスの移動先の特定の変形例について、図12から図14を用いて説明する。
図12から図14は、表示部における操作項目の表示の一例を示す模式図である。
(2.3 Specific modification of focus destination)
Next, a specific modification of the focus movement destination will be described with reference to FIGS.
12 to 14 are schematic diagrams illustrating an example of display of operation items on the display unit.

まず、接触速度vの値から減算してゼロになる画素を求める部分の変形例として、式v=np+mqにおいて、図12に示すように、値mに対し、操作項目i毎に、値miを変えてもよい(線L上にある操作項目i4に対して値m4、操作項目i5に対して値m5)。なお、値mi(i=1、2、3、・・・)は、操作項目に対応する画像の画素に対する重みの一例である。   First, as a modification of the part for obtaining a pixel that becomes zero by subtracting from the value of the contact speed v, in the expression v = np + mq, as shown in FIG. 12, the value mi is set for each operation item i with respect to the value m. It may be changed (value m4 for operation item i4 on line L, value m5 for operation item i5). Note that the value mi (i = 1, 2, 3,...) Is an example of a weight for the pixel of the image corresponding to the operation item.

システム制御部16は、操作項目i1の中心oから減算して、v=np+m4q4+m5q5となる画素を求める。ここで、pは、操作項目i外を通過した画素数、q4は操作項目i4内を通過した画素数、q5は操作項目i5内を通過した画素数である。   The system control unit 16 subtracts from the center o of the operation item i1 to obtain a pixel where v = np + m4q4 + m5q5. Here, p is the number of pixels that have passed through the operation item i, q4 is the number of pixels that have passed through the operation item i4, and q5 is the number of pixels that have passed through the operation item i5.

この場合、miが高い操作項目iにフォーカスが当たりやすくなる。このように、操作項目i毎にフォーカスの当たりやすさを変えることができる。   In this case, it becomes easy to focus on the operation item i having a high mi. In this way, the ease of focusing can be changed for each operation item i.

また、値n、値mを使わず、単純に接触速度vの値に比例した距離の位置にある画素を、現フォーカスの操作項目i1の中心等から線L上にある画素から決定してもよい。例えば、ユーザが入力部11において、所定の閾値の速度に対して、指を早く動かすと、現フォーカスの操作項目i1から離れた操作項目iが特定され、所定の閾値の速度に対して、指をゆっくり動かすと、現フォーカスの操作項目i1に近い操作項目iが特定される。   Further, without using the values n and m, a pixel at a distance proportional to the value of the contact speed v is simply determined from the pixels on the line L from the center of the operation item i1 of the current focus. Good. For example, when the user quickly moves his / her finger at the input unit 11 with respect to a predetermined threshold speed, the operation item i away from the current focus operation item i1 is specified. Is slowly moved, the operation item i close to the operation item i1 of the current focus is specified.

この場合、速度と傾きから、シンプルにフォーカスの移動先が決定される。このような操作に慣れる(方向や力加減などを直感的にユーザが分かってくる)と、ユーザが、決めた場所にフォーカスを移動させやすくなる。   In this case, the focus destination is simply determined from the speed and inclination. When the user gets used to such an operation (when the user intuitively understands the direction and power adjustment), the user can easily move the focus to a predetermined place.

このように、操作制御装置10は、操作項目に対応する画像の画素に対して重み付けをする操作項目重付手段の一例として機能する。また、操作制御装置10は、基点から接触方向と角度情報とに応じた方向にある画素に対する重みに従い、接触速度の値から順次減算し、接触速度の値がゼロになる付近にある操作項目を特定する操作項目特定手段の一例として機能する。   As described above, the operation control device 10 functions as an example of an operation item weighting unit that weights the pixels of the image corresponding to the operation item. In addition, the operation control device 10 sequentially subtracts from the contact speed value according to the weight for the pixel in the direction corresponding to the contact direction and the angle information from the base point, and selects an operation item in the vicinity where the contact speed value becomes zero. It functions as an example of the operation item specifying means to be specified.

次に、図13に示すように、線Lに限らず、線L上を中心に角度θ3の範囲にある操作項目iの中から、操作項目iを特定してもよい。システム制御部16は、特定対象の候補を扇型に拡張し、その枠内に入っている画素を含む操作項目iを次フォーカス候補とする。例えば、システム制御部16は線Lを基準に角度θ3の範囲にあり、操作項目i1中心oを通る直線で、操作項目i4および操作項目i6を通る線を決め、この決められた線に対して、式v=np+mq等を適用してもよい。または、システム制御部16は線L上を基準に角度θ3の範囲にある操作項目iの中から、所定の閾値に対して、接触速度vの大小により、操作項目iを特定してもよい。   Next, as illustrated in FIG. 13, the operation item i may be specified from the operation item i that is not limited to the line L but is in the range of the angle θ3 with the line L as the center. The system control unit 16 expands the specific target candidate into a fan shape, and sets the operation item i including the pixels in the frame as the next focus candidate. For example, the system control unit 16 determines a line that passes through the operation item i4 and the operation item i6 as a straight line that passes through the center o of the operation item i1 within the range of the angle θ3 with respect to the line L. The equation v = np + mq may be applied. Alternatively, the system control unit 16 may specify the operation item i from the operation item i in the range of the angle θ3 with respect to the line L based on the magnitude of the contact speed v with respect to a predetermined threshold.

さらに、図13に示すように、角度θ4を、例えば、0°〜θ3までと可変にして、扇型に角度θ3で拡張した範囲を変えるようにしてもよい。さらにまた、角度θ3および角度θ4は、ステアリング30の傾きである角度θ2と関連付けて調節するようにしてもよい。例えば、ステアリング30を大きく回した場合、角度θ3が大きくなり、右に回した場合、角度θ4が0°に近づき、左に回した場合、角度θ4が角度θ3に近づくようにする。   Furthermore, as shown in FIG. 13, the angle θ4 may be varied from 0 ° to θ3, for example, and the range expanded in a sector shape at the angle θ3 may be changed. Furthermore, the angle θ3 and the angle θ4 may be adjusted in association with the angle θ2, which is the tilt of the steering wheel 30. For example, when the steering wheel 30 is turned largely, the angle θ3 becomes large. When the steering wheel 30 is turned right, the angle θ4 approaches 0 °. When the steering wheel 30 is turned counterclockwise, the angle θ4 approaches the angle θ3.

また、図14に示すように、線Lを基準にd1の幅の範囲にある操作項目iの中から、操作項目iを特定してもよい。システム制御部16は、特定対象の候補を帯状に拡張し、その帯内に入っている画素を含む操作項目iを次フォーカス候補とする。   Further, as shown in FIG. 14, the operation item i may be specified from among the operation items i in the range of the width d <b> 1 with respect to the line L. The system control unit 16 expands the specific target candidate into a band shape, and sets the operation item i including the pixels included in the band as the next focus candidate.

例えば、システム制御部16は線Lを基準に、幅d1の範囲にあり、線Lに平行で、操作項目i4および操作項目i6を通る線を決め、この決められた線に対して、式v=np+mq等を適用してもよい。または、システム制御部16は線Lを基準に幅d1の範囲にある操作項目iの中から、所定の閾値に対して、接触速度vの大小により、操作項目iを特定してもよい。   For example, the system control unit 16 determines a line that is in the range of the width d1 with respect to the line L, is parallel to the line L, and passes through the operation item i4 and the operation item i6. = Np + mq or the like may be applied. Alternatively, the system control unit 16 may specify the operation item i from the operation item i in the range of the width d1 with respect to the line L, based on the magnitude of the contact speed v with respect to a predetermined threshold.

さらに、図14に示すように、d2は0〜d1まで可変、d1の幅で拡張した範囲をずらすようにしてもよい。さらにまた、d1、d2は、ステアリング30の傾きであるθ2と関連付けて調節するようにしてもよい。例えば、ステアリング30を大きく回した場合、d1が大きくなり、右に回した場合、d2がゼロに近づき、左に回した場合、d2がd1に近づくようにしてもよい。   Furthermore, as shown in FIG. 14, d2 may be varied from 0 to d1, and the range expanded by the width of d1 may be shifted. Furthermore, d1 and d2 may be adjusted in association with θ2, which is the tilt of the steering wheel 30. For example, d1 may increase when the steering wheel 30 is turned large, d2 may approach zero when turned to the right, and d2 may approach d1 when turned to the left.

図13または図14に示すように、角度θ3や幅d1を用いることにより、線Lが広がり、小さな操作項目iも特定されやすくなる。   As shown in FIG. 13 or FIG. 14, by using the angle θ3 and the width d1, the line L is widened and a small operation item i is easily identified.

また、角度θ3、θ4や幅d1、d2を、ステアリング30の角度θ2と関連付けて調節する場合、角度θ2が大きくなればなるほど、入力部11が水平になっている状態よりもユーザが意図した方向へフォーカスを移動させにくくなると考えられる。しかし、ステアリング30の角度θ2に応じて、角度θ3、θ4や幅d1、d2等の各値を変えるように、接触方向(例えばθ1)と角度情報(例えばθ2)とに基づいた方向が、角度情報に応じた幅を有する場合、ステアリング30を回したことによる差異を吸収することができ、ユーザにとって操作項目iの操作がしやすくなる。また、ステアリング30の角度θ2に応じて、角度θ3、θ4や幅d1、d2を調節することにより、特定される候補の操作項目iを含む領域を変えることができる。   When the angles θ3 and θ4 and the widths d1 and d2 are adjusted in association with the angle θ2 of the steering wheel 30, the larger the angle θ2, the more the direction intended by the user than when the input unit 11 is horizontal. It is thought that it becomes difficult to move the focus to. However, the direction based on the contact direction (for example, θ1) and the angle information (for example, θ2) is changed to the angle so that the values of the angles θ3, θ4, the widths d1, d2, etc. are changed according to the angle θ2 of the steering wheel 30. In the case of having a width according to the information, it is possible to absorb the difference caused by turning the steering wheel 30, and the user can easily operate the operation item i. Further, by adjusting the angles θ3 and θ4 and the widths d1 and d2 according to the angle θ2 of the steering wheel 30, the region including the candidate operation item i to be identified can be changed.

なお、角度θ1からステアリング30の傾きθ2を差し引いてもよい。この場合、ステアリング30の傾きに関係なく、水平に対する指5の軌跡の傾きにより入力できる。   Note that the inclination θ2 of the steering wheel 30 may be subtracted from the angle θ1. In this case, the input can be made by the inclination of the trajectory of the finger 5 with respect to the horizontal regardless of the inclination of the steering wheel 30.

10:操作制御装置
10a:位置情報取得手段
10b:角度情報取得手段
10c:操作項目特定手段
11:入力部
15:傾きセンサ(角度情報取得手段)
16:システム制御部(位置情報取得手段、角度情報取得手段、操作項目特定手段)
20:操作対象
21:カーナビゲーション(操作対象)
21a:表示部
22:空調装置(操作対象)
23:オーディオ装置(操作対象)
i、i1、i2、i3、i4、i5、ii:操作項目
mi、m4、m5:値(重み)
DESCRIPTION OF SYMBOLS 10: Operation control apparatus 10a: Position information acquisition means 10b: Angle information acquisition means 10c: Operation item specification means 11: Input part 15: Inclination sensor (angle information acquisition means)
16: System control unit (position information acquisition means, angle information acquisition means, operation item specification means)
20: Operation target 21: Car navigation (operation target)
21a: Display unit 22: Air conditioner (operation target)
23: Audio device (operation target)
i, i1, i2, i3, i4, i5, ii: operation items mi, m4, m5: value (weight)

Claims (8)

ーザからの入力を受け付ける入力部の入力面が接触された位置情報を取得する位置情報取得手段と、
前記入力部の姿勢に関する角度情報を取得する角度情報取得手段と、
前記入力面が前記ユーザによって接触された際の接触速度を算出する接触速度算出手段と、
を備え、
前記位置情報と前記角度情報と前記接触速度とに基づき、表示部に表示された操作対象を前記ユーザが操作するための操作手段を制御することを特徴とする操作制御装置。
Position information acquisition means for acquiring the position information input surface of the input unit that receives an input from the User chromatography The is touched,
Angle information acquisition means for acquiring angle information related to the posture of the input unit;
Contact speed calculating means for calculating a contact speed when the input surface is touched by the user;
With
An operation control apparatus for controlling an operation means for the user to operate an operation target displayed on a display unit based on the position information, the angle information, and the contact speed .
請求項1に記載の操作制御装置において、
前記表示部に表示された複数の操作項目のうち、少なくとも一を特定する操作項目特定手段と、
前記位置情報から、前記接触された接触方向を算出する接触方向算出手段を更に備え、
前記操作項目特定手段が、前記接触方向算出手段により算出された接触方向と前記角度情報取得手段により取得した角度情報とに基づき、前記表示部において既に特定されている前記操作項目を基点に、次の前記操作項目を特定することを特徴とする操作制御装置。
The operation control device according to claim 1,
An operation item specifying means for specifying at least one of the plurality of operation items displayed on the display unit;
A contact direction calculating means for calculating the contacted contact direction from the position information;
Based on the operation item already specified in the display unit based on the contact direction calculated by the contact direction calculation unit and the angle information acquired by the angle information acquisition unit, the operation item specifying unit An operation control device that identifies the operation item.
請求項2に記載の操作制御装置において、
前記操作項目特定手段が、前記基点から前記接触方向と前記角度情報とに応じた方向にある前記操作項目の中から、前記接触速度算出手段により算出された接触速度に基づき、前記操作項目を特定することを特徴とする操作制御装置。
The operation control device according to claim 2,
The operation item specifying means specifies the operation item based on the contact speed calculated by the contact speed calculation means from among the operation items in a direction corresponding to the contact direction and the angle information from the base point. An operation control device.
請求項3に記載の操作制御装置において、
前記操作項目特定手段が、前記基点から前記接触速度の値に応じた距離の付近にある前記操作項目を特定することを特徴とする操作制御装置。
In the operation control device according to claim 3,
The operation control device is characterized in that the operation item specifying means specifies the operation item in the vicinity of a distance corresponding to a value of the contact speed from the base point.
請求項4に記載の操作制御装置において、
前記操作項目に対応する画像の画素に対して重み付けをする操作項目重付手段を更に備え、
前記操作項目特定手段が、前記基点から前記接触方向と前記角度情報とに応じた方向にある画素に対する重みに従い、前記接触速度の値から順次減算し、前記接触速度の値がゼロになる付近にある前記操作項目を特定することを特徴とする操作制御装置。
The operation control device according to claim 4,
An operation item weighting unit that weights the pixels of the image corresponding to the operation item;
The operation item specifying means sequentially subtracts from the value of the contact speed according to the weight for the pixel in the direction according to the contact direction and the angle information from the base point, and near the value of the contact speed becomes zero. An operation control apparatus that identifies the operation item.
請求項3から請求項5のいずれか1項に記載の操作制御装置において、
前記接触方向と前記角度情報とに応じた方向が、前記角度情報に応じた幅を有することを特徴とする操作制御装置。
In the operation control device according to any one of claims 3 to 5,
The operation control device according to claim 1, wherein a direction corresponding to the contact direction and the angle information has a width corresponding to the angle information.
表示部に表示された複数の操作項目に従いユーザが操作対象を操作する操作手段を制御するための操作制御装置の操作制御方法において、
前記ユーザからの入力を受け付ける入力部の入力面が接触された位置情報を取得する位置情報取得ステップと、
前記入力部の姿勢に関する角度情報を取得する角度情報取得ステップと、
前記入力面が前記ユーザによって接触された際の接触速度を算出する接触速度算出ステップと、
前記位置情報と前記角度情報と前記接触速度とに基づき、前記表示部に表示された前記操作対象を前記ユーザが操作するための操作手段を制御する制御ステップと、
を含むことを特徴とする操作制御方法。
In the operation control method of the operation control device for controlling the operation means for the user to operate the operation target according to the plurality of operation items displayed on the display unit,
A position information acquisition step of acquiring position information in which the input surface of the input unit that receives input from the user is in contact;
An angle information acquisition step of acquiring angle information related to the posture of the input unit;
A contact speed calculating step of calculating a contact speed when the input surface is touched by the user;
A control step for controlling an operation means for the user to operate the operation target displayed on the display unit based on the position information, the angle information, and the contact speed ;
The operation control method characterized by including.
コンピュータを、請求項1から請求項6のいずれか1項に記載の操作制御装置として機能させることを特徴とする操作制御装置用プログラム。   A program for an operation control device, which causes a computer to function as the operation control device according to any one of claims 1 to 6.
JP2012188848A 2012-08-29 2012-08-29 Operation control device, operation control method, and program for operation control device Active JP6014420B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012188848A JP6014420B2 (en) 2012-08-29 2012-08-29 Operation control device, operation control method, and program for operation control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012188848A JP6014420B2 (en) 2012-08-29 2012-08-29 Operation control device, operation control method, and program for operation control device

Publications (2)

Publication Number Publication Date
JP2014048721A JP2014048721A (en) 2014-03-17
JP6014420B2 true JP6014420B2 (en) 2016-10-25

Family

ID=50608387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012188848A Active JP6014420B2 (en) 2012-08-29 2012-08-29 Operation control device, operation control method, and program for operation control device

Country Status (1)

Country Link
JP (1) JP6014420B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11452223B2 (en) 2017-11-22 2022-09-20 Telefonaktiebolaget Lm Ericsson (Publ) Cable sealing assembly

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5971817B2 (en) 2014-06-20 2016-08-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Information processing apparatus, program, and method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0348922A (en) * 1989-07-18 1991-03-01 Kokusai Denshin Denwa Co Ltd <Kdd> Pointing cursor predictive moving device
JPH09330177A (en) * 1996-06-12 1997-12-22 Nec Corp Object specifying device
JP3156619B2 (en) * 1997-02-04 2001-04-16 日本電気株式会社 Mouse cursor movement control system
JP4300430B2 (en) * 2006-05-01 2009-07-22 ソニー株式会社 Information processing apparatus and image display method
JP2008077651A (en) * 2007-09-11 2008-04-03 Sony Corp Information processing system, remote control device and recording medium
JP2011080828A (en) * 2009-10-06 2011-04-21 Aisin Aw Co Ltd Input position setting device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11452223B2 (en) 2017-11-22 2022-09-20 Telefonaktiebolaget Lm Ericsson (Publ) Cable sealing assembly
US11665842B2 (en) 2017-11-22 2023-05-30 Telefonaktiebolaget Lm Ericsson (Publ) Cable sealing assembly

Also Published As

Publication number Publication date
JP2014048721A (en) 2014-03-17

Similar Documents

Publication Publication Date Title
EP3042275B1 (en) Tilting to scroll
US8886399B2 (en) System and method for controlling a vehicle user interface based on gesture angle
EP2812773B1 (en) Portable device and method for controlling the same
US9092070B2 (en) Method and apparatus for scrolling a screen in a display apparatus
US20130342456A1 (en) Remote control apparatus and control method thereof
US20060164382A1 (en) Image manipulation in response to a movement of a display
EP2341419A1 (en) Device and method of control
CN101813982A (en) Electronic device with motion response function and method for excusing input operation using same
KR20150000632A (en) Portable device and controlling method thereof
JP2010211500A (en) Operation device
TW201028913A (en) Input apparatus, control apparatus, control system, electronic apparatus, and control method
KR101872272B1 (en) Method and apparatus for controlling of electronic device using a control device
TW201423564A (en) Display device, method of driving a display device and computer
US20120075348A1 (en) Information Processing Apparatus, Information Processing Terminal, Information Processing Method and Computer Program
JP6100497B2 (en) Information processing program, information processing apparatus, information processing system, and image display method
JP7338184B2 (en) Information processing device, information processing system, moving body, information processing method, and program
KR20150011885A (en) User Interface Providing Method for Device and Device Thereof
JP6014420B2 (en) Operation control device, operation control method, and program for operation control device
KR20100136289A (en) A display controlling method for a mobile terminal
JP6033465B2 (en) Display control device
KR101296599B1 (en) Method and apparatus for displaying of image data
CN107111930B (en) Display device and control method thereof
WO2014151054A2 (en) Systems and methods for vehicle user interface
JP6297353B2 (en) Communication system, portable communication terminal, electronic device, and program
US8731824B1 (en) Navigation control for a touch screen user interface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R150 Certificate of patent or registration of utility model

Ref document number: 6014420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150