JP2014002571A - User identification device and user identification method - Google Patents

User identification device and user identification method Download PDF

Info

Publication number
JP2014002571A
JP2014002571A JP2012137578A JP2012137578A JP2014002571A JP 2014002571 A JP2014002571 A JP 2014002571A JP 2012137578 A JP2012137578 A JP 2012137578A JP 2012137578 A JP2012137578 A JP 2012137578A JP 2014002571 A JP2014002571 A JP 2014002571A
Authority
JP
Japan
Prior art keywords
user
identification
contact
control unit
symbols
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012137578A
Other languages
Japanese (ja)
Inventor
Megumi Ai
めぐみ 藍
Masahiko Tawara
雅彦 田原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012137578A priority Critical patent/JP2014002571A/en
Publication of JP2014002571A publication Critical patent/JP2014002571A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a user identification device and a user identification method which can properly identify a user.SOLUTION: A control unit 10 identifies a user operation pattern on the basis of the progress of two contact points detected by a detection unit 32 when a user has moved two operation symbols through contact operation. The control unit 10 searches a user identification database on the basis of the identified user operation pattern, thereby identifying a user having operated the operation symbols.

Description

本発明は、ユーザ識別装置及びその方法に関する。   The present invention relates to a user identification device and method.

例えば特許文献1には、ユーザの識別を行い、その結果に応じて警告信号を出力する車両用ナビゲーション装置が開示されている。具体的には、車両用ナビゲーション装置は、メカニカルスイッチや、タッチパネル上に表されたスイッチの種類毎の操作回数に基づいて、ユーザの識別を行う。すなわち、この装置は、当該装置を使用する一連の期間においてユーザが行う操作には、ユーザ毎に、癖や好みに応じた偏りがあることに着目し、表示地図の拡大や縮小、テレビ受信、音楽演奏、アプリケーション選択及び設定開始といった各種の機能が割り当てられたスイッチに関する操作を統計処理する。これにより、ユーザが任意に行う不特定な操作行為を通して、ユーザのユニークな操作傾向を抽出し、これに基づいてユーザを識別することとしている。   For example, Patent Document 1 discloses a vehicle navigation apparatus that identifies a user and outputs a warning signal according to the result. Specifically, the vehicular navigation device identifies the user based on the number of operations for each type of mechanical switch or switch displayed on the touch panel. That is, this device pays attention to the fact that the operations performed by the user during a series of periods in which the device is used are biased according to wrinkles and preferences for each user. Statistical processing is performed on operations related to switches to which various functions such as music performance, application selection, and setting start are assigned. Thereby, the user's unique operation tendency is extracted through an unspecified operation act arbitrarily performed by the user, and the user is identified based on this.

特開2006−21604号公報JP 2006-21604 A

しかしながら、癖や好みは流動的であり、同一人物であっても時間、場所、場合が異なる状況では操作傾向が相違することがある。例えば、平日に通勤で使用する場合には、慣れた道のりを運転するシーンであるため、ナビゲーション装置に対する操作頻度は少ないものの、週末や休暇で使用する場合には、不慣れな道のりを運転するシーンであるため、ナビゲーション装置に対する操作頻度が多くなるといった如くである。そのため、特許文献1に開示された手法によれば、同一人の操作傾向であっても、状況によってはこれを別人として認識してしまう虞がある。   However, the habits and preferences are fluid, and even the same person may have different operating tendencies in situations where time, place, and case are different. For example, when using it for commuting on weekdays, it is a scene that drives a familiar route, so although the operation frequency for the navigation device is low, it is a scene that drives an unfamiliar route when used on weekends or on holidays. Therefore, the operation frequency for the navigation device is increased. Therefore, according to the technique disclosed in Patent Document 1, even if the operation tendency is the same person, there is a possibility that it may be recognized as a different person depending on the situation.

本発明はかかる事情に鑑みてなされたものであり、その目的は、ユーザを適格に識別することが可能な手法を提供することである。   The present invention has been made in view of such circumstances, and an object thereof is to provide a technique capable of properly identifying a user.

かかる課題を解決するために、本発明は、接触操作を通じてユーザが複数の操作シンボルを動かした際に、検出部によって検出される複数の接触点の推移に基づいてユーザの操作パターンを特定する。そして、特定されたユーザの操作パターンに基づいてユーザ識別データベースを検索することにより、複数の操作シンボルを操作したユーザを識別する。   In order to solve such a problem, the present invention specifies a user operation pattern based on transition of a plurality of contact points detected by a detection unit when a user moves a plurality of operation symbols through a contact operation. Then, the user who operated the plurality of operation symbols is identified by searching the user identification database based on the specified user operation pattern.

本発明によれば、かかる構成によれば、操作シンボルを動かす操作を要求することで、ユーザに対し特定の接触操作の実行を促すことができるので、操作パターンに対する再現性が確保されることとなる。そのため、時間、場所、場合が異なる状況であっても、操作パターンの同一性が担保されることとなるので、ユーザが誤って識別されるという事態を抑制することができる。また、複数の接触操作を要求することで、特定される操作パターンにはユーザを識別する要素が多重的に含まれることとなる。これにより、当該操作パターンを用いることで、異なるユーザを同一視することなく有効に切り分けることができるので、ユーザを適格に識別することが可能となる。   According to the present invention, according to this configuration, the user can be prompted to perform a specific contact operation by requesting an operation to move the operation symbol, so that reproducibility of the operation pattern is ensured. Become. Therefore, even if the time, place, and situation are different, the identity of the operation pattern is ensured, so that a situation in which the user is erroneously identified can be suppressed. Further, by requesting a plurality of contact operations, the specified operation pattern includes multiple elements for identifying the user. Thereby, by using the said operation pattern, since a different user can be separated effectively without equating, it becomes possible to identify a user appropriately.

車両用ナビゲーション装置が適用された車両のシステム構成を模式的にブロック図A block diagram schematically showing a system configuration of a vehicle to which a vehicle navigation device is applied. 本実施形態に係るユーザ識別手法の詳細を示すフローチャートThe flowchart which shows the detail of the user identification method which concerns on this embodiment ディスプレイに表示される識別用画面の一例を示す説明図Explanatory drawing which shows an example of the screen for identification displayed on a display 接触点の確定処理の詳細を示すフローチャートFlow chart showing details of contact point determination processing ユーザ識別データベースの内容を示す説明図Explanatory drawing showing the contents of the user identification database 照合処理の詳細を示すフローチャートFlow chart showing details of verification processing 個人設定データベースの内容を示す説明図Explanatory diagram showing the contents of the personal settings database ディスプレイに表示される識別用画面の一例を示す説明図Explanatory drawing which shows an example of the screen for identification displayed on a display ディスプレイに表示される識別用画面の一例を示す説明図Explanatory drawing which shows an example of the screen for identification displayed on a display

図1は、車両用ナビゲーション装置が適用された車両のシステム構成を模式的にブロック図である。車両用ナビゲーション装置は、自車両の位置、自車両周辺の地図、目的地までの経路といったナビゲーション情報をユーザ(典型的にはドライバー)に提示する機能を担っている。また、後述するように、車両ナビゲーション装置には、当該装置を使用するユーザを識別するためのユーザ識別装置が組み込まれている。この車両用ナビゲーション装置は、コントロールユニット10を主体に構成されている。   FIG. 1 is a block diagram schematically showing a system configuration of a vehicle to which a vehicle navigation device is applied. The vehicle navigation apparatus has a function of presenting navigation information such as the position of the host vehicle, a map around the host vehicle, and a route to the destination to a user (typically a driver). Further, as will be described later, a user identification device for identifying a user who uses the device is incorporated in the vehicle navigation device. This vehicle navigation apparatus is mainly configured by a control unit 10.

コントロールユニット10には、車速センサ11、GPSアンテナ12及びジャイロセンサ13が接続されている。また、コントロールユニット10には、ディスプレイ20、操作入力部30、記憶媒体40が接続されている。さらに、コントロールユニット10には、オーディオ装置50が接続され、また、例えば車内LANを介して、後部座席オーディオ装置60や車室内ECU70が接続されている。さらに、コントロールユニット10には、通信装置80が接続されている。   A vehicle speed sensor 11, a GPS antenna 12, and a gyro sensor 13 are connected to the control unit 10. In addition, a display 20, an operation input unit 30, and a storage medium 40 are connected to the control unit 10. Furthermore, an audio device 50 is connected to the control unit 10, and a rear seat audio device 60 and a vehicle interior ECU 70 are connected via, for example, an in-vehicle LAN. Further, a communication device 80 is connected to the control unit 10.

車速センサ11は、車両の速度を検出するセンサであり、GPSアンテナ12は、GPS衛星からの信号を受信するアンテナである。ジャイロセンサ13は、自律航法を用いて自車両の位置を測位するためのセンサである。コントロールユニット10は、これらのセンサ11〜13からの検出結果に基づいて、自車両の位置を検出することができる。   The vehicle speed sensor 11 is a sensor that detects the speed of the vehicle, and the GPS antenna 12 is an antenna that receives a signal from a GPS satellite. The gyro sensor 13 is a sensor for measuring the position of the host vehicle using autonomous navigation. The control unit 10 can detect the position of the host vehicle based on the detection results from these sensors 11 to 13.

ディスプレイ20は、所定の映像を表示する表示装置であり、例えば液晶ディスプレイ等を用いることができる。ディスプレイ20は、例えば車両のインストルメントパネルに配設されている。ユーザは、ディスプレイ20に表示される情報を通じて、ナビゲーション情報やその他の情報を認識することができる。   The display 20 is a display device that displays a predetermined image. For example, a liquid crystal display or the like can be used. The display 20 is disposed on, for example, an instrument panel of a vehicle. The user can recognize navigation information and other information through information displayed on the display 20.

操作入力部30は、ユーザにより操作されるユーザインターフェースであり、タッチパネル31と、検出部32とを主体に構成されている。タッチパネル31は、ディスプレイ20上に積層されており、タッチパネル31表面へのユーザの接触操作を受け付けると、当該接触操作に応じて所定の信号を出力する。検出部32は、タッチパネル31から出力される信号に基づいて、ユーザの接触操作に対応するタッチパネル31上の接触点を検出する。検出される接触点は、例えば2次元座標として定義される。検出部3は周期的に接触点を検出しており、この情報をコントロールユニット10に対して出力する。   The operation input unit 30 is a user interface operated by a user, and mainly includes a touch panel 31 and a detection unit 32. The touch panel 31 is laminated on the display 20 and outputs a predetermined signal according to the contact operation when a user's contact operation on the surface of the touch panel 31 is received. The detection unit 32 detects a contact point on the touch panel 31 corresponding to the user's contact operation based on a signal output from the touch panel 31. The detected contact point is defined as two-dimensional coordinates, for example. The detection unit 3 periodically detects contact points, and outputs this information to the control unit 10.

本実施形態において、タッチパネル31への接触操作の方法としては、ユーザの体の一部(代表的には指)で行われることを前提として説明を行うが、ペンタイプといった操作具によるものであってもよい。指によって接触操作した場合、接触点は、タッチパネル31と接触している指先の範囲のすべてを指すものとし、ある程度の面積をもつことになる。この場合、当該接触点は、指先の範囲に含まれる2次元座標の集合体として検出される
。また、ユーザが複数の指で同時に接触操作を行った場合には、個々の指に対応する複数の接触点が同時に検出される。
In the present embodiment, the touch operation on the touch panel 31 will be described on the assumption that it is performed on a part of the user's body (typically a finger). May be. When a touch operation is performed with a finger, the contact point indicates the entire range of the fingertip that is in contact with the touch panel 31 and has a certain area. In this case, the contact point is detected as an aggregate of two-dimensional coordinates included in the fingertip range. Further, when the user performs a contact operation with a plurality of fingers at the same time, a plurality of contact points corresponding to the individual fingers are simultaneously detected.

記憶媒体40は、所定の容量を備える記憶装置であり、ハードディスク装置や、フラッシュメモリ等を用いることができる。この記憶媒体40には、地図情報が格納されている。地図情報は、ナビゲーション用の地図データが位置情報とともに関連付けられたデータベースである。地図データは、道路上の特定地点を表すノードと、特定地点間の接続を表す道路リンクとで構成される道路データとで構成されている。地図データにおいて、地図上の各道路は交差・分岐・合流地点等に対応する複数のノードによって分割されており、それぞれのノード間を道路リンクとして規定する。これにより、ノードを介して各道路リンクを接続することで道路が構成される。道路リンクは、リンク毎に固有の番号が付されたリンクID、リンクの長さを示すリンク長、リンクの始端及び終端ノード座標(緯度・経度)、道路名称、道路幅員等のデータから構成される。ノードは、ノード毎に固有の番号が付されたノードID、ノード座標、ノード名称、ノードに接続する全ての道路リンクのリンクIDが記述される接続リンクIDなどのデータから構成されている。   The storage medium 40 is a storage device having a predetermined capacity, and a hard disk device, a flash memory, or the like can be used. This storage medium 40 stores map information. The map information is a database in which map data for navigation is associated with position information. The map data is composed of road data composed of nodes representing specific points on the road and road links representing connections between the specific points. In the map data, each road on the map is divided by a plurality of nodes corresponding to intersections, branches, merging points, etc., and each node is defined as a road link. Thereby, a road is comprised by connecting each road link via a node. A road link is composed of data such as a link ID with a unique number for each link, a link length indicating the length of the link, link start and end node coordinates (latitude / longitude), road name, road width, and the like. The A node is composed of data such as a node ID, a node coordinate, a node name, and a link ID of all road links connected to the node.

また、記憶媒体40は、地図情報以外にも、コントロールユニット10によって実行される制御プログラムや、音楽データ等も格納している。さらに記憶媒体40は、後述するユーザ識別データベース41や、個人設定データベース42を格納している。   In addition to the map information, the storage medium 40 stores a control program executed by the control unit 10, music data, and the like. Further, the storage medium 40 stores a user identification database 41 and a personal setting database 42 which will be described later.

オーディオ装置50は、CDや記憶媒体40に格納された音楽データを再生したり、AM、FMラジオを再生したりして、これをスピーカ(図示せず)から出力する。また、後部座席オーディオ装置60は、後部座席に設けられており、音楽データ等を再生し、これをスピーカから出力したり、DVDの再生やテレビを受信して、これをスピーカや後部座席のディスプレイに出力したりする。車室内ECU70は、例えば空調装置を制御することにより、車室内の温度制御を行う。   The audio device 50 reproduces music data stored in a CD or a storage medium 40, or reproduces AM or FM radio, and outputs it from a speaker (not shown). Further, the rear seat audio device 60 is provided in the rear seat, reproduces music data and outputs it from a speaker, or plays a DVD or receives a television, and displays it on a speaker or rear seat display. Or output to The vehicle interior ECU 70 controls the temperature of the vehicle interior by controlling the air conditioner, for example.

通信装置80は、外部サーバ100とデータ通信を行うための通信インターフェースであり、外部サーバ100に情報を送信する送信手段及び外部サーバ100から情報を受信する受信手段として機能する。通信装置80としては、車両用ナビゲーション装置に備え付けられた専用の無線通信装置であってもよいし、例えば、携帯電話といったデータ通信機能を備えた携帯端末装置を外付けで利用するようにしてもよい。   The communication device 80 is a communication interface for performing data communication with the external server 100, and functions as a transmission unit that transmits information to the external server 100 and a reception unit that receives information from the external server 100. As the communication device 80, a dedicated wireless communication device provided in the vehicle navigation device may be used. For example, a mobile terminal device having a data communication function such as a mobile phone may be used externally. Good.

コントロールユニット10としては、CPU、ROM、RAM、I/Oインターフェースを主体に構成されたマイクロコンピュータを用いることができる。コントロールユニット10は、主として、車両用ナビゲーション装置を制御する機能を担っており、例えば、ナビゲーション情報を生成したり、これをユーザに提示したりする。   As the control unit 10, a microcomputer mainly composed of a CPU, a ROM, a RAM, and an I / O interface can be used. The control unit 10 mainly has a function of controlling the vehicle navigation device. For example, the control unit 10 generates navigation information or presents it to the user.

また、本実施形態との関係において、コントロールユニット10は、車両用ナビゲーション装置に適用されたユーザ識別装置を制御する機能を担っている。すなわち、コントロールユニット10は、タッチパネル31を用いた一定の接触操作をユーザに促し、その操作パターンを特定することにより、車両用ナビゲーション装置を操作するユーザを識別する。   In relation to the present embodiment, the control unit 10 has a function of controlling the user identification device applied to the vehicle navigation device. That is, the control unit 10 prompts the user to perform a certain contact operation using the touch panel 31, and identifies the operation pattern to identify the user who operates the vehicle navigation device.

具体的には、コントロールユニット10は、ディスプレイ20を制御することにより、それぞれがユーザの接触操作に対応して画面上を移動可能な複数の操作シンボルをディスプレイ20に表示させる(シンボル制御部)。このような表示に応答し、ユーザが接触操作を通じて複数の操作シンボルを動かした際に、コントロールユニット10は、検出部32によって検出される複数の接触点の推移に基づいてユーザの操作パターンを特定する(特定部)。そして、コントロールユニット10は、特定された操作パターンに基づいて、
記憶媒体40に格納されてユーザ識別データベース41を検索することにより、タッチパネル31を操作したユーザを識別する(識別部)。
Specifically, the control unit 10 controls the display 20 to display on the display 20 a plurality of operation symbols that can move on the screen in response to the user's contact operation (symbol control unit). In response to such a display, when the user moves a plurality of operation symbols through the contact operation, the control unit 10 identifies the user's operation pattern based on the transition of the plurality of contact points detected by the detection unit 32. (Specific part) And the control unit 10 is based on the identified operation pattern.
The user who operated the touch panel 31 is identified by searching the user identification database 41 stored in the storage medium 40 (identification unit).

図2は、本実施形態に係るユーザ識別手法の詳細を示すフローチャートである。このフローチャートに示す処理は、車両用ナビゲーション装置の起動時に、コントロールユニット10によって実行される。例えば車両のイグニッションスイッチのオンに連動して車両用ナビゲーション装置が起動する場合には、その起動時に実行される。これにより、ユーザによる車両用ナビゲーション装置の使用開始に先立ち、ユーザ識別処理が実行されることとなる。   FIG. 2 is a flowchart showing details of the user identification method according to the present embodiment. The process shown in this flowchart is executed by the control unit 10 when the vehicle navigation device is activated. For example, when the vehicle navigation device is activated in conjunction with turning on the ignition switch of the vehicle, it is executed at the time of activation. As a result, the user identification process is executed prior to the start of use of the vehicle navigation device by the user.

まず、ステップ10(S10)において、コントロールユニット10は、新規登録の選択画面をディスプレイ21に表示する。新規登録の選択画面は、車両用ナビゲーション装置を利用するユーザとしての新規登録、すなわち、ユーザ識別データベース41へのユーザの登録を行うか否かの選択をユーザに促すための画面である。ユーザは、この選択画面の表示に対応してタッチパネル31を接触操作することにより、ユーザの新規登録の要否を選択することができる。   First, in step 10 (S10), the control unit 10 displays a new registration selection screen on the display 21. The new registration selection screen is a screen for prompting the user to select whether or not to perform new registration as a user who uses the vehicle navigation apparatus, that is, to register the user in the user identification database 41. The user can select whether or not new registration of the user is necessary by touching the touch panel 31 corresponding to the display of the selection screen.

ステップ11(S11)において、コントロールユニット10は、ユーザが新規登録を選択したか否かを判断する。このステップ11において否定判定された場合、すなわち、ユーザが新規登録を選択しなかった場合には、ステップ12(S12)に進む。一方、ステップ11において肯定判定された場合、すなわち、ユーザが新規登録を選択した場合には、後述するステップ20(S20)に進む。   In step 11 (S11), the control unit 10 determines whether or not the user has selected new registration. If a negative determination is made in step 11, that is, if the user has not selected new registration, the process proceeds to step 12 (S12). On the other hand, if an affirmative determination is made in step 11, that is, if the user selects a new registration, the process proceeds to step 20 (S20) described later.

ステップ12において、コントロールユニット10は、識別用画面を表示する。この識別用画面は、ユーザの識別を行うことを目的として、タッチパネル31への一定の接触操作をユーザに促すための画面である。   In step 12, the control unit 10 displays an identification screen. This identification screen is a screen for prompting the user to perform a certain touch operation on the touch panel 31 for the purpose of identifying the user.

図3は、ディスプレイ20に表示される識別用画面の一例を示す説明図である。本実施形態では、2本の指を使った接触操作をユーザに促すこととし、識別用画面は、操作指の本数に対応した2つの操作シンボルSb1,Sb2と、ガイド用シンボルSaとで構成されている。   FIG. 3 is an explanatory diagram illustrating an example of an identification screen displayed on the display 20. In the present embodiment, the user is prompted to perform a contact operation using two fingers, and the identification screen includes two operation symbols Sb1 and Sb2 corresponding to the number of operation fingers and a guide symbol Sa. ing.

ここで、2つの操作シンボルSb1,Sb2のそれぞれは、ユーザの2本の指による接触操作に対応して、画面上を移動可能に構成されている。具体的には、2つの操作シンボルSb1,Sb2と位置的に対応して2本の指がタッチパネル31にそれぞれ接触され、その接触状態のまま個々の指がそれぞれ動かされることにより、これらの操作シンボルSb1,Sb2は、個々の指の動きに追従して画面上をそれぞれ移動することとなる。これらの操作シンボルSb1,Sb2は、ユーザの識別を目的として操作する操作手段であり、ユーザを識別する際に操作する以外に、他の機能を目的として操作するものではない専用の操作手段として機能する。一方、ガイド用シンボルSaは、2つの操作シンボルSb1,Sb2に対するユーザの接触操作をガイドするためのものである。   Here, each of the two operation symbols Sb1 and Sb2 is configured to be movable on the screen in response to a contact operation by the user's two fingers. Specifically, two fingers are brought into contact with the touch panel 31 in a position corresponding to the two operation symbols Sb1 and Sb2, and the individual fingers are moved in the contact state, so that these operation symbols are moved. Sb1 and Sb2 respectively move on the screen following the movement of each finger. These operation symbols Sb1 and Sb2 are operation means operated for the purpose of identifying the user, and function as dedicated operation means that are not operated for the purpose of other functions besides being operated when identifying the user. To do. On the other hand, the guide symbol Sa is for guiding the user's contact operation with respect to the two operation symbols Sb1 and Sb2.

例えば、識別用画面は、初期状態として、2つの操作シンボルSb1,Sb2が、円形状のガイド用シンボルSaの円周内にそれぞれ位置した状態となっている。ユーザは、かかる識別用画面の表示にともない、いずれか一方の操作シンボルSb1,Sb2がガイド用シンボルSaの円周外に位置するように操作シンボルSb1,Sb2をそれぞれ自由に動かす(同図(a)参照)、といった接触操作を2つの指によって行う。なお、この接触操作は、当該接触操作に起因する操作パターンを通じてユーザを識別するものであるから、ユーザには、ユーザ識別データベース41に登録される操作パターンの基本データと対応するように、再現性をもって接触操作をすることが要求される。   For example, the identification screen is in a state where two operation symbols Sb1 and Sb2 are positioned within the circumference of the circular guide symbol Sa as an initial state. As the identification screen is displayed, the user freely moves the operation symbols Sb1 and Sb2 so that any one of the operation symbols Sb1 and Sb2 is located outside the circumference of the guide symbol Sa (see FIG. )) Is performed with two fingers. Since this contact operation identifies the user through an operation pattern resulting from the contact operation, the user is provided with reproducibility so as to correspond to the basic data of the operation pattern registered in the user identification database 41. The contact operation is required.

ステップ13(S13)において、コントロールユニット10は、2本の指に対応して、2点の接触点が検出されたか否かを判断する。このステップ13において肯定判定された場合、すなわち、2点の接触点が検出された場合には、ステップ14(S14)に進む。一方、ステップ13において否定判定された場合、すなわち、接触点が検出されない又は1点の接触点しか検出されていない場合には、ステップ12の処理に戻り、識別用画面を再度表示する。   In step 13 (S13), the control unit 10 determines whether or not two contact points have been detected corresponding to the two fingers. If an affirmative determination is made in step 13, that is, if two contact points are detected, the process proceeds to step 14 (S14). On the other hand, if a negative determination is made in step 13, that is, if no contact point is detected or if only one contact point is detected, the process returns to step 12 and the identification screen is displayed again.

ステップ14において、コントロールユニット10は、制御パラメータNを初期値である「1」にセットするとともに、制御パラメータNmaxを、操作シンボルSb1,Sb2の個数に対応する「2」にセットする。   In step 14, the control unit 10 sets the control parameter N to “1” which is an initial value, and sets the control parameter Nmax to “2” corresponding to the number of operation symbols Sb1 and Sb2.

ステップ15(S15)において、コントロールユニット10は、制御パラメータNに対応する接触点(以下「接触点N」という)を対象として、当該接触点Nの確定処理を行う。この確定処理は、接触点Nの推移を確定するための処理である。2本の指を用いて接触操作を行った場合には、一方の指に対応する接触点N(例えばN=1)と、他方の指に対応する接触点N(例えばN=2)とが存在するため、これらの各接触点Nを一つずつ選択して確定処理を実行することとしている。   In step 15 (S15), the control unit 10 performs a determination process for the contact point N for the contact point corresponding to the control parameter N (hereinafter referred to as “contact point N”). This confirmation process is a process for confirming the transition of the contact point N. When a contact operation is performed using two fingers, a contact point N (for example, N = 1) corresponding to one finger and a contact point N (for example, N = 2) corresponding to the other finger are obtained. Since these exist, each of these contact points N is selected one by one and the confirmation process is executed.

ここで、図4は、接触点の確定処理の詳細を示すフローチャートである。まず、ステップ30(S30)において、コントロールユニット10は、接触点Nのデータを読み込む。図3(b)は、同図(a)に示す接触操作に対応する接触点の推移を概念的に示す説明図である。同図(b)に示すように、2本の指を用いて接触操作した場合には、一方の指に対応する接触点N(例えばN=1)のデータTP1と、他方の指に対応する接触点N(例えばN=2)のデータTP2とが存在する。また、個々の接触点NのデータTP1,TP2は、指の接触操作期間に対応して時系列的に検出される接触点を複数含んで構成されている(以下、ある接触点NのデータTP1,TP2において、ある検出タイミングに相当する接触点を「構成点」という)。   FIG. 4 is a flowchart showing details of the contact point determination process. First, in step 30 (S30), the control unit 10 reads the data of the contact point N. FIG.3 (b) is explanatory drawing which shows notionally transition of the contact point corresponding to the contact operation shown to the same figure (a). As shown in FIG. 5B, when a contact operation is performed using two fingers, data TP1 of a contact point N (for example, N = 1) corresponding to one finger and the other finger are corresponded. There is data TP2 of the contact point N (for example, N = 2). The data TP1 and TP2 of each contact point N includes a plurality of contact points detected in time series corresponding to the finger touch operation period (hereinafter, data TP1 of a certain contact point N). , TP2, a contact point corresponding to a certain detection timing is referred to as “composition point”).

このステップ30では、例えば、制御パラメータNが「1」であれば、一方の指に対応する接触点N(=1)のデータTP1が読み込まれ、制御パラメータNが「2」であれば、他方の指に対応する接触点N(=2)のデータTP2が読み込まれる。   In this step 30, for example, if the control parameter N is “1”, the data TP1 of the contact point N (= 1) corresponding to one finger is read, and if the control parameter N is “2”, the other The data TP2 of the contact point N (= 2) corresponding to the finger is read.

ステップ31(S31)において、コントロールユニット10は、制御パラメータMを初期値である「1」にセットする。   In step 31 (S31), the control unit 10 sets the control parameter M to the initial value “1”.

ステップ32(S32)において、コントロールユニット10は、制御パラメータMに対応する構成点を抽出する。例えば、制御パラメータMが「1」であれば、第1構成点、すなわち、時系列的に最も早いタイミングで検出された接触点が抽出され、制御パラメータMが「2」であれば、第2構成点、具体的には時系列的に2番目に早いタイミングで検出された接触点が抽出される。   In step 32 (S32), the control unit 10 extracts a configuration point corresponding to the control parameter M. For example, if the control parameter M is “1”, the first component point, that is, the contact point detected at the earliest timing in time series is extracted, and if the control parameter M is “2”, the second A constituent point, specifically, a contact point detected at the second earliest timing in time series, is extracted.

ステップ33(S33)において、コントロールユニット10は、制御パラメータMが「1」であるか否かを判断する。このステップ33において肯定判定された場合、すなわち、制御パラメータMが「1」である場合には、ステップ34(S34)に進む。一方、ステップ33において否定判定された場合、すなわち、制御パラメータMが「1」よりも大きい場合には、後述するステップ37(S37)に進む。   In step 33 (S33), the control unit 10 determines whether or not the control parameter M is “1”. If an affirmative determination is made in step 33, that is, if the control parameter M is “1”, the process proceeds to step 34 (S 34). On the other hand, if a negative determination is made in step 33, that is, if the control parameter M is larger than “1”, the process proceeds to step 37 (S37) described later.

ステップ34において、コントロールユニット10は、第1構成点の確定処理を行う。具体的には、コントロールユニット10は、第1構成点に基づいて、この構成点の情報、
具体的には、「代表座標C1」、「初期時間T1」、「構成点の面積A1」を確定する。
In step 34, the control unit 10 performs a process for determining the first component point. Specifically, the control unit 10 determines the information on this configuration point based on the first configuration point,
Specifically, “representative coordinates C1”, “initial time T1”, and “composition point area A1” are determined.

具体的には、「代表座標C1」は、第1構成点の位置を示す座標であり、個々の構成点が指先の範囲に相当する2次元座標の集合体からなる場合には、例えばその範囲の中心座標(X1,Y1)が設定される。また、初期時間T1は、第1構成点に関する検出部32の検出タイミングである。さらに、第1構成点の面積A1は、指先の範囲に相当する2次元座標から演算される。   Specifically, the “representative coordinates C1” are coordinates indicating the position of the first component point. When each component point is composed of a set of two-dimensional coordinates corresponding to the range of the fingertip, for example, the range Center coordinates (X1, Y1) are set. The initial time T1 is a detection timing of the detection unit 32 regarding the first composing point. Furthermore, the area A1 of the first component point is calculated from two-dimensional coordinates corresponding to the range of the fingertip.

ステップ35(S35)において、コントロールユニット10は、制御パラメータMの現在値が、制御パラメータMmax、すなわち、読み込んだ接触点NのデータTP1,TP2を構成する構成点の最大数に到達したか否かを判断する。このステップ35において肯定判定された場合、すなわち、制御パラメータMの現在値が制御パラメータMmaxに到達した場合には、後述するステップ38(S38)に進む。一方、ステップ35において否定判定された場合、すなわち、制御パラメータMの現在値が制御パラメータMmaxに到達していない場合には、ステップ36(S36)に進む。   In step 35 (S35), the control unit 10 determines whether or not the current value of the control parameter M has reached the control parameter Mmax, that is, the maximum number of constituent points constituting the read data TP1 and TP2 of the contact point N. Judging. If an affirmative determination is made in step 35, that is, if the current value of the control parameter M has reached the control parameter Mmax, the process proceeds to step 38 (S38) described later. On the other hand, if a negative determination is made in step 35, that is, if the current value of the control parameter M has not reached the control parameter Mmax, the process proceeds to step 36 (S36).

ステップ36において、コントロールユニット10は、制御パラメータMを「1」だけインクリメントする。   In step 36, the control unit 10 increments the control parameter M by “1”.

ステップ37において、コントロールユニット10は、第M構成点の確定処理を行う。具体的には、コントロールユニット10は、第M構成点に基づいて、この構成点の情報、具体的には、「代表座標Cm」、「移動距離Dm」、「移動時間Tm」、「移動速度Sm」及び「接触面積合計A」を確定する。   In step 37, the control unit 10 performs a determination process for the Mth component point. Specifically, based on the Mth component point, the control unit 10 provides information on this component point, specifically, “representative coordinates Cm”, “movement distance Dm”, “movement time Tm”, “movement speed”. “Sm” and “total contact area A” are determined.

ここで、「代表座標Cm」は、指先の範囲における中心座標(Xm,Ym)が設定される。「移動距離Dm」は、第M−1構成点から第M構成点への移動距離であり、例えば両構成点の代表座標Cm,Cm−1の差分(Xm− Xm−1,Ym − Ym−1)で示さ
れる。「移動時間Tm」は、第M構成点に関する検出部32の検出タイミングTmから、第M−1構成点に関する検出部32の検出タイミングTm−1を減算した値(Tm− T
m−1)で示される。また、移動速度Smは、第M−1構成点から第M構成点への移動速度であり、移動距離Dmを移動時間Tmで除算することにより算出される。接触面積合計Aは、各構成点の面積の累積を示すのであり、現在の構成点の面積Amを加算した値(A+Am)で示される。
Here, the central coordinates (Xm, Ym) in the range of the fingertip is set as the “representative coordinates Cm”. “Movement distance Dm” is a movement distance from the M−1th configuration point to the Mth configuration point, for example, a difference (Xm−Xm−1, Ym−Ym−) between the representative coordinates Cm and Cm−1 of both configuration points. 1). The “movement time Tm” is a value obtained by subtracting the detection timing Tm−1 of the detection unit 32 related to the M−1th configuration point from the detection timing Tm of the detection unit 32 regarding the Mth configuration point (Tm−T).
m-1). The moving speed Sm is a moving speed from the M-1th constituent point to the Mth constituent point, and is calculated by dividing the moving distance Dm by the moving time Tm. The total contact area A indicates the accumulation of the area of each constituent point, and is indicated by a value (A + Am) obtained by adding the area Am of the current constituent point.

ステップ37に続くステップ35において否定判定されると、コントロールユニット10は、制御パラメータMを「1」だけインクリメントする(ステップ36)。そして、コントロールユニット10は、ステップ32以降の処理を、制御パラメータMが「Mmax」に到達するまで行う。これにより、Max個の構成点のすべてについて確定処理が実行される。   If a negative determination is made in step 35 following step 37, the control unit 10 increments the control parameter M by “1” (step 36). Then, the control unit 10 performs the processing after step 32 until the control parameter M reaches “Mmax”. As a result, the determination process is executed for all of the Max configuration points.

ステップ38(S38)において、コントロールユニット10は、接触点Nの推移を確定する。この接触点Nの推移は、Max個の構成点について確定された情報から求められるものであり、具体的には、操作軌跡C(m),D(m)、操作速度S(m)、接触面積Aによって構成されている。操作軌跡C(m),D(m)は、接触点Nに対応する指の軌跡であり、例えば各構成点に関する中心座標(Xm,Ym)及び各構成点間の移動距離Dmの集合体として構成される。また、操作速度S(m)は、接触点Nに対応する指の速度であり、例えば各構成点の移動速度Smの集合体として構成される。接触面積Aaveは、
接触点Nに関する接触面積の平均値を示すものであり、例えば接触面積合計Aを現在の制御パラメータm(=Mmax)で除算した値により示される。
In step 38 (S38), the control unit 10 determines the transition of the contact point N. The transition of the contact point N is obtained from information determined for the Max component points. Specifically, the operation trajectories C (m) and D (m), the operation speed S (m), the contact It is constituted by area A. The operation trajectories C (m) and D (m) are trajectories of the finger corresponding to the contact point N. For example, the operation trajectories C (m) and D (m) are a set of central coordinates (Xm, Ym) relating to each constituent point and the movement distance Dm between the constituent points. Composed. The operation speed S (m) is the speed of the finger corresponding to the contact point N, and is configured as an aggregate of the movement speed Sm of each constituent point, for example. Contact area Aave is
The average value of the contact area with respect to the contact point N is shown. For example, the contact area total A is divided by the current control parameter m (= Mmax).

再び図2を参照するに、ステップ16(S16)において、コントロールユニット10は、接触点Nの情報、すなわち、先のステップ15において確定処理を行った接触点Nの推移を、RAMなどの記憶領域に格納する。   Referring to FIG. 2 again, in step 16 (S16), the control unit 10 displays the information of the contact point N, that is, the transition of the contact point N that has been confirmed in the previous step 15, in a storage area such as a RAM. To store.

ステップ17(S17)において、コントロールユニット10は、制御パラメータNの現在値が、接触点の最大数(本実施形態では「2」)に相当する制御パラメータNmaxに到達したか否かを判断する。このステップ17において肯定判定された場合、すなわち、制御パラメータNの現在値が制御パラメータNmaxに到達した場合には、後述するステップ19(S19)に進む。一方、ステップ17において否定判定された場合、すなわち、制御パラメータNの現在値が制御パラメータNmaxに到達していない場合には、ステップ18(S18)に進む。   In step 17 (S17), the control unit 10 determines whether or not the current value of the control parameter N has reached the control parameter Nmax corresponding to the maximum number of contact points ("2" in the present embodiment). If an affirmative determination is made in step 17, that is, if the current value of the control parameter N has reached the control parameter Nmax, the process proceeds to step 19 (S19) described later. On the other hand, if a negative determination is made in step 17, that is, if the current value of the control parameter N has not reached the control parameter Nmax, the process proceeds to step 18 (S18).

ステップ18(S18)において、コントロールユニット10は、制御パラメータNを「1」だけインクリメントする。そして、コントロールユニット10は、ステップ15以降の処理を、制御パラメータNが「Nmax」に到達するまで行い、これにより、2本の指に対応する各接触点の推移を含む情報、すなわち、2本の指によるユーザの操作パターンが特定される。   In step 18 (S18), the control unit 10 increments the control parameter N by “1”. Then, the control unit 10 performs the processing after step 15 until the control parameter N reaches “Nmax”, whereby information including transition of each contact point corresponding to two fingers, that is, two The user's operation pattern with the finger is specified.

ステップ19(S19)において、コントロールユニット10は、照合処理を行う。コントロールユニット10は、特定された操作パターンに基づいて記憶媒体40のユーザ識別データベース41を検索することにより、タッチパネル31(2つの操作シンボルSb1,Sb2)を操作したユーザを識別する。ここで、図5に示すように、ユーザ識別データベース41は、複数の操作シンボルSb1,Sb2を動かす際の操作パターンを示す基本データが、ユーザ毎に関連付けて登録されたデータベースである。   In step 19 (S19), the control unit 10 performs collation processing. The control unit 10 searches the user identification database 41 of the storage medium 40 based on the specified operation pattern, thereby identifying the user who has operated the touch panel 31 (two operation symbols Sb1 and Sb2). Here, as shown in FIG. 5, the user identification database 41 is a database in which basic data indicating an operation pattern when moving a plurality of operation symbols Sb1 and Sb2 is registered in association with each user.

図6は、照合処理の詳細を示すフローチャートである。まず、ステップ40(S40)において、コントロールユニット10は、先のステップ16において保存された操作軌跡を抽出する。   FIG. 6 is a flowchart showing details of the collation processing. First, in step 40 (S40), the control unit 10 extracts the operation locus stored in the previous step 16.

ステップ41(S41)において、コントロールユニット10は、制御パラメータUを初期値である「1」にセットする。   In step 41 (S41), the control unit 10 sets the control parameter U to the initial value “1”.

ステップ42(S42)において、コントロールユニット10は、ユーザ識別データベース41において、制御パラメータUに対応する登録ユーザのデータ(操作軌跡)を抽出する。このステップ42では、例えば、制御パラメータUが「1」であれば、ユーザ番号1に対応する登録ユーザの各接触点Nの操作軌跡が読み出され、制御パラメータUが「2」であれば、ユーザ番号2に対応する登録ユーザの各接触点Nの操作軌跡が読み出される。   In step 42 (S42), the control unit 10 extracts registered user data (operation locus) corresponding to the control parameter U in the user identification database 41. In this step 42, for example, if the control parameter U is “1”, the operation locus of each contact point N of the registered user corresponding to the user number 1 is read, and if the control parameter U is “2”, The operation locus of each contact point N of the registered user corresponding to the user number 2 is read out.

ステップ43(S43)において、ステップ40において抽出された操作軌跡と、ステップ42において読み出された操作軌跡とが一致するかを判断する。すなわち、このステップ40では、各構成点に関する中心座標(Xm,Ym)及び各構成点間の移動距離Dmを比較して、各操作軌跡が一致又は一致と見なせる程度に対応しているかを判断する。ステップ43において肯定判定された場合、ステップ46(S46)に進む。ステップ43において否定判定された場合、ステップ44(S44)に進む。   In step 43 (S43), it is determined whether or not the operation trajectory extracted in step 40 matches the operation trajectory read in step 42. That is, in this step 40, the central coordinates (Xm, Ym) regarding each component point and the movement distance Dm between each component point are compared, and it is determined whether each operation locus corresponds to the extent that it can be regarded as coincidence or coincidence. . If an affirmative determination is made in step 43, the process proceeds to step 46 (S46). If a negative determination is made in step 43, the process proceeds to step 44 (S44).

ステップ44において、コントロールユニット10は、制御パラメータUの現在値が、ユーザ識別データベース41における登録ユーザの最大数に相当する制御パラメータUmaxに到達したか否かを判断する。このステップ44において肯定判定された場合、すなわち、制御パラメータUの現在値が制御パラメータUmaxに到達した場合には、後述す
るステップ58(S58)に進む。一方、ステップ44において否定判定された場合、すなわち、制御パラメータUの現在値が制御パラメータUmaxに到達していない場合には、ステップ45(S45)に進む。
In step 44, the control unit 10 determines whether or not the current value of the control parameter U has reached the control parameter Umax corresponding to the maximum number of registered users in the user identification database 41. If an affirmative determination is made in step 44, that is, if the current value of the control parameter U has reached the control parameter Umax, the routine proceeds to step 58 (S58) described later. On the other hand, if a negative determination is made in step 44, that is, if the current value of the control parameter U has not reached the control parameter Umax, the process proceeds to step 45 (S45).

ステップ46〜ステップ51(S51)において、コントロールユニット10は、先のステップ16において保存された各接触点Nの操作速度を処理対象として、上述したステップ40〜ステップ45と同様、操作速度が一致するか否かを判断する。操作速度が一致する場合には、ステップ49(S49)の処理において肯定判定され、ステップ52(S52)以降の処理に進み、逆に、操作速度が一致しない場合には、ステップ58の処理に進む。   In step 46 to step 51 (S51), the control unit 10 uses the operation speed of each contact point N stored in the previous step 16 as a processing target, and the operation speeds are the same as in step 40 to step 45 described above. Determine whether or not. If the operation speeds match, an affirmative determination is made in the process of step 49 (S49), and the process proceeds to the process after step 52 (S52). Conversely, if the operation speeds do not match, the process proceeds to step 58. .

ステップ52〜ステップ57(S57)において、コントロールユニット10は、先のステップ16において保存された各接触点Nの接触面積を処理対象として、上述したステップ40〜ステップ45と同様、接触面積が一致するか否かを判断する。接触面積が一致する場合には、ステップ55(S55)の処理において肯定判定され、ステップ59(S59)の処理に進み、逆に、接触面積が一致しない場合には、ステップ58の処理に進む。   In step 52 to step 57 (S57), the control unit 10 uses the contact area of each contact point N stored in the previous step 16 as a processing target, and the contact areas match as in the above-described step 40 to step 45. Determine whether or not. If the contact areas match, an affirmative determination is made in step 55 (S55), and the process proceeds to step 59 (S59). Conversely, if the contact areas do not match, the process proceeds to step 58.

ステップ58(S58)において、コントロールユニット10は、ステップ12の識別用画面にてユーザが操作した操作パターン(各接触点Nの推移)を、例えばゲストのユーザとして、ユーザ識別データベース41に登録する。   In step 58 (S58), the control unit 10 registers the operation pattern (transition of each contact point N) operated by the user on the identification screen in step 12 in the user identification database 41 as a guest user, for example.

一方、ステップ59(S59)において、コントロールユニット10は、操作軌跡、操作速度及び接触面積が一致した登録ユーザを、識別用画面にて操作したユーザとして確定する。   On the other hand, in step 59 (S59), the control unit 10 determines the registered user whose operation locus, operation speed, and contact area match as the user who operated on the identification screen.

再び図2を参照するに、ステップ11において肯定判定に続くステップ20(S20)において、コントロールユニット10は、ユーザ登録処理を行う。具体的には、コントロールユニット10は、上述したステップ12〜17の処理を実行し、2本の指を使った接触操作をユーザに促し、これにより、各指による操作パターン(各接触点Nの推移)を確定し、これをユーザ識別データベース41に登録する。   Referring to FIG. 2 again, in step 20 (S20) following the affirmative determination in step 11, the control unit 10 performs a user registration process. Specifically, the control unit 10 performs the processing of steps 12 to 17 described above, and prompts the user to perform a contact operation using two fingers, whereby the operation pattern (each contact point N of each contact point N) is determined. Transition) is determined and registered in the user identification database 41.

一方、ステップ21(S21)において、コントロールユニット10は、識別用画面にて操作したユーザが、ユーザ識別データベース41に登録された登録ユーザと一致したか否かを判断する。このステップ21において肯定判定された場合、すなわち、登録ユーザと一致した場合には、ステップ22(S22)に進む。一方、ステップ21において否定判定された場合、すなわち、登録ユーザと一致しない場合には、後述するステップ24(S24)に進む。   On the other hand, in step 21 (S21), the control unit 10 determines whether or not the user operated on the identification screen matches the registered user registered in the user identification database 41. If an affirmative determination is made in step 21, that is, if it matches the registered user, the process proceeds to step 22 (S22). On the other hand, if a negative determination is made in step 21, that is, if it does not match the registered user, the process proceeds to step 24 (S24) described later.

ステップ22において、コントロールユニット10は、登録ユーザとの一致を通じて現在操作したユーザを認識すると、個人設定データベース42に基づいて、その認識されたユーザに対応する個人設定を反映する。個人設定データベース42は、ユーザの好みに応じた車両に関する設定事項が、ユーザ毎に登録されたデータベースである。個人設定データベース42、例えば図7に示すように、オーディオ設定、ナビゲーション設定、シートポジション設定、空調設定を項目として夫君でおり、個々の項目は、ユーザ自身の操作により或いはコントロールユニット10による学習処理などにより設定されている。   In step 22, when the control unit 10 recognizes the currently operated user through matching with the registered user, the control unit 10 reflects the personal setting corresponding to the recognized user based on the personal setting database 42. The personal setting database 42 is a database in which setting items related to vehicles according to user preferences are registered for each user. As shown in FIG. 7, for example, the personal setting database 42 is an audio setting, navigation setting, seat position setting, and air conditioning setting. The individual items are learned by the user's own operation or by the control unit 10. It is set by.

オーディオ設定は、ユーザに関連付けられた情報(例えば音楽データのリスト)をオーディオ装置に反映するための設定データであり、ナビゲーション設定は、ユーザに関連付けられた情報(例えば地図の縮尺や、一般道や有料道といったルート検索の優先順位)ナ
ビゲーション装置に反映するための設定データである。シートポジション設定は、ユーザに関連付けられた情報(例えばシート位置やシートバックの角度)をシート調整装置に反映するための設定データであり、空調設定は、ユーザに関連付けられた情報(例えば車室内の温度や吹出口位置)を空調装置に反映するための設定データである。また、コントロールユニット10は、認識したユーザを示す情報や、個人設定を反映することの情報を、ディスプレイ20に表示したり、スピーカからアナウンスしたりしてもよい。
The audio setting is setting data for reflecting information associated with the user (for example, a list of music data) to the audio device, and the navigation setting is information associated with the user (for example, a map scale, a general road, Priority of route search such as toll road) Setting data to be reflected in the navigation device. The seat position setting is setting data for reflecting information associated with the user (for example, the seat position and the angle of the seat back) to the seat adjustment device, and the air conditioning setting is information associated with the user (for example, in the passenger compartment). This is setting data for reflecting the temperature and the outlet position) to the air conditioner. Further, the control unit 10 may display information indicating the recognized user or information reflecting the personal setting on the display 20 or announce from a speaker.

ステップ23(S23)において、コントロールユニット10は、ユーザ識別データベース41を更新する。具体的には、コントロールユニット10は、先に行われた各指による操作パターン(各接触点Nの推移)に基づいて、ユーザ識別データベース41の内容を更新する。更新の手法としては、例えば平均化処理などが挙げられる。このような更新を通じて、ユーザに対応した操作パターンが学習処理されることになるので、ユーザ識別データベース41に対してユーザの癖や手先の特徴といったものが適切に反映されることとなり、情報としての信頼性の向上を図ることができる。   In step 23 (S23), the control unit 10 updates the user identification database 41. Specifically, the control unit 10 updates the contents of the user identification database 41 based on the operation pattern (transition of each contact point N) performed by each finger previously performed. As an updating method, for example, an averaging process or the like can be cited. Through such an update, the operation pattern corresponding to the user is learned and processed, so that the user identification database 41 is appropriately reflected in the user identification database 41 and the features of the hand, as information Reliability can be improved.

一方、ステップ24において、コントロールユニット10は、ユーザが一致しないことの処理として、以下の処理を行う。例えば、コントロールユニット10は、現在のユーザを一時的な利用者としてゲストと位置づけ、オーディオ設定、ナビゲーション設定、シートポジション設定、空調設定といった各種の設定を、デフォルの状態に設定する。あるいは、コントロールユニット10は、不適切な使用の可能性を考慮して、使用通信装置80を通じて外部サーバ100と通信を行うことにより、外部サーバ100に対して警報処理を行う。   On the other hand, in step 24, the control unit 10 performs the following process as a process for not matching the users. For example, the control unit 10 positions the current user as a guest as a guest, and sets various settings such as audio settings, navigation settings, seat position settings, and air conditioning settings to default states. Alternatively, the control unit 10 performs alarm processing on the external server 100 by communicating with the external server 100 through the communication device 80 in consideration of the possibility of inappropriate use.

このように本実施形態において、コントロールユニット10は、接触操作を通じてユーザが2つの操作シンボルSb1,Sb2を動かした際に、検出部32によって検出される2つの接触点の推移に基づいてユーザの操作パターンを特定している。そして、コントロールユニット10は、特定されたユーザの操作パターンに基づいてユーザ識別データベース41を検索することにより、操作シンボルSb1,Sb2を操作したユーザを識別している。   As described above, in the present embodiment, the control unit 10 operates the user based on the transition of the two contact points detected by the detection unit 32 when the user moves the two operation symbols Sb1 and Sb2 through the contact operation. The pattern is specified. Then, the control unit 10 searches the user identification database 41 based on the specified user operation pattern to identify the user who operated the operation symbols Sb1 and Sb2.

かかる構成によれば、操作シンボルSb1,Sb2を動かす操作を要求することで、ユーザに対し特定の接触操作の実行を促すことができるので、操作パターンに対する再現性が確保されることとなる。そのため、時間、場所、場合が異なる状況であっても、操作パターンの同一性が担保されることとなるので、ユーザが誤って識別されるという事態を抑制することができる。また、この操作パターンは、2つの操作シンボルSb1,Sb2に対応した2つの指による接触操作から特定されるものである。人間の手のひらの大きさ、指の太さ、その操作に用いる指の種類、タッチパネル31に対する指の押圧状態、個々の指の動かし方は千差万別であることから、2つの指による接触操作にはユーザのユニークな操作態様が反映されることとなる。そのため、単に1つ指による接触操作を要求するのみならず、当該2つの指による接触操作を要求することで、特定される操作パターンにはユーザを識別する要素が多重的に含まれることとなる。これにより、当該操作パターンを用いることで、異なるユーザを同一視することなく有効に切り分けることができるので、ユーザを適格に識別することが可能となる。   According to such a configuration, by requesting an operation for moving the operation symbols Sb1 and Sb2, it is possible to prompt the user to perform a specific contact operation, thereby ensuring reproducibility with respect to the operation pattern. Therefore, even if the time, place, and situation are different, the identity of the operation pattern is ensured, so that a situation in which the user is erroneously identified can be suppressed. Further, this operation pattern is specified from a contact operation with two fingers corresponding to the two operation symbols Sb1 and Sb2. Since the size of the human palm, the thickness of the finger, the type of finger used for the operation, the pressing state of the finger against the touch panel 31, and the manner of movement of each finger are various, contact operations with two fingers This reflects the user's unique operation mode. For this reason, not only a contact operation with one finger but also a contact operation with the two fingers is requested, so that the specified operation pattern includes multiple elements for identifying the user. . Thereby, by using the said operation pattern, since a different user can be separated effectively without equating, it becomes possible to identify a user appropriately.

また、本実施形態によれば、コントロールユニット10は、接触点毎に、当該接触点に対応する軌跡、速度及び面積を算出することで、前記ユーザの操作パターンを特定している。   Moreover, according to this embodiment, the control unit 10 specifies the user's operation pattern by calculating the trajectory, speed, and area corresponding to the contact point for each contact point.

手のひらの大きさ、指の太さ、その操作に用いる指の種類、指の押圧状態、個々の指の動かし方といったユーザのユニークな操作態様は、接触点に対応する軌跡、速度及び面積
というパラメータにて評価することができる。したがって、これらのパラメータによって操作パターンを表現することにより、ユーザのユニークな操作態様を適切に評価することができるので、個々のユーザを適格に識別することができる。
The user's unique operation modes, such as palm size, finger thickness, finger type used for the operation, finger pressing state, and how to move each finger, are parameters such as trajectory, velocity and area corresponding to the contact point. Can be evaluated. Therefore, by expressing the operation pattern with these parameters, it is possible to appropriately evaluate the user's unique operation mode, and thus it is possible to appropriately identify individual users.

また、本実施形態において、ユーザ識別装置は、車両に搭載され、ディスプレイ20に対してナビゲーション情報を表示する車両ナビゲーション装置に適用されている。この場合、コントロールユニット10は、車両用ナビゲーション装置を使用するユーザに対して識別処理を行う。   Further, in the present embodiment, the user identification device is applied to a vehicle navigation device that is mounted on a vehicle and displays navigation information on the display 20. In this case, the control unit 10 performs an identification process on the user who uses the vehicle navigation device.

車両用ナビゲーション装置は、インストルメントパネルに配置されたディスプレイ20上に積層されたタッチパネル31を操作してナビゲーション情報を利用するものであるため、本実施形態に示すユーザ識別手法を簡単に適用することができる。   Since the vehicle navigation device uses the navigation information by operating the touch panel 31 stacked on the display 20 arranged on the instrument panel, the user identification method shown in the present embodiment can be easily applied. Can do.

また、本実施形態において、コントロールユニット10は、ユーザによる車両用ナビゲーション装置の使用開始に先立ち、2つの操作シンボルをディスプレイ20に表示させることにより、ユーザに対して識別処理を履行させている。   Further, in the present embodiment, the control unit 10 causes the user to perform the identification process by displaying two operation symbols on the display 20 before the user starts using the vehicle navigation device.

かかる構成によれば、車両用ナビゲーション装置を使用するユーザを識別することができるので、登録されたユーザのみに使用を制限したり、ユーザに応じた種々の処理を行ったりすることができる。   According to this configuration, the user who uses the vehicle navigation device can be identified, so that the use can be restricted only to the registered users, or various processes corresponding to the users can be performed.

また、本実施形態において、記憶媒体40は、ユーザの好みに応じた車両に関する設定事項(個人設定)が、ユーザ毎に関連付けて登録された個人設定データベースを格納している。そして、コントロールユニット10は、2つの操作シンボルSb1,Sb2を操作したユーザを識別した場合には、識別されたユーザと対応する設定事項を個人設定データベース42から読み出し、当該読み出した設定事項を車両に反映する。   Further, in the present embodiment, the storage medium 40 stores a personal setting database in which setting items (personal settings) relating to vehicles according to user preferences are registered in association with each user. When the control unit 10 identifies the user who has operated the two operation symbols Sb1 and Sb2, the control unit 10 reads the setting items corresponding to the identified user from the personal setting database 42, and reads the read setting items to the vehicle. reflect.

かかる構成によれば、ユーザの識別結果に基づいて、ユーザ毎の設定事項を適切に車両に反映することができる。これにより、ユーザが車両に乗り込む度に、設定事項を自ら車両に設定するという煩わしさを軽減することができる。また、ユーザの識別を適格に行うことができるので、他のユーザの設定事項が誤って設定されるといった事態を抑制することができる。   According to this configuration, the setting items for each user can be appropriately reflected in the vehicle based on the user identification result. Thereby, every time a user gets into the vehicle, it is possible to reduce the troublesomeness of setting the setting items in the vehicle. In addition, since the user can be properly identified, it is possible to suppress a situation in which the setting items of other users are erroneously set.

また、本実施形態において、コントロールユニット10は、2つの操作シンボルSb1,Sb2を操作したユーザを識別することができない場合には、予め設定されたデフォルの設定事項を車両に反映している。   In the present embodiment, when the control unit 10 cannot identify the user who operated the two operation symbols Sb1 and Sb2, the control unit 10 reflects the preset default setting items on the vehicle.

かかる構成によれば、登録されたユーザとして識別されない一時利用のユーザには、デフォルトの設定が反映されることとなるので、特定の個人に片寄った設定事項が当該ユーザにそのまま適用されるといった事態を抑制することができる。また、自己の設定事項を反映したくないような使用シーンでは、ユーザがあえて異なる操作パターンを実行することで、デフォルトの設定をそのまま使用することができるので、ユーザの使用シーンに応じて柔軟に使い心地を提供することができる。   According to such a configuration, a default setting is reflected to a temporary use user who is not identified as a registered user, so that a setting item that is biased toward a specific individual is applied to the user as it is. Can be suppressed. Also, in usage scenes where you do not want to reflect your own settings, you can use the default settings as they are by executing different operation patterns. Can provide comfort.

また、本実施形態において、コントロールユニット10は、2つの操作シンボルSb1,Sb2を操作したユーザを識別することができない場合には、異常を報知する警報処理を行うことしている。   In the present embodiment, the control unit 10 performs an alarm process for notifying an abnormality when the user who has operated the two operation symbols Sb1 and Sb2 cannot be identified.

かかる構成によれば、ユーザの識別を通じて不正なユーザの使用を特定することができるので、警報処理を行うことで、当該不正の事実を早期に報知することができる。   According to such a configuration, it is possible to identify an unauthorized user's use through user identification, so that the unauthorized fact can be notified early by performing an alarm process.

なお、本実施形態によれば、2本の指で操作することを前提に、2つの操作シンボルSb1,Sb2を用いて接触操作を行うこととしている。しかしながら、本発明は、複数の指で操作するものであればよい。また、接触操作に供する指の本数が増える程、操作パターンにはユーザを識別しえる要素が多重的に含まれることとなるので、ユーザの適格に識別することができる。なお、複数の操作シンボルを操作しえる限り、指に限らず、ペンタイプといった操作具を複数用いるものであっってもよい。   Note that according to the present embodiment, the touch operation is performed using the two operation symbols Sb1 and Sb2 on the assumption that the operation is performed with two fingers. However, the present invention only needs to be operated with a plurality of fingers. Further, as the number of fingers used for the contact operation increases, the operation pattern includes multiple elements that can identify the user, so that the user can be appropriately identified. As long as a plurality of operation symbols can be operated, not only the finger but also a plurality of operation tools such as a pen type may be used.

また、操作シンボルSb1,Sb2を操作する方法は、上述した実施形態以外にも可能である。図8(a)に示すように、いずれか一方の操作シンボルSb1,Sb2をガイド用シンボルSaの円周外に配置した状態を初期状態として、2つの指によるタッチパネル31への接触操作を通じて、両操作シンボルSb1,Sb2をガイド用シンボルSaの円周内に存在させるように、操作シンボルSb1,Sb2をそれぞれ動かしてもよい。また、同図(b)に示すように、2つの操作シンボルSb1,Sb2をそれぞれ平行に動かすようにしてもよい。   Further, the method of operating the operation symbols Sb1 and Sb2 is possible in addition to the embodiment described above. As shown in FIG. 8 (a), with one of the operation symbols Sb1 and Sb2 arranged outside the circumference of the guide symbol Sa as an initial state, both the touching operations on the touch panel 31 with two fingers are performed. The operation symbols Sb1 and Sb2 may be moved so that the operation symbols Sb1 and Sb2 exist within the circumference of the guide symbol Sa. Further, as shown in FIG. 5B, the two operation symbols Sb1 and Sb2 may be moved in parallel.

また、操作シンボルSb1,Sb2は、ユーザに対して操作内容を分かり易くイメージさせるものであってもよい。図9(a)に示すように、一方の操作シンボルSb1を鍵をイメージした形状とし、他方の操作シンボルSb2を鍵穴をイメージした形状とすることで、鍵を鍵穴に差し込むように操作シンボルSb1,Sb2を動かすようにしてもよい。あるいは、図9(b)に示すように、一方の操作シンボルSb1をゴルフボールをイメージした形状とし、他方の操作シンボルSb2をグリーン上のカップをイメージした形状とすることで、ゴルフボールをグリーン上のカップに導くように操作シンボルSb1,Sb2を動かすようにしてもよい。   Further, the operation symbols Sb1 and Sb2 may make the user understand the operation contents in an easy-to-understand manner. As shown in FIG. 9A, one operation symbol Sb1 is shaped like a key, and the other operation symbol Sb2 is shaped like a keyhole, so that the operation symbols Sb1,1 are inserted into the keyhole. Sb2 may be moved. Alternatively, as shown in FIG. 9 (b), one operation symbol Sb1 is shaped like a golf ball, and the other operation symbol Sb2 is shaped like a cup on the green. The operation symbols Sb1 and Sb2 may be moved so as to be guided to the cup.

また、個人設定データベース42は、オーディオ設定、ナビゲーション設定、シートポジション設定、空調設定で構成されているが、ユーザの好みに応じた車両に関する設定事項を反映できるものであれば、この形態以外でもよい。   The personal setting database 42 includes audio settings, navigation settings, seat position settings, and air conditioning settings. However, the personal setting database 42 may be other than this form as long as it can reflect the setting items related to the vehicle according to the user's preference. .

以上、本発明の実施形態にかかる車両用ナビゲーション装置について説明したが、本発明は上述した実施形態に限定されることなく、その発明の範囲内において種々の変形が可能であることはいうまでもない。また、上述の実施形態では、ナビゲーション装置にユーザ識別装置を組み合わせたものとして説明を行っているが、ユーザ識別装置それ自体及びユーザ識別方法それ自体も本発明の一部として機能する。   As mentioned above, although the vehicle navigation apparatus concerning embodiment of this invention was demonstrated, it cannot be overemphasized that a various deformation | transformation is possible within the scope of the invention, without this invention being limited to embodiment mentioned above. Absent. In the above-described embodiment, the navigation apparatus is described as being combined with the user identification apparatus. However, the user identification apparatus itself and the user identification method itself also function as part of the present invention.

10 コントロールユニット
11 車速センサ
12 GPSアンテナ
13 ジャイロセンサ
20 ディスプレイ
30 操作入力部
31 タッチパネル
32 検出部
40 記憶媒体
41 ユーザ識別データベース
42 個人設定データベース
50 オーディオ装置
60 後部座席オーディオ装置
70 車室内ECU
80 通信装置
100 外部サーバ
DESCRIPTION OF SYMBOLS 10 Control unit 11 Vehicle speed sensor 12 GPS antenna 13 Gyro sensor 20 Display 30 Operation input part 31 Touch panel 32 Detection part 40 Storage medium 41 User identification database 42 Personal setting database 50 Audio apparatus 60 Rear seat audio apparatus 70 Vehicle interior ECU
80 Communication device 100 External server

Claims (8)

映像を表示する表示装置と、
前記表示装置上に積層されて、ユーザの接触操作を受け付けるタッチパネルと、
ユーザの接触操作に対応する前記タッチパネル上の接触点を検出する検出部と、
それぞれがユーザの接触操作に対応して画面上を移動可能な複数の操作シンボルを前記表示装置に表示させるシンボル制御部と、
接触操作を通じてユーザが前記複数の操作シンボルを動かした際に、前記検出部によって検出される複数の接触点の推移に基づいてユーザの操作パターンを特定する特定部と、
前記複数の操作シンボルを動かす際の前記ユーザの操作パターンを示す基本データが、ユーザ毎に関連付けて登録されたユーザ識別データベースを格納する記憶部と、
前記特定部により特定されたユーザの操作パターンに基づいて前記ユーザ識別データベースを検索することにより、前記複数の操作シンボルを操作したユーザを識別する識別部と、
を有することを特徴とするユーザ識別装置。
A display device for displaying images;
A touch panel that is stacked on the display device and receives a user's contact operation;
A detection unit for detecting a contact point on the touch panel corresponding to a user's contact operation;
A symbol control unit that causes the display device to display a plurality of operation symbols each capable of moving on the screen in response to a user's contact operation;
When the user moves the plurality of operation symbols through a contact operation, a specifying unit that specifies a user's operation pattern based on transition of a plurality of contact points detected by the detection unit;
A storage unit that stores a user identification database in which basic data indicating an operation pattern of the user when moving the plurality of operation symbols is registered in association with each user;
An identification unit for identifying a user who has operated the plurality of operation symbols by searching the user identification database based on a user operation pattern specified by the specification unit;
A user identification device comprising:
前記特定部は、接触点毎に、当該接触点に対応する軌跡、速度及び面積を算出することで、前記ユーザの操作パターンを特定することを特徴とする請求項1に記載されたユーザ識別装置。   The user identification device according to claim 1, wherein the specifying unit specifies the operation pattern of the user by calculating a trajectory, a speed, and an area corresponding to the contact point for each contact point. . 前記ユーザ識別装置は、車両に搭載され、前記表示装置に対してナビゲーション情報を表示するナビゲーション装置に適用されており、
前記識別部は、前記ナビゲーション装置を使用するユーザに対して識別処理を行うことを特徴とする請求項1又は2に記載されたユーザ識別装置。
The user identification device is mounted on a vehicle and applied to a navigation device that displays navigation information on the display device,
The user identification device according to claim 1, wherein the identification unit performs identification processing on a user who uses the navigation device.
前記シンボル制御部は、ユーザによる前記ナビゲーション装置の使用開始に先立ち、前記複数の操作シンボルを前記表示装置に表示させることにより、ユーザに対して前記識別部による識別処理を履行させることを特徴とする請求項3に記載されたユーザ識別装置。   The symbol control unit causes the user to execute the identification process by the identification unit by displaying the plurality of operation symbols on the display device before the user starts using the navigation device. The user identification device according to claim 3. 前記記憶部は、ユーザの好みに応じた車両に関する設定事項が、ユーザ毎に関連付けて登録された個人設定データベースを格納し、
前記識別部は、前記複数の操作シンボルを操作したユーザを識別した場合には、前記個人設定データベースから当該識別されたユーザと対応する設定事項を読み出し、当該読み出した設定事項を車両に反映することを特徴とする請求項3又は4に記載されたユーザ識別装置。
The storage unit stores a personal setting database in which setting items related to the vehicle according to user preferences are registered in association with each user,
When the identification unit identifies a user who has operated the plurality of operation symbols, the identification unit reads setting items corresponding to the identified user from the personal setting database, and reflects the read setting items on the vehicle. The user identification device according to claim 3 or 4, characterized by the above-mentioned.
前記識別部は、前記複数の操作シンボルを操作したユーザを識別することができない場合には、予め設定されたデフォルの設定事項を車両に反映することを特徴とする請求項5に記載されたユーザ識別装置。   6. The user according to claim 5, wherein, when the identification unit cannot identify a user who operates the plurality of operation symbols, the default setting items are reflected in the vehicle. Identification device. 前記識別部は、前記複数の操作シンボルを操作したユーザを識別することができない場合には、異常を報知する警報処理を行うことを特徴とする請求項1から4のいずれかに記載されたユーザ識別装置。   5. The user according to claim 1, wherein when the identification unit cannot identify a user who has operated the plurality of operation symbols, the identification unit performs an alarm process for notifying an abnormality. 6. Identification device. 映像を表示する表示装置上に積層されてユーザの接触操作を受け付けるタッチパネルを用いたユーザ識別方法において、
それぞれがユーザの接触操作に対応して画面上を移動可能な複数の操作シンボルを前記表示装置に表示させる第1のステップと、
ユーザが接触操作を通じて前記複数の操作シンボルを動かした際に、当該接触操作に対応する前記タッチパネル上の接触点を検出する第2のステップと、
前記第2のステップによって検出される複数の接触点の推移に基づいてユーザの操作パターンを特定する第3のステップと、
前記第3のステップにおいて特定されたユーザの操作パターンに基づいて、前記複数の操作シンボルを操作したユーザを識別する第4のステップと、を有し、
前記第4のステップは、前記複数の操作シンボルを動かす際の前記ユーザの操作パターンを示す基本データが、ユーザ毎に関連付けて登録されたユーザ識別データベースを検索するステップを含むことを特徴とするユーザ識別方法。
In a user identification method using a touch panel that is stacked on a display device that displays an image and receives a user's contact operation,
A first step of causing the display device to display a plurality of operation symbols each capable of moving on the screen in response to a user's contact operation;
A second step of detecting a contact point on the touch panel corresponding to the contact operation when the user moves the plurality of operation symbols through the contact operation;
A third step of identifying a user's operation pattern based on a transition of a plurality of contact points detected by the second step;
And a fourth step of identifying a user who has operated the plurality of operation symbols based on the user operation pattern specified in the third step,
The fourth step includes a step of searching a user identification database in which basic data indicating an operation pattern of the user when moving the plurality of operation symbols is registered in association with each user. Identification method.
JP2012137578A 2012-06-19 2012-06-19 User identification device and user identification method Pending JP2014002571A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012137578A JP2014002571A (en) 2012-06-19 2012-06-19 User identification device and user identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012137578A JP2014002571A (en) 2012-06-19 2012-06-19 User identification device and user identification method

Publications (1)

Publication Number Publication Date
JP2014002571A true JP2014002571A (en) 2014-01-09

Family

ID=50035692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012137578A Pending JP2014002571A (en) 2012-06-19 2012-06-19 User identification device and user identification method

Country Status (1)

Country Link
JP (1) JP2014002571A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11623525B2 (en) 2019-01-02 2023-04-11 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11623525B2 (en) 2019-01-02 2023-04-11 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Similar Documents

Publication Publication Date Title
CN108284840B (en) Autonomous vehicle control system and method incorporating occupant preferences
EP3013076B1 (en) Mobile terminal and control method for the mobile terminal
CN108430819B (en) Vehicle-mounted device
US8738277B1 (en) Gas station recommendation systems and methods
US6600994B1 (en) Quick selection of destinations in an automobile navigation system
KR101677645B1 (en) Mobile communication system and control method thereof
WO2016002872A1 (en) Information processing device
EP2985985A1 (en) Driver status indicator
JP6295924B2 (en) Vehicle notification control apparatus and vehicle notification control system
JP6851482B2 (en) Operation support device and operation support method
JP2015129753A (en) In-vehicle notification presentation scheduling
JP2007069896A (en) Control unit for dashboard of automobile
US9428055B2 (en) Vehicle, terminal communicating with the vehicle, and method of controlling the vehicle
US10960898B2 (en) Method and arrangement for interacting with a suggestion system having automated operations
CN104729518B (en) The method of mobile terminal and control mobile terminal
US9495858B2 (en) Smart key reminder system for a vehicle
WO2016084360A1 (en) Display control device for vehicle
JP6135400B2 (en) Display device
JP6222580B2 (en) Presentation information learning method, server, and terminal device
CN111309414B (en) User interface integration method and vehicle-mounted device
CN106945671B (en) Vehicle cruise control with multiple set points
JP2014002571A (en) User identification device and user identification method
JP7003268B2 (en) How to link with in-vehicle information devices and mobile terminals
JP2004221890A (en) On-vehicle information terminal
JP5435113B2 (en) Energy saving evaluation device, energy saving evaluation method