JP5791557B2 - Contact operation support system, contact operation support device, and contact operation method - Google Patents

Contact operation support system, contact operation support device, and contact operation method Download PDF

Info

Publication number
JP5791557B2
JP5791557B2 JP2012077980A JP2012077980A JP5791557B2 JP 5791557 B2 JP5791557 B2 JP 5791557B2 JP 2012077980 A JP2012077980 A JP 2012077980A JP 2012077980 A JP2012077980 A JP 2012077980A JP 5791557 B2 JP5791557 B2 JP 5791557B2
Authority
JP
Japan
Prior art keywords
unit
contact
finger
feature data
finger movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012077980A
Other languages
Japanese (ja)
Other versions
JP2013206405A (en
Inventor
松尾 賢治
賢治 松尾
俊晃 上向
俊晃 上向
矢崎 智基
智基 矢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012077980A priority Critical patent/JP5791557B2/en
Publication of JP2013206405A publication Critical patent/JP2013206405A/en
Application granted granted Critical
Publication of JP5791557B2 publication Critical patent/JP5791557B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、連絡操作支援システム、連絡操作支援装置および連絡操作方法に関する。   The present invention relates to a contact operation support system, a contact operation support device, and a contact operation method.

従来、携帯電話を用いて誰かに連絡(アクセス)する場合、一連の手順を踏んで連絡相手(アクセス相手)及び連絡手段(アクセス手段。例えば、電話、メール、ブログへのアクセス)を決定する操作を行う必要があるため、ユーザの利便性において課題があった。例えば、図18に示すように、最初に連絡相手(例えば、携帯恵美子)を選択(第1ステップ)し、続いて連絡相手との連絡手段(例えば、メール)を選択(第2ステップ)するという、一連の階層的なステップを通して連絡相手と連絡手段とを決めていくため、手間がかかって面倒であった。
なお、上述のように利便性に問題がある場合、折角の連絡の機会を逃してしまう恐れがある。例えば、思い出のアルバムを見ていて昔の友達が気になって連絡を取ろうとしたものの、アドレス帳から昔の友達の連絡先を探し出す作業が面倒であるため、結局、思い立ったときに連絡を取らなかったという状況も珍しくはないと思われる。
Conventionally, when a person is contacted (accessed) using a mobile phone, an operation for determining a contact partner (access partner) and a contact means (access means, for example, access to a telephone, mail, blog) through a series of procedures. Therefore, there is a problem in user convenience. For example, as shown in FIG. 18, a contact partner (for example, Emiko Mobile) is first selected (first step), and then a contact means (for example, mail) with the contact partner is selected (second step). It took a lot of time and effort to decide who to contact and how to contact through a series of hierarchical steps.
In addition, when there is a problem in convenience as described above, there is a possibility that the opportunity of contact at the corner may be missed. For example, while looking at a memorable album and trying to get in touch with an old friend, the task of finding an old friend's contact information from the address book is cumbersome. It seems that it is not uncommon for the situation not to be taken.

一方で、携帯通信端末に記憶されたアドレス帳の情報をユーザが簡単に活用できるようにすることを目的とした技術が開示されている(例えば、特許文献1参照)。特許文献1に記載の携帯電話端末は、カメラから入力した顔画像データから顔特徴点データを生成し、予め記憶された顔特徴点データと照合し、一致した顔特徴点データに対応する登録者の氏名や電話帳データ等の情報を読み出し、ディスプレイに表示したり音声で通知したりする。   On the other hand, a technique has been disclosed for the purpose of allowing a user to easily use address book information stored in a mobile communication terminal (see, for example, Patent Document 1). The mobile phone terminal described in Patent Document 1 generates facial feature point data from facial image data input from a camera, compares it with previously stored facial feature point data, and a registrant corresponding to the matched facial feature point data Information such as name and phone book data is read and displayed on the display or notified by voice.

特開2009−105652号公報JP 2009-105652 A

しかしながら、特許文献1の技術には以下の問題がある。
(第1の問題)
特許文献1に記載の携帯電話端末は、撮影操作によって、一連の階層的なステップのうち第1ステップ(連絡相手の選択)迄は行うものの、第2ステップ(連絡手段の選択)は行わないため、結局のところ、別途、ユーザは第2ステップを行わなければならないという問題がある。
However, the technique of Patent Document 1 has the following problems.
(First problem)
The mobile phone terminal described in Patent Document 1 performs up to the first step (selection of a contact partner) among a series of hierarchical steps by a photographing operation, but does not perform the second step (selection of contact means). After all, there is a problem that the user has to perform the second step separately.

(第2の問題)
また、特許文献1に記載の携帯電話端末は、被写体が1名である場合を想定していると考えられる。従って、特に写真を閲覧しているケースなどにおいて、被写体が複数名である場合(写真内に複数の人物が写っている場合)には、「所望の連絡相手」となるべき人物さえも特定できないという問題がある。
(Second problem)
Further, it is considered that the mobile phone terminal described in Patent Document 1 assumes a case where there is one subject. Therefore, especially in the case of browsing a photo, when there are multiple subjects (when multiple people are shown in the photo), even a person who should be a “desired contact” cannot be specified. There is a problem.

本発明は、このような事情に鑑みてなされたものであり、所望の連絡相手と所望の連絡手段を簡便に決定することができる技術を提供することを目的とする。   This invention is made | formed in view of such a situation, and it aims at providing the technique which can determine a desired contact partner and a desired contact means simply.

上記問題を解決するために、本発明の一態様である連絡操作支援システムは、画像を利用して、連絡相手と連絡手段とを決定する連絡操作支援システムであって、少なくとも、人物を認識する顔特徴データを記憶するとともに、画像をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部と、ユーザによる画像上の指動作と、画像上の前記指動作によって指示された顔領域とを認識する認識部と、前記認識部が認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定するとともに、決定する連絡相手との連絡手段として、前記認識部が認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する決定部とを備えることを特徴とする。   In order to solve the above problems, a contact operation support system according to an aspect of the present invention is a contact operation support system that determines a contact partner and a contact means using an image, and recognizes at least a person. A storage unit that stores facial feature data and associates and stores a finger movement pattern indicating a finger movement pattern tracing the image and contact means identification information for identifying the contact means; and a finger movement on the image by the user A recognition unit for recognizing the face area designated by the finger movement on the image, and the face feature data of the face in the face area on the image recognized by the recognition unit is selected from the storage unit and selected. The finger movement obtained from the finger movement recognized by the recognition unit as a contact means for determining the person identified by the face feature data as a contact partner and as a contact means with the contact partner to be determined Said contact means identification information associated with the pattern selected from said storage unit, characterized in that it comprises a determining unit for determining a communication means that is identified by the selected said contact means identification information.

上記連絡操作支援システムによれば、所望の連絡相手と所望の連絡手段を簡便に決定することができる。即ち、上記連絡操作支援システムによれば、従来のような一連の手順(例えば、上述の第1ステップ、第2ステップ)ではなく、写真を指でなぞるという簡便な1つの手順に基づいて、アクセス相手に加えアクセス手段をも決定することができる。また、上記連絡操作支援システムによれば、被写体が複数名である場合であっても、指でなぞって被写体を特定することができるため、問題なく、アクセス相手及びアクセス手段を決定することができる。   According to the contact operation support system, it is possible to easily determine a desired contact partner and a desired contact means. That is, according to the contact operation support system, the access is based on a simple procedure of tracing a photograph with a finger instead of a conventional series of procedures (for example, the first step and the second step described above). In addition to the partner, the access means can also be determined. Further, according to the contact operation support system, even when there are a plurality of subjects, it is possible to specify the subject by tracing with a finger, so that it is possible to determine the access partner and the access means without any problem. .

上記連絡操作支援システムにおいて、前記認識部は、画像とユーザとを撮影する撮影部と、前記撮影部が撮影した撮影画像からユーザによる画像上の前記指動作を認識する指動作認識部と、前記撮影部が撮影した撮影画像内の顔領域であって、前記指動作認識部が認識した前記指動作によって指示された顔領域を認識する顔領域認識部とを有し、前記決定部は、前記顔領域認識部が認識した前記顔領域内の顔の特徴量を抽出して顔特徴データを生成する顔特徴データ生成部と、前記顔特徴データ生成部が生成した前記顔特徴データと前記記憶部に記憶されている前記顔特徴データとを照合する顔特徴データ照合部と、
前記顔特徴データ照合部による照合の結果、特徴が一致した前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定部と、前記指動作認識部が認識した画像上の指動作から指の位置の時系列データを測定して指動作パターンを生成する指動作パターン生成部と、前記指動作パターン生成部にて生成された前記指動作パターンと前記記憶部に記憶されている前記指動作パターンと照合する指動作パターン照合部と、前記指動作パターン照合部による照合の結果、パターンが一致した前記指動作パターンを前記記憶部から選択し、選択した指動作パターンに関連付けられている前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定部とを有するようにしてもよい。
In the contact operation support system, the recognition unit includes a photographing unit that photographs an image and a user, a finger motion recognition unit that recognizes the finger motion on the image by the user from a photographed image photographed by the photographing unit, A face area recognition unit that recognizes a face area in a captured image captured by the imaging unit and that is designated by the finger motion recognized by the finger motion recognition unit, and the determination unit includes: A face feature data generation unit that generates face feature data by extracting a face feature amount in the face region recognized by the face region recognition unit, the face feature data generated by the face feature data generation unit, and the storage unit A face feature data matching unit for matching the face feature data stored in
As a result of the collation by the face feature data collation unit, the face feature data with matching features is selected from the storage unit, and a contact partner determination unit that determines a person identified by the selected face feature data as a contact partner; A finger action pattern generation unit that generates finger action patterns by measuring time-series data of finger positions from finger actions on an image recognized by the finger action recognition unit, and the finger action pattern generation part that generates the finger action pattern A finger motion pattern matching unit that matches a finger motion pattern and the finger motion pattern stored in the storage unit, and the finger motion pattern that matches the pattern as a result of matching by the finger motion pattern matching unit from the storage unit. A contact means determination unit for selecting and determining a contact means identified by the contact means identification information associated with the selected finger movement pattern Unishi may be.

上記連絡操作支援システムは、外部の通信機器と通信する通信部を更に備え、前記通信部は、前記決定部が決定した連絡相手の名前及び前記決定部が選択した前記連絡手段識別情報を外部の通信機器に送信し、又は、前記決定部が決定した連絡相手との前記決定部が決定した連絡手段による連絡を実行させる命令を外部の通信機器に送信するようにしてもよい。   The contact operation support system further includes a communication unit that communicates with an external communication device, and the communication unit includes an external name of the contact partner determined by the determination unit and the contact means identification information selected by the determination unit. You may make it transmit to a communication apparatus or the command which performs the contact by the contact means determined by the determination part with the contact party determined by the determination part to an external communication apparatus.

上記連絡操作支援システムによれば、当該連絡操作支援システムを適用した通信機器(例えば、ノートPC)上における所望の連絡相手と所望の連絡手段に加え、外部の通信機器(例えば、携帯電話、ノートPC、タブレット端末)上の所望の連絡相手と所望の連絡手段を簡便に決定することができる。   According to the contact operation support system, in addition to a desired contact partner and a desired contact means on a communication device (for example, a notebook PC) to which the contact operation support system is applied, an external communication device (for example, a mobile phone, a notebook) It is possible to easily determine a desired contact partner and desired contact means on a PC or tablet terminal.

上記問題を解決するために、本発明の他の態様である連絡操作支援装置は、筐体の一方の面側から他方の面側が見えるように筐体の枠内に形成された透明のタッチパネルを有し、前記タッチパネルを透して見える画像を利用して、連絡相手と連絡手段とを決定する連絡操作支援装置であって、少なくとも、人物を認識する顔特徴データを記憶するとともに、前記タッチパネル上をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部と、筐体を画像上に載置している際に、ユーザによる前記タッチパネル上の指動作と、前記タッチパネル上の前記指動作による指示領域を透して見える画像上の顔領域とを認識する認識部と、前記認識部が認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定するとともに、決定する連絡相手との連絡手段として、前記認識部が認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する決定部とを備えることを特徴とする。   In order to solve the above problem, a contact operation support device according to another aspect of the present invention includes a transparent touch panel formed in a frame of a housing so that the other surface side can be seen from one surface side of the housing. A contact operation support device for determining a contact partner and a contact means using an image seen through the touch panel, storing at least facial feature data for recognizing a person, and on the touch panel A storage unit for storing a finger movement pattern indicating a finger movement pattern and a contact means identification information for identifying a contact means in association with each other, and when the housing is placed on an image, A recognition unit for recognizing a finger motion on the touch panel and a face region on the image seen through the indication region by the finger motion on the touch panel; and a face in the face region on the image recognized by the recognition unit. Previous Face feature data is selected from the storage unit, a person identified by the selected face feature data is determined as a contact partner, and as a contact means with the determined contact partner, from the finger movement recognized by the recognition unit A determining unit that selects the contact means identification information associated with the obtained finger movement pattern from the storage unit and determines a contact means that is identified by the selected contact means identification information; .

上記連絡操作支援装置によれば、上記連絡操作支援システムと同様に、所望の連絡相手と所望の連絡手段を簡便に決定することができる。   According to the contact operation support device, the desired contact partner and the desired contact means can be easily determined in the same manner as the contact operation support system.

上記連絡操作支援装置において、前記認識部は、前記タッチパネル上の接触位置を検出し、前記タッチパネル上の前記指動作を認識する指動作認識部と、前記タッチパネルを透して見える画像を撮影する撮影部と、前記撮影部が撮影した撮影画像内の顔領域であって、前記指動作認識部が認識した前記指動作による前記タッチパネル上の指示領域に対応する顔領域を認識する顔領域認識部とを有し、前記決定部は、前記顔領域認識部が認識した前記顔領域内の顔の特徴量を抽出して顔特徴データを生成する顔特徴データ生成部と、前記顔特徴データ生成部が生成した前記顔特徴データと前記記憶部に記憶されている前記顔特徴データとを照合する顔特徴データ照合部と、前記顔特徴データ照合部による照合の結果、特徴が一致した前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定部と、前記指動作認識部が認識した前記タッチパネル上の前記指動作から指の位置の時系列データを測定して指動作パターンを生成する指動作パターン生成部と、前記指動作パターン生成部にて生成された前記指動作パターンと前記記憶部に記憶されている前記指動作パターンと照合する指動作パターン照合部と、前記指動作パターン照合部による照合の結果、パターンが一致した前記指動作パターンを前記記憶部から選択し、選択した指動作パターンに関連付けられている前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定部とを有するようにしてもよい。   In the communication operation support device, the recognition unit detects a contact position on the touch panel, and captures a finger motion recognition unit that recognizes the finger motion on the touch panel and an image that can be seen through the touch panel. And a face area recognition unit for recognizing a face area in a photographed image photographed by the photographing unit and corresponding to an instruction area on the touch panel by the finger motion recognized by the finger motion recognition unit; The determination unit includes: a face feature data generation unit that generates face feature data by extracting a face feature amount in the face region recognized by the face region recognition unit; and the face feature data generation unit includes: The facial feature data matching unit that matches the generated facial feature data with the facial feature data stored in the storage unit, and the facial features whose features match as a result of matching by the facial feature data matching unit From the storage unit, a contact partner determining unit that determines a person identified by the selected face feature data as a contact partner, and a finger from the finger motion on the touch panel recognized by the finger motion recognition unit. A finger motion pattern generation unit that measures time-series data of positions and generates a finger motion pattern; the finger motion pattern generated by the finger motion pattern generation unit; and the finger motion stored in the storage unit The finger movement pattern matching unit that matches the pattern, and the finger movement pattern that matches the pattern as a result of the matching by the finger movement pattern matching unit is selected from the storage unit, and the communication associated with the selected finger movement pattern You may make it have a contact means determination part which determines the contact means identified by means identification information.

上記連絡操作支援装置は、外部の通信機器と通信する通信部を更に備え、前記通信部は、前記決定部が決定した連絡相手の名前及び前記決定部が選択した前記連絡手段識別情報を外部の通信機器に送信し、又は、前記決定部が決定した連絡相手との前記決定部が決定した連絡手段による連絡を実行させる命令を外部の通信機器に送信するようにしてもよい。   The contact operation support device further includes a communication unit that communicates with an external communication device, and the communication unit externally inputs the name of the contact partner determined by the determination unit and the contact means identification information selected by the determination unit. You may make it transmit to a communication apparatus or the command which performs the contact by the contact means determined by the determination part with the contact party determined by the determination part to an external communication apparatus.

上記連絡操作支援装置によれば、当該連絡操作支援装置を適用した通信機器(例えば、筐体枠内の少なくとも一部に透明のタッチパネルを有するタブレット端末)上における所望の連絡相手と所望の連絡手段に加え、外部の通信機器(例えば、携帯電話、ノートPC、タブレット端末)上の所望の連絡相手と所望の連絡手段を簡便に決定することができる。   According to the contact operation support device, a desired contact partner and desired contact means on a communication device (for example, a tablet terminal having a transparent touch panel in at least a part of the housing frame) to which the contact operation support device is applied. In addition, a desired contact partner and a desired contact means on an external communication device (for example, a mobile phone, a notebook PC, or a tablet terminal) can be easily determined.

上記問題を解決するために、本発明の他の態様である連絡操作支援装置は、筐体の一方の面側から他方の面側が見えるように筐体の枠内に形成された透明のタッチディスプレイを有し、前記タッチディスプレイを透して見える画像を利用して、連絡相手と連絡手段とを決定する連絡操作支援装置であって、少なくとも、人物を認識する顔特徴データを記憶するとともに、前記タッチディスプレイ上をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部と、筐体を画像上に載置している際に、ユーザによる前記タッチディスプレイ上の指動作と、前記タッチディスプレイ上の前記指動作による指示領域を透して見える画像上の顔領域とを認識する認識部と、前記認識部が認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定するとともに、決定する連絡相手との連絡手段として、前記認識部が認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する決定部とを備えることを特徴とする。   In order to solve the above problem, a contact operation support device according to another aspect of the present invention is a transparent touch display formed in a frame of a housing so that the other surface side can be seen from one surface side of the housing. A contact operation support apparatus that determines a contact partner and a contact means using an image seen through the touch display, and stores at least facial feature data for recognizing a person, When the storage unit storing the finger movement pattern indicating the movement pattern of the finger tracing on the touch display and the contact means identification information for identifying the contact means in association with each other, and the housing placed on the image, A recognizing unit for recognizing a finger movement on the touch display by a user and a face area on an image seen through an instruction area by the finger movement on the touch display; The face feature data of the face in the face area on the selected image is selected from the storage unit, the person identified by the selected face feature data is determined as a contact partner, and a contact means with the contact partner to be determined The contact means identification information associated with the finger movement pattern obtained from the finger movement recognized by the recognition section is selected from the storage section, and the contact means identified by the selected contact means identification information is determined. And a determining unit for performing the processing.

上記連絡操作支援装置によれば、上記連絡操作支援システムと同様に、所望の連絡相手と所望の連絡手段を簡便に決定することができる。   According to the contact operation support device, the desired contact partner and the desired contact means can be easily determined in the same manner as the contact operation support system.

上記連絡操作支援装置において、前記認識部は、前記タッチディスプレイ上の接触位置を検出し、前記タッチディスプレイ上の前記指動作を認識する指動作認識部と、前記タッチディスプレイを透して見える画像を撮影する撮影部と、前記撮影部が撮影した撮影画像内の顔領域であって、前記指動作認識部が認識した前記指動作による前記タッチディスプレイ上の指示領域に対応する顔領域を認識する顔領域認識部とを有し、前記決定部は、前記顔領域認識部が認識した前記顔領域内の顔の特徴量を抽出して顔特徴データを生成する顔特徴データ生成部と、前記顔特徴データ生成部が生成した前記顔特徴データと前記記憶部に記憶されている前記顔特徴データとを照合する顔特徴データ照合部と、前記顔特徴データ照合部による照合の結果、特徴が一致した前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定部と、前記指動作認識部が認識した前記タッチディスプレイ上の前記指動作から指の位置の時系列データを測定して指動作パターンを生成する指動作パターン生成部と、前記指動作パターン生成部にて生成された前記指動作パターンと前記記憶部に記憶されている前記指動作パターンと照合する指動作パターン照合部と、前記指動作パターン照合部による照合の結果、パターンが一致した前記指動作パターンを前記記憶部から選択し、選択した指動作パターンに関連付けられている前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定部とを有するようにしてもよい。   In the contact operation support device, the recognition unit detects a contact position on the touch display, recognizes the finger operation on the touch display, and an image seen through the touch display. A face for recognizing a face area corresponding to an instruction area on the touch display by the finger movement recognized by the finger movement recognition section, which is a face area in a shot image shot by the shooting section; A facial feature data generation unit that extracts facial feature data in the facial region recognized by the facial region recognition unit and generates facial feature data; and the facial feature A face feature data collating unit that collates the facial feature data generated by the data generating unit and the facial feature data stored in the storage unit; and a result of the collation by the facial feature data collating unit; A contact partner determining unit that selects the face feature data having the same character from the storage unit and determines a person identified by the selected face feature data as a contact partner; and the touch display recognized by the finger motion recognition unit. The finger movement pattern generation unit that measures the time series data of the finger position from the finger movement above and generates a finger movement pattern, the finger movement pattern generated by the finger movement pattern generation unit, and the storage unit The finger motion pattern matching unit that matches the stored finger motion pattern, and the finger motion pattern that matches the pattern as a result of matching by the finger motion pattern matching unit is selected from the storage unit, and the selected finger motion pattern A contact means determination unit that determines a contact means identified by the contact means identification information associated with the contact means.

上記連絡操作支援装置は、外部の通信機器と通信する通信部を更に備え、前記通信部は、前記決定部が決定した連絡相手の名前及び前記決定部が選択した前記連絡手段識別情報を外部の通信機器に送信し、又は、前記決定部が決定した連絡相手との前記決定部が決定した連絡手段による連絡を実行させる命令を外部の通信機器に送信するようにしてもよい。   The contact operation support device further includes a communication unit that communicates with an external communication device, and the communication unit externally inputs the name of the contact partner determined by the determination unit and the contact means identification information selected by the determination unit. You may make it transmit to a communication apparatus or the command which performs the contact by the contact means determined by the determination part with the contact party determined by the determination part to an external communication apparatus.

上記連絡操作支援装置によれば、当該連絡操作支援装置を適用した通信機器(例えば、筐体枠内の少なくとも一部に透明のタッチディスプレイを有するタブレット端末)上における所望の連絡相手と所望の連絡手段に加え、外部の通信機器(例えば、携帯電話、ノートPC、タブレット端末)上の所望の連絡相手と所望の連絡手段を簡便に決定することができる。   According to the contact operation support device, a desired contact partner and a desired contact on a communication device (for example, a tablet terminal having a transparent touch display in at least a part of the housing frame) to which the contact operation support device is applied. In addition to the means, a desired contact partner and a desired contact means on an external communication device (for example, a mobile phone, a notebook PC, or a tablet terminal) can be easily determined.

上記連絡操作支援装置は、前記タッチディスプレイを透して見える画像に重畳させて、前記認識部が認識した前記指動作の軌跡、前記決定部が連絡相手として決定した人物の顔への印、前記記憶部が前記顔特徴データと人物の名前とを関連付けて記憶している場合には前記決定部が連絡相手として決定した人物の名前、又は、外部の通信機器に命令を送信する場合には当該命令の内容、のうち少なくとも1つを報知情報として前記タッチディスプレイに表示させる表示制御部を更に備えるようにしてもよい。   The contact operation support device is superimposed on an image seen through the touch display, the finger movement locus recognized by the recognition unit, the mark on the face of the person determined by the determination unit as a contact partner, When the storage unit stores the facial feature data and the name of the person in association with each other, the name of the person determined as the contact partner by the determination unit, or when transmitting a command to an external communication device You may make it further provide the display control part which displays on the said touch display as alerting | reporting information at least 1 of the content of a command.

上記連絡操作支援装置によれば、意図した操作(指操作)が装置に入力されたか否か、意図した結果が装置から得られた否かなどをユーザに視覚的に確認させることができる。従って、ユーザは、操作内容や結果内容が正しくない場合には、再操作を行うことができる。   According to the contact operation support device, the user can visually check whether an intended operation (finger operation) is input to the device, whether an intended result is obtained from the device, or the like. Therefore, the user can perform the operation again when the operation content and the result content are not correct.

上記連絡操作支援装置において、前記表示制御部は、前記タッチディスプレイを透して見える画像上の顔であって前記決定部が連絡相手として決定した人物の顔が隠れない位置に、前記報知情報を表示させるようにしてもよい。   In the above-described contact operation support device, the display control unit displays the notification information at a position on the image that can be seen through the touch display and the face of the person determined by the determination unit as a contact partner is not hidden. You may make it display.

上記連絡操作支援装置によれば、報知情報によって、連絡相手の顔が隠れてしまうことを防止することができる。   According to the contact operation support device, it is possible to prevent the face of the contact partner from being hidden by the notification information.

上記連絡操作支援システム及び上記連絡操作支援装置において、前記指動作パターン照合部は、前記指動作パターン生成部にて生成された前記指動作パターン、及び、前記記憶部に記憶されている前記指動作パターンの両指動作パターン間で、指動作中の各サンプル時刻における位置座標を2次元ベクトルとみなし、なす誤差角の総和に基づいて両指動作パターン間の一致を判定し、両指動作パターンを照合するようにしてもよい。   In the contact operation support system and the contact operation support device, the finger motion pattern matching unit includes the finger motion pattern generated by the finger motion pattern generation unit and the finger motion stored in the storage unit. The position coordinate at each sample time during finger movement is considered as a two-dimensional vector between the two finger movement patterns of the pattern, and the match between the two finger movement patterns is determined based on the sum of error angles to be made. You may make it collate.

上記連絡操作支援システムによれば、指動作の照合精度を向上させることができるようになる。即ち、誤差角は指動作の大きさに不変の測定量であるため、同じ印であれば、大きく書かれた○印と小さく書かれた○印のいずれもが、大きさの違いを無視し、同じ印として一致を判定できるようになるため、指動作の照合精度が向上する。   According to the contact operation support system, it is possible to improve the accuracy of finger movement verification. In other words, the error angle is a measurement that does not change with the size of the finger movement, so if the mark is the same, both the large and small circles ignore the difference in size. Since the match can be determined as the same mark, the accuracy of the finger motion verification is improved.

上記連絡操作支援システム及び上記連絡操作支援装置において、前記指動作パターン照合部は、前記指動作パターン生成部にて生成された前記指動作パターン、及び、前記記憶部に記憶されている前記指動作パターンの両指動作パターン間で、相違度算出にDPマッチングを適用し、両指動作パターンを照合するようにしてもよい。   In the contact operation support system and the contact operation support device, the finger motion pattern matching unit includes the finger motion pattern generated by the finger motion pattern generation unit and the finger motion stored in the storage unit. DP matching may be applied to calculate the degree of difference between the two-finger movement patterns of the patterns, and the two-finger movement patterns may be collated.

上記連絡操作支援システムによれば、指動作の照合精度を向上させることができるようになる。即ち、同じ印であれば、試行の度に異なる指動作パターン間の部分的な伸縮、対応位置のずれは許容され、安定した照合ができるため、指動作の照合精度が向上する。   According to the contact operation support system, it is possible to improve the accuracy of finger movement verification. That is, if the marks are the same, partial expansion / contraction between different finger movement patterns and shifts in corresponding positions are allowed each time trials are performed, and stable collation can be performed, so that collation accuracy of finger movement is improved.

上記問題を解決するために、本発明の他の態様である連絡操作方法は、少なくとも、人物を認識する顔特徴データを記憶するとともに、画像をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部を有するシステムを用いる連絡操作方法であって、ユーザによる画像上の指動作と、画像上の前記指動作によって指示された顔領域とを認識する認識工程と、前記認識工程で認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定工程と、前記連絡相手決定工程で決定する連絡相手との連絡手段として、前記認識工程で認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定工程とを備えることを特徴とする。   In order to solve the above-described problem, a contact operation method according to another aspect of the present invention stores at least facial feature data for recognizing a person and a finger motion pattern indicating a motion pattern of a finger tracing an image, A contact operation method using a system having a storage unit that associates and stores contact means identification information for identifying a contact means, comprising: a finger motion on an image by a user; and a face area indicated by the finger motion on the image A recognition step for recognizing the face, and the face feature data of the face in the face area on the image recognized in the recognition step is selected from the storage unit, and the person identified by the selected face feature data is used as a contact partner. The finger motion obtained from the finger motion recognized in the recognition step as a contact means for determining the contact partner determination step and the contact partner determined in the contact partner determination step Said contact means identification information associated with the turn selected from the storage unit, characterized in that it comprises a contact means determination step of determining a communication means that is identified by the selected said contact means identification information.

上記連絡操作支援装置によれば、上記連絡操作支援システムと同様に、所望の連絡相手と所望の連絡手段を簡便に決定することができる。   According to the contact operation support device, the desired contact partner and the desired contact means can be easily determined in the same manner as the contact operation support system.

本発明によれば、上述の如く、所望の連絡相手と所望の連絡手段を簡便に決定することができる。また、本発明によれば、被写体が複数名である場合であっても、問題なく、アクセス相手及びアクセス手段を決定することができる。   According to the present invention, as described above, a desired contact partner and a desired contact means can be easily determined. Further, according to the present invention, even when there are a plurality of subjects, it is possible to determine the access partner and the access means without any problem.

本発明の第1の実施形態による連絡操作支援装置1の概略外観図である。1 is a schematic external view of a contact operation support device 1 according to a first embodiment of the present invention. 連絡操作支援装置1の使用方法の一例を説明する説明図である。It is explanatory drawing explaining an example of the usage method of the contact operation assistance apparatus. 連絡操作支援装置1の概略断面図である。It is a schematic sectional drawing of the contact operation assistance apparatus 1. 連絡操作支援装置1等の概略構成図である。It is a schematic block diagram of the contact operation assistance apparatus 1 grade | etc.,. 連絡操作支援装置1の機能構成を説明する説明図である。It is explanatory drawing explaining the function structure of the contact operation assistance apparatus. 記憶部90に記憶される情報の一例である。4 is an example of information stored in a storage unit 90. 連絡操作支援装置1の機能を説明する説明図である。It is explanatory drawing explaining the function of the contact operation assistance apparatus. 連絡操作支援装置1の機能を説明する説明図である。It is explanatory drawing explaining the function of the contact operation assistance apparatus. 連絡操作支援装置1の機能を説明する説明図である。It is explanatory drawing explaining the function of the contact operation assistance apparatus. 連絡操作支援装置1の機能を説明する説明図である。It is explanatory drawing explaining the function of the contact operation assistance apparatus. DPマッチングによる相違度の計算方法を説明する説明図である。It is explanatory drawing explaining the calculation method of the difference degree by DP matching. 連絡操作支援装置1の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process of the contact operation assistance apparatus 1. 本発明の第2の実施形態による連絡操作支援装置2の概略外観図である。It is a schematic external view of the contact operation assistance apparatus 2 by the 2nd Embodiment of this invention. 連絡操作支援装置2等の概略構成図である。It is a schematic block diagram of the contact operation assistance apparatus 2 grade | etc.,. 連絡操作支援装置2の機能構成を説明する説明図である。It is explanatory drawing explaining the function structure of the contact operation assistance apparatus 2. FIG. 連絡操作支援システム3の使用方法の一例を説明する説明図である。It is explanatory drawing explaining an example of the usage method of the contact operation assistance system. 連絡操作支援システム3の機能構成を説明する説明図である。It is explanatory drawing explaining the function structure of the contact operation assistance system 3. FIG. 従来技術を説明するための説明図である。It is explanatory drawing for demonstrating a prior art.

[第1の実施形態]
以下、本発明の第1の実施形態について図面を参照して説明する。図1は、本発明の第1の実施形態による連絡操作支援装置1の概略外観図である。図2は、連絡操作支援装置1の使用方法の一例を説明する説明図である。図3は、連絡操作支援装置1の概略断面図である。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic external view of a contact operation support device 1 according to the first embodiment of the present invention. FIG. 2 is an explanatory diagram illustrating an example of a method for using the contact operation support device 1. FIG. 3 is a schematic cross-sectional view of the contact operation support device 1.

連絡操作支援装置1は、図1(a)に示すように、筐体の一方の面側から他方の面側が見えるように筐体の枠内に形成された透明のタッチディスプレイ(以下、透過型タッチディスプレイと称する)と2つのカメラを備える。透過型タッチディスプレイは、表示機能と検出機能とを有する。   As shown in FIG. 1A, the contact operation support device 1 includes a transparent touch display (hereinafter referred to as a transmissive type) formed in a frame of a housing so that the other surface side can be seen from one surface side of the housing. (Referred to as a touch display) and two cameras. The transmissive touch display has a display function and a detection function.

透過型タッチディスプレイの表示機能は、例えば、エレクトロルミネッセンス(Electroluminescence;EL)素子を適用して実現される。透過型タッチディスプレイは、表示機能として、表示制御部27(後述)の制御に従って情報を表示する。透過型タッチディスプレイの検出機能は、例えば、抵抗膜方式、静電容量方式等を適用して実現される。透過型タッチディスプレイは、検出機能として、上方の面(図1に見えている面)における任意の位置の指定を受け付けて二次元座標を検出する。例えば、透過型タッチディスプレイは、連絡操作支援装置1の使用者の指先の接触位置の二次元座標を検出する。   The display function of the transmissive touch display is realized by applying, for example, an electroluminescence (EL) element. The transmissive touch display displays information as a display function according to control of a display control unit 27 (described later). The detection function of the transmissive touch display is realized by applying, for example, a resistance film method, a capacitance method, or the like. As a detection function, the transmissive touch display accepts designation of an arbitrary position on the upper surface (the surface visible in FIG. 1) and detects two-dimensional coordinates. For example, the transmissive touch display detects the two-dimensional coordinates of the contact position of the user's fingertip of the contact operation support device 1.

つまり、透過型タッチディスプレイは、表示機能を有する透過型ディスプレイの表面に検出機能を有する透過型タッチパネル(透明のタッチパネル)を付加したものである(後述の図3参照)。上述の如く、透過型タッチディスプレイは透明であるため、図2に示すように、連絡操作支援装置1を写真の上に置くと、連絡操作支援装置1の使用者は、透過型タッチディスプレイ越しに写真を見ることができる。   That is, the transmissive touch display is obtained by adding a transmissive touch panel (transparent touch panel) having a detection function to the surface of a transmissive display having a display function (see FIG. 3 described later). As described above, since the transmissive touch display is transparent, as shown in FIG. 2, when the contact operation support device 1 is placed on a photograph, the user of the contact operation support device 1 passes through the transmissive touch display. You can see photos.

2つのカメラは、透過型タッチディスプレイにおいて視認可能な情報(透過型タッチディスプレイ越しに見える透過可視情報、透過型タッチディスプレイに表示された表示可視情報)を撮影可能な位置に設けられる。図1(a)の例では、各カメラは、透過型タッチディスプレイ側(内側)を向くように筐体枠に設けられている。夫々のカメラは、一方のカメラにより撮影される透過型タッチディスプレイの撮影領域と、他方のカメラにより撮影される透過型タッチディスプレイ上の撮影領域とができるだけ重複せず、透過型タッチディスプレイの全域ができるだけ何れかのカメラの撮影領域になるように設けられる。   The two cameras are provided at positions where information that can be visually recognized on the transmissive touch display (transparent visible information that can be seen through the transmissive touch display, and visible visible information that is displayed on the transmissive touch display) can be captured. In the example of FIG. 1A, each camera is provided on the housing frame so as to face the transmissive touch display side (inside). In each camera, the shooting area of the transmissive touch display shot by one camera and the shooting area on the transmissive touch display shot by the other camera do not overlap as much as possible. It is provided so as to be in the shooting area of any camera as much as possible.

図3(a)は、図2(a)に示した一点鎖線Dにおいて連絡操作支援装置1を切った概略断面図である。図3(a)において、連絡操作支援装置1は、写真P上に載置されている。図1(a)におけるカメラは、図3(a)に示すように、第1ミラー(カーブミラー)と、第2ミラーと、レンズ光学系と、センサとを備える。図3(a)の右側のカメラも同様である。   FIG. 3A is a schematic cross-sectional view of the contact operation support device 1 taken along the alternate long and short dash line D shown in FIG. In FIG. 3A, the contact operation support device 1 is placed on the photograph P. As shown in FIG. 3A, the camera in FIG. 1A includes a first mirror (curve mirror), a second mirror, a lens optical system, and a sensor. The same applies to the right camera in FIG.

第1ミラーは、広い範囲の透過可視情報の光束を受光できるよう曲率を有している。第2ミラーは、第1ミラーが反射した光束を受光する位置に設けられる。第2ミラーは、平面ミラーでもよいし、カーブミラーでもよい。レンズ光学系は、第2ミラーが反射した光束を受光する位置に設けられる。レンズ光学系は、単一または複数の集光レンズを含む。センサは、レンズ光学系が集光した光束を受光する位置に設けられる。センサの一例は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。   The first mirror has a curvature so that it can receive a wide range of transmitted visible information light flux. The second mirror is provided at a position for receiving the light beam reflected by the first mirror. The second mirror may be a plane mirror or a curved mirror. The lens optical system is provided at a position for receiving the light beam reflected by the second mirror. The lens optical system includes a single or a plurality of condenser lenses. The sensor is provided at a position for receiving the light beam collected by the lens optical system. An example of the sensor is, for example, a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor.

図3(b)は、他の構成の場合の概略断面図である。図3(a)において、連絡操作支援装置1は、写真P上に載置されている。図1(a)におけるカメラは、図3(b)に示すように、広角レンズ光学系と、センサとを備える構成であってもよい。図3(b)の右側のカメラも同様である。図3(b)のセンサは、図3(a)のセンサと同様である。広角レンズ光学系は、画角(視野角度)がより広いレンズ光学系である。例えば、広角レンズ光学系は、画角が90度を超えるレンズ光学系である。広角レンズ光学系は、単一または複数の集光レンズを含む。   FIG. 3B is a schematic cross-sectional view of another configuration. In FIG. 3A, the contact operation support device 1 is placed on the photograph P. The camera in FIG. 1A may have a configuration including a wide-angle lens optical system and a sensor, as shown in FIG. The same applies to the right camera in FIG. The sensor of FIG. 3B is the same as the sensor of FIG. The wide-angle lens optical system is a lens optical system having a wider angle of view (viewing angle). For example, a wide-angle lens optical system is a lens optical system with an angle of view exceeding 90 degrees. The wide-angle lens optical system includes a single or a plurality of condenser lenses.

2つのカメラによって撮影された夫々の画像(以下、部分画像と称する)は 画像処理部(非図示)によって繋ぎ合わされて1つの画像に合成してもよい。例えば、画像処理部は、各部分画像の一部の領域が重複する場合には、両方の部分画像における重複しない領域と、一方の部分画像における重複する領域とを連結する。なお、画像処理部は、各部分画像における収差を補正する画像処理を実行し、補正された部分画像同士を合成してもよい。   The respective images (hereinafter referred to as partial images) taken by the two cameras may be joined together by an image processing unit (not shown) and combined into one image. For example, when a partial area of each partial image overlaps, the image processing unit connects a non-overlapping area in both partial images and an overlapping area in one partial image. Note that the image processing unit may perform image processing for correcting aberrations in the partial images and synthesize the corrected partial images.

なお、筐体においてカメラのレンズ位置は、固定しているため、透過型タッチディスプレイの検出機能の検出エリアの座標と、カメラによる撮影エリアの座標とは、一意に対応している。例えば、両エリアの左上を(0,0)、右上を(1,0)、左下を(0,1)、右下を(1,1)とする(x,y)座標系と定義してもよい。   Note that since the lens position of the camera is fixed in the housing, the coordinates of the detection area of the detection function of the transmissive touch display and the coordinates of the shooting area by the camera uniquely correspond. For example, the upper left of both areas is defined as (0, 0), the upper right is (1, 0), the lower left is (0, 1), and the lower right is (1, 1). Also good.

なお、連絡操作支援装置1が備えるカメラの個数は2つに限定されない。連絡操作支援装置1は1つカメラを備えてもよいし、3つ以上のカメラを備えてもよい。但し、透過型タッチディスプレイの全域をなるべく撮影可能とすることが望ましい。   Note that the number of cameras provided in the contact operation support device 1 is not limited to two. The contact operation support device 1 may include one camera, or may include three or more cameras. However, it is desirable that the entire transmissive touch display can be photographed as much as possible.

図1(b)は、連絡操作支援装置1の他の構成例である。連絡操作支援装置1は、図1(b)に示すように、一端が筐体枠に固定された支持部の他端に、透過型タッチディスプレイ側(斜め下側)を向くように1つのカメラを備えるようにしてもよい。なお、支持部は、連絡操作支援装置1の筐体枠から着脱可能であってもよい。また、支持部は、屈伸可能であってもよい。また、支持部は、折り畳み可能であってもよい。また、図1(b)の透過型タッチディスプレイは、図1(a)の透過型タッチディスプレイと同様である。なお、図1(c)の透過型タッチディスプレイについては後述する。   FIG. 1B is another configuration example of the contact operation support device 1. As shown in FIG. 1 (b), the contact operation support device 1 has one camera so that one end faces the transmissive touch display side (diagonally below) on the other end of the support portion fixed to the housing frame. You may make it provide. The support unit may be detachable from the housing frame of the contact operation support device 1. Moreover, the support part may be able to bend and stretch. Moreover, the support part may be foldable. The transmissive touch display in FIG. 1B is the same as the transmissive touch display in FIG. The transmissive touch display in FIG. 1C will be described later.

図4は、連絡操作支援装置1等の概略構成図である。連絡操作支援装置1は、図4に示すように、透過型ディスプレイ(上述)、カメラ(上述)、機器全体を制御するCPU、メモリ、ストレージ、通信インタフェースを備え、夫々がシステムバスによって接続されている。連絡操作支援装置1は、通信インタフェースによって、外部の通信機器9等と通信する。外部の通信機器9の一例は、携帯電話、PC、セットトップボックス(Set-top box;STB)である。なお、連絡操作支援装置1のメモリは、後述の顔特徴データ生成部21が生成する顔特徴データ、後述の指動作パターン生成部24が生成する指動作パターン等を一時的に格納する作業領域である。   FIG. 4 is a schematic configuration diagram of the contact operation support device 1 and the like. As shown in FIG. 4, the contact operation support apparatus 1 includes a transmissive display (described above), a camera (described above), a CPU that controls the entire device, a memory, a storage, and a communication interface, each of which is connected by a system bus. Yes. The contact operation support device 1 communicates with an external communication device 9 or the like via a communication interface. An example of the external communication device 9 is a mobile phone, a PC, or a set-top box (STB). Note that the memory of the contact operation support device 1 is a work area that temporarily stores facial feature data generated by a facial feature data generation unit 21 described later, a finger motion pattern generated by a finger motion pattern generation unit 24 described later, and the like. is there.

通信機器9は、図4に示すように、蓄積部(記憶部)、通信インタフェース、表示部、機器全体を制御するCPUを備え、夫々がシステムバスによって接続されている。通信機器9は、通信インタフェースによって、他の通信機器、連絡操作支援装置1等と通信する。蓄積部は、アドレス帳等を蓄積(記憶)する。表示部は、蓄積部に蓄積されている情報、通信インタフェースを介して受信した情報等を表示する。   As shown in FIG. 4, the communication device 9 includes a storage unit (storage unit), a communication interface, a display unit, and a CPU that controls the entire device, and each is connected by a system bus. The communication device 9 communicates with other communication devices, the contact operation support device 1 and the like through a communication interface. The accumulation unit accumulates (stores) an address book and the like. The display unit displays information stored in the storage unit, information received via the communication interface, and the like.

図5は、連絡操作支援装置1の機能構成を説明する説明図である。図6は、記憶部90に記憶される情報の一例である。図7〜図10は、連絡操作支援装置1の機能を説明する説明図である。   FIG. 5 is an explanatory diagram illustrating a functional configuration of the contact operation support device 1. FIG. 6 is an example of information stored in the storage unit 90. 7-10 is explanatory drawing explaining the function of the contact operation assistance apparatus 1. FIG.

連絡操作支援装置1は、図5に示すように、機能面から見ると、認識部10、決定部20、通信部30、表示部40、記憶部90を有する。認識部10は、撮影部11、指動作認識部12、顔領域認識部13を有する。決定部20は、顔特徴データ生成部21、顔特徴データ照合部22、連絡相手決定部23、指動作パターン生成部24、指動作パターン照合部25、連絡手段決定部26、表示制御部27を有する。   As shown in FIG. 5, the contact operation support device 1 includes a recognition unit 10, a determination unit 20, a communication unit 30, a display unit 40, and a storage unit 90 when viewed from the functional aspect. The recognition unit 10 includes a photographing unit 11, a finger motion recognition unit 12, and a face area recognition unit 13. The determination unit 20 includes a face feature data generation unit 21, a face feature data collation unit 22, a contact partner determination unit 23, a finger movement pattern generation unit 24, a finger movement pattern collation unit 25, a contact means determination unit 26, and a display control unit 27. Have.

なお、破線にて示すように、撮影部11は図4に示したカメラの機能に相当し、指動作認識部12は図4に示した透過型タッチディスプレイの検出機能に相当し、顔領域認識部13、決定部20(顔特徴データ生成部21、顔特徴データ照合部22、連絡相手決定部23、指動作パターン生成部24、指動作パターン照合部25、連絡手段決定部26、表示制御部27)は図4に示したCPUの機能に相当し、通信部30は図4に示した通信インタフェースの機能に相当し、表示部40は図4に示した透過型タッチディスプレイの表示機能に相当し、記憶部90は図4に示したストレージの機能に相当する。   As indicated by broken lines, the photographing unit 11 corresponds to the function of the camera shown in FIG. 4, and the finger motion recognition unit 12 corresponds to the detection function of the transmissive touch display shown in FIG. Unit 13, determination unit 20 (face feature data generation unit 21, face feature data verification unit 22, contact partner determination unit 23, finger movement pattern generation unit 24, finger movement pattern verification unit 25, contact means determination unit 26, display control unit 27) corresponds to the function of the CPU shown in FIG. 4, the communication unit 30 corresponds to the function of the communication interface shown in FIG. 4, and the display unit 40 corresponds to the display function of the transmissive touch display shown in FIG. The storage unit 90 corresponds to the storage function shown in FIG.

記憶部90は、少なくとも、人物を認識する顔特徴データを記憶するとともに、表示部40上をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する。例えば、記憶部90は、図6(a)に示すように、人物の名前に対応付けて顔特徴データを記憶するとともに、図6(b)に示すように、指動作パターンに対応付けて連絡手段識別情報を記憶する。   The storage unit 90 stores at least face feature data for recognizing a person, and associates a finger movement pattern indicating a finger movement pattern traced on the display unit 40 with contact means identification information for identifying a contact means. Remember. For example, the storage unit 90 stores face feature data in association with a person's name as shown in FIG. 6 (a), and communicates in association with a finger movement pattern as shown in FIG. 6 (b). Means identification information is stored.

図6(a)の“名前”は、人物の識別情報の一例であって、氏名の他、ニックネームなども含まれる。後述の図6(d)の「名前」も同様である。図6(b)の図形は、説明の便宜上、指動作パターンを視覚的に表したものである。即ち、図6(b)によれば、記憶部90は、四角形を描く指動作パターンに対応付けて連絡手段識別情報「R01」を記憶し、星印を描く指動作パターンに対応付けて連絡手段識別情報「R02」を記憶している。なお、記憶部90に記憶する指動作パターン、即ち、定義する指動作パターンとしては、上記のほか、円を描く指動作パターン、三角形を描く指動作パターンなどが考えられる。また、描き方を考慮して指動作パターンを定義してもよい。例えば、時計回りに円を描く指動作パターンと反時計回りに円を描く指動作パターンとを区別して定義してもよい。   “Name” in FIG. 6A is an example of person identification information, and includes a nickname and the like in addition to the name. The same applies to a “name” in FIG. The figure in FIG. 6B is a visual representation of finger movement patterns for convenience of explanation. That is, according to FIG. 6B, the storage unit 90 stores the contact means identification information “R01” in association with the finger motion pattern for drawing a rectangle, and the contact means in association with the finger motion pattern for drawing a star. Identification information “R02” is stored. In addition to the above, the finger motion pattern stored in the storage unit 90, that is, the finger motion pattern to be defined may be a finger motion pattern for drawing a circle, a finger motion pattern for drawing a triangle, or the like. Also, a finger movement pattern may be defined in consideration of how to draw. For example, a finger motion pattern that draws a circle clockwise and a finger motion pattern that draws a circle counterclockwise may be defined separately.

また、記憶部90は、上記に加えて、図6(c)に示すように、連絡手段識別情報に対応付けて連絡手段を記憶してもよい。また、記憶部90は、上記に加えて、図6(d)に示すように、名前に対応付けて1以上の連絡手段を記憶してもよい。なお、図6(c)(d)において、電話に関して、携帯電話と固定電話とを区別してもよい。また、メールに関して、携帯電話用のメールとPC用のメールとを区別してもよい。   In addition to the above, the storage unit 90 may store a contact unit in association with the contact unit identification information as shown in FIG. In addition to the above, the storage unit 90 may store one or more contact means in association with the name, as shown in FIG. In FIGS. 6C and 6D, the cellular phone and the fixed phone may be distinguished with respect to the phone. In addition, regarding mail, mobile phone mail and PC mail may be distinguished.

認識部10(指動作認識部12)は、筐体を画像上に載置している際に、ユーザによる表示部40上の指動作を認識する。例えば、図7(a)に示すように、ユーザが表示部40上にて四角形を指で描いた場合、認識部10は、四角形を描く指動作(指動作Y1)を認識する。また、図7(b)に示すように、ユーザが表示部40上にて星印を指で描いた場合、認識部10は、星印を描く指動作(指動作Y2)を認識する。   The recognizing unit 10 (finger motion recognizing unit 12) recognizes a finger motion on the display unit 40 by the user when the casing is placed on the image. For example, as illustrated in FIG. 7A, when the user draws a quadrangle with a finger on the display unit 40, the recognition unit 10 recognizes a finger motion (finger motion Y <b> 1) that draws the quadrangle. As shown in FIG. 7B, when the user draws a star with a finger on the display unit 40, the recognition unit 10 recognizes a finger motion (finger motion Y2) for drawing a star.

また、認識部10(顔領域認識部12)は、筐体を画像上に載置している際に撮影部11が撮影した画像を利用し、表示部40上の指動作による指示領域を透して見える画像上の顔領域を認識する。例えば、認識部10は、図7(a)の指動作Y1による指示領域S1(指動作Y1の四角形内の領域)を透して見える写真上の顔領域(女性の顔の顔領域)を認識する。また例えば、認識部10は、図7(b)の指動作Y2による指示領域S2(指動作Y2の星印に略外接する矩形内の領域。点線内の領域)を透して見える写真上の顔領域(女性の顔の顔領域)を認識する。なお、認識部10の詳細は後述する。   In addition, the recognition unit 10 (face area recognition unit 12) uses an image captured by the imaging unit 11 when the casing is placed on the image, and transmits the instruction region by the finger operation on the display unit 40. Recognize the face area on the image. For example, the recognizing unit 10 recognizes a face area (a face area of a female face) on a photograph that can be seen through an instruction area S1 (an area within a square of the finger action Y1) by the finger action Y1 of FIG. To do. In addition, for example, the recognition unit 10 on the photograph seen through the indication area S2 (the area in the rectangle substantially circumscribed by the star mark of the finger action Y2; the area in the dotted line) by the finger action Y2 in FIG. Recognize face area (face area of female face). Details of the recognition unit 10 will be described later.

決定部20(顔特徴データ生成部21、顔特徴データ照合部22、連絡相手決定部23)は、認識部10が認識した画像上の顔領域内の顔の顔特徴データを記憶部90から選択し、選択した顔特徴データによって識別される人物を連絡相手として決定する。例えば、決定部20は、認識部10が図7(a)の指示領域S1から認識した顔領域内の女性の顔の顔特徴データ、又は、認識部10が図7(b)の指示領域S2から認識した顔領域内の女性の顔の顔特徴データを記憶部90から選択する。例えば、記憶部90から図6(a)の顔特徴データ「ABCD…」を選択した場合、決定部20は、当該顔特徴データ「ABCD…」に対応付けられた「携帯恵美子」を連絡相手として決定する。   The determination unit 20 (the face feature data generation unit 21, the face feature data collation unit 22, and the contact partner determination unit 23) selects from the storage unit 90 the face feature data of the face in the face area on the image recognized by the recognition unit 10. Then, the person identified by the selected face feature data is determined as the contact partner. For example, the deciding unit 20 uses the facial feature data of the female face in the face area recognized by the recognizing unit 10 from the designated area S1 in FIG. 7A, or the recognizing unit 10 designates the designated area S2 in FIG. From the storage unit 90, the facial feature data of the female face in the face area recognized from the above is selected. For example, when the face feature data “ABCD...” In FIG. 6A is selected from the storage unit 90, the determination unit 20 uses “Emiko Mobile” associated with the face feature data “ABCD. decide.

また、決定部20(指動作パターン生成部24、指動作パターン照合部25、連絡手段決定部26)は、決定する連絡相手との連絡手段として、認識部10が認識した指動作から得られる指動作パターンに関連付けられている連絡手段識別情報を記憶部90から選択し、選択した連絡手段識別情報によって識別される連絡手段を決定する。例えば、決定部20は、記憶部90において、図7(a)の指動作Y1から得られる指動作パターン「四角形を描く指動作パターン」に関連付けられている連絡手段識別情報「R01」を選択し、当該連絡手段識別情報「R01」によって識別される連絡手段を決定する。また例えば、決定部20は、記憶部90において、図7(b)の指動作Y2から得られる指動作パターン「星印を描く指動作パターン」に関連付けられている連絡手段識別情報「R02」を選択し、当該連絡手段識別情報「R02」によって識別される連絡手段を決定する。なお、決定部20の詳細は後述する。   In addition, the determination unit 20 (finger movement pattern generation unit 24, finger movement pattern matching unit 25, contact means determination unit 26) is a finger obtained from the finger movement recognized by the recognition unit 10 as a contact means with the contact partner to be determined. The contact means identification information associated with the operation pattern is selected from the storage unit 90, and the contact means identified by the selected contact means identification information is determined. For example, the determination unit 20 selects the contact means identification information “R01” associated with the finger movement pattern “finger movement pattern for drawing a rectangle” obtained from the finger movement Y1 in FIG. The contact means identified by the contact means identification information “R01” is determined. Further, for example, the determination unit 20 stores the contact means identification information “R02” associated with the finger movement pattern “finger movement pattern for drawing an asterisk” obtained from the finger movement Y2 of FIG. The contact means selected is determined by the contact means identification information “R02”. Details of the determination unit 20 will be described later.

表示制御部27は、表示部40を透して見える画像に重畳させて、認識部10が認識した指動作の軌跡、又は、決定部20が連絡相手として決定した人物の顔への印のうち少なくとも1つを報知情報として表示部40に表示させる。表示制御部27は、報知情報として、図6(a)の如く、記憶部90が顔特徴データと人物の名前とを関連付けて記憶している場合には決定部20が連絡相手として決定した人物の名前を表示部40に表示させてもよい。表示制御部27は、通信部30が外部の通信機器9に命令を送信する場合には当該命令の内容を表示部40に表示させてもよい。   The display control unit 27 superimposes on the image seen through the display unit 40, and the finger movement locus recognized by the recognition unit 10 or the mark on the face of the person determined by the determination unit 20 as a contact partner At least one is displayed on the display unit 40 as notification information. When the storage unit 90 stores the facial feature data and the name of the person in association with each other as the notification information as shown in FIG. 6A, the display control unit 27 determines the person determined by the determination unit 20 as the contact partner. May be displayed on the display unit 40. When the communication unit 30 transmits a command to the external communication device 9, the display control unit 27 may display the content of the command on the display unit 40.

表示制御部27は、例えば、図8に示すように、表示部40を透して見える画像上の顔であって決定部20が連絡相手として決定した人物の顔が隠れない位置に報知情報を表示させてもよい。なお、図8(a)の報知情報(命令内容)は、携帯恵美子への発呼命令(又は、携帯恵美子への発呼直前の通話ボタンの表示命令)を表現したものである。図8(b)の報知情報(命令内容)は、携帯恵美子を送信先に指定した新規メール作成画面の表示命令)を表現したものである。   For example, as shown in FIG. 8, the display control unit 27 displays the notification information at a position on the image that can be seen through the display unit 40 so that the face of the person determined by the determination unit 20 as a contact partner is not hidden. It may be displayed. Note that the notification information (command content) in FIG. 8A represents a call instruction to Emiko Mobile (or a call button display instruction immediately before calling Emiko Mobile). The notification information (command content) in FIG. 8B represents a new mail creation screen display command in which Emiko Mobile is designated as the transmission destination.

通信部30は、決定部20が決定した連絡相手の名前及び決定部20が選択した連絡手段識別情報を外部の通信機器9に送信する。なお、通信部30は、上記に代えて又は加えて、決定部20が決定した連絡相手との決定部20が決定した連絡手段による連絡を実行させる命令を外部の通信機器9に送信してもよい。   The communication unit 30 transmits the name of the contact partner determined by the determination unit 20 and the contact means identification information selected by the determination unit 20 to the external communication device 9. Note that the communication unit 30 may transmit to the external communication device 9 a command to execute communication by the contact means determined by the determination unit 20 with the contact partner determined by the determination unit 20 instead of or in addition to the above. Good.

例えば、図9に示すように、決定部10が、連絡相手は携帯恵美子、連絡手段識別情報は「R01」であると決定した場合、通信部30は、連絡相手の名前「携帯恵美子」及び連絡手段識別情報「R01」を通信機器9に送信する。なお、名前「携帯恵美子」及び連絡手段識別情報「R01」を連絡操作支援装置1から受信した通信機器9は、例えば、図9に示すような画面を自動的に表示部に表示する。また、例えば、図10に示すように、決定部10が、連絡相手は携帯恵美子、連絡手段識別情報は「R02」であると決定した場合、通信部30は、連絡相手の名前「携帯恵美子」及び連絡手段識別情報「R02」を通信機器9に送信する。なお、名前「携帯恵美子」及び連絡手段識別情報「R02」を連絡操作支援装置1から受信した通信機器9は、例えば、図10に示すような画面を自動的に表示部に表示する。   For example, as illustrated in FIG. 9, when the determination unit 10 determines that the contact partner is Emiko Mobile and the contact means identification information is “R01”, the communication unit 30 sets the contact partner name “Emiko Mobile” and the contact information. The means identification information “R01” is transmitted to the communication device 9. The communication device 9 that has received the name “Emiko Mobile” and the contact means identification information “R01” from the contact operation support device 1 automatically displays a screen as shown in FIG. 9 on the display unit, for example. For example, as illustrated in FIG. 10, when the determination unit 10 determines that the contact partner is Emiko Mobile and the communication means identification information is “R02”, the communication unit 30 determines the name “Emiko Mobile” of the contact partner. The communication means identification information “R02” is transmitted to the communication device 9. The communication device 9 that has received the name “Emiko Mobile” and the contact means identification information “R02” from the contact operation support device 1 automatically displays a screen as shown in FIG. 10 on the display unit, for example.

以上のように、連絡操作支援装置1は、表示部40を透して見える画像(透過型タッチディスプレイ越しに見える透過可視情報)を利用し、連絡相手と連絡手段とを決定する。具体的には、連絡操作支援装置1は、ユーザが、表示部40を透した画像上において、所望の連絡手段に対応する指動作で所望の連絡相手の顔を指定すれば、連絡相手と連絡手段とを決定する。以下、連絡相手及び連絡手段の決定について詳しく説明する。   As described above, the contact operation support device 1 uses the image seen through the display unit 40 (transparent visible information seen through the transparent touch display) to determine the contact partner and the contact means. Specifically, the contact operation support device 1 contacts the contact partner if the user designates the face of the desired contact partner with the finger operation corresponding to the desired contact means on the image that has passed through the display unit 40. Determine the means. Hereinafter, determination of a contact partner and a contact means will be described in detail.

(連絡相手の決定)
顔領域認識部13は、撮影部11(又は、撮影部11の撮影画像を処理する非図示の画像処理部)から撮影画像を取得する。顔領域認識部13は、撮影画像内の顔領域を認識する。具体的には、顔領域認識部13は、指動作による指示領域内の顔領域を認識する。例えば、顔領域認識部13は、図7(a)の指示領域S1を透して見える写真上の女性の顔の顔領域を認識する。つまり、顔領域認識部13は、撮影部11が撮影した撮影画像内の顔領域であって、指動作認識部12が認識した指動作による表示部40上の指示領域に対応する顔領域を認識する。
(Determining contact person)
The face area recognition unit 13 acquires a captured image from the imaging unit 11 (or an image processing unit (not shown) that processes a captured image of the imaging unit 11). The face area recognition unit 13 recognizes a face area in the captured image. Specifically, the face area recognition unit 13 recognizes a face area in an instruction area by a finger motion. For example, the face area recognition unit 13 recognizes a face area of a female face on a photograph that can be seen through the instruction area S1 of FIG. In other words, the face area recognition unit 13 recognizes a face area in the captured image captured by the imaging unit 11 and corresponding to the instruction area on the display unit 40 by the finger motion recognized by the finger motion recognition unit 12. To do.

より詳細には、顔領域認識部13は、撮影部11による撮影後にメモリ(図4参照)に記憶される撮影画像の全域を対象として顔検出を行う。顔領域認識部13は、顔検出の結果、顔の存在領域をメモリに記憶する。例えば、顔領域認識部13は、顔を含む最小の矩形領域をメモリに記憶する。その後、ユーザによる表示部40の指動作があった場合、顔領域認識部13は、メモリ上に記憶されている顔の存在領域のうち当該指動作による指示位置に最も近い存在領域を特定し、当該指操作による指示領域内の顔領域として認識する。なお、顔領域認識部13は、ユーザによる表示部40の指動作があった後に、当該指動作による指示位置の近傍領域に限定して顔検出を行うことにより、顔検出に要する処理量を削減してもよい。   More specifically, the face area recognizing unit 13 performs face detection for the entire area of the captured image stored in the memory (see FIG. 4) after shooting by the shooting unit 11. The face area recognition unit 13 stores the face existing area in the memory as a result of the face detection. For example, the face area recognition unit 13 stores the minimum rectangular area including the face in the memory. After that, when there is a finger movement of the display unit 40 by the user, the face area recognition unit 13 specifies an existing area that is closest to the indicated position by the finger action among the existing areas of the face stored in the memory, It is recognized as a face area in the instruction area by the finger operation. The face area recognition unit 13 reduces the amount of processing required for face detection by performing face detection only in the vicinity of the position indicated by the finger movement after the user performs a finger movement on the display unit 40. May be.

なお、顔検出には、下記参考文献1に記載の技術が適用できる。   The technique described in Reference Document 1 below can be applied to face detection.

[参考文献1]Paul Viola, Michael Jones, "Robust Real-time Object Detection", Second International Workshop on Statistical and Computational Theories of Vision - Modeling, Learning, Computing, and Sampling, 2001.   [Reference 1] Paul Viola, Michael Jones, "Robust Real-time Object Detection", Second International Workshop on Statistical and Computational Theories of Vision-Modeling, Learning, Computing, and Sampling, 2001.

参考文献1では、予め顔が含まれる画像を大量に準備し(所定数準備し)、顔の含まれる領域内の輝度信号をHaar−like特徴量に変換して、黒目は周辺の白目部分と比較して輝度信号が小さい、眉に対して頬の輝度信号が高い、といった顔画像に共通する輝度信号の大小関係をAdaboostと呼ばれる機械学習手法で学習し、顔画像に共通する判定規則が記述されたAdaboost識別器を生成する。新たに入力された画像内で顔を検出する際は、特定の矩形を左から右方向、上から下方向のラスタースキャン順に移動させ、各移動先の矩形内の輝度信号をHaar−like特徴量に変換し、あらかじめ生成したAdaboost識別器に記述された判定規則を満たしているかどうかで、人物の顔が含まれるか否かが判定される。   In Reference 1, a large number of images including a face are prepared in advance (a predetermined number is prepared), a luminance signal in a region including the face is converted into a Haar-like feature value, The comparison of the luminance signal common to the face image, such as a small luminance signal and a high cheek luminance signal for the eyebrows, is learned by a machine learning method called Adaboost, and a common judgment rule is described for the face image Generated Adaboost classifiers. When detecting a face in a newly input image, a specific rectangle is moved in the raster scan order from left to right and from top to bottom, and the luminance signal in each destination rectangle is Haar-like feature quantity. Whether or not a person's face is included is determined based on whether or not the determination rule described in the Adaboost classifier generated in advance is satisfied.

顔特徴データ生成部21は、顔領域認識部13が認識した顔領域内の顔の特徴量を抽出して顔特徴データを生成する。例えば、顔特徴データ生成部21は、図7(a)の女性の顔の特徴量を抽出して顔特徴データを生成する。   The face feature data generation unit 21 extracts face feature amounts in the face area recognized by the face area recognition unit 13 to generate face feature data. For example, the face feature data generation unit 21 generates face feature data by extracting the feature amount of the female face in FIG.

なお、顔特徴データの生成には、参考文献2(特開2009−211490号公報)に記載の技術が適用できる。なお、参考文献2は、照明変動や撮影機材の特性変動に対して耐性のある隣接相対ビット列(LBP)に基づいて画像を比較し、その類似スコアに基づいて画像認識を行う技術を発明したものである。   Note that the technique described in Reference 2 (Japanese Patent Laid-Open No. 2009-212490) can be applied to the generation of facial feature data. Reference 2 invented a technique for comparing images based on adjacent relative bit strings (LBP) that are resistant to variations in illumination and characteristics of photographing equipment, and performing image recognition based on the similarity score. It is.

参考文献2では、検出された顔画像内で目鼻点を特定し、両目の位置および目鼻の距離に応じた基準が一定となるように写真内から顔画像を正規化して切り出す。正規化された顔画像内で各画素に順次注目し、各注目画素を、当該注目画素と、この注目画素に隣接する複数の周辺画素との相対的な特徴量の相対値が各周辺画素の位置に応じて配列されたLBP(Local Binary Pattern)に変換される。LBPはテクスチャ解析の手法であり、主に領域分割等で使用されている。このLBPは、画像処理分野でのエッジ抽出用のフィルタ(ラプラシアンフィルタ、Cannyフィルタ等)処理と同様であり、注目画素と周辺画素との特徴量の相対値に基づいて出力値が決定される。同一人物の顔を異なる照明下で撮影して得られた2つの顔画像には照明変動に応じた輝度差やコントラスト差が認められるものの、LBP画像では照明変動の影響が抑制される。全画素のLBPが求まると、参照顔画像のLBPと各被参照顔画像のLBPとが比較され、両者の類似度に基づいて類似スコアを算出される。   In Reference Document 2, an eye-nose point is specified in the detected face image, and the face image is normalized and cut out from the photograph so that the reference according to the position of both eyes and the distance between the eyes and nose is constant. Pay attention to each pixel in the normalized face image one after another, and for each target pixel, the relative value of the relative feature value between the target pixel and a plurality of peripheral pixels adjacent to the target pixel It is converted into LBP (Local Binary Pattern) arranged according to the position. LBP is a texture analysis technique, and is mainly used for area division or the like. This LBP is similar to edge extraction filter (Laplacian filter, Canny filter, etc.) processing in the field of image processing, and the output value is determined based on the relative value of the feature quantity between the pixel of interest and the surrounding pixels. Although two face images obtained by photographing the face of the same person under different illuminations have a luminance difference or a contrast difference according to the illumination variation, the influence of the illumination variation is suppressed in the LBP image. When the LBP of all pixels is obtained, the LBP of the reference face image and the LBP of each referenced face image are compared, and a similarity score is calculated based on the similarity between the two.

顔特徴データ照合部22は、顔特徴データ生成部21が生成した顔特徴データと記憶部90に記憶されている顔特徴データとを照合する。つまり、顔特徴データ照合部22は、ユーザによって指示された撮影画像上の顔と、予め顔特徴データを記憶している複数の人物の顔を照合する。   The face feature data collation unit 22 collates the face feature data generated by the face feature data generation unit 21 with the face feature data stored in the storage unit 90. That is, the face feature data collating unit 22 collates the face on the captured image instructed by the user with the faces of a plurality of persons who have previously stored face feature data.

連絡相手決定部23は、顔特徴データ照合部22による照合の結果、特徴が一致した顔特徴データを記憶部90から選択し、当該顔特徴データによって識別される人物を連絡相手として決定する。例えば、顔特徴データ生成部21が生成した顔特徴データ「ABCD…」を生成した場合には、顔特徴データ生成部21が生成した顔特徴データ「ABCD…」と図6(a)の顔特徴データ「ABCD…」の特徴が一致する旨の照合結果となるため、連絡相手決定部23は、図6(a)の顔特徴データ「ABCD…」を選択し、選択した顔特徴データ「ABCD…」に対応付けられている「携帯恵美子」を連絡相手として決定する。つまり、連絡相手決定部23は、ユーザによって指示された撮影画像上の顔と一致する顔の人物を連絡相手として決定する。   The contact partner determining unit 23 selects face feature data whose features match as a result of the matching by the face feature data matching unit 22 from the storage unit 90, and determines a person identified by the face feature data as a contact partner. For example, when the facial feature data “ABCD...” Generated by the facial feature data generation unit 21 is generated, the facial feature data “ABCD...” Generated by the facial feature data generation unit 21 and the facial feature of FIG. Since the collation result indicates that the features of the data “ABCD...” Match, the contact partner determination unit 23 selects the face feature data “ABCD...” In FIG. "Emiko Mobile" associated with "" is determined as the contact partner. That is, the contact partner determination unit 23 determines a person whose face matches the face on the captured image instructed by the user as the contact partner.

(連絡手段の決定)
指動作認識部12は、表示部40上の接触位置を検出し、表示部40上の指動作を認識する。換言すれば、指動作認識部12は、表示部40上の指動作として、表示部40上の接触位置を検出する。例えば、指動作認識部12は、図7(a)の指動作Y1を認識する。つまり、指動作認識部12は、図7(a)の指動作Y1をした際の接触位置を検出する。
(Determination of contact method)
The finger movement recognition unit 12 detects the contact position on the display unit 40 and recognizes the finger movement on the display unit 40. In other words, the finger motion recognition unit 12 detects a contact position on the display unit 40 as a finger motion on the display unit 40. For example, the finger movement recognition unit 12 recognizes the finger movement Y1 in FIG. That is, the finger movement recognition unit 12 detects the contact position when the finger movement Y1 of FIG.

指動作パターン生成部24は、指動作認識部12が認識した表示部40上の指動作から指の位置の時系列データを測定して指動作パターンを生成する。例えば、指動作パターン生成部24は、図7(a)の指動作Y1の位置の時系列データを測定して指動作パターン(四角形を描く指動作)を生成する。   The finger movement pattern generation unit 24 measures the time series data of the finger position from the finger movement on the display unit 40 recognized by the finger movement recognition unit 12 and generates a finger movement pattern. For example, the finger movement pattern generation unit 24 measures the time series data of the position of the finger movement Y1 in FIG. 7A and generates a finger movement pattern (finger movement drawing a square).

より詳細には、指動作パターン生成部24は、指のなぞりの開始から終了までの間に測定された指位置の時系列データが一定の系列長Nとなるように再サンプリングを行い、指動作パターンa=(a[1],a[2],…,a[N])を生成する。なお、a[t]=(a_x[t],a_y[t])は指動作パターンaのサンプル時刻tにおける指位置の座標である。   More specifically, the finger movement pattern generation unit 24 performs re-sampling so that the time series data of the finger position measured from the start to the end of finger tracing becomes a constant series length N, and the finger movement pattern generation unit 24 performs finger movement. A pattern a = (a [1], a [2],..., A [N]) is generated. Note that a [t] = (a_x [t], a_y [t]) is the coordinates of the finger position at the sample time t of the finger motion pattern a.

なお、指動作パターン生成部24は、後述の指動作パターン照合部25による照合精度を向上させるために、以下の如く、指動作パターンaの座標を変換してもよい。今、指動作パターンaの重心を<a>=(<a_x>,<a_y>)とする。指動作パターン生成部24は、重心<a>の分だけ、指動作パターンa全体を平行移動し、新たな指動作パターンa’を得る。即ち、a’[t]=a[t]−<a>,t=1,2,…,Nとする。つまり、指動作パターン生成部24は、指動作パターンaを重心が0となるように座標変換し新たな指動作パターンa’を得る。   The finger movement pattern generation unit 24 may convert the coordinates of the finger movement pattern a as follows in order to improve the collation accuracy by a finger movement pattern collation unit 25 described later. Now, assume that the center of gravity of the finger movement pattern a is <a> = (<a_x>, <a_y>). The finger motion pattern generation unit 24 translates the entire finger motion pattern a by the center of gravity <a> to obtain a new finger motion pattern a ′. That is, a ′ [t] = a [t] − <a>, t = 1, 2,. In other words, the finger motion pattern generation unit 24 performs coordinate conversion of the finger motion pattern a so that the center of gravity becomes 0 to obtain a new finger motion pattern a ′.

指動作パターン照合部25は、指動作パターン生成部24にて生成された指動作パターンと記憶部90に記憶されている指動作パターンと照合する。つまり、指動作パターン照合部25は、ユーザによる指動作のパターンと、予め記憶している複数の指動作パターンとを照合する。   The finger motion pattern matching unit 25 matches the finger motion pattern generated by the finger motion pattern generation unit 24 with the finger motion pattern stored in the storage unit 90. That is, the finger motion pattern matching unit 25 matches the finger motion pattern by the user with a plurality of finger motion patterns stored in advance.

例えば、指動作パターン照合部25は、指動作パターン生成部24にて生成された指動作パターン、及び、記憶部90に記憶されている指動作パターンの両指動作パターン間で、指動作中の各サンプル時刻における位置座標を2次元ベクトルとみなし、なす誤差角の総和に基づいて両指動作パターン間の一致を判定し、両指動作パターンを照合する。   For example, the finger movement pattern collation unit 25 performs a finger movement between the finger movement patterns generated by the finger movement pattern generation unit 24 and the finger movement patterns stored in the storage unit 90. The position coordinates at each sample time are regarded as a two-dimensional vector, a match between the two-finger movement patterns is determined based on the sum of error angles formed, and the two-finger movement patterns are collated.

指動作パターン生成部24にて生成された指動作パターンをa、記憶部90に記憶されている指動作パターンをb1,b2,b3,…,bPとする。記憶部90に記憶されている指動作パターンbjは、例えば、b1は指で○印をなぞった時の指動作パターン、b2は☆印というように、一筆書きができる指動作パターンであることが望ましい。
また、指動作パターンbjのサンプル時刻tにおける指位置の座標をbj[t]=(bj_x[t],bj_y[t])とし、bj=(bj[1],bj[2],bj[3],…,bj[N])とする。
The finger movement pattern generated by the finger movement pattern generation unit 24 is a, and the finger movement patterns stored in the storage unit 90 are b1, b2, b3,. The finger motion pattern bj stored in the storage unit 90 may be a finger motion pattern that can be drawn with a single stroke, for example, b1 is a finger motion pattern when a circle is traced with a finger, and b2 is a ☆ mark. desirable.
Also, the coordinates of the finger position at the sample time t of the finger movement pattern bj are bj [t] = (bj_x [t], bj_y [t]), and bj = (bj [1], bj [2], bj [3 ],..., Bj [N]).

上述の指動作パターンa、指動作パターンbの二系列データ間の一致の判定には、参考文献3(特開2008−129704号公報)に記載の技術が適用できる。   The technique described in Reference Document 3 (Japanese Patent Application Laid-Open No. 2008-129704) can be applied to determine the match between the two series of finger movement patterns a and finger movement patterns b.

参考文献3では、指動作パターンaと指動作パターンbとの一致を判定するための指標として相違度D(a,b)を算出する。サンプル時刻sにおける指動作パターンaの位置座標a[s]、及び、サンプル時刻tにおける指動作パターンbの位置座標b[t]を2次元ベクトルとみなし、下記式(1)によりa[s]とb[t]から誤差角θ[s,t]を算出して、誤差角θ[s,t]の総和を指動作パターンa、b間の相違度D(a,b)とする。   In Reference Document 3, the degree of difference D (a, b) is calculated as an index for determining the match between the finger motion pattern a and the finger motion pattern b. The position coordinate a [s] of the finger motion pattern a at the sample time s and the position coordinate b [t] of the finger motion pattern b at the sample time t are regarded as two-dimensional vectors, and a [s] is obtained by the following equation (1). And b [t] to calculate the error angle θ [s, t], and the sum of the error angles θ [s, t] is defined as the difference D (a, b) between the finger motion patterns a and b.

Figure 0005791557
Figure 0005791557

a[s]とb[t]の向きが同じ場合、誤差角は0に近い小さい値を示す。逆に、a[s]とb[t]の向きが異なる場合、誤差角は大きな値を示す。従って、相違度D(a,b)は値が小さく0に近い程、指動作パターンa、b間の一致度合が高いことを示す。   When the directions of a [s] and b [t] are the same, the error angle indicates a small value close to 0. Conversely, when the directions of a [s] and b [t] are different, the error angle shows a large value. Accordingly, the degree of difference D (a, b) is smaller and closer to 0 indicates that the degree of coincidence between the finger movement patterns a and b is higher.

また、誤差角θ[s,t]は、a[s]とb[t]の大きさに不変の測定量であるため、例えば、大きく描いた○印と小さく描いた○印における大きさの違いを無視し、同じ○印として一致を判定できる。同じ大きさで描いたつもりでも実際には大きさが異なる場合があるため、大きさに不変の測定量である誤差角を利用した一致判定は有効である。   Further, since the error angle θ [s, t] is a measurement amount that is invariant to the sizes of a [s] and b [t], for example, the size of the size of the large circle mark and the small circle mark is small. You can ignore the difference and determine the match as the same circle. Even though they are intended to be drawn with the same size, the size may actually differ, so that the coincidence determination using the error angle, which is a measurement amount that does not change in size, is effective.

一方、毎回完全に同じように描くのが困難で、描く毎に部分的に伸縮したり位置がずれたりし易い印(例えば☆印)を用いる場合、伸縮や位置ずれの程度によっては相違度の値が大きくなり、意図した印と判定されない可能性もある。このような場合には、指動作パターン間の相違度算出にDPマッチングを適用し、部分的な伸縮、対応位置のずれを吸収して安定化させる。   On the other hand, when using a mark that is difficult to draw exactly the same every time and tends to partially expand or contract each time it is drawn (for example, a ☆ mark), depending on the degree of expansion or contraction, the degree of difference There is a possibility that the value becomes large and the mark is not determined as the intended mark. In such a case, DP matching is applied to the calculation of the degree of difference between the finger movement patterns, and the partial expansion and contraction and the shift of the corresponding position are absorbed and stabilized.

即ち、指動作パターン照合部25は、指動作パターン生成部24にて生成された指動作パターン、及び、記憶部90に記憶されている指動作パターンの両指動作パターン間で、相違度算出にDPマッチングを適用し、両指動作パターンを照合してもよい。   That is, the finger movement pattern matching unit 25 calculates the difference between the finger movement patterns generated by the finger movement pattern generation unit 24 and the finger movement patterns stored in the storage unit 90. DP matching may be applied to collate both-finger motion patterns.

指動作パターン間の相違度算出にDPマッチングを適用する場合、相違度D(a,b)は下記式(2)〜下記式(6)を用いて再帰的に算出する。   When DP matching is applied to the calculation of the difference between the finger movement patterns, the difference D (a, b) is calculated recursively using the following formula (2) to the following formula (6).

Figure 0005791557
Figure 0005791557

図11は、DPマッチングによる相違度D(a,b)の計算方法を説明する説明図である。なお、図11では、as=a[s],bt=b[t]と表記している。表の行方向が記憶部90に記憶されている指動作パターンb、列方向が新たに入力された指動作パターンaに対応し、第t行s列目では、サンプル時刻tにおける指位置の座標b[t]とサンプル時刻sにおける指位置の座標a[s]とのなす誤差角θ[s,t]を上記式(1)から求め、また上記式(3)により相違度D[s,t]を再帰的に算出する。s=1,t=1からN×N個の枠内の全てについて相違度D[s,t]を算出し、最終的な相違度D(a,b)が求まる。最終的に求められた相違度D(a,b)は、値が小さいほど、指動作パターンaとbとの一致度合が高いことを意味する。逆に、値が大きいほど、一致度合が低いことを示す。従って、照合判定用の閾値Tを設定し、記憶部90に記憶されたP個の指動作パターンbjのうち、最小の相違度D(a,bj)を示す指動作パターンが閾値Tより小さい相違度D(a,bj)を示していれば、新たに入力された指動作パターンaは指動作パターンbjに一致していると判定する。   FIG. 11 is an explanatory diagram for explaining a method of calculating the degree of difference D (a, b) by DP matching. In FIG. 11, they are expressed as as = a [s] and bt = b [t]. The row direction of the table corresponds to the finger movement pattern b stored in the storage unit 90, the column direction corresponds to the newly input finger movement pattern a, and the coordinates of the finger position at the sample time t are in the t-th row and the s-th column. An error angle θ [s, t] between b [t] and the finger position coordinate a [s] at the sample time s is obtained from the above equation (1), and the difference degree D [s, t is obtained from the above equation (3). t] is calculated recursively. The difference degree D [s, t] is calculated for all of the N × N frames from s = 1, t = 1, and the final difference degree D (a, b) is obtained. The difference degree D (a, b) finally obtained means that the smaller the value, the higher the degree of coincidence between the finger movement patterns a and b. Conversely, the larger the value, the lower the matching degree. Therefore, a threshold value T for collation determination is set, and the finger motion pattern indicating the minimum difference degree D (a, bj) among the P finger motion patterns bj stored in the storage unit 90 is smaller than the threshold value T. If the degree D (a, bj) is indicated, it is determined that the newly input finger action pattern a matches the finger action pattern bj.

連絡手段決定部26は、指動作パターン照合部25による照合の結果、パターンが一致した指動作パターンを記憶部90から選択し、選択した指動作パターンに関連付けられている連絡手段識別情報によって識別される連絡手段を決定する。例えば、指動作認識部12が図7(a)の指動作Y1を認識した場合には、指動作パターン生成部24が生成した指動作パターン「四角形を描く指動作」と図6(b)の指動作パターン「四角形を描く指動作」の特徴が一致する旨の照合結果となるため、連絡手段決定部26は、図6(b)の指動作パターン「四角形を描く指動作」を選択し、選択した指動作パターン「四角形を描く指動作」に対応付けられている連絡手段識別情報「R01」によって識別される連絡手段を決定する。つまり、連絡手段決定部26は、ユーザによる指動作のパターンと一致する指動作パターンに関連付けられている連絡手段識別情報によって識別される連絡手段を決定する。   The contact means determination unit 26 selects, from the storage unit 90, a finger action pattern that matches the pattern as a result of the matching by the finger action pattern matching unit 25, and is identified by the contact means identification information associated with the selected finger action pattern. Determine the communication method. For example, when the finger movement recognition unit 12 recognizes the finger movement Y1 of FIG. 7A, the finger movement pattern “finger drawing a rectangle” generated by the finger movement pattern generation unit 24 and the finger movement pattern of FIG. Since the collation result indicates that the characteristics of the finger movement pattern “finger-drawing a square” match, the contact means determination unit 26 selects the finger movement pattern “finger-drawing a square” in FIG. The contact means identified by the contact means identification information “R01” associated with the selected finger action pattern “finger-drawing a rectangle” is determined. That is, the contact means determination unit 26 determines the contact means identified by the contact means identification information associated with the finger action pattern that matches the finger action pattern by the user.

以下、連絡操作支援装置1の処理の流れを説明する。図12は、連絡操作支援装置1の処理の流れの一例を示すフローチャートである。なお、説明の便宜上、人間の動作をステップS1に示している。   Hereinafter, the flow of processing of the contact operation support apparatus 1 will be described. FIG. 12 is a flowchart illustrating an example of a process flow of the contact operation support device 1. For convenience of explanation, human actions are shown in step S1.

図11において、ユーザは、図2の如く写真アルバムの上に連絡操作支援装置1を置く(ステップS1)。撮影部11は、連絡操作支援装置1の下の写真を含む領域を撮影する(ステップS2)。撮影画像はメモリ(図4参照)に一時記憶される。顔領域認識部13は、撮影画像上の顔領域を認識する(ステップS3)。即ち、顔領域認識部13は、メモリに記憶されている撮影画像の全域を対象として顔検出を行って顔の存在領域(例えば、矩形領域)をメモリに記憶する。   In FIG. 11, the user places the contact operation support apparatus 1 on the photo album as shown in FIG. 2 (step S1). The imaging unit 11 captures an area including a photograph under the contact operation support device 1 (step S2). The captured image is temporarily stored in a memory (see FIG. 4). The face area recognition unit 13 recognizes a face area on the captured image (step S3). That is, the face area recognition unit 13 performs face detection on the entire area of the captured image stored in the memory and stores the face existing area (for example, a rectangular area) in the memory.

ユーザが、表示部40を透した画像上において、所望の連絡手段に対応する指動作で所望の連絡相手の顔を指定した場合、指動作認識部12は、表示部40上の指動作を認識する(ステップS4)。顔領域認識部13は、指動作認識部12が認識した指動作による表示部40上の指示領域内の顔領域を認識する(ステップS5)。例えば、顔領域認識部13は、メモリ上に記憶されている顔の存在領域のうち指動作による指示位置に最も近い存在領域を特定し、当該指示領域内の顔領域として認識する。顔特徴データ生成部21は、顔特徴量を抽出し、顔特徴データを生成する(ステップS6)。顔特徴データ照合部22は、生成された顔特徴データと記憶部90に記憶された複数の人物の顔特徴データとの一致を判定し、ユーザによって指示された撮影画像上の顔と予め顔特徴データを記憶している複数の人物の顔を照合する(ステップS7)。連絡相手決定部23は、照合の結果、ユーザによって指示された撮影画像上の顔と一致する顔の人物を連絡相手として決定する(ステップS8)。   When the user designates the face of the desired contact partner with the finger motion corresponding to the desired contact means on the image seen through the display unit 40, the finger motion recognition unit 12 recognizes the finger motion on the display unit 40. (Step S4). The face area recognition unit 13 recognizes a face area in the instruction area on the display unit 40 by the finger movement recognized by the finger movement recognition unit 12 (step S5). For example, the face area recognizing unit 13 identifies the existing area closest to the position indicated by the finger movement from the existing areas of the face stored in the memory, and recognizes it as the face area in the specified area. The face feature data generation unit 21 extracts face feature amounts and generates face feature data (step S6). The face feature data matching unit 22 determines whether the generated face feature data matches the face feature data of a plurality of persons stored in the storage unit 90, and the face on the captured image instructed by the user and the face feature in advance. The faces of a plurality of persons storing data are collated (step S7). As a result of the collation, the contact partner determination unit 23 determines a person whose face matches the face on the captured image designated by the user as a contact partner (step S8).

指動作パターン生成部24は、指動作認識部12が認識した表示部40上の指動作から指の位置の時系列データを測定して指動作パターンを生成する(ステップS9)。生成された指動作パターンはメモリ(図4参照)に一時記憶される。指動作パターン照合部25は、指動作パターン生成部24にて生成された指動作パターンと記憶部90に記憶されている指動作パターンと照合する(ステップS10)。連絡手段決定部26は、照合の結果、ユーザによる指動作のパターンと一致する指動作パターンに関連付けられている連絡手段識別情報によって識別される連絡手段を決定する(ステップS11)。   The finger movement pattern generation unit 24 measures the time series data of the finger position from the finger movement on the display unit 40 recognized by the finger movement recognition unit 12, and generates a finger movement pattern (step S9). The generated finger movement pattern is temporarily stored in a memory (see FIG. 4). The finger movement pattern collation unit 25 collates the finger movement pattern generated by the finger movement pattern generation unit 24 with the finger movement pattern stored in the storage unit 90 (Step S10). The contact means determination unit 26 determines the contact means identified by the contact means identification information associated with the finger action pattern that matches the finger action pattern by the user as a result of the collation (step S11).

表示制御部27は、報知情報(例えば、指動作の軌跡、連絡相手として決定した人物の顔への印、連絡相手として決定した人物の名前、次ステップにて送信する命令の内容)を表示部40に表示する(ステップS12)。通信部30は、ステップS8において決定された連絡相手との、ステップS11において決定された連絡手段による連絡を実行させる命令を通信機器9に送信する。そして図12のフローチャートは終了する。   The display control unit 27 displays notification information (for example, a trajectory of finger movement, a mark on the face of a person determined as a contact partner, the name of the person determined as a contact partner, and the content of a command transmitted in the next step). 40 (step S12). The communication unit 30 transmits to the communication device 9 a command for executing contact with the contact partner determined in step S8 by the contact means determined in step S11. Then, the flowchart of FIG. 12 ends.

なお、ステップS13において、通信部30は、上記命令に代えて、連絡相手の名前及び連絡手段識別情報を通信機器9に送信してもよい。また、表示制御部27は、連絡相手の決定後に(ステップS8に続いて)、連絡相手として決定した人物の名前を表示部40に表示してもよい。   In step S <b> 13, the communication unit 30 may transmit the name of the contact partner and contact means identification information to the communication device 9 instead of the above command. The display control unit 27 may display the name of the person determined as the contact partner on the display unit 40 after the contact partner is determined (following step S8).

なお、図12のフローチャートでは、顔領域認識部13は、指動作がある前にメモリに記憶されている撮影画像の全域を対象として顔検出を行い(ステップS3)、指動作があった後に当該指動作による指示位置に最も近い存在領域を特定し、当該指示領域内の顔領域として認識しているが(ステップS5)、指動作がある前は顔検出を行わずに、指動作があった後に初めて当該指動作による指示位置の近傍領域に限定して顔検出を行って、当該指示領域内の顔領域として認識してもよい。   In the flowchart of FIG. 12, the face area recognition unit 13 performs face detection on the entire area of the captured image stored in the memory before the finger movement (step S3). An area that is closest to the position indicated by the finger movement is identified and recognized as a face area in the pointing area (step S5), but the face movement is not performed before the finger movement is detected. It may be recognized as a face area within the designated area by performing face detection only for the vicinity of the designated position by the finger movement for the first time later.

また、図12のフローチャートでは、連絡操作支援装置1は、連絡相手を決定した後に連絡手段を決定しているが、連絡手段を決定した後に連絡相手を決定してもよい。即ち、図12において、連絡相手を決定する手順(ステップS6〜ステップS8)と、連絡手段を決定する手順(ステップS9〜ステップS11)の順番を入れ替えてもよい。   In the flowchart of FIG. 12, the contact operation support apparatus 1 determines the contact means after determining the contact partner, but may determine the contact partner after determining the contact means. That is, in FIG. 12, the order of determining the contact partner (step S6 to step S8) and the procedure of determining the contact means (step S9 to step S11) may be interchanged.

以上、第1の実施形態による連絡操作支援装置1によれば、所望の連絡相手と所望の連絡手段を簡便に決定することができる。つまり、課題に記載した第1ステップと第2ステップを当時に行うことができる。例えば、知人に関する情報を得るもしくは知人と連絡を取る場面において、印画された写真を指でなぞり、指でなぞられた人物を認識してアクセスを取りたい相手を特定すると同時に、なぞり方によってアクセス手段の切り替えを実現することができる。   As described above, according to the contact operation support device 1 according to the first embodiment, it is possible to easily determine a desired contact partner and a desired contact means. That is, the first step and the second step described in the assignment can be performed at that time. For example, when getting information about an acquaintance or contacting an acquaintance, you can trace the printed photo with your finger, identify the person you want to access by recognizing the person traced with your finger, Can be realized.

[第2の実施形態]
以下、本発明の第2の実施形態について図面を参照して説明する。図13は、本発明の第2の実施形態による連絡操作支援装置2の概略外観図である。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. FIG. 13 is a schematic external view of a contact operation support device 2 according to the second embodiment of the present invention.

連絡操作支援装置2は、図13(a)に示すように、筐体の一方の面側から他方の面側が見えるように筐体の枠内に形成された透明のタッチパネル(以下、透過型タッチパネルと称する)と2つのカメラを備える。透過型タッチパネルは、例えば、抵抗膜方式、静電容量方式等を適用して実現される。透過型タッチパネルは、上方の面(図13に見えている面)における任意の位置の指定を受け付けて二次元座標を検出する。例えば、透過型タッチパネルは、連絡操作支援装置2の使用者の指先の接触位置の二次元座標を検出する。   As shown in FIG. 13A, the contact operation support device 2 is a transparent touch panel (hereinafter referred to as a transmissive touch panel) formed in the frame of the housing so that the other surface side can be seen from one surface side of the housing. And two cameras. The transmissive touch panel is realized by applying, for example, a resistance film method, a capacitance method, or the like. The transmissive touch panel receives designation of an arbitrary position on the upper surface (the surface visible in FIG. 13) and detects two-dimensional coordinates. For example, the transmissive touch panel detects the two-dimensional coordinates of the contact position of the fingertip of the user of the contact operation support device 2.

図13(a)に示す連絡操作支援装置2が備える2つのカメラは、図1(a)に示した連絡操作支援装置1が備える2つのカメラと同様である。つまり、外観において、図1(a)に示した連絡操作支援装置1は透過型タッチディスプレイを備えるのに対し、図13(a)に示す連絡操作支援装置2は透過型タッチパネルを備える点が異なる。   The two cameras included in the contact operation support apparatus 2 illustrated in FIG. 13A are the same as the two cameras included in the contact operation support apparatus 1 illustrated in FIG. That is, in terms of appearance, the contact operation support device 1 shown in FIG. 1A is provided with a transmissive touch display, whereas the contact operation support device 2 shown in FIG. 13A is provided with a transmissive touch panel. .

透過型タッチパネルは透明であるため、図2に示した連絡操作支援装置1と同様、連絡操作支援装置2を写真の上に置くと、連絡操作支援装置2の使用者は、透過型タッチパネル越しに写真を見ることができる。   Since the transmissive touch panel is transparent, like the contact operation support device 1 shown in FIG. 2, when the contact operation support device 2 is placed on the photograph, the user of the contact operation support device 2 passes through the transparent touch panel. You can see photos.

図13(b)は、連絡操作支援装置2の他の構成例である。図13(b)に示す連絡操作支援装置2は、図1(b)に示した連絡操作支援装置1が透過型タッチディスプレイを備えるのに対し、透過型タッチパネルを備える点が異なる。   FIG. 13B is another configuration example of the contact operation support device 2. A contact operation support device 2 shown in FIG. 13B is different from the contact operation support device 1 shown in FIG. 1B in that it includes a transmissive touch display.

図13(c)は、連絡操作支援装置2の他の構成例である。図13(c)に示す連絡操作支援装置2は、図13(b)に示した連絡操作支援装置2に、更に、一端が筐体枠に固定された支持部の他端に、透過型タッチパネルに映像を投影する1つのプロジェクターを備えたものである。なお、プロジェクター用の支持部は、カメラ用の支持部と同様、連絡操作支援装置2の筐体枠から着脱可能であってもよいし、屈伸可能であってもよいし、折り畳み可能であってもよい。また、カメラとプロジェクターとで支持部は共用してもよい。即ち、1つの支持部にカメラとプロジェクターを取り付けてもよい。
なお、特に断りがない場合には、連絡操作支援装置2は、図13(a)(b)に示すようにプロジェクターを備えないものとする。
FIG. 13C is another configuration example of the contact operation support device 2. The contact operation support device 2 shown in FIG. 13 (c) is similar to the contact operation support device 2 shown in FIG. 13 (b), and further has a transmissive touch panel at the other end of the support portion fixed to the housing frame. The projector is provided with one projector that projects an image. In addition, the support part for projectors may be detachable from the housing frame of the contact operation support device 2, bendable / extendable, or foldable, similar to the support part for the camera. Also good. Moreover, you may share a support part with a camera and a projector. That is, a camera and a projector may be attached to one support part.
Unless otherwise specified, the contact operation support device 2 does not include a projector as shown in FIGS. 13 (a) and 13 (b).

図14は、連絡操作支援装置2等の概略構成図である。連絡操作支援装置2は、図14に示すように、透過型タッチパネル(上述)、カメラ(上述)、機器全体を制御するCPU、メモリ、ストレージ、通信インタフェースを備え、夫々がシステムバスによって接続されている。連絡操作支援装置2は、通信インタフェースによって、図14に示した通信機器9等と通信する。つまり、連絡操作支援装置2の構成は、図4に示した連絡操作支援装置1が透過型タッチディスプレイを備えるのに対し、透過型タッチパネルを備える点が異なる。
但し、図13(c)に示すようにプロジェクターを備える場合には、連絡操作支援装置2は、更に出力系としてプロジェクターを備える。
FIG. 14 is a schematic configuration diagram of the contact operation support device 2 and the like. As shown in FIG. 14, the contact operation support device 2 includes a transparent touch panel (described above), a camera (described above), a CPU that controls the entire device, a memory, a storage, and a communication interface, each of which is connected by a system bus. Yes. The contact operation support device 2 communicates with the communication device 9 and the like illustrated in FIG. 14 through a communication interface. That is, the configuration of the contact operation support device 2 is different in that the contact operation support device 1 shown in FIG.
However, when a projector is provided as shown in FIG. 13C, the contact operation support apparatus 2 further includes a projector as an output system.

図15は、連絡操作支援装置2の機能構成を説明する説明図である。連絡操作支援装置2は、図15に示すように、機能面から見ると、認識部110、決定部120、通信部130、記憶部190を有する。認識部110は、撮影部111、指動作認識部112、顔領域認識部113を有する。決定部120は、顔特徴データ生成部121、顔特徴データ照合部122、連絡相手決定部123、指動作パターン生成部124、指動作パターン照合部125、連絡手段決定部126を有する。   FIG. 15 is an explanatory diagram illustrating the functional configuration of the contact operation support device 2. As shown in FIG. 15, the contact operation support device 2 includes a recognition unit 110, a determination unit 120, a communication unit 130, and a storage unit 190 when viewed from the functional aspect. The recognition unit 110 includes a photographing unit 111, a finger motion recognition unit 112, and a face area recognition unit 113. The determination unit 120 includes a face feature data generation unit 121, a face feature data collation unit 122, a contact partner determination unit 123, a finger action pattern generation unit 124, a finger action pattern collation unit 125, and a contact means determination unit 126.

なお、破線にて示すように、撮影部111は図14に示したカメラの機能に相当し、指動作認識部112は図14に示した透過型タッチパネルに相当し、顔領域認識部113、決定部120(顔特徴データ生成部121、顔特徴データ照合部122、連絡相手決定部123、指動作パターン生成部124、指動作パターン照合部125、連絡手段決定部126)は図14に示したCPUの機能に相当し、通信部130は図14に示した通信インタフェースの機能に相当し、記憶部190は図14に示したストレージの機能に相当する。   As indicated by a broken line, the photographing unit 111 corresponds to the function of the camera shown in FIG. 14, the finger motion recognition unit 112 corresponds to the transmission type touch panel shown in FIG. The unit 120 (the face feature data generation unit 121, the face feature data collation unit 122, the contact partner determination unit 123, the finger motion pattern generation unit 124, the finger motion pattern collation unit 125, and the contact means determination unit 126) is the CPU shown in FIG. The communication unit 130 corresponds to the function of the communication interface shown in FIG. 14, and the storage unit 190 corresponds to the function of the storage shown in FIG.

但し、図13(c)に示すようにプロジェクターを備える場合には、連絡操作支援装置2は、プロジェクターによる投影面である透過型タッチパネルに相当する表示部(非図示)と、CPUの機能に相当しプロジェクターを制御する表示制御部(非図示)とを更に備える。   However, when a projector is provided as shown in FIG. 13C, the contact operation support device 2 corresponds to a display unit (not shown) corresponding to a transmissive touch panel that is a projection surface by the projector and a function of a CPU. And a display control unit (not shown) for controlling the projector.

なお、連絡操作支援装置2が備える認識部110(撮影部111、指動作認識部112、顔領域認識部113)の機能は、連絡操作支援装置1が備える認識部10(撮影部11、指動作認識部12、顔領域認識部13)と同様であるため、説明は省略する。連絡操作支援装置2が備える決定部120(顔特徴データ生成部121、顔特徴データ照合部122、連絡相手決定部123、指動作パターン生成部124、指動作パターン照合部125、連絡手段決定部126)の機能は、連絡操作支援装置1が備える決定部20(顔特徴データ生成部21、顔特徴データ照合部22、連絡相手決定部23、指動作パターン生成部24、指動作パターン照合部25、連絡手段決定部26)と同様であるため、説明は省略する。通信部130及び記憶部190についても同様である。   Note that the functions of the recognition unit 110 (the photographing unit 111, the finger motion recognition unit 112, and the face area recognition unit 113) included in the contact operation support device 2 are the same as the recognition unit 10 (the image capturing unit 11, finger operation) included in the contact operation support device 1. Since it is the same as the recognition unit 12 and the face area recognition unit 13), the description is omitted. The determination unit 120 (the face feature data generation unit 121, the face feature data verification unit 122, the contact partner determination unit 123, the finger motion pattern generation unit 124, the finger motion pattern verification unit 125, the contact means determination unit 126 provided in the contact operation support device 2 ) Functions of the determination unit 20 (face feature data generation unit 21, face feature data verification unit 22, contact partner determination unit 23, finger action pattern generation unit 24, finger action pattern verification unit 25, Since it is the same as that of the contact means determination unit 26), the description is omitted. The same applies to the communication unit 130 and the storage unit 190.

以上、第2の実施形態による連絡操作支援装置2によれば、第1の実施形態による連絡操作支援装置1と同様、所望の連絡相手と所望の連絡手段を簡便に決定することができる。また、図13(c)に示すようにプロジェクターを備える場合には、第1の実施形態による連絡操作支援装置1と同様、報知情報によって、意図した指動作が入力されたか否か、意図した結果が装置から得られた否かなどをユーザに視覚的に確認させることができる。   As described above, according to the contact operation support device 2 according to the second embodiment, as in the contact operation support device 1 according to the first embodiment, it is possible to easily determine a desired contact partner and a desired contact means. Further, when a projector is provided as shown in FIG. 13C, whether or not the intended finger movement is input by the notification information as in the case of the contact operation support device 1 according to the first embodiment, the intended result. It is possible to make the user visually confirm whether or not is obtained from the apparatus.

[第3の実施形態]
以下、本発明の第3の実施形態について図面を参照して説明する。図16は、連絡操作支援システム3の使用方法の一例を説明する説明図である。図17は、連絡操作支援システム3の機能構成を説明する説明図である。
[Third Embodiment]
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. FIG. 16 is an explanatory diagram illustrating an example of a method for using the contact operation support system 3. FIG. 17 is an explanatory diagram illustrating the functional configuration of the contact operation support system 3.

連絡操作支援システム3は、図16に示すようにカメラ3−1とコンピュータ3−2から構成される。カメラ3−1の設置場所は特に限定しない。例えば、屋内であってもよいし、屋外であってもよい。また、図16においてカメラは1台であるが、連絡操作支援システム3は、2台以上のカメラから構成されていてもよい。   The contact operation support system 3 includes a camera 3-1 and a computer 3-2 as shown in FIG. The installation location of the camera 3-1 is not particularly limited. For example, it may be indoors or outdoors. In FIG. 16, the number of cameras is one, but the contact operation support system 3 may be composed of two or more cameras.

連絡操作支援システム3は、機能面から見ると、図17に示すように、認識部210、決定部220、通信部230、記憶部290を有する。認識部210は、撮影部211、指動作認識部212、顔領域認識部213を有する。決定部220は、顔特徴データ生成部221、顔特徴データ照合部222、連絡相手決定部223、指動作パターン生成部224、指動作パターン照合部225、連絡手段決定部226を有する。   The contact operation support system 3 includes a recognition unit 210, a determination unit 220, a communication unit 230, and a storage unit 290 as shown in FIG. The recognition unit 210 includes a photographing unit 211, a finger motion recognition unit 212, and a face area recognition unit 213. The determination unit 220 includes a face feature data generation unit 221, a face feature data verification unit 222, a contact partner determination unit 223, a finger motion pattern generation unit 224, a finger motion pattern verification unit 225, and a contact means determination unit 226.

また、破線にて示すように、撮影部211は図16に示したカメラ3−1の機能に相当し、指動作認識部212、顔領域認識部213、顔特徴データ生成部221、顔特徴データ照合部222、連絡相手決定部223、指動作パターン生成部224、指動作パターン照合部225、連絡手段決定部226、通信部230、記憶部290は図16に示したコンピュータ3−2の機能に相当する。   As indicated by a broken line, the photographing unit 211 corresponds to the function of the camera 3-1 illustrated in FIG. 16, and includes a finger motion recognition unit 212, a face area recognition unit 213, a face feature data generation unit 221, and face feature data. The collation unit 222, the contact partner determination unit 223, the finger movement pattern generation unit 224, the finger movement pattern collation unit 225, the contact means determination unit 226, the communication unit 230, and the storage unit 290 are added to the functions of the computer 3-2 illustrated in FIG. Equivalent to.

撮影部211は、周囲を撮影する。例えば、撮影部211は、図16に示すように写真アルバムの上にユーザによる指操作を撮影する。撮影画像は、無線(又は有線)によってコンピュータに送信される。   The imaging unit 211 images the surroundings. For example, the photographing unit 211 photographs a finger operation by the user on a photo album as shown in FIG. The captured image is transmitted to the computer by wireless (or wired).

指動作認識部212は、撮影部211が撮影した撮影画像からユーザによる画像上の指動作を認識する。顔領域認識部213は、撮影部211が撮影した撮影画像内の顔領域であって、指動作認識部212が認識した指動作によって指示された顔領域を認識する。
即ち、認識部210(撮影部211、指動作認識部212、顔領域認識部213)は、ユーザによる画像上の指動作と、当該指動作によって指示された顔領域とを認識する。
The finger motion recognition unit 212 recognizes the finger motion on the image by the user from the captured image captured by the imaging unit 211. The face area recognizing unit 213 recognizes a face area in the captured image captured by the image capturing unit 211 and designated by the finger motion recognized by the finger motion recognizing unit 212.
That is, the recognizing unit 210 (the photographing unit 211, the finger motion recognizing unit 212, and the face area recognizing unit 213) recognizes the finger motion on the image by the user and the face region instructed by the finger motion.

記憶部290は、連絡操作支援装置1の記憶部90と同様、少なくとも、人物を認識する顔特徴データを記憶するとともに、画像をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する。例えば、記憶部290は、図6に示すような情報を記憶する。   Similar to the storage unit 90 of the contact operation support device 1, the storage unit 290 stores at least facial feature data for recognizing a person, and identifies a finger motion pattern indicating a finger motion pattern tracing the image and a contact means. And associated contact means identification information. For example, the storage unit 290 stores information as illustrated in FIG.

決定部220(顔特徴データ生成部221、顔特徴データ照合部222、連絡相手決定部223)は、認識部210が認識した画像上の顔領域内の顔の顔特徴データを記憶部から選択し、選択した顔特徴データによって識別される人物を連絡相手として決定する。
具体的には、顔特徴データ生成部221は、連絡操作支援装置1が備える顔特徴データ生成部21と同様、顔領域認識部213が認識した顔領域内の顔の特徴量を抽出して顔特徴データを生成する。顔特徴データ照合部222は、連絡操作支援装置1が備える顔特徴データ照合部22と同様、顔特徴データ生成部211が生成した顔特徴データと記憶部290に記憶されている顔特徴データとを照合する。連絡相手決定部223は、連絡操作支援装置1が備える連絡相手決定部23と同様、顔特徴データ照合部222による照合の結果、特徴が一致した顔特徴データを記憶部290から選択し、選択した顔特徴データによって識別される人物を連絡相手として決定する。
The determination unit 220 (the face feature data generation unit 221, the face feature data collation unit 222, and the contact partner determination unit 223) selects from the storage unit the facial feature data of the face in the face area on the image recognized by the recognition unit 210. The person identified by the selected face feature data is determined as the contact partner.
Specifically, the face feature data generation unit 221 extracts the facial feature amount in the face area recognized by the face area recognition unit 213, similarly to the face feature data generation unit 21 included in the contact operation support device 1. Generate feature data. The face feature data matching unit 222 uses the face feature data generated by the face feature data generation unit 211 and the face feature data stored in the storage unit 290 in the same manner as the face feature data matching unit 22 included in the contact operation support device 1. Collate. The contact partner determination unit 223 selects, from the storage unit 290, the face feature data whose features match as a result of the collation by the face feature data collation unit 222, as with the contact partner determination unit 23 included in the contact operation support device 1. A person identified by the facial feature data is determined as a contact partner.

また、決定部220(指動作パターン生成部224、指動作パターン照合部225、連絡手段決定部226)は、認識部210が認識した指動作から得られる指動作パターンに関連付けられている連絡手段識別情報を記憶部290から選択し、選択した連絡手段識別情報によって識別される連絡手段を決定する。
具体的には、指動作パターン生成部224は、連絡操作支援装置1が備える指動作パターン生成部24と同様、指動作認識部212が認識した画像上の指動作から指の位置の時系列データを測定して指動作パターンを生成する。指動作パターン照合部225は、連絡操作支援装置1が備える指動作パターン照合部25と同様、指動作パターン生成部224にて生成された指動作パターンと記憶部290に記憶されている指動作パターンと照合する。連絡手段決定部226は、連絡操作支援装置1が備える連絡手段決定部26と同様、指動作パターン照合部225による照合の結果、パターンが一致した指動作パターンを記憶部290から選択し、選択した指動作パターンに関連付けられている連絡手段識別情報によって識別される連絡手段を決定する。
Also, the determination unit 220 (finger movement pattern generation unit 224, finger movement pattern collation unit 225, and contact means determination unit 226) identifies the contact means associated with the finger movement pattern obtained from the finger movement recognized by the recognition unit 210. Information is selected from the storage unit 290, and the contact means identified by the selected contact means identification information is determined.
Specifically, the finger movement pattern generation unit 224 is similar to the finger movement pattern generation unit 24 included in the contact operation support device 1, and the time-series data of the finger position from the finger movement on the image recognized by the finger movement recognition unit 212. Is measured to generate a finger movement pattern. The finger movement pattern matching unit 225 is similar to the finger movement pattern matching unit 25 included in the contact operation support device 1, and the finger movement pattern generated by the finger movement pattern generation unit 224 and the finger movement pattern stored in the storage unit 290. To match. Similar to the contact means determination unit 26 provided in the contact operation support device 1, the contact means determination unit 226 selects, from the storage unit 290, the finger action pattern that matches the pattern as a result of the matching by the finger action pattern matching unit 225. The contact means identified by the contact means identification information associated with the finger movement pattern is determined.

通信部230は、連絡操作支援装置1が備える通信部30と同様、決定部220が決定した連絡相手の名前及び前記決定部が選択した連絡手段識別情報を外部の通信機器9に送信し、又は、決定部220が決定した連絡相手との決定部220が決定した連絡手段による連絡を実行させる命令を外部の通信機器9に送信する   The communication unit 230 transmits the name of the contact partner determined by the determination unit 220 and the contact means identification information selected by the determination unit to the external communication device 9 as in the communication unit 30 included in the contact operation support device 1, or Then, a command for executing contact by the contact means determined by the determination unit 220 with the contact partner determined by the determination unit 220 is transmitted to the external communication device 9.

以上、第3の実施形態による連絡操作支援システム3によれば、第1の実施形態による連絡操作支援装置1と同様、所望の連絡相手と所望の連絡手段を簡便に決定することができる。   As described above, according to the contact operation support system 3 according to the third embodiment, as in the contact operation support device 1 according to the first embodiment, it is possible to easily determine a desired contact partner and a desired contact means.

なお、上記説明において、第3の実施形態の連絡操作支援システム3は、カメラ3−1とコンピュータ220の2機器から構成されると説明したが、1又は3以上の機器から構成してもよい。   In the above description, the contact operation support system 3 of the third embodiment has been described as being configured by two devices, the camera 3-1 and the computer 220, but may be configured by one or more devices. .

なお、上記説明において、第1の実施形態の連絡操作支援装置1では、決定部20が連絡相手と連絡手段を決定し、決定した連絡相手と連絡手段を通信部30が、電話、メール等の機能を有する通信機器9に送信すると説明したが、連絡操作支援装置1自体が通信機器9と同様、電話、メール等の機能を有していてもよい。即ち、連絡操作支援装置1は、自身が決定した連絡相手に、自らが決定した連絡手段によって、通信を行ってもよい。換言すれば、連絡操作支援装置1は、他の装置のために連絡相手と連絡手段とを決定するのではなく、自身のために連絡相手と連絡手段とを決定してもよい。第2の実施形態の連絡操作支援装置2、及び、第3の実施形態の連絡操作支援システムにおけるコンピュータ3−2に関しても同様である。   In the above description, in the contact operation support device 1 of the first embodiment, the determination unit 20 determines the contact partner and the contact means, and the communication unit 30 determines the determined contact partner and the contact means such as a telephone call and an email. Although it has been described that the transmission is performed to the communication device 9 having the function, the communication operation support device 1 itself may have functions such as telephone and e-mail, similarly to the communication device 9. That is, the contact operation support device 1 may communicate with the contact partner determined by the contact operation support device 1 using the contact means determined by the contact operation support device 1 itself. In other words, the contact operation support device 1 may determine the contact partner and the contact means for itself instead of determining the contact partner and the contact means for another device. The same applies to the contact operation support device 2 of the second embodiment and the computer 3-2 in the contact operation support system of the third embodiment.

なお、上述の如く、連絡操作支援装置1(連絡操作支援装置2、コンピュータ3−2も同様)が電話、メール等の機能を有する場合には、自身が決定した連絡相手及び連絡手段を他の機器である通信機器9に送信しなくてもよい。例えば、電話、メール等の機能を有する連絡操作支援装置1(連絡操作支援装置2、コンピュータ3−2も同様)は、連絡相手及び連絡手段を所定の通信機器9に送信するか、連絡相手及び連絡手段を自身が利用するかをユーザの設定に応じて切り替わるようにしてもよい。   Note that, as described above, when the contact operation support device 1 (same as the contact operation support device 2 and the computer 3-2) has functions such as telephone and e-mail, the contact partner and contact means determined by itself are changed. It is not necessary to transmit to the communication device 9 which is a device. For example, the contact operation support device 1 (such as the contact operation support device 2 and the computer 3-2) having functions such as telephone and e-mail transmits a contact partner and a contact means to a predetermined communication device 9, or Whether the contact means is used by itself may be switched according to the setting of the user.

なお、連絡操作支援装置1は、電話、メール等の機能を有する場合には、図1(a)の外観に代えて、図1(c)のような外観であってもよい。即ち、図1(c)の連絡操作支援装置1は、図1(a)の連絡操作支援装置1の変形であるが、枠内の一部(図1(c)において右側)に透過型タッチディスプレイを有し、枠内の一部(図1(c)において左側)が通常のタッチディスプレイを有している。なお、図13の連絡操作支援装置2についても同様である。   If the contact operation support device 1 has functions such as telephone and e-mail, it may have an appearance as shown in FIG. 1C instead of the appearance as shown in FIG. That is, the contact operation support device 1 in FIG. 1C is a modification of the contact operation support device 1 in FIG. 1A, but a transparent touch is applied to a part of the frame (right side in FIG. 1C). It has a display, and a part in the frame (left side in FIG. 1C) has a normal touch display. The same applies to the contact operation support device 2 of FIG.

なお、本発明の実施形態による連絡操作支援装置1、2、及び、連絡操作支援システム3の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、連絡操作支援装置1、2、及び、連絡操作支援システム3の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   A program for executing each process of the contact operation support devices 1 and 2 and the contact operation support system 3 according to the embodiment of the present invention is recorded on a computer-readable recording medium and recorded on the recording medium. The above-described various processes relating to the respective processes of the contact operation support devices 1 and 2 and the contact operation support system 3 may be performed by causing the computer system to read and execute the program. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1、2、3…連絡操作支援装置
9…通信機器
10、110、210…認識部
11、111、211…撮影部
12、112、212…指動作認識部
13、113、213…顔領域認識部
20、120、220…決定部
21、121、221…顔特徴データ生成部
22、122、222…顔特徴データ照合部
23、123、223…連絡相手決定部
24、124、224…動作パターン生成部
25、125、225…指動作パターン照合部
26、126、226…連絡手段決定部
27…表示制御部
30、130、230…通信部
40…表示部
1, 2, 3 ... Contact operation support device 9 ... Communication devices 10, 110, 210 ... Recognition units 11, 111, 211 ... Shooting units 12, 112, 212 ... Finger motion recognition units 13, 113, 213 ... Face region recognition unit 20, 120, 220, determination unit 21, 121, 221, face feature data generation unit 22, 122, 222, face feature data collation unit 23, 123, 223, contact partner determination unit 24, 124, 224, operation pattern generation unit 25, 125, 225 ... finger movement pattern matching units 26, 126, 226 ... communication means determination unit 27 ... display control units 30, 130, 230 ... communication unit 40 ... display unit

Claims (16)

画像を利用して、連絡相手と連絡手段とを決定する連絡操作支援システムであって、
少なくとも、人物を認識する顔特徴データを記憶するとともに、画像をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部と、
ユーザによる画像上の指動作と、画像上の前記指動作によって指示された顔領域とを認識する認識部と、
前記認識部が認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定するとともに、決定する連絡相手との連絡手段として、前記認識部が認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する決定部と
を備えることを特徴とする連絡操作支援システム。
A contact operation support system for determining a contact person and a contact means using an image,
A storage unit that stores at least facial feature data for recognizing a person, and stores a finger movement pattern indicating a movement pattern of a finger tracing an image in association with contact means identification information for identifying a contact means;
A recognition unit for recognizing a finger motion on an image by a user and a face area instructed by the finger motion on the image;
The face feature data of the face in the face area on the image recognized by the recognition unit is selected from the storage unit, and the person identified by the selected face feature data is determined as a contact partner, and the contact partner to be determined As the contact means, the contact means identification information associated with the finger movement pattern obtained from the finger movement recognized by the recognition section is selected from the storage section, and is identified by the selected contact means identification information. A contact operation support system comprising: a determination unit that determines a contact means.
前記認識部は、
画像とユーザとを撮影する撮影部と、
前記撮影部が撮影した撮影画像からユーザによる画像上の前記指動作を認識する指動作認識部と、
前記撮影部が撮影した撮影画像内の顔領域であって、前記指動作認識部が認識した前記指動作によって指示された顔領域を認識する顔領域認識部と
を有し、
前記決定部は、
前記顔領域認識部が認識した前記顔領域内の顔の特徴量を抽出して顔特徴データを生成する顔特徴データ生成部と、
前記顔特徴データ生成部が生成した前記顔特徴データと前記記憶部に記憶されている前記顔特徴データとを照合する顔特徴データ照合部と、
前記顔特徴データ照合部による照合の結果、特徴が一致した前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定部と、
前記指動作認識部が認識した画像上の指動作から指の位置の時系列データを測定して指動作パターンを生成する指動作パターン生成部と、
前記指動作パターン生成部にて生成された前記指動作パターンと前記記憶部に記憶されている前記指動作パターンと照合する指動作パターン照合部と、
前記指動作パターン照合部による照合の結果、パターンが一致した前記指動作パターンを前記記憶部から選択し、選択した指動作パターンに関連付けられている前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定部と
を有することを特徴とする請求項1に記載の連絡操作支援システム。
The recognition unit
A photographing unit for photographing an image and a user;
A finger motion recognition unit for recognizing the finger motion on an image by a user from a captured image captured by the imaging unit;
A face area in a photographed image photographed by the photographing section, and a face area recognition section for recognizing a face area instructed by the finger movement recognized by the finger movement recognition section,
The determination unit
A facial feature data generation unit that extracts facial feature amounts in the facial region recognized by the facial region recognition unit and generates facial feature data;
A face feature data collation unit that collates the face feature data generated by the face feature data generation unit with the face feature data stored in the storage unit;
As a result of the collation by the face feature data collation unit, the face feature data with matching features is selected from the storage unit, and a contact partner determination unit that determines a person identified by the selected face feature data as a contact partner;
A finger motion pattern generation unit that measures time series data of a finger position from a finger motion on an image recognized by the finger motion recognition unit and generates a finger motion pattern;
A finger motion pattern matching unit that matches the finger motion pattern generated by the finger motion pattern generation unit and the finger motion pattern stored in the storage unit;
As a result of the collation by the finger movement pattern collation unit, the finger movement pattern that matches the pattern is selected from the storage unit, and a contact unit identified by the contact unit identification information associated with the selected finger movement pattern is determined. The contact operation support system according to claim 1, further comprising:
前記連絡操作支援システムは、
外部の通信機器と通信する通信部を更に備え、
前記通信部は、
前記決定部が決定した連絡相手の名前及び前記決定部が選択した前記連絡手段識別情報を外部の通信機器に送信し、又は、前記決定部が決定した連絡相手との前記決定部が決定した連絡手段による連絡を実行させる命令を外部の通信機器に送信する
ことを特徴とする請求項1又は請求項2に記載の連絡操作支援システム。
The contact operation support system includes:
A communication unit that communicates with an external communication device;
The communication unit is
The name of the contact partner determined by the determination unit and the contact means identification information selected by the determination unit are transmitted to an external communication device, or the contact determined by the determination unit with the contact partner determined by the determination unit The communication operation support system according to claim 1 or 2, wherein a command for executing communication by means is transmitted to an external communication device.
筐体の一方の面側から他方の面側が見えるように筐体の枠内に形成された透明のタッチパネルを有し、前記タッチパネルを透して見える画像を利用して、連絡相手と連絡手段とを決定する連絡操作支援装置であって、
少なくとも、人物を認識する顔特徴データを記憶するとともに、前記タッチパネル上をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部と、
筐体を画像上に載置している際に、ユーザによる前記タッチパネル上の指動作と、前記タッチパネル上の前記指動作による指示領域を透して見える画像上の顔領域とを認識する認識部と、
前記認識部が認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定するとともに、決定する連絡相手との連絡手段として、前記認識部が認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する決定部と
を備えることを特徴とする連絡操作支援装置。
A transparent touch panel formed in a frame of the housing so that the other surface side can be seen from one surface side of the housing, and using an image seen through the touch panel, A contact operation support device for determining
A storage unit that stores at least facial feature data for recognizing a person, and stores a finger movement pattern indicating a movement pattern of a finger tracing the touch panel in association with contact means identification information for identifying a contact means;
A recognition unit that recognizes a finger movement on the touch panel by a user and a face area on the image that can be seen through an instruction area by the finger movement on the touch panel when the casing is placed on the image When,
The face feature data of the face in the face area on the image recognized by the recognition unit is selected from the storage unit, and the person identified by the selected face feature data is determined as a contact partner, and the contact partner to be determined As the contact means, the contact means identification information associated with the finger movement pattern obtained from the finger movement recognized by the recognition section is selected from the storage section, and is identified by the selected contact means identification information. And a determination unit that determines a communication means.
前記認識部は、
前記タッチパネル上の接触位置を検出し、前記タッチパネル上の前記指動作を認識する指動作認識部と、
前記タッチパネルを透して見える画像を撮影する撮影部と、
前記撮影部が撮影した撮影画像内の顔領域であって、前記指動作認識部が認識した前記指動作による前記タッチパネル上の指示領域に対応する顔領域を認識する顔領域認識部と
を有し、
前記決定部は、
前記顔領域認識部が認識した前記顔領域内の顔の特徴量を抽出して顔特徴データを生成する顔特徴データ生成部と、
前記顔特徴データ生成部が生成した前記顔特徴データと前記記憶部に記憶されている前記顔特徴データとを照合する顔特徴データ照合部と、
前記顔特徴データ照合部による照合の結果、特徴が一致した前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定部と、
前記指動作認識部が認識した前記タッチパネル上の前記指動作から指の位置の時系列データを測定して指動作パターンを生成する指動作パターン生成部と、
前記指動作パターン生成部にて生成された前記指動作パターンと前記記憶部に記憶されている前記指動作パターンと照合する指動作パターン照合部と、
前記指動作パターン照合部による照合の結果、パターンが一致した前記指動作パターンを前記記憶部から選択し、選択した指動作パターンに関連付けられている前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定部と
を有することを特徴とする請求項4に記載の連絡操作支援装置。
The recognition unit
A finger movement recognition unit that detects a contact position on the touch panel and recognizes the finger movement on the touch panel;
A photographing unit for photographing an image seen through the touch panel;
A face area recognition unit for recognizing a face area in a photographed image photographed by the photographing unit and corresponding to an instruction area on the touch panel by the finger motion recognized by the finger motion recognition unit. ,
The determination unit
A facial feature data generation unit that extracts facial feature amounts in the facial region recognized by the facial region recognition unit and generates facial feature data;
A face feature data collation unit that collates the face feature data generated by the face feature data generation unit with the face feature data stored in the storage unit;
As a result of the collation by the face feature data collation unit, the face feature data with matching features is selected from the storage unit, and a contact partner determination unit that determines a person identified by the selected face feature data as a contact partner;
A finger motion pattern generation unit that measures time series data of a finger position from the finger motion on the touch panel recognized by the finger motion recognition unit and generates a finger motion pattern;
A finger motion pattern matching unit that matches the finger motion pattern generated by the finger motion pattern generation unit and the finger motion pattern stored in the storage unit;
As a result of the collation by the finger movement pattern collation unit, the finger movement pattern that matches the pattern is selected from the storage unit, and a contact unit identified by the contact unit identification information associated with the selected finger movement pattern is determined. The contact operation support device according to claim 4, further comprising: a contact means determination unit that performs communication.
前記連絡操作支援装置は、
外部の通信機器と通信する通信部を更に備え、
前記通信部は、
前記決定部が決定した連絡相手の名前及び前記決定部が選択した前記連絡手段識別情報を外部の通信機器に送信し、又は、前記決定部が決定した連絡相手との前記決定部が決定した連絡手段による連絡を実行させる命令を外部の通信機器に送信する
ことを特徴とする請求項4又は請求項5に記載の連絡操作支援装置。
The contact operation support device includes:
A communication unit that communicates with an external communication device;
The communication unit is
The name of the contact partner determined by the determination unit and the contact means identification information selected by the determination unit are transmitted to an external communication device, or the contact determined by the determination unit with the contact partner determined by the determination unit The communication operation support apparatus according to claim 4 or 5, wherein a command for executing communication by means is transmitted to an external communication device.
筐体の一方の面側から他方の面側が見えるように筐体の枠内に形成された透明のタッチディスプレイを有し、前記タッチディスプレイを透して見える画像を利用して、連絡相手と連絡手段とを決定する連絡操作支援装置であって、
少なくとも、人物を認識する顔特徴データを記憶するとともに、前記タッチディスプレイ上をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部と、
筐体を画像上に載置している際に、ユーザによる前記タッチディスプレイ上の指動作と、前記タッチディスプレイ上の前記指動作による指示領域を透して見える画像上の顔領域とを認識する認識部と、
前記認識部が認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定するとともに、決定する連絡相手との連絡手段として、前記認識部が認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する決定部と
を備えることを特徴とする連絡操作支援装置。
It has a transparent touch display formed in the frame of the housing so that the other surface side can be seen from one surface side of the housing, and communicates with a contact partner using an image seen through the touch display A contact operation support device for determining means,
A storage unit that stores at least facial feature data for recognizing a person, and stores a finger movement pattern indicating a movement pattern of a finger tracing on the touch display in association with contact means identification information for identifying a contact means; ,
When the housing is placed on the image, the user recognizes the finger movement on the touch display and the face area on the image seen through the instruction area by the finger movement on the touch display. A recognition unit;
The face feature data of the face in the face area on the image recognized by the recognition unit is selected from the storage unit, and the person identified by the selected face feature data is determined as a contact partner, and the contact partner to be determined As the contact means, the contact means identification information associated with the finger movement pattern obtained from the finger movement recognized by the recognition section is selected from the storage section, and is identified by the selected contact means identification information. And a determination unit that determines a communication means.
前記認識部は、
前記タッチディスプレイ上の接触位置を検出し、前記タッチディスプレイ上の前記指動作を認識する指動作認識部と、
前記タッチディスプレイを透して見える画像を撮影する撮影部と、
前記撮影部が撮影した撮影画像内の顔領域であって、前記指動作認識部が認識した前記指動作による前記タッチディスプレイ上の指示領域に対応する顔領域を認識する顔領域認識部と
を有し、
前記決定部は、
前記顔領域認識部が認識した前記顔領域内の顔の特徴量を抽出して顔特徴データを生成する顔特徴データ生成部と、
前記顔特徴データ生成部が生成した前記顔特徴データと前記記憶部に記憶されている前記顔特徴データとを照合する顔特徴データ照合部と、
前記顔特徴データ照合部による照合の結果、特徴が一致した前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定部と、
前記指動作認識部が認識した前記タッチディスプレイ上の前記指動作から指の位置の時系列データを測定して指動作パターンを生成する指動作パターン生成部と、
前記指動作パターン生成部にて生成された前記指動作パターンと前記記憶部に記憶されている前記指動作パターンと照合する指動作パターン照合部と、
前記指動作パターン照合部による照合の結果、パターンが一致した前記指動作パターンを前記記憶部から選択し、選択した指動作パターンに関連付けられている前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定部と
を有することを特徴とする請求項7記載の連絡操作支援装置。
The recognition unit
A finger movement recognition unit that detects a contact position on the touch display and recognizes the finger movement on the touch display;
A photographing unit for photographing an image seen through the touch display;
A face area recognition unit for recognizing a face area in a photographed image captured by the photographing unit and corresponding to an instruction area on the touch display by the finger motion recognized by the finger motion recognition unit. And
The determination unit
A facial feature data generation unit that extracts facial feature amounts in the facial region recognized by the facial region recognition unit and generates facial feature data;
A face feature data collation unit that collates the face feature data generated by the face feature data generation unit with the face feature data stored in the storage unit;
As a result of the collation by the face feature data collation unit, the face feature data with matching features is selected from the storage unit, and a contact partner determination unit that determines a person identified by the selected face feature data as a contact partner;
A finger motion pattern generation unit that measures time series data of a finger position from the finger motion on the touch display recognized by the finger motion recognition unit and generates a finger motion pattern;
A finger motion pattern matching unit that matches the finger motion pattern generated by the finger motion pattern generation unit and the finger motion pattern stored in the storage unit;
As a result of the collation by the finger movement pattern collation unit, the finger movement pattern that matches the pattern is selected from the storage unit, and a contact unit identified by the contact unit identification information associated with the selected finger movement pattern is determined. The contact operation support apparatus according to claim 7, further comprising:
前記連絡操作支援装置は、
外部の通信機器と通信する通信部を更に備え、
前記通信部は、
前記決定部が決定した連絡相手の名前及び前記決定部が選択した前記連絡手段識別情報を外部の通信機器に送信し、又は、前記決定部が決定した連絡相手との前記決定部が決定した連絡手段による連絡を実行させる命令を外部の通信機器に送信する
ことを特徴とする請求項7又は請求項8に記載の連絡操作支援装置。
The contact operation support device includes:
A communication unit that communicates with an external communication device;
The communication unit is
The name of the contact partner determined by the determination unit and the contact means identification information selected by the determination unit are transmitted to an external communication device, or the contact determined by the determination unit with the contact partner determined by the determination unit The communication operation support apparatus according to claim 7 or 8, wherein a command for executing communication by means is transmitted to an external communication device.
前記タッチディスプレイを透して見える画像に重畳させて、前記認識部が認識した前記指動作の軌跡、前記決定部が連絡相手として決定した人物の顔への印、前記記憶部が前記顔特徴データと人物の名前とを関連付けて記憶している場合には前記決定部が連絡相手として決定した人物の名前、又は、外部の通信機器に命令を送信する場合には当該命令の内容、のうち少なくとも1つを報知情報として前記タッチディスプレイに表示させる表示制御部を
更に備えることを特徴とする請求項7乃至請求項9の何れか1項に記載の連絡操作支援装置。
The finger movement trajectory recognized by the recognition unit, superimposed on an image seen through the touch display, a mark on a person's face determined by the determination unit as a contact partner, and the storage unit the facial feature data And the person's name in association with each other and stored, or at least one of the person's name determined by the determination unit as the contact partner, or the content of the instruction when transmitting a command to an external communication device The contact operation support apparatus according to any one of claims 7 to 9 , further comprising a display control unit configured to display one on the touch display as notification information.
前記表示制御部は、
前記タッチディスプレイを透して見える画像上の顔であって前記決定部が連絡相手として決定した人物の顔が隠れない位置に、前記報知情報を表示させる
ことを特徴とする請求項10に記載の連絡操作支援装置。
The display control unit
The notification information is displayed on a face on an image seen through the touch display, at a position where a face of a person determined by the determination unit as a contact partner is not hidden. Contact operation support device.
前記指動作パターン照合部は、
前記指動作パターン生成部にて生成された前記指動作パターン、及び、前記記憶部に記憶されている前記指動作パターンの両指動作パターン間で、指動作中の各サンプル時刻における位置座標を2次元ベクトルとみなし、なす誤差角の総和に基づいて両指動作パターン間の一致を判定し、両指動作パターンを照合する
ことを特徴とする請求項2に記載の連絡操作支援システム。
The finger movement pattern matching unit
Between the finger movement pattern generated by the finger movement pattern generation unit and the finger movement pattern stored in the storage unit, position coordinates at each sample time during finger movement are 2 The contact operation support system according to claim 2 , wherein the contact operation support system is regarded as a dimension vector, determines a match between the two-finger movement patterns based on a sum of error angles formed, and collates the two-finger movement patterns.
前記指動作パターン照合部は、
前記指動作パターン生成部にて生成された前記指動作パターン、及び、前記記憶部に記憶されている前記指動作パターンの両指動作パターン間で、相違度算出にDPマッチングを適用し、両指動作パターンを照合する
ことを特徴とする請求項2に記載の連絡操作支援システム。
The finger movement pattern matching unit
DP matching is applied to calculate the degree of difference between the finger motion patterns generated by the finger motion pattern generation unit and the finger motion patterns stored in the storage unit. The contact operation support system according to claim 2 , wherein operation patterns are collated.
前記指動作パターン照合部は、
前記指動作パターン生成部にて生成された前記指動作パターン、及び、前記記憶部に記憶されている前記指動作パターンの両指動作パターン間で、指動作中の各サンプル時刻における位置座標を2次元ベクトルとみなし、なす誤差角の総和に基づいて両指動作パターン間の一致を判定し、両指動作パターンを照合する
ことを特徴とする請求項5又は請求項8に記載の連絡操作支援装置。
The finger movement pattern matching unit
Between the finger movement pattern generated by the finger movement pattern generation unit and the finger movement pattern stored in the storage unit, position coordinates at each sample time during finger movement are 2 The contact operation support device according to claim 5 or 8 , characterized in that it is regarded as a dimension vector, a match between both finger motion patterns is determined based on a sum of error angles formed, and the both finger motion patterns are collated. .
前記指動作パターン照合部は、
前記指動作パターン生成部にて生成された前記指動作パターン、及び、前記記憶部に記憶されている前記指動作パターンの両指動作パターン間で、相違度算出にDPマッチングを適用し、両指動作パターンを照合する
ことを特徴とする請求項5又は請求項8に記載の連絡操作支援装置。
The finger movement pattern matching unit
DP matching is applied to calculate the degree of difference between the finger motion patterns generated by the finger motion pattern generation unit and the finger motion patterns stored in the storage unit. The contact operation support apparatus according to claim 5, wherein the operation patterns are collated.
少なくとも、人物を認識する顔特徴データを記憶するとともに、画像をなぞる指の動作のパターンを示した指動作パターンと連絡手段を識別する連絡手段識別情報とを関連付けて記憶する記憶部を有するシステムを用いる連絡操作方法であって、
ユーザによる画像上の指動作と、画像上の前記指動作によって指示された顔領域とを認識する認識工程と、
前記認識工程で認識した画像上の顔領域内の顔の前記顔特徴データを前記記憶部から選択し、選択した前記顔特徴データによって識別される人物を連絡相手として決定する連絡相手決定工程と、
前記連絡相手決定工程で決定する連絡相手との連絡手段として、前記認識工程で認識した前記指動作から得られる前記指動作パターンに関連付けられている前記連絡手段識別情報を前記記憶部から選択し、選択した前記連絡手段識別情報によって識別される連絡手段を決定する連絡手段決定工程と
を備えることを特徴とする連絡操作方法。
A system having a storage unit that stores at least face feature data for recognizing a person, and stores a finger movement pattern indicating a finger movement pattern tracing an image in association with contact means identification information for identifying a contact means A contact operation method to be used,
A recognition step for recognizing a finger movement on an image by a user and a face area instructed by the finger movement on the image;
A contact partner determining step of selecting the face feature data of the face in the face area on the image recognized in the recognition step from the storage unit, and determining a person identified by the selected face feature data as a contact partner;
As the contact means with the contact partner determined in the contact partner determination step, select the contact means identification information associated with the finger movement pattern obtained from the finger movement recognized in the recognition step from the storage unit, A contact means determining step for determining a contact means identified by the selected contact means identification information.
JP2012077980A 2012-03-29 2012-03-29 Contact operation support system, contact operation support device, and contact operation method Active JP5791557B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012077980A JP5791557B2 (en) 2012-03-29 2012-03-29 Contact operation support system, contact operation support device, and contact operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012077980A JP5791557B2 (en) 2012-03-29 2012-03-29 Contact operation support system, contact operation support device, and contact operation method

Publications (2)

Publication Number Publication Date
JP2013206405A JP2013206405A (en) 2013-10-07
JP5791557B2 true JP5791557B2 (en) 2015-10-07

Family

ID=49525361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012077980A Active JP5791557B2 (en) 2012-03-29 2012-03-29 Contact operation support system, contact operation support device, and contact operation method

Country Status (1)

Country Link
JP (1) JP5791557B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779179B (en) * 2012-06-29 2018-05-11 华为终端(东莞)有限公司 The method and terminal of a kind of information association
CN104901994B (en) * 2014-10-22 2018-05-25 腾讯科技(深圳)有限公司 Attribute value transfer method, the apparatus and system of user in network system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4552632B2 (en) * 2004-12-03 2010-09-29 株式会社ニコン Portable device
JP2007028077A (en) * 2005-07-14 2007-02-01 Noritsu Koki Co Ltd Portable terminal
KR20130043229A (en) * 2010-08-17 2013-04-29 구글 인코포레이티드 Touch-based gesture detection for a touch-sensitive device

Also Published As

Publication number Publication date
JP2013206405A (en) 2013-10-07

Similar Documents

Publication Publication Date Title
JP4824411B2 (en) Face extraction device, semiconductor integrated circuit
JP5525757B2 (en) Image processing apparatus, electronic device, and program
JP6052399B2 (en) Image processing program, image processing method, and information terminal
JP5652886B2 (en) Face authentication device, authentication method and program, information device
JP6098784B2 (en) Image processing apparatus and program
JP2022021537A (en) Biometric authentication device and biometric authentication method
JP5254897B2 (en) Hand image recognition device
KR102151474B1 (en) Non contract fingerprint recognition method using smart terminal
JP5831764B2 (en) Image display apparatus and program
JP5791557B2 (en) Contact operation support system, contact operation support device, and contact operation method
JP2016099643A (en) Image processing device, image processing method, and image processing program
WO2022087846A1 (en) Image processing method and apparatus, device, and storage medium
JP5416489B2 (en) 3D fingertip position detection method, 3D fingertip position detection device, and program
JP6201282B2 (en) Portable electronic device, its control method and program
JP5092093B2 (en) Image processing device
US10970901B2 (en) Single-photo generating device and method and non-volatile computer-readable media thereof
JP5939469B2 (en) Browsing device and browsing system
JP2017199288A (en) Image processing device, image processing method and program
JP2011113196A (en) Face direction specification device and imaging device
JP5458877B2 (en) Imaging apparatus and imaging program
JP6161874B2 (en) Imaging apparatus, length measurement method, and program
JPWO2020208742A1 (en) Polygon detection device, polygon detection method, and polygon detection program
JP2006058959A (en) Similar image determination method, program and apparatus
WO2023048153A1 (en) Information processing method, computer program, and information processing device
JP7256512B2 (en) Personal identification system, personal identification method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R150 Certificate of patent or registration of utility model

Ref document number: 5791557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150