JP2019184625A - Recognition support system, recognition support device and recognition support server - Google Patents

Recognition support system, recognition support device and recognition support server Download PDF

Info

Publication number
JP2019184625A
JP2019184625A JP2018070485A JP2018070485A JP2019184625A JP 2019184625 A JP2019184625 A JP 2019184625A JP 2018070485 A JP2018070485 A JP 2018070485A JP 2018070485 A JP2018070485 A JP 2018070485A JP 2019184625 A JP2019184625 A JP 2019184625A
Authority
JP
Japan
Prior art keywords
data
voice
name
unit
recognition support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018070485A
Other languages
Japanese (ja)
Inventor
田中 雅英
Masahide Tanaka
雅英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NL Giken Inc
Original Assignee
NL Giken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NL Giken Inc filed Critical NL Giken Inc
Priority to JP2018070485A priority Critical patent/JP2019184625A/en
Priority to US16/370,998 priority patent/US20190303674A1/en
Publication of JP2019184625A publication Critical patent/JP2019184625A/en
Priority to US16/792,294 priority patent/US20200184845A1/en
Priority to US17/971,647 priority patent/US20230053110A1/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a recognition support system, a recognition support device, a recognition support server.MEANS FOR SOLVING THE PROBLEM: The recognition support system is configured to extract voice print data from an acquired voice and store the voice print data as reference data, then extract name data formed of language data and associate the name data with the voice print data and store the same, then compare voice print data extracted from a newly acquired voice with the reference data to determine a person who uttered the voice. The system picks up a voice of a conversation partner before the system's eyes by a voice microphone. The system acquires a voice from telephone conversation by a telephone. The system extracts a self introduction part from a beginning part of the voice, then extracts a name part as language information from the voice. The system reads the name data from a calling card. The system cross-checks the name data read by a character reading part and the name data formed of the language data from the voice. The system extracts face feature data from the acquired face image, associates the face feature data with the name data as reference data for determining a person, and stores the same. The system cross-checks the determination of a person who uttered the voice and determination of a person in the face image.SELECTED DRAWING: Figure 1

Description


本発明は、認知支援システム、認知支援装置、および認知支援サーバに関する。

The present invention relates to a recognition support system, a recognition support device, and a recognition support server.

近年、人の特定や認証については種々の提案が行われている。例えば、眼鏡装置に、視線センサと撮影手段と人物情報を表示する表示手段とを設けるとともに、視線の検出結果、または撮影手段で撮影された画像内での顔検出状態が検索開始条件を満たしたときに、検出されている顔に対する該当レコードの有無を検索し、該当レコードがない場合に、新たなレコードを作成して記憶させ、該当レコードがある場合に、該当レコードから表示すべき人物情報を取り出して表示手段に表示させることが提案されている。(特許文献1)   In recent years, various proposals have been made for identification and authentication of people. For example, the eyeglass device is provided with a line-of-sight sensor, a photographing unit, and a display unit that displays personal information, and the detection result of the line-of-sight or the face detection state in the image photographed by the photographing unit satisfies the search start condition. When there is no corresponding record for the detected face, a new record is created and stored, and if there is a corresponding record, the person information to be displayed from the corresponding record It has been proposed to take it out and display it on a display means. (Patent Document 1)

一方、ユーザ端末から利用者が発した音声を変声ロジックにより変声した音声である変声音声を受信する変声音声受信部と、予め登録された利用者の音声を変声ロジックにより変声した音声と受信した変声音声とを突合して声紋認証行う声紋突合部とを有する認証サーバも提案されている。(特許文献2)   On the other hand, a voiced voice receiving unit that receives voiced voice that is voiced by the voiced logic from the user terminal and voiced by the voiced logic, and a voice of the user registered in advance are voiced by the voiced logic. There has also been proposed an authentication server having a voiceprint matching unit that performs voiceprint authentication by matching the received voice and the received changed voice. (Patent Document 2)

しかしながら、人の特定や認証およびその活用については、さらに検討すべき課題が残されている。   However, there are still issues to be considered regarding the identification, authentication, and utilization of people.

特開2010−061265号公報JP 2010-061265 A 特開2016−136299号公報Japanese Patent Laid-Open No. 2006-136299

本発明が解決しようとする課題は、上記に鑑み、人の特定や認証等を活用した認知支援システム、認知支援装置、および認知支援サーバ等を提案することにある。   In view of the above, the problem to be solved by the present invention is to propose a cognitive support system, a cognitive support device, a cognitive support server, and the like that utilize human identification and authentication.

上記の課題を解決するため本発明は、音声取得部と、前記音声取得部により取得した音声から声紋データを抽出して人定のための参照データとして格納するとともに前記音声から言語データによる氏名データを抽出して前記声紋データと関連づけて格納する認知支援データ部と、前記音声取得部により新たに取得した音声から抽出した声紋データを前記参照データと比較することにより前記新たに取得した音声の人定を行う制御部とを有することを特徴とする認知支援システムを提供する。   In order to solve the above problems, the present invention provides a voice acquisition unit, and extracts voiceprint data from the voice acquired by the voice acquisition unit and stores it as reference data for personal identification, and name data based on language data from the voice A recognition support data unit for extracting and storing the voiceprint data in association with the voiceprint data, and comparing the voiceprint data extracted from the voice newly acquired by the voice acquisition unit with the reference data. There is provided a cognitive support system characterized by having a control unit that performs determination.

本発明の具体的な特徴によれば、前記音声取得部は、眼前の会話相手の音声を拾うマイクである。他の具体的な特徴によれば、前記音声取得部は通話相手の声を受信する電話機能部である   According to a specific feature of the present invention, the voice acquisition unit is a microphone that picks up the voice of a conversation partner in front of you. According to another specific feature, the voice acquisition unit is a telephone function unit that receives a voice of a call partner.

本発明の他の具体的な特徴によれば、前記認知支援データ部は、前記音声の冒頭部分から言語情報としての自己紹介部分を抽出し、さらにその中から言語情報としての氏名部分を抽出して氏名データとして前記声紋データと関連づけて格納する。   According to another specific feature of the present invention, the recognition support data part extracts a self-introduction part as language information from the beginning part of the voice, and further extracts a name part as language information from the part. And stored as name data in association with the voiceprint data.

本発明の他の具体的な特徴によれば、前記認知支援システムは、名刺からテキストデータを読み取る文字読み取り部を有し、前記認知支援データ部は、前記文字読み取り部が読み取った氏名データを前記声紋データと関連づけて格納する。   According to another specific feature of the present invention, the recognition support system includes a character reading unit that reads text data from a business card, and the recognition support data unit reads the name data read by the character reading unit. Store in association with voiceprint data.

本発明のさらに具体的な特徴によれば、前記文字読み取り部が読み取った氏名データと前記音声からの言語データによる氏名データとをクロスチェックし、両者が一致しない場合はその一方を採用する。   According to a more specific feature of the present invention, the name data read by the character reading unit and the name data based on the language data from the speech are cross-checked, and if both do not match, one of them is adopted.

本発明の他の具体的な特徴によれば、前記認知支援システムは、顔画像取得部を有し、前記認知支援データ部は、前記顔画像取得部により取得した顔画像から顔特徴データを抽出して人定のための参照データとして前記氏名データと関連付けて格納し、前記制御部は、前記顔画像取得部により新たに取得した顔画像から抽出した顔特徴データを前記参照データと比較することにより前記新たに取得した顔画像の人定を行う。   According to another specific feature of the present invention, the recognition support system includes a face image acquisition unit, and the recognition support data unit extracts face feature data from the face image acquired by the face image acquisition unit. Then, the reference data is stored in association with the name data as personal reference data, and the control unit compares the facial feature data extracted from the face image newly acquired by the face image acquisition unit with the reference data. The newly acquired face image is identified.

本発明のさらに具体的な特徴によれば、前記制御部は、前記音声の人定と顔画像の人定とをクロスチェックし、両者が一致しない場合はその一方を採用する   According to a more specific feature of the present invention, the control unit cross-checks the voice personality and the facial image personality, and adopts one of them if they do not match.

上記のように、本発明によれば、人の特定や認証等を活用した認知支援システム、認知支援装置、および認知支援サーバ等を提案することが可能となる。これによって相手の氏名の失念した場合等における認知支援を行い、使用者の自信喪失を防止して社交性の維持に寄与することができる。   As described above, according to the present invention, it is possible to propose a cognitive support system, a cognitive support device, a cognitive support server, and the like that utilize human identification and authentication. As a result, it is possible to provide cognitive support when the partner's name is forgotten, and to prevent the user from losing confidence and contribute to maintaining sociality.

本発明の実施例に関する認知支援システム全体を示すブロック図を示した図面代用写真である。It is the drawing substitute photograph which showed the block diagram which shows the whole recognition assistance system regarding the Example of this invention. 図1の実施例における人定サーバの声紋データベース、顔データベースおよびOCRデータベースにそれぞれ格納される参照データ構造およびデータ例を示す表を示した図面代用写真である。FIG. 3 is a drawing-substituting photograph showing a reference data structure and a table showing an example of data stored in the voiceprint database, face database, and OCR database of the personal server in the embodiment of FIG.

図1は、本発明の実施例に関する認知支援システム全体を示すブロックであり、システムは補聴器兼用眼鏡型認知支援装置2、携帯電話4および人定サーバ6を有する。補聴器兼用眼鏡型認知支援装置2は、支援装置制御部8によって制御される。記憶部10は、支援装置制御部8を動作させるためのプログラムを記憶するとともに、カメラ12からの顔画像データ、マイク14からの音声データなどのデータ記憶も行う。補聴器兼用眼鏡型認知支援装置2は、また、支援装置近距離通信部16が受信する表示データおよびステレオ音声データに基づき、それぞれ視野内重畳表示部18による表示およびステレオイヤホンによる音声出力を制御する。   FIG. 1 is a block diagram showing an entire cognitive support system according to an embodiment of the present invention, and the system includes a hearing aid and glasses-type cognitive support device 2, a mobile phone 4, and a human identification server 6. The hearing aid combined glasses-type recognition support device 2 is controlled by the support device control unit 8. The storage unit 10 stores a program for operating the support device control unit 8 and also stores data such as face image data from the camera 12 and audio data from the microphone 14. The hearing aid combined glasses-type cognitive support device 2 also controls display by the in-field superimposition display unit 18 and sound output by the stereo earphone, respectively, based on the display data and the stereo audio data received by the support device short-range communication unit 16.

補聴器兼用眼鏡型認知支援装置2は、まず、両眼レンズ22を有する通常の眼鏡として機能し、視野内重畳表示部18はこの両眼レンズ22を透した視野内に表示データを重畳表示する。また、補聴器兼用眼鏡型認知支援装置2は、補聴器としても機能し、マイク14で拾った会話相手の声等の音声データをステレオイヤホン20に増強出力する。   The hearing aid combined glasses-type recognition support apparatus 2 first functions as normal glasses having the binocular lens 22, and the in-field superimposed display unit 18 superimposes and displays display data in the field of view through the binocular lens 22. Further, the hearing aid combined glasses-type cognitive support device 2 also functions as a hearing aid, and outputs to the stereo earphone 20 audio data such as the voice of the conversation partner picked up by the microphone 14.

補聴器兼用眼鏡型認知支援装置2は、さらに、カメラ12に基づく顔検知によって人定した会話相手の氏名等を視野内重畳表示部18に表示する。この目的のため、カメラ12は使用者の頭が眼前の会話相手に向けられたとき会話相手の顔が自然に撮像範囲に入るよう補聴器兼用眼鏡型認知支援装置2に配置される。さらに、補聴器兼用眼鏡型認知支援装置2はマイク14に基づく声紋検知によって人定した眼前の会話相手の氏名等をステレオイヤホン20の片側チャンネルから音声出力する。顔検知による人定と声紋検知による人定はクロスチェックされ、万一相違する場合は後述の認知支援アプリ30に基づく推定アルゴリズムに従ってより確からしい人定が採用される。以上の構成によって、対面する相手の氏名を思い出せない場合における認知症の患者等の認知支援を行う。相手の氏名の失念は認知症ならずとも加齢に伴って発生する現象であるが、補聴器兼用眼鏡型認知支援装置2は、上記のような支援によって使用者の自信喪失を防止し、社交性の維持に寄与するものである。   The hearing aid combined glasses-type cognitive support device 2 further displays the name of the conversation partner and the like determined by face detection based on the camera 12 on the in-field superimposed display unit 18. For this purpose, the camera 12 is arranged in the hearing aid combined spectacle-type recognition support device 2 so that the face of the conversation partner naturally enters the imaging range when the user's head is pointed at the conversation partner in front of the eyes. Further, the hearing aid combined glasses-type cognitive support device 2 outputs the name of the conversation partner in front of the human eye determined by voiceprint detection based on the microphone 14 from the one-side channel of the stereo earphone 20. The personal identification based on face detection and the personal identification based on voiceprint detection are cross-checked. If they are different, a more reliable personality is adopted according to an estimation algorithm based on the cognitive support application 30 described later. With the above configuration, cognitive support is provided for patients with dementia and the like when the name of the person they are facing cannot be remembered. Forgetfulness of the partner's name is a phenomenon that occurs with aging without dementia, but the hearing aid combined spectacle-type cognitive support device 2 prevents the loss of self-confidence of the user with the above-mentioned support, sociability This contributes to the maintenance of

上記の認知支援機能のため、補聴器兼用眼鏡型認知支援装置2は、携帯電話4および人定サーバ6と連携している。記憶部10に記憶されたカメラ12からの顔画像データおよびマイク14からの音声データは、記憶部10から読み出され、支援装置近距離通信部16から携帯電話近距離通信部24に送信される。これらの近距離通信部は無線LANまたは赤外線通信が可能なものが採用される。携帯電話制御部26は、受信した顔画像データおよび音声データを記憶部28に記憶させる。記憶されたこれらのデータは、認知支援アプリケーション(以下、「認知支援アプリ」と称する)30の処理プログラムに基づく携帯電話制御部26の機能により、認知支援データ部32に格納されている参照データと照合され、会話相手の人定をおこなう。この人定にもとづく会話相手の氏名等のデータは、携帯電話近距離通信部24から支援装置近距離通信部16に送信され、上記のように視野内重畳表示部18に表示されるとともに、ステレオイヤホン20の片側チャンネルから音声出力される。なお上記の会話相手の氏名等のデータは表示部34にも表示される。   Because of the above-described recognition support function, the hearing aid combined use glasses-type recognition support device 2 is linked to the mobile phone 4 and the personal identification server 6. The face image data from the camera 12 and the voice data from the microphone 14 stored in the storage unit 10 are read from the storage unit 10 and transmitted from the support device short-range communication unit 16 to the mobile phone short-range communication unit 24. . As these short-range communication units, those capable of wireless LAN or infrared communication are adopted. The mobile phone control unit 26 stores the received face image data and audio data in the storage unit 28. These stored data are the reference data stored in the recognition support data unit 32 by the function of the mobile phone control unit 26 based on the processing program of the recognition support application (hereinafter referred to as “cognition support application”) 30. It is verified and the conversation partner is identified. The data such as the name of the conversation partner based on the personality is transmitted from the mobile phone short-range communication unit 24 to the support device short-range communication unit 16 and displayed on the in-field superimposition display unit 18 as described above. Sound is output from one side channel of the earphone 20. The data such as the name of the conversation partner is also displayed on the display unit 34.

携帯電話制御部26は、本来、電話機能部36を含む携帯電話4全体を制御するためのもので、記憶部28に記憶されるプログラムによって動作する。操作部38および表示部34も、本来、電話機能部36の機能に関する操作および表示のために設けられているものであるが、上記の認知支援のためにも兼用される。また、携帯電話4に本来備わっているカメラ37は、電話機能部36内のマイクとの組み合わせによりテレビ電話が可能なものであるが、これらカメラ37および電話機能部36内のマイクも後述のように、認知支援アプリ30に基づいて認知支援に活用される。   The cellular phone control unit 26 is originally for controlling the entire cellular phone 4 including the telephone function unit 36 and operates according to a program stored in the storage unit 28. The operation unit 38 and the display unit 34 are also originally provided for operation and display related to the function of the telephone function unit 36, but are also used for the above-described recognition support. The camera 37 originally provided in the mobile phone 4 can be used for videophone calls in combination with a microphone in the telephone function unit 36. The camera 37 and the microphone in the telephone function unit 36 will also be described later. In addition, it is utilized for recognition support based on the recognition support application 30.

携帯電話4に本来備わっているグローバルポジショニングシステム40(以下、「GPS」と称する)は、認知支援アプリ30の処理プログラムに基づく携帯電話制御部26の機能により、使用者の現在位置の認知支援、および自宅や訪問先等の行動に関する認知支援等にも活用される。   The global positioning system 40 (hereinafter referred to as “GPS”) inherent to the mobile phone 4 is configured to support the recognition of the current position of the user by the function of the mobile phone control unit 26 based on the processing program of the recognition support application 30. It is also used for cognitive support regarding behavior at home and at home.

携帯電話4のオプティカルキャラクターリーダ39(以下「OCR」と称する)は、相手の名刺の画像から相手の氏名を読み取ってテキストデータ化し、顔検知による人定および声紋検知による人定と関連付けて認知支援データ部32に格納させる。この目的のため、使用者の頭が相手から受け取った名刺に向けられたとき、カメラ12が撮像範囲に入る相手の氏名の画像を撮像して記憶部10に記憶させるとともに、これを読み出して支援装置近距離通信部16から携帯電話近距離通信部24に送信する。   An optical character reader 39 (hereinafter referred to as “OCR”) of the mobile phone 4 reads the name of the other party from the image of the other party's business card, converts it into text data, and recognizes it by associating it with a person identification by face detection and a person identification by voiceprint detection. It is stored in the data part 32. For this purpose, when the user's head is pointed at a business card received from the other party, the camera 12 captures an image of the other party's name that falls within the imaging range and stores it in the storage unit 10, and reads this to assist The information is transmitted from the device short-range communication unit 16 to the mobile phone short-range communication unit 24.

携帯電話4は、電話機能部36によってインターネット41を介し人定サーバ6と交信可能である。人定サーバ6は、サーバ制御部42、声紋データベース44、顔データベース46、OCRデータベース48および入出力インターフェース50を有し、他の携帯電話および他の認知支援装置と連携している。そして、種々の機会において取得される同一人物の声紋データ、顔データおよびOCRデータをプライバシー厳守の条件下で蓄積するとともに共有を図り、人定のための参照データの精度を向上させている。なお、携帯電話4の認知支援データ部32に格納されている参照データのデータ構造は、声紋データベース44、顔データベース46、OCRデータベース48に蓄積されている参照データと同じものであり、そのうち、携帯電話4の使用者に対し自己紹介された人物に関するものであって他の機会に取得された参照データが人定サーバ6から携帯電話4の認知支援データ部に提供される。また、逆に、補聴器兼用眼鏡型認知支援装置2にて取得された参照データは、携帯電話4のから認知支援データ部32から人定サーバ6に送信され、同一人物から自己紹介を受けている携帯電話に提供される。人定サーバ6の詳細は後述する。   The mobile phone 4 can communicate with the personal server 6 via the Internet 41 by the telephone function unit 36. The personal server 6 includes a server control unit 42, a voiceprint database 44, a face database 46, an OCR database 48, and an input / output interface 50, and is linked to other mobile phones and other cognitive support devices. The voice print data, face data, and OCR data of the same person acquired at various occasions are accumulated and shared under privacy strict conditions, thereby improving the accuracy of reference data for identification. The data structure of the reference data stored in the recognition support data unit 32 of the mobile phone 4 is the same as the reference data stored in the voiceprint database 44, the face database 46, and the OCR database 48. Reference data relating to a person introduced to the user of the telephone 4 and acquired at another opportunity is provided from the personal server 6 to the recognition support data section of the mobile phone 4. Conversely, the reference data acquired by the hearing aid combined glasses-type cognitive support device 2 is transmitted from the mobile phone 4 to the personal identification server 6 from the cognitive support data unit 32 and receives self-introduction from the same person. Provided to mobile phones. Details of the personal server 6 will be described later.

携帯電話4における認知支援アプリ30および認知支援データ部32は、補聴器兼用眼鏡型認知支援装置2のカメラ12およびマイク14だけでなく、携帯電話の電話機能部36およびカメラ37も活用して機能する。まず、電話機能部36は通話により相手の声を受信するが、認知支援アプリ30および認知支援データ部32は電話機能部36による通話相手の声紋による人定によっても認知支援を行う。さらにカメラ37によって撮像される使用者の顔データは認知支援のための参照データとして人定サーバ6に提供される。   The recognition support application 30 and the recognition support data unit 32 in the mobile phone 4 function by utilizing not only the camera 12 and the microphone 14 of the hearing aid and glasses-type recognition support device 2 but also the telephone function unit 36 and the camera 37 of the mobile phone. . First, the telephone function unit 36 receives the other party's voice through a call, but the recognition support application 30 and the recognition support data unit 32 also perform cognitive support by the telephone function unit 36 using the voice pattern of the other party. Furthermore, the user's face data imaged by the camera 37 is provided to the personal identification server 6 as reference data for cognitive support.

次に、人定のための参照データの取得について説明する。まず顔データについては、使用者の頭が初対面の会話相手に向けられたときカメラ12が会話相手の顔を撮像し、記憶部10、支援装置近距離通信部16、携帯電話近距離通信部24を介して認知支援データ部に顔特徴データの抽出とともに格納される。さらに同じ機会における初対面の相手の声がマイク14によって拾われ、同様に、記憶部10、支援装置近距離通信部16、携帯電話近距離通信部24を介して認知支援データ部に声紋データの抽出とともに音声データとして格納される。   Next, acquisition of reference data for identification will be described. First, for face data, when the user's head is pointed at the first meeting partner, the camera 12 captures the face of the conversation partner, and the storage unit 10, the support device short-range communication unit 16, and the mobile phone short-range communication unit 24. Is stored together with the extraction of face feature data in the recognition support data section. Furthermore, the voice of the first meeting partner at the same opportunity is picked up by the microphone 14, and similarly, the voiceprint data is extracted to the recognition support data unit via the storage unit 10, the support device short-range communication unit 16, and the mobile phone short-range communication unit 24. At the same time, it is stored as audio data.

以上のようにして取得された顔データと声紋データが誰のものであるかについては、第一に自己紹介における相手の音声を活用し、さらに自己紹介の際に名刺が手渡された場合はその情報を活用する。まず、音声の活用について説明すると、認知支援アプリ30は認知支援データ部32に格納された音声データの冒頭部分から言語情報としての自己紹介部分を抽出し、さらにその中から言語情報としての氏名部分を抽出する。このようにして言語情報として認識された氏名データが顔データと声紋データと関連付けられ、認知支援データ部に格納される。このように音声データは、声紋という人定情報と、氏名という言語情報という二重の意義を持つものとして活用される。なお、音声データ取得は、目前の会話相手の声を上記のように補聴器兼用眼鏡型認知支援装置2のマイク14で拾う場合と、携帯電話4の通常通話の際に受信する相手の声を活用する場合が可能である。   As for who the face data and voiceprint data acquired in the above way are, first of all, use the other party's voice in the self-introduction, and if the business card is handed over during the self-introduction Use information. First, the use of speech will be described. The recognition support application 30 extracts a self-introduction portion as language information from the beginning portion of the speech data stored in the recognition support data portion 32, and further, a name portion as language information from the extracted portion. To extract. The name data recognized as linguistic information in this way is associated with face data and voiceprint data and stored in the recognition support data section. In this way, the voice data is utilized as having the dual significance of personal information called voiceprint and language information called name. The voice data acquisition uses the voice of the other party who receives the voice of the conversation partner at the time of picking up with the microphone 14 of the hearing aid and glasses-type cognitive support device 2 as described above and the normal call of the mobile phone 4 as described above. It is possible to do.

さらに、名刺が手渡された場合は、上記のように使用者の頭が相手から受け取った名刺に向けられたとき、カメラ12がこれを撮像し、携帯電話4のOCR39でテキストデータ化することにより氏名データとして顔データと声紋データと関連付け、認知支援データ部に格納する。なお、名刺が手渡される場合、単に「こういう者です」と言うだけで名乗らない場合があり、上記のようなOCR39でのテキスト化が有用となる。   Further, when the business card is handed over, when the user's head is pointed at the business card received from the other party as described above, the camera 12 captures this and converts it into text data with the OCR 39 of the mobile phone 4. It is associated with face data and voiceprint data as name data and stored in the recognition support data section. When a business card is handed over, there may be cases where the name is simply "I am this kind of person" and the name is not given, and the above-described text conversion using the OCR 39 is useful.

また、音声による名乗りと名刺の受け取りの両者があった場合は、音声データの言語情報に基づく氏名データと携帯電話4のOCR39に基づく氏名データはクロスチェックされ、万一相違する場合は認知支援アプリ30に基づく推定アルゴリズムに従ってより確からしい氏名データがこの場合、不鮮明で判読が困難な場合を除き、名刺からの情報が優先される。   If there is both voice name receipt and business card reception, the name data based on the language information of the voice data and the name data based on the OCR 39 of the mobile phone 4 are cross-checked. In this case, the name data is more likely according to the estimation algorithm based on 30, information from the business card is given priority unless it is unclear and difficult to read.

次に、再会時について説明する。再会時はわざわざ名乗らない可能性があるが、その時相手の名前が思い出せないようなことが続くと、自信を失って人に会うのを避けるようになりがちである。電話の場合も、相手の声と顔は明確に認知できるが名前が出てこないようなことが続くと、電話を取るのを避けるようになりがちである。これらの場合の支援として、補聴器兼用眼鏡型認知支援装置2のマイク14により再会者の声が拾われ、支援装置近距離通信部16と携帯電話近距離通信部24との通信により携帯電話制御部26に送られる。そして、上記のように認知支援アプリ30の処理プログラムに基づく携帯電話制御部26の機能により、認知支援データ部32に格納されている声紋の参照データとの照合が行わる。そして両者が一致すると声紋データに対応づけられている氏名等のデータが携帯電話近距離通信部24から支援装置近距離通信部16に送信され、視野内重畳表示部18に氏名が視覚的に表示されるとともに、ステレオイヤホン20の片側チャンネルから氏名が音声で出力される。   Next, the reunion will be explained. When you meet again, you may not bother to name yourself, but if you continue to be unable to remember the name of the other person, you tend to lose confidence and avoid meeting people. In the case of a phone call, if you can clearly recognize the voice and face of the other party but the name does not appear, you tend to avoid taking the call. As support in these cases, a reunion's voice is picked up by the microphone 14 of the hearing aid and glasses-type recognition support device 2, and the mobile phone control unit is communicated with the support device short-range communication unit 16 and the mobile phone short-range communication unit 24. 26. Then, by the function of the mobile phone control unit 26 based on the processing program of the recognition support application 30 as described above, collation with the voiceprint reference data stored in the recognition support data unit 32 is performed. When the two match, the data such as the name associated with the voice print data is transmitted from the mobile phone short-range communication unit 24 to the support device short-range communication unit 16, and the name is visually displayed on the in-field superimposed display unit 18. At the same time, the name is output by voice from one channel of the stereo earphone 20.

再会時には、同様のことが顔データについても行われる。すなわち、使用者の頭が会話相手に向けられたとき、補聴器兼用眼鏡型認知支援装置2のカメラ12により再会者の顔が撮像され、支援装置近距離通信部16と携帯電話近距離通信部24との通信により携帯電話制御部26に送られる。そして、上記のように認知支援アプリ30の処理プログラムに基づく携帯電話制御部26の機能により、認知支援データ部32に格納されている顔の参照データとの照合が行わる。そして両者が一致すると顔データに対応づけられている氏名等のデータが携帯電話近距離通信部24から支援装置近距離通信部16に送信され、視野内重畳表示部18に氏名が視覚的に表示されるとともに、ステレオイヤホン20の片側チャンネルから氏名が音声で出力される。なお、声紋データによる人定と顔データによる人定がクロスチェックされ、万一不一致の時はそのいずれかが正しいと推定することは上記したとおりである。   At the time of reunion, the same is done for face data. That is, when the user's head is pointed at the conversation partner, the rehearsal's face is imaged by the camera 12 of the hearing aid and glasses-type cognitive support device 2, and the support device short-range communication unit 16 and the mobile phone short-range communication unit 24. Is sent to the mobile phone control unit 26 by communication. As described above, collation with the face reference data stored in the recognition support data unit 32 is performed by the function of the mobile phone control unit 26 based on the processing program of the recognition support application 30. If the two match, the data such as the name associated with the face data is transmitted from the mobile phone short-range communication unit 24 to the support device short-range communication unit 16, and the name is visually displayed on the in-field superimposition display unit 18. At the same time, the name is output by voice from one channel of the stereo earphone 20. Note that, as described above, the personality based on the voiceprint data and the personality based on the face data are cross-checked, and in the unlikely event that one of them is correct, it is estimated that either one is correct.

なお上記の認知支援において、視野内重畳表示部18に氏名等が視覚的に表示される場合は、両眼レンズ22を透した視野内に表示データを重畳表示するので、両者が混合する可能性は低いが、通常の視野を遮らない氏名等は視野下部等の縁部分に表示するのが望ましい。一方、ステレオイヤホン20からの音声により氏名等を伝える場合は、会話相手の声と重なって両者とも聞き取れにくくなる恐れがある。従って、上記のようにステレオイヤホン20の片側チャンネルのみから氏名を伝えることにより両方の耳から入ってくる眼前の会話相手の声との弁別を容易にする。補聴器としての使用の場合は、ステレオイヤホン20の片側チャンネルから氏名を出力する場合、増強された会話相手の声の出力はもう一方のチャンネルのみから出力するようにする。また、ステレオイヤホン20の片側チャンネルから氏名を出力するのに代え、会話相手の声が途切れたことを検知してその空白時間帯に氏名の出力を開始するようしてもよい。あるいは、ステレオイヤホン20の片側チャンネルから氏名の出力と会話相手の声が途切れた空白時間帯における氏名の出力を併用してもよい。   In the above recognition support, when a name or the like is visually displayed on the in-field superimposition display unit 18, display data is superimposed and displayed in the field of view through the binocular lens 22. Although it is low, it is desirable to display names and the like that do not obstruct the normal visual field at the edge of the lower visual field. On the other hand, when a name or the like is conveyed by sound from the stereo earphone 20, it may be difficult to hear both of them due to overlapping with the voice of the conversation partner. Therefore, as described above, the name is transmitted only from one side channel of the stereo earphone 20, thereby facilitating discrimination from the voice of the conversation partner in front of the eyes coming from both ears. In the case of use as a hearing aid, when a name is output from one channel of the stereo earphone 20, the enhanced voice output of the conversation partner is output only from the other channel. Further, instead of outputting the name from the one side channel of the stereo earphone 20, it may be detected that the voice of the conversation partner is interrupted and output of the name is started in the blank time zone. Alternatively, the output of the name from one channel of the stereo earphone 20 may be used in combination with the output of the name in a blank time period in which the voice of the conversation partner is interrupted.

図2は、人定サーバ6における声紋データベース44、顔データベース46およびOCRデータベースにそれぞれ格納される声紋参照データ52、顔参照データ54およびOCR参照データ56のデータ構造およびデータ例を示すものである。図1のサーバ制御部42はこのようなデータ構造のデータに基づき、多数の携帯電話と連携して以下に説明するようなデータ管理を行う。図2におけるそれぞれの参照データのデータ構造は、例えば声紋参照データ52では、「No.」、「人定ID」、「取得者ID」、「取得日時」、「声紋データ」よりなる。そして、例えば「No.1」のデータは、「521378」というIDが付与された人物を人定するための参照用「声紋データ」であることを示している。なお、人定IDに対応する人物の実際の氏名は人定サーバ6には登録されているが公開されることはない。また、声紋参照データ52における「521378」というIDはあくまで「声紋1」が抽出された音声データから抽出された言語情報に基づく氏名データであり、言語認識誤りの可能性を含んでいる。   FIG. 2 shows data structures and data examples of the voiceprint reference data 52, the face reference data 54, and the OCR reference data 56 stored in the voiceprint database 44, the face database 46, and the OCR database, respectively, in the personal identification server 6. The server control unit 42 shown in FIG. 1 performs data management as described below in cooperation with a large number of mobile phones based on data having such a data structure. The data structure of each reference data in FIG. 2 includes, for example, “No.”, “Personal ID”, “Acquirer ID”, “Acquisition Date / Time”, and “Voiceprint Data” in the voiceprint reference data 52. For example, the data “No. 1” indicates reference “voice print data” for identifying a person to whom the ID “521378” is assigned. The actual name of the person corresponding to the personal ID is registered in the personal server 6 but is not disclosed. Further, the ID “521378” in the voiceprint reference data 52 is name data based on language information extracted from the voice data from which “voiceprint 1” is extracted, and includes a possibility of language recognition error.

そして、「No.1」のデータは、「381295」というIDが付与された人物が「2018/03/30」の「12:56」という日時に取得したものとして人定サーバ6に提供されたものであることを示している。従ってこの参照データにおける声紋データを現に会話している相手から取得した声の声紋と比較して一致すれば、相手は「521378」というIDが付与された人物であると人定できることになる。   The data of “No. 1” was provided to the personal server 6 as being acquired by the person assigned with the ID “38295” at the date “12:56” of “2018/03/30”. It is a thing. Therefore, if the voiceprint data in the reference data matches the voiceprint of the voice acquired from the other party who is actually talking, it can be determined that the other party is a person to whom the ID “521378” is assigned.

声紋参照データ52のデータは、自分が自己紹介を受けた人物であることを条件に、他人が取得した声紋データであっても人定サーバ6から自分の携帯電話4の認知支援データ部32に参照データとしてダウンロードされる。換言すると、認知支援データ部32には自分の補聴器兼用眼鏡型認知支援装置2および携帯電話4にて取得した声紋参照データに加え、上記の条件により人定サーバ6からダウンロードされたものが含まれており、これが日々更新される。   The data of the voiceprint reference data 52 is from the personal server 6 to the recognition support data section 32 of his / her mobile phone 4 even if it is voiceprint data acquired by another person on condition that he / she is a person who has introduced himself / herself. Downloaded as reference data. In other words, the recognition support data unit 32 includes data downloaded from the personal server 6 under the above conditions, in addition to the voiceprint reference data acquired by the hearing aid and glasses-type recognition support device 2 and the mobile phone 4. This is updated daily.

具体的に説明すると、声紋参照データ52における「No.3」のデータは、「521378」というIDが付与された人物から自己紹介を受けた「412537」というIDが付与された別の人物から提供されている。このことから、「521378」というIDが付与された人物は、「No.1」のデータにおける「381295」というIDが付与された人物と「No.3」のデータにおける「412537」というIDが付与された人物の両者に自己紹介しており、自分の「声紋1」と「声紋3」が参照データとして両者に共有されることで、声紋により自分の氏名が両者にそれぞれ明らかになっても異論はない状態にある。そこで「No.1」のデータと「No.3」のデータは「381295」および「412537」というIDが付与された人物にそれぞれ共有されるようお互いの携帯電話における認知支援データ部にダウンロードされる。このようにして、自分が自己紹介を受けた人物であることを条件に、異なる機会に他人が取得した同一人物の声紋データが共有され、そのクロスチェックにより声紋認証の精度と効率のアップが図られる。なお、データの共有はあくまでIDで行われ、上記のように、取得者IDと他人の氏名の関係は公開されることがないので、このようなデータ共有によりある人物が自分以外の誰と面識があるか等のプライバシー情報が漏れることはない。   Specifically, the data of “No. 3” in the voiceprint reference data 52 is provided from another person who is given an ID of “41537” who has received a self-introduction from a person who has been given an ID of “521378”. Has been. Therefore, the person who is given the ID “521378” is given the person who is given the ID “38295” in the data “No. 1” and the ID “41537” in the data “No. 3”. The self-introduction to both of the persons who have been made and their own “voice print 1” and “voice print 3” are shared as reference data to both parties, so even if their names are revealed to both by the voice print There is no state. Therefore, the data of “No. 1” and the data of “No. 3” are downloaded to the cognitive support data section in each mobile phone so that they are shared by the persons with IDs of “38295” and “41537”, respectively. . In this way, voice print data of the same person acquired by another person is shared at different occasions on the condition that he / she is introduced to himself / herself, and the cross-check improves voice print authentication accuracy and efficiency. It is done. Note that data sharing is performed only by ID, and as described above, the relationship between the acquirer ID and the name of another person is not disclosed. There will be no leakage of privacy information.

顔参照データ54のデータ構造は、参照データの部分が顔データの特徴画像であることを除き、声紋参照データ52と同様である。また、顔参照データ54における「人定ID」も、声紋参照データ52と同様、あくまで「顔データ」が抽出された際に原則として音声データから抽出された言語情報に基づく氏名データであり、言語認識誤りの可能性を含んでいる。   The data structure of the face reference data 54 is the same as that of the voiceprint reference data 52 except that the reference data portion is a feature image of face data. The “personal ID” in the face reference data 54 is also name data based on the language information extracted from the speech data in principle when the “face data” is extracted, as in the voiceprint reference data 52. The possibility of recognition error is included.

ここで、声紋参照データ52と顔参照データ54とを比較すると、「No.1」と「No.2」のデータにおける「人定ID」と「取得者ID」が入れ替わっているだけで、「取得日時」は同一である。これは両者が面会した同じ機会に人定サーバ6にアップロードされたデータであることを示している。そして両者の顔、声紋、言語情報がその機会にすべて順調に取得されたことを示している。   Here, when the voiceprint reference data 52 and the face reference data 54 are compared, only “personal ID” and “acquirer ID” in the data of “No. 1” and “No. 2” are interchanged. The “acquisition date” is the same. This indicates that the data is uploaded to the personal server 6 on the same occasion when both parties meet. Both faces, voiceprints, and language information are successfully acquired on the occasion.

また、声紋参照データ52の「No.4」に対応するデータが顔参照データ54としてアップロードされていないので、このデータは音声のみの電話にて取得されたものであると推定される。一方、顔参照データ54の「No.4」に対応するデータが声紋参照データ52としてアップロードされていないので、顔参照データ54の「No.4」のデータは聴覚障害者等による音声なしの面会にて取得されたものであると推測される。この場合、顔参照データ54の「No.4」における「人定ID」は、後述のOCRデータ(名刺だけでなく筆談による氏名伝達を含む)とのクロスチェックによるものか、または携帯電話4の操作部38による手動入力であると推測される。   Further, since the data corresponding to “No. 4” of the voiceprint reference data 52 has not been uploaded as the face reference data 54, it is estimated that this data is obtained by a voice-only telephone. On the other hand, since the data corresponding to “No. 4” of the face reference data 54 has not been uploaded as the voiceprint reference data 52, the data of “No. 4” of the face reference data 54 is a meeting without hearing by a hearing impaired person or the like. It is presumed that it was acquired at In this case, the “personal ID” in “No. 4” of the face reference data 54 is based on cross-checking with OCR data (including name transfer by writing as well as business cards) described later, or on the mobile phone 4 Presumed to be manual input by the operation unit 38.

OCR参照データ56のデータ構造は、参照データの部分がOCRデータの「テキスト」であることを除き、声紋参照データ52と顔参照データ54と同様である。ただし、これらとは異なり、名刺文字不鮮明または難読文字によるOCR誤りの場合を除き、OCRデータにおける「人定ID」は直接データであるという意味で声紋参照データ52や顔参照データ54よりも信頼性が高い。なお、同一機会に対応すると考えられる声紋参照データ52および顔参照データ54のそれぞれ「No.2」のデータに対応するデータがこの機会にOCR参照データ56としてアップされていない。従って、このとき「521378」というIDが付与された人物に対して「381295」というIDが付与された人物からの名刺は提示されなかったものと推定される。しかしながら、OCR参照データ56の「No.3」としてアップされたデータによれば「381295」というIDが付与された人物からの名刺が「412537」というIDが付与された別人物に提示されている。「521378」というIDが付与された人物は「381295」というIDが付与された人物から自己紹介を受けているので、この人物は自分の名前を名刺により特定できるデータが伝達されても異論はない状態にある。そこでOCR参照データ56の「No.3」のデータが「521378」というIDが付与された人物の携帯電話における認知支援データ部にダウンロードされる。このようにして、自分が自己紹介を受けた人物であることを条件に、異なる種類のものあっても別の機会に他人が取得した同一人物の参照データが共有され、その異なる種類の参照データのクロスチェックにより支援の精度と効率のアップが図られる。   The data structure of the OCR reference data 56 is the same as that of the voiceprint reference data 52 and the face reference data 54 except that the reference data portion is “text” of the OCR data. However, unlike these, except in the case of OCR errors due to unclear business card characters or obfuscated characters, the “personal ID” in the OCR data is more reliable than the voiceprint reference data 52 and the face reference data 54 in the sense that it is direct data. Is expensive. Note that data corresponding to “No. 2” data of the voiceprint reference data 52 and the face reference data 54 considered to correspond to the same opportunity is not uploaded as the OCR reference data 56 at this opportunity. Therefore, at this time, it is presumed that the business card from the person to whom the ID “3829595” was given was not presented to the person to whom the ID “521378” was given. However, according to the data uploaded as “No. 3” in the OCR reference data 56, the business card from the person assigned with the ID “38295” is presented to another person assigned with the ID “41537”. . Since the person to whom the ID “521378” has been given has received a self-introduction from the person to whom the ID “382295” has been given, there is no objection to this person even if the data that can identify his / her name through a business card is transmitted. Is in a state. Therefore, the data of “No. 3” in the OCR reference data 56 is downloaded to the recognition support data portion of the mobile phone of the person assigned with the ID “521378”. In this way, on the condition that you are a person who introduced yourself, even if there are different types, the same person's reference data obtained by another person is shared at different occasions, and the different types of reference data The cross check makes it possible to improve the accuracy and efficiency of support.

なお、本発明の種々の特徴は上記の実施例に限られるものではなく、広く他の実施に応用可能なものである。例えば、本発明の実施例は、補聴器兼用眼鏡型認知支援装置2、携帯電話4および人定サーバ6によりシステム構成されているが、例えば補聴器兼用眼鏡型に限らない他の認知支援装置に基づいて実施してもよい。また、電話機能への適用に注目するのであれば、補聴器兼用眼鏡型認知支援装置2を省略してもよい。この場合例えば名刺のOCR読み取りの入力は携帯電話4のカメラ37によって行われる。なお、認知支援アプリ30は、スマートフォンにおけるアプリの一種として携帯電話4にダウンロードすることができる。   The various features of the present invention are not limited to the above-described embodiments, but can be widely applied to other implementations. For example, although the embodiment of the present invention is configured by the hearing aid and glasses-type cognitive support device 2, the mobile phone 4, and the personal identification server 6, for example, based on other recognition support devices that are not limited to the hearing aid and glasses type. You may implement. Further, if attention is paid to application to the telephone function, the hearing aid and glasses-type recognition support device 2 may be omitted. In this case, for example, an OCR reading input of a business card is performed by the camera 37 of the mobile phone 4. The recognition support application 30 can be downloaded to the mobile phone 4 as a kind of application in the smartphone.

本発明は、人の特定や認証等を活用した認知支援システム、認知支援装置、および認知支援サーバ等に適用でき、例えば認知症患者が相手の氏名の失念した場合等における援を行い、使用者の自信喪失を防止して社交性の維持に寄与することができる。   The present invention can be applied to a cognitive support system, a cognitive support device, a cognitive support server, and the like utilizing identification and authentication of a person. For example, a dementia patient assists when the partner's name is forgotten, and the user Can prevent the loss of confidence and contribute to the maintenance of sociability.

14、36 音声取得部
32 認知支援データ部
26、30 制御部
39 文字読み取り部
12、37 顔画像取得部
14, 36 Voice acquisition unit 32 Cognitive support data unit 26, 30 Control unit
39 Character reading unit 12, 37 Face image acquisition unit

本発明は、人の特定や認証等を活用した認知支援システム、認知支援装置、および認知支援サーバ等に適用でき、例えば認知症患者が相手の氏名の失念した場合等における援を行い、使用者の自信喪失を防止して社交性の維持に寄与することができる。 The present invention, recognition support system utilizing specific or authentication, etc. of a person, recognition support system, and can be applied to recognition support server or the like, for example, dementia performs assistance in such case where forgotten opponent's name, using Can contribute to the maintenance of sociality by preventing the loss of confidence.

Claims (7)

音声取得部と、前記音声取得部により取得した音声から声紋データを抽出して人定のための参照データとして格納するとともに前記音声から言語データによる氏名データを抽出して前記声紋データと関連づけて格納する認知支援データ部と、前記音声取得部により新たに取得した音声から抽出した声紋データを前記参照データと比較することにより前記新たに取得した音声の人定を行う制御部とを有することを特徴とする認知支援システム。   Extracting voiceprint data from the voice acquired by the voice acquisition unit and the voice acquisition unit and storing it as reference data for personal identification, extracting name data based on language data from the voice and storing it in association with the voiceprint data A recognition support data unit, and a control unit configured to identify the newly acquired voice by comparing voice print data extracted from the voice newly acquired by the voice acquisition unit with the reference data. A cognitive support system. 前記音声取得部は、眼前の会話相手の音声を拾うマイクまたは通話相手の声を受信する電話機能部であることを特徴とする請求項1記載の認知支援システム。   The recognition support system according to claim 1, wherein the voice acquisition unit is a microphone that picks up a voice of a conversation partner in front of the eyes or a telephone function unit that receives a voice of a call partner. 前記認知支援データ部は、前記音声の冒頭部分から言語情報としての自己紹介部分を抽出し、さらにその中から言語情報としての氏名部分を抽出して氏名データとして前記声紋データと関連づけて格納することを特徴とする請求項1または2記載の認知支援システム。   The recognition support data part extracts a self-introduction part as language information from the beginning part of the voice, further extracts a name part as language information from among the parts, and stores it as name data in association with the voiceprint data The cognitive support system according to claim 1 or 2. 名刺からテキストデータを読み取る文字読み取り部を有し、前記認知支援データ部は、前記文字読み取り部が読み取った氏名データを前記声紋データと関連づけて格納することを特徴とする請求項請求項1から3のいずれかに記載の認知支援システム。   4. A character reading unit for reading text data from a business card, wherein the recognition support data unit stores name data read by the character reading unit in association with the voiceprint data. The cognitive support system according to any of the above. 前記文字読み取り部が読み取った氏名データと前記音声からの言語データによる氏名データとをクロスチェックし、両者が一致しない場合はその一方を採用することを特徴とする請求項4記載の認知支援システム。   5. The cognitive support system according to claim 4, wherein name data read by the character reading unit and name data based on language data from the voice are cross-checked, and if both do not match, one of them is adopted. 顔画像取得部を有し、前記認知支援データ部は、前記顔画像取得部により取得した顔画像から顔特徴データを抽出して人定のための参照データとして前記氏名データと関連付けて格納し、前記制御部は、前記顔画像取得部により新たに取得した顔画像から抽出した顔特徴データを前記参照データと比較することにより前記新たに取得した顔画像の人定を行うことを特徴とする請求項1から5のいずれかに記載の認知支援システム。   A facial image acquisition unit, wherein the recognition support data unit extracts facial feature data from the facial image acquired by the facial image acquisition unit and stores it in association with the name data as reference data for identification; The said control part performs the personalization of the said newly acquired face image by comparing the face feature data extracted from the face image newly acquired by the said face image acquisition part with the said reference data. Item 6. The cognitive support system according to any one of Items 1 to 5. 前記制御部は、前記音声の人定と顔画像の人定とをクロスチェックし、両者が一致しない場合はその一方を採用することを特徴とする請求項6記載の認知支援システム。   The cognitive support system according to claim 6, wherein the control unit cross-checks the personality of the voice and the personality of the face image, and adopts one of them when they do not match.
JP2018070485A 2018-03-31 2018-03-31 Recognition support system, recognition support device and recognition support server Pending JP2019184625A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018070485A JP2019184625A (en) 2018-03-31 2018-03-31 Recognition support system, recognition support device and recognition support server
US16/370,998 US20190303674A1 (en) 2018-03-31 2019-03-31 System for assisting cognitive faculty, an assist appliance, a cellular phone, and a server
US16/792,294 US20200184845A1 (en) 2018-03-31 2020-02-16 Data control system for a data server and a plurality of cellular phones, a data server for the system, and a cellular phone for the system
US17/971,647 US20230053110A1 (en) 2018-03-31 2022-10-24 Data control system for a data server and a plurality of cellular phones, a data server for the system, and a cellular phone for the system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070485A JP2019184625A (en) 2018-03-31 2018-03-31 Recognition support system, recognition support device and recognition support server

Publications (1)

Publication Number Publication Date
JP2019184625A true JP2019184625A (en) 2019-10-24

Family

ID=68340133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070485A Pending JP2019184625A (en) 2018-03-31 2018-03-31 Recognition support system, recognition support device and recognition support server

Country Status (1)

Country Link
JP (1) JP2019184625A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230553A (en) * 2001-02-01 2002-08-16 Matsushita Electric Ind Co Ltd Individual authentication device
JP2012222798A (en) * 2011-04-14 2012-11-12 Nakayo Telecommun Inc Telephone terminal with speech voice history function
JP2014072701A (en) * 2012-09-28 2014-04-21 Softbank Mobile Corp Communication terminal
JP2014518100A (en) * 2011-06-01 2014-07-28 コーニンクレッカ フィリップス エヌ ヴェ Method and system for assisting patients
JP2014236228A (en) * 2013-05-30 2014-12-15 株式会社Nttドコモ Person information registration device and program
JP2015154103A (en) * 2014-02-10 2015-08-24 ビッグローブ株式会社 Telephone directory management apparatus, telephone directory management system, telephone directory management method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230553A (en) * 2001-02-01 2002-08-16 Matsushita Electric Ind Co Ltd Individual authentication device
JP2012222798A (en) * 2011-04-14 2012-11-12 Nakayo Telecommun Inc Telephone terminal with speech voice history function
JP2014518100A (en) * 2011-06-01 2014-07-28 コーニンクレッカ フィリップス エヌ ヴェ Method and system for assisting patients
JP2014072701A (en) * 2012-09-28 2014-04-21 Softbank Mobile Corp Communication terminal
JP2014236228A (en) * 2013-05-30 2014-12-15 株式会社Nttドコモ Person information registration device and program
JP2015154103A (en) * 2014-02-10 2015-08-24 ビッグローブ株式会社 Telephone directory management apparatus, telephone directory management system, telephone directory management method, and program

Similar Documents

Publication Publication Date Title
US11825012B2 (en) Server, client terminal, control method, and storage medium
US10217465B2 (en) Wearable device, system and method for name recollection
WO2016180285A1 (en) Smart glasses
US20130335314A1 (en) Intelligent Reminding Apparatus and Method Thereof
US9530067B2 (en) Method and apparatus for storing and retrieving personal contact information
CN101393598A (en) Starting and unblock method decided by human face identification by utilizing mobile phone cam
NO319299B1 (en) Method, system and apparatus for determining the authenticity of persons
US9778734B2 (en) Memory aid method using audio/video data
JP6669342B2 (en) Cognitive support system, cognitive support device, and cognitive support server
US20230053110A1 (en) Data control system for a data server and a plurality of cellular phones, a data server for the system, and a cellular phone for the system
WO2002078299A3 (en) Telephone memory aid
US20210021712A1 (en) System and method for auto-initiating conference calls from a user device
JP4998202B2 (en) Mobile communication terminal
JPWO2017154136A1 (en) Portable information terminal and information processing method used therefor
KR20050120339A (en) Identity confirmation apparatus using mobile terminal's camera and the method of the same
US20190303674A1 (en) System for assisting cognitive faculty, an assist appliance, a cellular phone, and a server
JP6473898B1 (en) Cognitive support system, cognitive support device, and cognitive support server
JP2019184625A (en) Recognition support system, recognition support device and recognition support server
JP4971001B2 (en) Intercom device
JP2007104382A (en) Interphone apparatus
CN104869220A (en) Safe mobile phone answering method
JP2015220684A (en) Portable terminal equipment and lip reading processing program
JP7308471B2 (en) Mobile phones, servers and systems containing these
JP2001333171A (en) Mobile phone with camera
WO2023119527A1 (en) Mobile information terminal and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190503

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191105