JP7308471B2 - 携帯電話、サーバおよびこれらを含むシステム - Google Patents

携帯電話、サーバおよびこれらを含むシステム Download PDF

Info

Publication number
JP7308471B2
JP7308471B2 JP2019026917A JP2019026917A JP7308471B2 JP 7308471 B2 JP7308471 B2 JP 7308471B2 JP 2019026917 A JP2019026917 A JP 2019026917A JP 2019026917 A JP2019026917 A JP 2019026917A JP 7308471 B2 JP7308471 B2 JP 7308471B2
Authority
JP
Japan
Prior art keywords
data
person
reference data
mobile phone
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019026917A
Other languages
English (en)
Other versions
JP2020135325A5 (ja
JP2020135325A (ja
Inventor
雅英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019026917A priority Critical patent/JP7308471B2/ja
Priority to US16/792,294 priority patent/US20200184845A1/en
Publication of JP2020135325A publication Critical patent/JP2020135325A/ja
Publication of JP2020135325A5 publication Critical patent/JP2020135325A5/ja
Priority to US17/971,647 priority patent/US20230053110A1/en
Application granted granted Critical
Publication of JP7308471B2 publication Critical patent/JP7308471B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description


本発明は、携帯電話、サーバおよびこれらを含むシステムに関する。
近年、携帯電話とサーバとの連携については種々の検討が行われており、その連携には携帯電話にダウンロードされる種々のアプリケーションが活用される。そして種々のデータが活用されており、その活用例としては、人の特定や認証がある。例えば、眼鏡装置に、視線センサと撮影手段と人物情報を表示する表示手段とを設けるとともに、視線の検出結果、または撮影手段で撮影された画像内での顔検出状態が検索開始条件を満たしたときに、検出されている顔に対する該当レコードの有無を検索し、該当レコードがない場合に、新たなレコードを作成して記憶させ、該当レコードがある場合に、該当レコードから表示すべき人物情報を取り出して表示手段に表示させることが提案されている。(特許文献1)
一方、ユーザ端末から利用者が発した音声を変声ロジックにより変声した音声である変声音声を受信する変声音声受信部と、予め登録された利用者の音声を変声ロジックにより変声した音声と受信した変声音声とを突合して声紋認証行う声紋突合部とを有する認証サーバも提案されている。(特許文献2)
しかしながら、携帯電話とサーバとの連携およびそのためのデータの取り扱いについては、さらに検討すべき課題が残されている。
特開2010-061265号公報 特開2016-136299号公報
本発明が解決しようとする課題は、上記に鑑み、データの取り扱い等について改良した携帯電話、サーバおよびこれらを含むシステムを提案することにある。
上記の課題を解決するため本発明は、自己紹介をした人物を人定するための参照データを自己紹介を受けた人物と関連付けて蓄積するデータベースと、前記自己紹介を受けた人物であることを条件に、前記自己紹介をした人物を人定するための参照データであって第三者と関連づけられている他の参照データを前記自己紹介を受けた人物であることを条件に提供する制御部とを有することを特徴とするサーバを提供する。
本発明の具体的な特徴によれば、前記参照データは、前記自己紹介をした人物の声紋データである。
本発明の他の具体的な特徴によれば、前記参照データは、前記自己紹介をした人物の顔データである。
本発明の他の具体的な特徴によれば、前記参照データは、前記自己紹介をした人物の名刺データである。
本発明の他の具体的な特徴によれば、前記第三者と関連づけられている他の参照データと前記自己紹介を受けた人物と関連付けられている参照データとは、ともに前記自己紹介をした同一人物を人定するためのものであるが異種の参照データである。
本発明の他の具体的な特徴によれば、前記参照データは第三者を開示せずに提供され、誰が誰に自己紹介したかとのプライバシーは保護される。
本発明の他の具体的な特徴によれば、前記サーバと連携する携帯電話を提供する。
上記のように、本発明によれば、データの取り扱い等について改良した携帯電話、サーバおよびこれらを含むシステムが提供される。
本発明の実施例に関する認知支援システム全体を示すブロック図を示した図面代用写真である。 図1の実施例における人定サーバの声紋データベース、顔データベースおよびOCRデータベースにそれぞれ格納される参照データ構造およびデータ例を示す表を示した図面代用写真である。 図1の実施例に示した認知支援システムにおいて、携帯電話の構成をより詳細に図示したブロック図の図面代用写真である。 図1から3に示した実施例の携帯電話制御部の動作を示す基本フローチャートの図面代用写真である。 図4のステップS24の詳細を示すフローチャートの図面代用写真である。 図5のステップS50の詳細を示すフローチャートの図面代用写真である。 図5のステップS48の詳細を示すフローチャートの図面代用写真である。 図5のステップS36およびステップS50の詳細を示すフローチャートの図面代用写真である。 図5のステップS66の詳細を示すフローチャートの図面代用写真である。 図5のステップS64の詳細を示すフローチャートの図面代用写真である。 図1および図2に示した実施例の支援装置制御部動作を示す基本フローチャートの図面代用写真である。 図1および図3に示した実施例のサーバ制御部の動作を示す基本フローチャートの図面代用写真である。 図12のステップS304、ステップS310およびステップS314の詳細を示すフローチャートの図面代用写真である。
図1は、本発明の実施例に関する認知支援システム全体を示すブロックであり、システムは補聴器兼用眼鏡型認知支援装置2、スマートフォンとして構成される携帯電話4、および人定サーバ6を有する。補聴器兼用眼鏡型認知支援装置2は、支援装置制御部8によって制御される。記憶部10は、支援装置制御部8を動作させるためのプログラムを記憶するとともに、カメラ12からの顔画像データ、マイク14からの音声データなどのデータ記憶も行う。補聴器兼用眼鏡型認知支援装置2は、また、支援装置近距離通信部16が受信する表示データおよびステレオ音声データに基づき、それぞれ視野内重畳表示部18による表示およびステレオイヤホンによる音声出力を制御する。
補聴器兼用眼鏡型認知支援装置2は、まず、両眼レンズ22を有する通常の眼鏡として機能し、視野内重畳表示部18はこの両眼レンズ22を透した視野内に表示データを重畳表示する。また、補聴器兼用眼鏡型認知支援装置2は、補聴器としても機能し、マイク14で拾った会話相手の声等の音声データをステレオイヤホン20に増強出力する。
補聴器兼用眼鏡型認知支援装置2は、さらに、カメラ12に基づく顔検知によって人定した会話相手の氏名等を視野内重畳表示部18に表示する。この目的のため、カメラ12は使用者の頭が眼前の会話相手に向けられたとき会話相手の顔が自然に撮像範囲に入るよう補聴器兼用眼鏡型認知支援装置2に配置される。さらに、補聴器兼用眼鏡型認知支援装置2はマイク14に基づく声紋検知によって人定した眼前の会話相手の氏名等をステレオイヤホン20の片側チャンネルから音声出力する。顔検知による人定と声紋検知による人定はクロスチェックされ、万一相違する場合は後述の認知支援アプリケーション30に基づく推定アルゴリズムに従ってより確からしい人定が採用される。以上の構成によって、対面する相手の氏名を思い出せない場合における認知症の患者等の認知支援を行う。相手の氏名の失念は認知症ならずとも加齢に伴って発生する現象であるが、補聴器兼用眼鏡型認知支援装置2は、上記のような支援によって使用者の自信喪失を防止し、社交性の維持に寄与するものである。
上記の認知支援機能のため、補聴器兼用眼鏡型認知支援装置2は、携帯電話4および人定サーバ6と連携している。記憶部10に記憶されたカメラ12からの顔画像データおよびマイク14からの音声データは、記憶部10から読み出され、支援装置近距離通信部16から携帯電話近距離通信部24に送信される。これらの近距離通信部は無線LANまたは赤外線通信が可能なものが採用される。携帯電話制御部26は、受信した顔画像データおよび音声データを記憶部28に記憶させる。記憶されたこれらのデータは、認知支援アプリケーション(以下、「認知支援アプリ」と称する)30の処理プログラムに基づく携帯電話制御部26の機能により、認知支援データ部32に格納されている参照データと照合され、会話相手の人定をおこなう。この人定にもとづく会話相手の氏名等のデータは、携帯電話近距離通信部24から支援装置近距離通信部16に送信され、上記のように視野内重畳表示部18に表示されるとともに、ステレオイヤホン20の片側チャンネルから音声出力される。なお上記の会話相手の氏名等のデータは表示部34にも表示される。
携帯電話制御部26は、本来、電話機能部36を含む携帯電話4全体を制御するためのもので、記憶部28に記憶されるプログラムによって動作する。操作部38および表示部34も、本来、電話機能部36の機能に関する操作および表示のために設けられているものであるが、上記の認知支援のためにも兼用される。また、携帯電話4に本来備わっているカメラ37は、電話機能部36内のマイクとの組み合わせによりテレビ電話が可能なものであるが、これらカメラ37および電話機能部36内のマイクも後述のように、認知支援アプリ30に基づいて認知支援に活用される。
携帯電話4に本来備わっているグローバルポジショニングシステム40(以下、「GPS」と称する)は、認知支援アプリ30の処理プログラムに基づく携帯電話制御部26の機能により、使用者の現在位置の認知支援、および自宅や訪問先等の行動に関する認知支援等にも活用される。
携帯電話4のオプティカルキャラクターリーダ39(以下「OCR」と称する)は、相手の名刺の画像から相手の氏名を読み取ってテキストデータ化し、顔検知による人定および声紋検知による人定と関連付けて認知支援データ部32に格納させる。この目的のため、使用者の頭が相手から受け取った名刺に向けられたとき、カメラ12が撮像範囲に入る相手の氏名の画像を撮像して記憶部10に記憶させるとともに、これを読み出して支援装置近距離通信部16から携帯電話近距離通信部24に送信する。
携帯電話4は、電話機能部36によってインターネット41を介し人定サーバ6と交信可能である。人定サーバ6は、サーバ制御部42、声紋データベース44、顔データベース46、OCRデータベース48および入出力インターフェース50を有し、他の携帯電話および他の認知支援装置と連携している。そして、種々の機会において取得される同一人物の声紋データ、顔データおよびOCRデータをプライバシー厳守の条件下で蓄積するとともに共有を図り、人定のための参照データの精度を向上させている。なお、携帯電話4の認知支援データ部32に格納されている参照データのデータ構造は、声紋データベース44、顔データベース46、OCRデータベース48に蓄積されている参照データと同じものであり、そのうち、携帯電話4の使用者に対し自己紹介された人物に関するものであって他の機会に取得された参照データが人定サーバ6から携帯電話4の認知支援データ部に提供される。また、逆に、補聴器兼用眼鏡型認知支援装置2にて取得された参照データは、携帯電話4の認知支援データ部32から人定サーバ6に送信され、同一人物から自己紹介を受けている携帯電話に提供される。人定サーバ6の詳細は後述する。
携帯電話4における認知支援アプリ30および認知支援データ部32は、補聴器兼用眼鏡型認知支援装置2のカメラ12およびマイク14だけでなく、携帯電話の電話機能部36およびカメラ37も活用して機能する。まず、電話機能部36は通話により相手の声を受信するが、認知支援アプリ30および認知支援データ部32は電話機能部36による通話相手の声紋による人定によっても認知支援を行う。さらにカメラ37によって撮像される使用者の顔データは認知支援のための参照データとして人定サーバ6に提供される。
次に、人定のための参照データの取得について説明する。まず顔データについては、使用者の頭が初対面の会話相手に向けられたときカメラ12が会話相手の顔を撮像し、記憶部10、支援装置近距離通信部16、携帯電話近距離通信部24を介して認知支援データ部に顔特徴データの抽出とともに格納される。さらに同じ機会における初対面の相手の声がマイク14によって拾われ、同様に、記憶部10、支援装置近距離通信部16、携帯電話近距離通信部24を介して認知支援データ部に声紋データの抽出とともに音声データとして格納される。
以上のようにして取得された顔データと声紋データが誰のものであるかについては、第一に自己紹介における相手の音声を活用し、さらに自己紹介の際に名刺が手渡された場合はその情報を活用する。まず、音声の活用について説明すると、認知支援アプリ30は認知支援データ部32に格納された音声データの冒頭部分から言語情報としての自己紹介部分を抽出し、さらにその中から言語情報としての氏名部分を抽出する。このようにして言語情報として認識された氏名データが顔データと声紋データと関連付けられ、認知支援データ部に格納される。このように音声データは、声紋という人定情報と、氏名という言語情報という二重の意義を持つものとして活用される。なお、音声データ取得は、目前の会話相手の声を上記のように補聴器兼用眼鏡型認知支援装置2のマイク14で拾う場合と、携帯電話4の通常通話の際に受信する相手の声を活用する場合が可能である。
さらに、名刺が手渡された場合は、上記のように使用者の頭が相手から受け取った名刺に向けられたとき、カメラ12がこれを撮像し、携帯電話4のOCR39でテキストデータ化することにより氏名データとして顔データと声紋データと関連付け、認知支援データ部に格納する。なお、名刺が手渡される場合、単に「こういう者です」と言うだけで名乗らない場合があり、上記のようなOCR39でのテキスト化が有用となる。
また、音声による名乗りと名刺の受け取りの両者があった場合は、音声データの言語情報に基づく氏名データと携帯電話4のOCR39に基づく氏名データはクロスチェックされ、万一相違する場合は認知支援アプリ30に基づく推定アルゴリズムに従ってより確からしい氏名データが採用される。この場合、不鮮明で判読が困難な場合を除き、名刺からの情報が優先される。
次に、再会時について説明する。再会時はわざわざ名乗らない可能性があるが、その時相手の名前が思い出せないようなことが続くと、自信を失って人に会うのを避けるようになりがちである。電話の場合も、相手の声と顔は明確に認知できるが名前が出てこないようなことが続くと、電話を取るのを避けるようになりがちである。これらの場合の支援として、補聴器兼用眼鏡型認知支援装置2のマイク14により再会者の声が拾われ、支援装置近距離通信部16と携帯電話近距離通信部24との通信により携帯電話制御部26に送られる。そして、上記のように認知支援アプリ30の処理プログラムに基づく携帯電話制御部26の機能により、認知支援データ部32に格納されている声紋の参照データとの照合が行わる。そして両者が一致すると声紋データに対応づけられている氏名等のデータが携帯電話近距離通信部24から支援装置近距離通信部16に送信され、視野内重畳表示部18に氏名が視覚的に表示されるとともに、ステレオイヤホン20の片側チャンネルから氏名が音声で出力される。
再会時には、同様のことが顔データについても行われる。すなわち、使用者の頭が会話相手に向けられたとき、補聴器兼用眼鏡型認知支援装置2のカメラ12により再会者の顔が撮像され、支援装置近距離通信部16と携帯電話近距離通信部24との通信により携帯電話制御部26に送られる。そして、上記のように認知支援アプリ30の処理プログラムに基づく携帯電話制御部26の機能により、認知支援データ部32に格納されている顔の参照データとの照合が行わる。そして両者が一致すると顔データに対応づけられている氏名等のデータが携帯電話近距離通信部24から支援装置近距離通信部16に送信され、視野内重畳表示部18に氏名が視覚的に表示されるとともに、ステレオイヤホン20の片側チャンネルから氏名が音声で出力される。なお、声紋データによる人定と顔データによる人定がクロスチェックされ、万一不一致の時はそのいずれかが正しいと推定することは上記したとおりである。
なお上記の認知支援において、視野内重畳表示部18に氏名等が視覚的に表示される場合は、両眼レンズ22を透した視野内に表示データを重畳表示するので、両者が混合する可能性は低いが、通常の視野を遮らない氏名等は視野下部等の縁部分に表示するのが望ましい。一方、ステレオイヤホン20からの音声により氏名等を伝える場合は、会話相手の声と重なって両者とも聞き取れにくくなる恐れがある。従って、上記のようにステレオイヤホン20の片側チャンネルのみから氏名を伝えることにより両方の耳から入ってくる眼前の会話相手の声との弁別を容易にする。補聴器としての使用の場合は、ステレオイヤホン20の片側チャンネルから氏名を出力する場合、増強された会話相手の声の出力はもう一方のチャンネルのみから出力するようにする。また、ステレオイヤホン20の片側チャンネルから氏名を出力するのに代え、会話相手の声が途切れたことを検知してその空白時間帯に氏名の出力を開始するようしてもよい。あるいは、ステレオイヤホン20の片側チャンネルから氏名の出力と会話相手の声が途切れた空白時間帯における氏名の出力を併用してもよい。
図2は、人定サーバ6における声紋データベース44、顔データベース46およびOCRデータベースにそれぞれ格納される声紋参照データ52、顔参照データ54およびOCR参照データ56のデータ構造およびデータ例を示すものである。図1のサーバ制御部42はこのようなデータ構造のデータに基づき、多数の携帯電話と連携して以下に説明するようなデータ管理を行う。図2におけるそれぞれの参照データのデータ構造は、例えば声紋参照データ52では、「No.」、「人定ID」、「取得者ID」、「取得日時」、「声紋データ」よりなる。そして、例えば「No.1」のデータは、「521378」というIDが付与された人物を人定するための参照用「声紋データ」であることを示している。なお、人定IDに対応する人物の実際の氏名は人定サーバ6には登録されているが公開されることはない。また、声紋参照データ52における「521378」というIDはあくまで「声紋1」が抽出された音声データから抽出された言語情報に基づく氏名データであり、言語認識誤りの可能性を含んでいる。
そして、「No.1」のデータは、「381295」というIDが付与された人物が「2018/03/30」の「12:56」という日時に取得したものとして人定サーバ6に提供されたものであることを示している。従ってこの参照データにおける声紋データを現に会話している相手から取得した声の声紋と比較して一致すれば、相手は「521378」というIDが付与された人物であると人定できることになる。
声紋参照データ52のデータは、自分が自己紹介を受けた人物であることを条件に、他人が取得した声紋データであっても人定サーバ6から自分の携帯電話4の認知支援データ部32に参照データとしてダウンロードされる。換言すると、認知支援データ部32には自分の補聴器兼用眼鏡型認知支援装置2および携帯電話4にて取得した声紋参照データに加え、上記の条件により人定サーバ6からダウンロードされたものが含まれており、これが日々更新される。
具体的に説明すると、声紋参照データ52における「No.3」のデータは、「521378」というIDが付与された人物から自己紹介を受けた「412537」というIDが付与された別の人物から提供されている。このことから、「521378」というIDが付与された人物は、「No.1」のデータにおける「381295」というIDが付与された人物と「No.3」のデータにおける「412537」というIDが付与された人物の両者に自己紹介しており、自分の「声紋1」と「声紋3」が参照データとして両者に共有されることで、声紋により自分の氏名が両者にそれぞれ明らかになっても異論はない状態にある。そこで「No.1」のデータと「No.3」のデータは「381295」および「412537」というIDが付与された人物にそれぞれ共有されるようお互いの携帯電話における認知支援データ部にダウンロードされる。このようにして、自分が自己紹介を受けた人物であることを条件に、異なる機会に他人が取得した同一人物の声紋データが共有され、そのクロスチェックにより声紋認証の精度と効率のアップが図られる。なお、データの共有はあくまでIDで行われ、上記のように、取得者IDと他人の氏名の関係は公開されることがないので、このようなデータ共有によりある人物が自分以外の誰と面識があるか等のプライバシー情報が漏れることはない。
顔参照データ54のデータ構造は、参照データの部分が顔データの特徴画像であることを除き、声紋参照データ52と同様である。また、顔参照データ54における「人定ID」も、声紋参照データ52と同様、あくまで「顔データ」が抽出された際に原則として音声データから抽出された言語情報に基づく氏名データであり、言語認識誤りの可能性を含んでいる。
ここで、声紋参照データ52と顔参照データ54とを比較すると、「No.1」と「No.2」のデータにおける「人定ID」と「取得者ID」が入れ替わっているだけで、「取得日時」は同一である。これは両者が面会した同じ機会に人定サーバ6にアップロードされたデータであることを示している。そして両者の顔、声紋、言語情報がその機会にすべて順調に取得されたことを示している。
また、声紋参照データ52の「No.4」に対応するデータが顔参照データ54としてアップロードされていないので、このデータは音声のみの電話にて取得されたものであると推定される。一方、顔参照データ54の「No.4」に対応するデータが声紋参照データ52としてアップロードされていないので、顔参照データ54の「No.4」のデータは聴覚障害者等による音声なしの面会にて取得されたものであると推測される。この場合、顔参照データ54の「No.4」における「人定ID」は、後述のOCRデータ(名刺だけでなく筆談による氏名伝達を含む)とのクロスチェックによるものか、または携帯電話4の操作部38による手動入力であると推測される。
OCR参照データ56のデータ構造は、参照データの部分がOCRデータの「テキスト」であることを除き、声紋参照データ52と顔参照データ54と同様である。ただし、これらとは異なり、名刺文字不鮮明または難読文字によるOCR誤りの場合を除き、OCRデータにおける「人定ID」は直接データであるという意味で声紋参照データ52や顔参照データ54よりも信頼性が高い。なお、同一機会に対応すると考えられる声紋参照データ52および顔参照データ54のそれぞれ「No.2」のデータに対応するデータがこの機会にOCR参照データ56としてアップされていない。従って、このとき「521378」というIDが付与された人物に対して「381295」というIDが付与された人物からの名刺は提示されなかったものと推定される。しかしながら、OCR参照データ56の「No.3」としてアップされたデータによれば「381295」というIDが付与された人物からの名刺が「412537」というIDが付与された別人物に提示されている。「521378」というIDが付与された人物は「381295」というIDが付与された人物から自己紹介を受けているので、この人物は自分の名前を名刺により特定できるデータが伝達されても異論はない状態にある。そこでOCR参照データ56の「No.3」のデータが「521378」というIDが付与された人物の携帯電話における認知支援データ部にダウンロードされる。このようにして、自分が自己紹介を受けた人物であることを条件に、異なる種類のものあっても別の機会に他人が取得した同一人物の参照データが共有され、その異なる種類の参照データのクロスチェックにより支援の精度と効率のアップが図られる。
なお、本発明の種々の特徴は上記の実施例に限られるものではなく、広く他の実施に応用可能なものである。例えば、本発明の実施例は、補聴器兼用眼鏡型認知支援装置2、携帯電話4および人定サーバ6によりシステム構成されているが、例えば補聴器兼用眼鏡型に限らない他の認知支援装置に基づいて実施してもよい。また、電話機能への適用に注目するのであれば、補聴器兼用眼鏡型認知支援装置2を省略してもよい。この場合例えば名刺のOCR読み取りの入力は携帯電話4のカメラ37によって行われる。なお、認知支援アプリ30は、スマートフォンにおけるアプリの一種として携帯電話4にダウンロードすることができる。
なお、上記の説明では、図1、図2において「OCRデータベース」48、「OCR参照データ」56、「OCRデータ」をそれぞれ図示しているが、これらは、内容的にはそれぞれ「氏名データベース」48、「氏名参照データ」56、「氏名データ」を意味し、言語情報として認識可能なテキストデータの情報となっている。このような氏名情報のテキストデータは、具体的には、上記に説明したとおり、マイクで拾った音声データに基づく音声認識、または相手の名刺に基づくOCRによる文字認識によって取得される。そして、上記に説明したとおり、音声による名乗りと名刺の受け取りがあった場合には両者からそれぞれ得られたテキストデータがクロスチェックされ、不鮮明で判読が困難な場合を除き、名刺からのOCR情報が優先される。このような事情から図1、図2においては「OCRデータベース」48、「OCR参照データ」56、「OCRデータ」を代表させて図示しているが、これらの図示および説明は、広義にはそれぞれ「氏名データベース」48、「氏名参照データ」56、「氏名データ」と読み替え、音声認識により氏名データを得る場合には、それぞれ「音声認識データベース」48、「音声認識参照データ」56、「音声認識データ」と読み替えるものとする。
また、上記の実施例において、声紋データベース44、顔データベース46、OCRデータベース48に格納されている認証データはそれぞれ暗号化されており、その解読は、声紋データベース44または顔データベース46の参照データとOCRデータベース48の参照データを互いに関連付けてアップロードしてきた履歴のある携帯電話4にしか開示されない。従って、顔や声と名前の関連付けを知らない無縁の第三者がOCRデータからその人物の顔データまたは声紋データを検索したり、またはその逆に顔データまたは声紋データからその人物のOCRデータを検索したりすることが防止されている。
図3は、図1の実施例に示した認知支援システムにおいて、特に補聴器兼用眼鏡型認知支援装置2を省略した場合等について説明するため、携帯電話4の構成をより詳細に図示したものである。図3においては、図1においてカメラ37と総称していたものを内側カメラ37aと外側カメラ37bに分けて図示するとともに、電話機機能部36内の詳細構成を図示している。上記のとおり、補聴器兼用眼鏡型認知支援装置2が省略される場合、名刺のOCR読み取りの入力は携帯電話4の外側カメラ37aによって行われる。また、電話機能部36において、インターネット41を介した人定サーバ6との交信は、通信機能部36aが担当する。さらに、携帯電話4の内側カメラ37aは電話機能部36内の電話マイク37bとの組み合わせによりテレビ電話が可能である。
既に述べたとおり、内側カメラ37aおよび電話機能部36内の電話マイク36bは認知支援アプリ30に基づいて認知支援に活用される。例えば、上記のように内側カメラ37aによって撮像される携帯電話4の使用者の顔データは認知支援のための参照データとして人定サーバ6に提供される。また、電話マイク36bによって取得される携帯電話4の使用者の声紋データも認知支援のための参照データとして人定サーバ6に提供される。これらの参照データは、携帯電話4の使用者以外の人が認定サーバ6にアクセスした際の認知支援に活用される。つまり、これらの参照データは、携帯電話4の使用者以外の人が携帯電話4の使用者を認知するのに活用される。
一方、携帯電話4の使用者が会話相手を認知する際の支援においては、外側カメラ37bが会話相手を撮像して顔検知データを取得するとともに、電話マイク36bが会話相手の音声を拾って声紋検知データを取得する。そして、それらの検知データに基づいて人定した会話相手の氏名等が表示部34に表示される。携帯電話4におけるこの機能は、上記のように補聴器兼用眼鏡型認知支援装置2が省略される場合に特に有用である。さらに、補聴器兼用眼鏡型認知支援装置2が省略される場合、認定された会話相手の氏名等は、会話相手には聞こえない程度の音量にて使用者が聞く事が出来るよう電話スピーカ36cから音声出力される。この音声出力は、電話イヤホンジャック36dに接続されたイヤホンによっても可能であり、使用者はイヤホンを通じて会話相手の氏名等を聞くことも可能である。
なお、上記のような会話相手の認定結果の表示及び音声出力については、会話の最中に携帯電話を取り出したり操作したりするのは相手に失礼なので、事後にこれらの表示や音声出力を確認できるよう、人定結果を記録しておくことができる。また、面会予定者の顔と名前が一致しない場合において前回面会時における人定結果の記録があれば、顔または名前の一方から他方を検索して事前に人定結果を確認してから面会に臨むことができる。さらに、人定結果のデータを面会日時データおよびGPS40の検知結果も活用した面会場所データとともに面会の機会があるたび蓄積記録しておけが、同一人物との面会履歴データとしても活用できる。
上記の機能には面会相手の参照データが必要であるが、初対面の相手から参照データを取得しようとしていきない相手の顔を撮影したり相手の声を録音したりするのは、プライバシー保護の観点から問題がある。従って、礼儀として予め了解を得る行動をとることは勿論であるが、認知支援アプリ30にも、そのための自動機能が設けられる。具体的には、相手の顔の撮像または声の録音を行う前に「次回お会いしたとき失礼のないよう、お名刺に添付するためのお顔とお声のデータをいただきたいのですが」等の寛恕アナウンスを自動的に行うよう構成する。この構成は、例えば、姿勢センサ58(表示部34における縦横表示自動切換え等のための地磁気センサおよび加速度センサ)により携帯電話の取り出し検知し、これに応答して電話マイク36bを自動起動して面会における会話音声の有無を検知する。そして、これらの検知により面会中に携帯電話を取り出したと判定されたとき、電話スピーカ36cにより上記の自動アナウンスを音声出力するよう構成する。さらに、自動アナウンスから所定時間待ち、その間に相手が拒否したときは手動操作を行って顔の撮影と声の録音の不実施を指示するとともに相手が拒否した旨の記録を名刺データに付記し、所定時間内に手動操作がないときは顔の撮影と声の録音の開始を可能とする。
なお、本発明の種々の特徴は上記の実施例に限られるものではなく、広く他の実施に応用可能なものである。例えば、本発明の実施例において、人物の人定に関する携帯電話4と人定サーバ6との連携の内容は、携帯電話4自体または参照データのアップロードおよびダウンロードであり、人物の人定は携帯電話4内の認知支援アプリ30によって行われる。具体的には、補聴器兼用眼鏡型認知支援装置2または携帯電話4により再会時に取得されるデータが、人定サーバ6からダウンロードして認知支援データ部32に格納されている参照データと比較されることによって人物の人定が行われるが、この人定機能は携帯電話4内の認知支援アプリ30が担っている。しかしながら、本発明の実施はこのようなものに限らず、他の実施例も可能である。
例えば、上記の実施例において携帯電話30の認知支援アプリ30が行っている上記の人定機能を、人定サーバ6のサーバ制御部42に担わせることも可能である。具体的には、補聴器兼用眼鏡型認知支援装置2または携帯電話4により再会時に取得されるデータを、電話機能部36から入出力インターフェース50を介して人定サーバ6に送信する。そして、人定サーバ6は、受信したデータを、声紋データベース44、顔データベース46、OCRデータベース48に格納されている認証データと比較し、得られた人定結果のデータを携帯電話4に返信するよう構成する。この場合、人定サーバ6は、声紋データベース44や顔データベース46のデータとOCRデータベース48のデータを関連付ける人定結果のデータを、再会時に取得されるデータを送信してきた携帯電話4のみに返信するようにし、当事者のプライバシーを保護する。
図4は、図1から3に示した実施例の携帯電話4における携帯電話制御部26の動作を示す基本フローチャートである。フローは携帯電話4の電源オンでスタートし、ステップS2で携帯電話4の初期立ち上げ処理を行う。次いで、ステップS4で認知支援アプリ30が携帯電話4にインストール済みか否かチェックする。この認知支援アプリ30は、スマートフォンにおけるアプリの一種として携帯電話4にダウンロードすることができるものである。
ステップS4において認知支援アプリ30がインストール済みであることが検知されなければステップS6に進み、認知支援アプリをダウンロードするための操作がなされたか否かチェックする。このステップS6のチェックでは、操作部38における該当操作を所定時間待つ機能を含む。ステップS6において所定時間内に該当操作があったことが検知されるとステップS8に進み、人定サーバ6から認知支援アプリをダウンロードするとともに携帯電話4にインストールする処理を行う。認知支援アプリがインストールされるとステップS10に進み認知支援アプリを自動的に起動する。一方、ステップS4において認知支援アプリ30が携帯電話4にインストール済みであることがチェックされると直接ステップS10に進み、認知支援アプリを自動的に起動する。
次に、ステップS12では、操作部38により認知支援アプリを起動する操作が行われたか否かチェックし、操作があればステップS14に進んで認知支援アプリを起動する。そしてフローはステップS16に進む、一方、ステップS12で認知支援アプリの起動操作が検知されなければフローは直接ステップS16に進む。このときステップS10経由でステップS12に至ったのであれば既に認知支援アプリが起動済みであるので、ステップS12およびステップS14では実質的に何も行われない。なお、後述のように、携帯電話の操作中において操作部38により認知支援アプリが停止される場合があり、この操作を経由してステップS12に至ったのであれば、ステップS12で認知支援アプリの起動操作が検知されなければ、認知支援アプリが停止された状態でステップS16に至る可能性がある。
ステップS16では、携帯電話4が補聴器兼用眼鏡型認知支援装置2とペアリング状態であるか否かチェックする。帯電話4において補聴器兼用眼鏡型認知支援装置2とのペアリング設定をしておけば携帯電話4が立ち上がった状態で両者は既にペアリング状態にあり、即座に連携が可能である。ステップS16でペアリング状態が検知されなければステップS18に進み、補聴器兼用眼鏡型認知支援装置2とのペアリング設定のための操作が操作部38でなされたか否かチェックする。このステップS18のチェックでも、操作部38における該当操作を所定時間待つ機能が含まれる。ステップS18において所定時間内に該当操作があったことが検知されるとステップS20に進み、補聴器兼用眼鏡型認知支援装置2とのペアリングを行うための処理を行う。なお、この処理は以後のフローの進行と並行して行われるので、ペアリング完了を待たずフローはステップS22に移行する。なお、ステップS16においてペアリング状態が検知される場合は、直接ステップS22に移行する。
ステップ22では認知支援アプリが起動され、ステップS24に至る。なお、このときステップS10経由またはステップS14経由でステップS22に至ったのであれば既に認知支援アプリが起動済みであるので、ステップS22では実質的に何も行われない。これに対し、認知支援アプリが停止された状態でステップS16に至った場合は、ステップS22によって認知支援アプリが起動されることになる。一方、ステップS18で所定時間内に該当操作があったことが検知されない場合はステップS25に進み、ステップS10またはステップS14においてステッ認知支援アプリが起動されていたかどうかチェックする。そして、起動されていることが検知された場合はステップS24に移行する。
以上をまとめると、認知支援アプリが起動されるのは、認知支援アプリのダウンロードとインストールが行われたとき(ステップS8)、認知支援アプリを起動する操作が検知されたとき(ステップSS12)、認知支援装置ペアリングに関する検知が行われたとき(ステップS16もしくはステップS18)のいずれかとなる。そして、認知支援アプリの起動によりステップS24に至ると認知支援の処理が行われる。なお、この処理は以後のフローの進行と並行して行われるので、認知支援処理の完了を待たずフローはステップS26に移行する
ステップS26では、操作部38によって認知支援アプリを停止する操作が行われたか否かをチェックする。そして、操作が検知されるとステップS28に進み、認知支援アプリを停止してステップS30に移行する。一方ステップS26で認知支援アプリ停止操作が検知されない場合は直接ステップS30に移行する。また、ステップS6で認知支援アプリダウンロード操作が検知されなかった場合、およびステップS25で認知支援アプリ起動が検知されなかった場合も直接ステップS30に移行する。
ステップS30では携帯電話に関する通常の処理が行われる。この処理は認知支援処理と並行して行われるので通常電話処理の完了を待たずフローはステップS32に移行する。ステップS32では、携帯電話4の電源がオフされたか否かをチェックする。そして電源オフが検知されない場合、フローはステップS12に戻り、以下、ステップS32で電源オフが検知されない限りステップS10からステップS32を繰り返す。そしてこの繰り返しの中で、認知支援アプリの起動ならびに停止への対応、補聴器兼用眼鏡型認知支援装置2とのペアリングへの対応、および、認知支援アプリが起動されている場合における通常電話機能との並行処理が実行される。一方、ステップS32で電源オフが検知されるとフローは終了する。
図5は、図4のステップS24における認知支援並行処理の詳細を示すフローチャートである。認知支援並行処理に入ると、まずステップS34において、携帯電話4が取得した参照データで人定サーバ6に未だアップロードしていないものがあるか否かがチェックされる。そして該当データがあればステップS36の人定サーバ6との連携処理に移行する。ステップS36のサーバ連携並行処理は、人定サーバ6への参照データのアップロード、人定サーバ6からの参照データのダウンロード、および取得データに基づく参照データのサーチ処理等を含むものであり、その詳細は後述する。ステップS34から移行してステップS36に至る場合は、未アップロード参照データを人定サーバ6にアップロードする機能が働く。この機能も並行処理なので、アップロードの完了を待たずフローはステップS38に移行する。一方、ステップS34で未アップロード参照データの存在が検知されない場合は直接ステップS38に移行する。
ステップS38では、操作部38によって初対面の面談者から他者参照データを取得する操作が行われたか否かがチェックされる。これは、既に使用者が携帯電話4を手に持っている状態において他者参照データの取得の必要を意識したとき、直接手動操作して他者参照データの取得体勢に入る場合に該当する。この操作が検知された場合については後述する。一方、この操作が検知されない場合はステップS40に移行する。
ステップS40では、携帯電話4を衣服のポケット等から取り出す動作が姿勢センサ58により検知されたか否かチェックする。この動作が検知されるとステップS42に進み、携帯電話4の電話マイク36bを所定時間自動起動して他者の音声を拾う体勢に入る。なお、補聴器兼用メガネ型認知支援装置2と連携している場合、ステップS42では補聴器として機能しているマイク14からの音声も拾う体勢に入る。そしてステップS44に進み、所定時間内に面談音声が検知されるか否かチェックする。これは、使用者が他者参照データの取得の必要を意識して携帯電話を取り出す動作を利用して他者参照データの取得体勢に入る場合に該当する。ステップS44で所定時間内に面談音声が検知された場合については後述する。一方、ステップS44で所定時間内に面談音声が検知されない場合はステップS46に移行する。また、ステップS40で携帯電話取出が検知されない場合も直接ステップS46に移行する。
以上のように、ステップS40からステップS44は、使用者が他者参照データの取得の必要を意識して携帯電話を取り出す動作を利用し、その後の面談音声検知により自動的に他者参照データの取得体勢に入るためのフローである。ステップS44で所定時間内に面談音声が検知された場合については後述する。
ステップS46では、テレビ電話が開始されたか否かをチェックする。テレビ電話は携帯電話4の通信機能部36aを通じて通話相手の声と顔が送られてくる機会であるとともに携帯電話4の内側カメラ37aにより使用者自身の顔を撮像し電話マイク36bにより使用者の声を拾うので使用者の自己参照データを取得する機会であるとともに通話相手を人定するための情報である他者参照データを取得する機会でもある。ステップS46でテレビ電話の開始が検知されるとステップS48に移行して自己参照データ取得処理に入る。次いでステップS50に進み、他者参照データ取得処理に入る。なお、ステップS48とステップS50は並行処理されるので、ステップS48の完了を待たずにステップS50に移行する。そしてステップS48およびステップS50が完了によりステップS52に移行し、人定サーバ6との連携処理を行う。
なお、ステップS46からステップS50では、声とともに顔のデータも得られるテレビ電話の機会について説明しているが、音声のみの電話であっても声紋データの取得は可能である。従って、音声のみの電話の場合はステップS46を「電話」と読み替え、顔データに関する機能を省略した形でフローの実行が可能である。このことは、以後の説明でも同様である。
ステップS52におけるサーバ連携並行処理はステップS36のサーバ連携並行処理と同じものであり、その詳細は後述する。ステップS52のサーバ連携並行処理においては、ステップS36と同様、参照データを人定サーバ6にアップロードする機能が働く。ステップS52の場合はステップS48またはステップS50で新たに取得された参照データを人定サーバ6にアップロードする。
なお、ステップS46においてテレビ電話の開始が検知されない場合もステップS52に移行する。この場合は、参照データの新規取得はないが、ステップS52のサーバ連携並行処理における人定サーバ6からの参照データのダウンロード、および取得データに基づく参照データのサーチ処理等が行われることになる。その詳細は後述する。
一方、ステップS38において操作部38で他者参照データを取得する操作が行われたことが検知された場合、またはステップS44で所定時間内に面談音声が検知された場合はステップS54に移行する。ステップS54では、面談者の顔の撮影や声の録音を実行する前に「次回お会いしたとき失礼のないよう、お名刺に添付するためのお顔とお声のデータをいただきたいのですが」等の寛恕アナウンスを自動的に起動する。そしてアナウンスの起動と並行してステップS56に移行し、アナウンスの起動から所定時間内に撮影と録音を中止する操作が行われたかどうかを検知する。これは面談相手が拒否の意向を示した場合に対応するためである。
ステップS56においてアナウンスの起動から所定時間内に中止操作が検知された場合はステップS52に移行する。この場合も、参照データの新規取得はないが、ステップS46からの移行の場合と同様にして、ステップS52のサーバ連携並行処理における人定サーバ6からの参照データのダウンロード、および取得データに基づく参照データのサーチ処理等が行われることになる。なお、ステップS52は並行処理なのでその処理の完了を待たず、ステップS58に移行する。
ステップS58では、操作部38による人定支援起動操作が行われたか否かチェックする。これは、面会者が初対面でなく名刺を差し出す可能性が低くかつ直ぐに名乗らなかった場合、携帯電話使用者が相手に知られずに行う捜査であり、面会者から新たに取得する顔データや声紋から相手を人定するため、相手に分からないようこっそりと行う操作である。ステップS58で人定支援起動操作が行われたことが検知されるとステップS60に移行して他者参照データがあるか否かをチェックする。そして何らかの参照データがある場合はステップS62に移行する。なお、ステップS58において「参照データがある」とは携帯電話の認知支援データ部32に参照データが格納されている場合に限らない。仮に認知支援データ部に信頼できる参照データが格納されていない場合であっても、サーバ連携並行処理により人定サーバ6内の参照データをサーチできる場合も「参照データがある」と判断してステップS62に移行する。
ステップS62では、携帯電話4が補聴器兼用眼鏡型認知支援装置2とペアリング状態にあるか否かチェックする。そしてペアリング状態であればステップS64におけるペアリング人定処理に入りフローを終了する。これによってフローは図4のステップS26に移行する。なお、ステップS64におけるペアリング人定処理は並行処理であるので処理の完了を待たず図5のフローを終了して図4のステップS26に移行する。従って人定処理の途中であっても、必要に応じ、ステップS26により認知支援アプリ停止操作を割込ませることができる。一方、ステップS62で携帯電話4が補聴器兼用眼鏡型認知支援装置2とペアリング状態にあることが検知されなければステップS66における携帯電話人定処理に入りフローを終了する。なお、ステップS66における携帯電話人定処理も並行処理であるので処理の完了を待たずステップS26に移行する。ステップS64およびステップS66は共にサーバ連携並行処理を含むが詳細は後述する。
上記に対し、ステップS58において人定支援起動操作が行われたことが検知されなければ直ちにフローを終了する。また、ステップS60において人定サーバ内サーチを含めても信頼できるかつ利用可能な他者参照データがあることが検知できなければステップS68に移行する。ステップS68では参照データがないことを表示しフローを終了する。
図6は、図5のステップS50における他者参照データ取得処理の詳細を示すフローチャートである。フローがスタートするとステップS70でマイク音声記録を開始する。これにより、携帯電話4の電話マイク36bまたは補聴器兼用眼鏡型認知支援装置2のマイク14が拾う会話相手の音声の記録が開始される。補聴器兼用眼鏡型認知支援装置2が連携している場合は補聴器として既にマイク14は動作中であるが、携帯電話4の電話マイク36bを使用する場合はステップS70で電話マイク36bを起動する。
そしてマイク音声記録と並行してステップS72に移行し、記録された音声に基づく声紋認識を開始する。そしてこれと並行してステップS74に移行し、記録された音声に基づく音声言語認識を開始する。さらにこれと並行してステップS76に移行し、ステップS72で開始された声紋認識に基づいて声紋データが新規に取得されたときにこれを記録するとともに記録されたデータに取得日時を付与する処理を開始させる。そしてこれと並行してステップS78に移行する。なお、ステップS76によって取得されるデータは図2の声紋データベース44における声紋参照データ52の一つに該当し、取得日時および声紋データが記録される。人定IDおよび取得者IDの記録に関しては後述する。
ステップS78では、携帯電話4の外側カメラ37bまたは補聴器兼用眼鏡型認知支援装置2のカメラ12を起動して会話相手の顔画像を録画し、録画された顔画像に基づく顔認識を開始する。さらにこれと並行してステップS80に移行し、ステップS78で開始された顔認識に基づいて顔データが新規に取得されたときにこれを記録するとともに記録されたデータに取得日時を付与する処理を開始させる。そしてこれと並行してステップS82に移行する。なお、ステップS80によって取得されるデータは図2の顔データベース46における顔参照データ54の一つ該当し、取得日時および顔データが記録される。人定IDの記録および取得者IDの記録については後述する。
ステップS82からステップS88は、図2のOCRデータベース48におけるOCRデータの一つの取得に関する。なお、既に述べたように、図2における「OCRデータベース」48、およびデータ56の「OCRデータ」の欄は、広義にはそれぞれ「氏名データベース」48、および「氏名参照データ」56の「氏名データ」の欄を意味し、それぞれ「OCR」で代表させたものである。換言すれば、「OCRデータ」の欄は、名刺による「氏名データ」を意味するOCRデータだけでなく、音声認識により「氏名データ」を得る場合の「音声認識他者氏名データ」にも該当する。ステップS82からステップS88では、「氏名データ」を音声認識により得る場合と名刺OCRにより得る場合、およびこれらのクロスチェックについて説明している。
まず、ステップS82では、ステップS74で開始された音声言語認識に基づいて音声認識他者氏名データが抽出されたか否かチェックし、抽出がなければステップS84に移行して会話冒頭の所定時間が経過したか否かチェックする。そして所定時間の経過がなければステップS84からステップS82に戻り、以下、所定時間が経過するまではステップS82とステップS84を繰り返す。そして、ステップS82で音声認識他者氏名データが抽出されたとき、またはステップS84で会話冒頭所定時間経過が検知されたときはステップS86に移行する。ステップS84経由でステップS86に移行したときは、会話冒頭時間内に相手の名前を聞かなかったかまたは自発的な名乗りがなかった等の理由により、音声認識他者氏名データが抽出されなかった場合である。
ステップS86では、携帯電話4の外側カメラ37bまたは補聴器兼用眼鏡型認知支援装置2のカメラ12から携帯電話に送られた名刺画像に基づくOCRによって、名刺OCRデータが取得されたか否かチェックする。併せて、ステップS86では音声認識のための音声記録を停止する。そして、ステップS86で名刺OCRデータの取得が検知されたときはステップS88によって氏名データクロスチェックを行い、ステップS90に移行する。ここで、音声認識他者氏名データに基づく氏名と名刺OCRデータに基づく氏名が万一相違する場合、ステップS88では認知支援アプリ30に基づく推定アルゴリズムに従ってより確からしい氏名データが採用される。具体的には、不鮮明で判読が困難な場合を除き、名刺からの情報が優先される。なお、ステップS82で音声認識他者氏名データが抽出されずにステップS88に至ったときは、ステップS88では何もせずステップS90に移行する。
一方、ステップS86で名刺OCRデータの取得が検知されなかった場合はステップS92に移行して氏名データが取得されているかをチェックする。そして、ステップS82で音声認識他者氏名データが抽出されていた場合はステップS90に移行する。
ステップS90では、確定した氏名データを記録するとともに記録されたデータに取得日時を付与する処理を開始させる。そしてこれと並行してステップS94に移行する。なお、ステップS90によって取得されるデータは、図2のOCRデータベース(広義には「氏名データベース」)におけるOCR参照データ(広義には「氏名参照データ」)56のOCRデータ(広義には「氏名データ」)の一つ該当し、取得日時およびOCRデータ(広義には「氏名データ」)が記録される。取得者IDの記録については後述する。
ステップS94では、ステップS76、ステップS80およびステップS90で取得された新規記録参照データに対し、これが同一人から取得されたものであれば同一の仮人定IDを付与する。「仮人定ID」は取得者毎に自由に付与することが可能であり、その取得者内に限り唯一無二であればよい。この場合、ステップS90でOCRデータ(広義には「氏名データ」)が取得されていれば、図2における声紋参照データ52または顔参照データ54またはその両者と同一の仮人定IDを有するOCR参照データ(広義には「氏名参照データ」)56が参照データとして存在することになる。そこで、再会者の声紋データまたは顔データを取得できたとき、これと一致する声紋参照データ52または顔参照データ54をサーチすることにより共通の仮人定ID(後述のように、同一性を保ったまま「既存人定ID」に一括書換えされることあり)を媒介として対応するOCR参照データ(広義には「氏名参照データ」)56を検索でき、再会者の氏名を知ることができる。一方、ステップS90でOCR参照データ(広義には「氏名参照データ」)56が得られなかった場合、声紋参照データ52または顔参照データ54だけに互いに共通する仮人定IDを付与する。この場合は、同じ仮人定IDを有するOCR参照データ(広義には「氏名参照データ」)56がないので、新規取得した声紋参照データ52または顔参照データ54だけからは対応するOCR参照データ(広義には「氏名参照データ」)56をサーチすることはできない。
次にステップS96で、各新参照データによって認知支援データ部32内をサーチする。そして、ステップS98で同一人のものである可能性の高い既存参照データが認知支援データ部32内に格納されているか否かをチェックする。具体的には、新規取得の声紋データまたは顔データと同一人のものである確からしさの強い声紋データまたは顔データを持つ既存の声紋参照データ52または顔参照データ54の有無をチェックする。また、新規取得のOCRデータ(広義には「氏名データ」)と同一のテキストをもつ既存のOCR参照データ(広義には「氏名参照データ」)の有無をチェックする。
ステップS98で該当する新規参照データがあればステップS100に進み、該当新参照データが認知支援データ部32内で矛盾するものであるか否かチェックする。矛盾の具体例は、新規取得の声紋データが人定IDが互いに異なる複数の声紋参照データ52の声紋データと一致してしまう場合(顔データの場合も同様)、新規取得の声紋データと一致する声紋データを持つ声紋参照データ52の人定IDと新規取得の顔データと一致する顔データを持つ顔参照データ54の人定IDとが異なる場合、新規取得のOCRデータ(広義には「氏名データ」)が同一のテキストを持つ既存のOCR参照データ(広義には「氏名参照データ」)と一致するにもかかわらず、対応する新規取得の声紋データまたは顔データが既存のOCR参照データ(広義には「氏名参照データ」)に対応する既存の声紋データまたは既存の顔データと一致しないとき、などである。
そして、ステップS100で同一性矛盾データがあればステップS102に進んで当該データを破棄しステップS104に移行する。この場合の破棄対象は認知支援アプリケーション30に基づく推定アルゴリズムによって決定され、通常は新規取得参照データの方を破棄して既存参照データ間の整合性が崩れないようにする。しかし、新規取得参照データの方を尊重して既存参照データ体系に変更を加えるべき強い蓋然性がある場合は新規取得参照データを尊重し、整合性を保ちつつ認知支援データ部32内データ体系を改良する。具体的には、矛盾することになる既存参照データの方と破棄してステップS104に移行する。一方、ステップS100で同一性矛盾新規データがなければ、該当新参照データを認知支援データ部32に追加してステップS104に移行する。
ステップS104では、既存参照データと同一人のものであることが確認された仮人定IDを対応する既存人定IDに書換え、フローを終了する。ここで、「既存人定ID」とは、サーバにアップロードされた参照データに対し、重複のないよう唯一無二のIDとしてサーバ側の管理の元で付与するものであり、他の人からアップロードされた参照データであっても同一人を人定するための参照データであれば同一の既存人定IDが付与される。そして、「既存人定ID」はこれまでアップロードされたどの参照データにも対応しない人物に対応するものであるときサーバによって新規に付与され、一旦付与されればその後は変更されることなくその人物に対する「既存人定ID」として使用される。これによって、同一人についての参照データを多数の者から豊富にアップロードすることが可能となり、人定の精度がアップする。一方ステップS98において新規取得参照データと同一人のものと判断すべき既存参照データがない場合は当面仮人定IDを維持し、フローを終了する。
図7は、図5のステップS48における自己参照データ取得処理の詳細を示すフローチャートである。フローがスタートすると、図6の場合と同様、ステップS106でマイク音声記録を開始するとともに、ステップS108に移行し、記録された音声に基づく声紋認識を開始する。なお、自己参照データの場合、人定は自分自身であり、氏名データは既知なので、図6のステップS74のような音声言語認識による氏名データステップは置かない。そしてステップS110に移行する。ステップS110からステップS114は図6のステップS76からステップS80と同様なので説明を省略する。
次に、フローはステップS116に進む。ステップS116は、図6のステップS82からステップS88に対応するもので、氏名データの取得を行うためのものである。しかし、上記のとおり氏名データは自分自身のものなので、ステップS116では参照データの取得者IDを読み出せば目的は達成される。そして、ステップS118に進み、図6におけるステップS90と同様にして、確定した氏名データを記録するとともに記録されたデータに取得日時を付与する処理を開始させる。但し、ステップS118の場合は、「確定した氏名データ」は取得者IDに対応している。
次に、フローはステップS120に進み、ステップS110、ステップS114およびステップS118で取得された新規記録参照データに対し、取得者IDを人定IDとして付与する。ステップS120は図6のステップS94に該当するものであるが、取得者IDは確定しているので仮IDではなく既存人定IDとして新規記録参照データに付与する。そして、フローはステップS122に進む。ステップS124からステップS126は図6のステップS96からステップS100と同様であるので説明を省略する。
但し、ステップS126で同一性矛盾データがあればステップS128に進んで既存データとの間での確からしさ判定処理を行う。自己参照データの場合、取得対象は自分自身のみなので人定データと声紋データ顔データの間に基本的には矛盾はない。但し、風邪等により自分の音声が変化している場合等の内的要因、または自分の音声を取得する際のボリュームが小さかったり他にノイズ音源があったりする場合の外的要因で声紋データの信頼性が低いか又は品質が悪い場合、または画像が不鮮明であったり照明が暗かったりして自分の顔データの信頼性が低いか又は品質が悪い場合はありうる。そしてこのような場合、既存の自分の声紋参照データまたは顔参照データと比較して同一人物と認定するのが困難、もしくは他の人物として人定されてしまう可能性がある。ステップS128の既存データとの間での確からしさ判定処理はこのような場合に対処するために設けられており、認知支援アプリケーション30に基づく推定アルゴリズムによって機能する。
ステップS130は上記のようなステップS128の処理に後続するもので新参照データの確からしさが既存参照データよりも強いか否かをチェックする。そして、新参照データの確からしさの方が強ければステップS132に進み、新参照データに矛盾する既存参照データを破棄してフローを終了する。これに対し、既存新参照データの確からしさの方が強ければステップS134に進み、既存参照データに矛盾する新参照データを破棄してフローを終了する。
図8は、図5のステップS36およびステップS50のサーバ連携並行処理の詳細を示すフローチャートである。既に述べたように、サーバ連携並行処理は、人定サーバ6への参照データのアップロード、人定サーバ6からの参照データのダウンロード、および取得データに基づく参照データのサーチ処理等を含むものであり、図8ではこれらの詳細を説明している。なお、図8のサーバ連携並行処理は、後述の図9における携帯電話人定処理、および図10におけるペアリング人定処理でも機能するものであるが、図8においてまとめて先に説明する。
図8のステップS136からステップS162は人定サーバ6への参照データのアップロード処理に、ステップS164からステップS166は取得データに基づく参照データのサーチ処理に、ステップS168からステップS170は人定サーバ6からの参照データのダウンロード処理にそれぞれ対応する。
図8においてフローがスタートすると、ステップS136において、携帯電話4が取得した参照データで人定サーバ6に未だアップロードしていないものがあるか否かが改めてチェックされる。これは、図8のサーバ連携並行処理において、参照データのアップロード処理に入る必要がない場合にS136からステップS162の実行をスキップするためのものである。そして、ステップS136において、未アップロード参照データがある場合ステップS138に移行する。
ステップS138では、未アップロード参照データの一つを抽出する。そしてステップS140で抽出した未アップロード参照データに取得者IDを記録する。このように取得者IDは、サーバ側でアップロード者を特定するため参照データのアップロード時に記録される。次いでステップS142で、アップロードする参照データに既存人定IDが付与されているか否かチェックする。そして既存人定IDが付与されていないものであればステップS144に移行し、「既存人定ID/仮人定ID対照表」のサーチを行う。この対象表は、取得者IDと仮人定IDとの組み合わせと、これに対応する既存人定IDの対象表である。仮人定IDだけだと各取得者が自由に付与するので取得者間で重複する場合があるが取得者IDと組み合わせることで唯一無二の人定を行うデータとなり同一人を人定する唯一無二の既存人定IDと対照させることができる。この対照表はその全貌がサーバで管理されているが、プライバシーを守るため、同じ取得者IDに関するものだけがその取得者IDを有する個人にダウンロードされる。ステップS144はこのようにしてダウンロードされ認知支援データ部32に格納された対照表に基づき携帯電話4内部で行うサーチである。
ステップS144での対照の結果はステップS142でチェックされ、取得者IDと仮人定IDとの組み合わせに対応する既存人定IDがあれば、ステップS148に移行して仮人定IDを既存人定IDに書き換え、ステップS150に移行する。一方、ステップS146で該当データがなければ仮人定IDを維持したままステップS150に移行する。また、ステップS142で既存人定IDが付与されたデータであれば書換えの必要がないのでそのままステップS150に移行する。
ステップS150では、以上のような人定IDの調整を行った参照データについてサーバ側と連携してアップロードする処理を行う。この処理の中で、仮人定IDのままでサーバに送信した参照データについてサーバ側で既存人定IDの存在が確認できたとき、または仮人定IDと取得者IDとの組み合わせに対しサーバ側で新規に人定ID(その後「既存人定ID」として管理)を付与したときその対照がサーバから返信され、ステップS152に移行する。
ステップS152では、仮人定IDのままでサーバに送信した参照データについて既存人定IDとの対照がステップS150においてサーバから受信されたか否かチェックされる。そして、受信があればステップS154に進んで送信データの仮人定IDを既存IDに書き換え、ステップS156に移行する。一方、受信がなければ直接ステップS156に移行する。ステップS156では、仮人定IDのままでサーバに送信した参照データに対して新規に付与された人定ID(その後「既存人定ID」として管理)との対照がサーバから受信されたか否かチェックされる。そして、受信があればステップS158に進んで送信データの仮人定IDを新規に付与された人定ID(その後「既存人定ID」として管理)に書き換え、ステップS160に移行する。一方、受信がなければ直接ステップS160に移行する。
ステップS160では、ステップS152およびステップS156で受信した対照があればこれを認知支援データ部32の「既存人定ID/仮人定ID対照表」に追加して更新する。なお、サーバ側で受信した参照データについては、ステップS150に対応するサーバ側の処理の一環として、ステップS154およびステップS158に対応する人定IDの書換えを行う。また、ステップS150に対応するサーバ側の処理の一環として、ステップS160に対応する既存人定ID/仮人定ID対照表(サーバ側では全ての取得者のものが総合されている)の更新が行われる。
次いでステップS162に移行し、未アップロード参照データが他に残っているか否かチェックする。未アップロード参照データが他にあればステップS138に戻り、次の未アップロード参照データが一つ抽出される。以下、ステップS162において見アップロード参照データがもう残っていないことが確認されるまでステップS138からステップS162が繰り返され、未アップロードデータは一つづつサーバにアップロードされる。なお、ステップS138からステップS162の処理において、未アップロードデータは一つづつサーバにアップロードするのに代えて、各未アップロードデータの人定IDの書換え処理だけを先に行い、全ての書換え処理が終わった後一括してサーバへのアップロードを行うようにしてもよい。
次いでステップS162で、未アップロード参照データが他に残っていないことが確認されるとフローはステップS164に移行する。また、ステップS136において未アップロード参照データがないことが確認された場合は直ちにステップS164に移行する。ステップS164では携帯電話4内またはこれと連携する補聴器兼用眼鏡型認知支援装置
2の範囲内で人定が可能であったか否かチェックする。そしてこれが出来なかった場合はステップS166に移行し、人定サーバ6と連携したサーバ内サーチ処理を行い、ステップS168に移行する。サーバ内サーチ処理の詳細は人定サーバ6の機能として後述する。また、サーバ内サーチ処理は並行処理なので、その完了をまたずステップS168に移行する。一方ステップS164において携帯電話4内またはこれと連携する補聴器兼用眼鏡型認知支援装置2の範囲内で人定が可能であったことが検知された場合、直接ステップS168に移行する。なお、携帯電話4内またはこれと連携する補聴器兼用眼鏡型認知支援装置2の範囲内での人定の詳細は後述する。
ステップS168では、人定サーバ6が他の取得者から新たに取得した参照データで携帯電話4にまだダウンロードされていないものがあるかチェックする。そして、該当データがあればステップS170に移行し、参照データダウンロード処理を行ってフローを終了する。ステップS170は並行処理なのでその完了をまたずフローは終了され、図5のステップS38またはステップS58等に移行する。なお、ステップS170の処理では、他の取得者から新たに取得した参照データであって、携帯電話4の使用者がアップロードした履歴のある参照データの人定IDと同一人物(携帯電話4の使用者が既に会ったかテレビ電話した人物)に関するものだけがダウンロード対照となる。従って、携帯電話4の使用者が知らない人物のデータがサーバから拡散することはなくプライバシーが守られる。
図9は、図5のステップS66における携帯電話人定処理の詳細を示すフローチャートである。フローがスタートするとステップS174でペアリング人定処理に移行する割り込みを可能にしてステップS176に移行する。これによって、図9の処理途中で補聴器兼用眼鏡型認知支援装置2との連携が可能となったとき、図5のステップS64におけるペアリング人定処理に移行することができる。ステップS64におけるペアリング人定処理の詳細は後述する。
ステップS176では声紋認識を開始し、これと並行してステップS17では、音声言語認識を開始し、さらにこれと並行してステップS180顔認識を開始する。これらは、図6のステップS72、ステップS74およびステップS78と同様である。また、他者参照データ取得処理等においてすでにこれらが開始されているときはこれらのステップでは何も行わない。
ステップS182からステップS186は参照データサーチによる認定支援が必要か否かをチェックするフローである。まず、ステップS182により人定対象者の音声認識他者氏名データが抽出できたか否かをチェックする。抽出できなければステップS184に進み、人定対象者から提示された名刺から名刺OCRデータが取得できたか否かチェックする。名刺OCRデータが取得されたときはステップS186に進む。一方ステップS182により人定対象者の音声認識他者氏名データの抽出が検知できたときは直接ステップS186に進む。ステップS186に至ったということは人定対象者の名乗りまたは名刺提示により人定対象者の氏名が判明したことを意味し、通常はこれ以上の人定支援に頼る必要がなくなったことを意味する。しかしながら、名乗りが聞き取れないか肉眼で名刺が読めない等、何らかの理由で人定支援を継続したい場合がある。そこでステップS186では、操作部38により人定支援を継続する旨の操作がなされたか否か念のためチェックする。そして所定時間内に該当操作があればステップS188に移行する。一方、ステップS184で名刺OCRデータの取得が検知できなかった場合は、人定対象者の名乗りによっても名刺提示によっても人定対象者の氏名が判明しなかったことを意味する。従ってこの場合もステップS188に移行する。
ステップS188では、人定対象者の顔データまたは声紋データまたはその両者が取得できたか否かチェックする。取得があれば、ステップS190に進み、認知支援データ部32内をサーチして、これらと一致する顔/声紋参照データを検索する。そしてステップS192に進み一致データがあったか否かチェックする。ステップS192で一致データが確認できない場合はステップS194のサーバ連携処理に入る。ここでのサーバ連携は図8のステップS166の部分に該当する。その詳細は人定サーバ6の機能として後述する。そして、ステップS196に進み、一致データがあったか否かチェックする。そして一致データがあればステップS198に移行する。一方、ステップS192で一致データがあった場合は直接ステップS198に移行する。
ステップS198では、一致したデータが複数あった場合対応する氏名データをクロスチェックする。なお、一致データは一つの場合はステップS198では何もしない。そして、ステップS200に進み、顔が一致したデータに対応する氏名データと声紋が一致したデータに対応する氏名データに矛盾があるか否かチェックする。そして矛盾がある場合は、いずれを選ぶかは携帯電話4の使用者に任せるため、両方の氏名とも表示候補として採用してステップS204に移行する。一方、ステップS200で顔が一致したデータに対応する氏名データと声紋が一致したデータに対応する氏名データとの間に矛盾がなく同一人物が特定されたときは直接ステップS204に移行する。
ステップS204では人定結果の氏名データを表示する。ここでいう表示とは、表示部34による視覚的表示と、電話スピーカ36cからの音声出力およびイヤホンジャックからの音声信号出力による聴覚的表示のいずれか、またはその両者を意味する。なお、聴覚的表示の場合、会話と重ならないよう会話進行をモニタして無音期間発生傾向を分析し、できるだけ次に予想される無音期間に合わせるよう人定結果の氏名をアナウンスする。
ステップS204による人定結果の表示と並行してフローはステップS206に進み、矛盾データの手動排除処理に入る。この処理は、複数の氏名データが候補として表示されその選択が携帯電話4の使用者に任せられた場合に必要なもので、使用者は操作部38により該当しない氏名を排除する操作を行う。これによって排除されたデータは以後参照データとしては採用されないようになる。この排除操作の結果はサーバ内サーチを行う際にも反映される。従って、携帯電話4内のサーチによって一度排除されたデータがサーバ内サーチで再びヒットするようなことはない。
ステップS206の矛盾データ手動排除処理は対象がない場合は直ちに終了し、対象がある場合は排除操作により終了する。所定時間経過しても操作がない場合は予備的に操作を催促した後、自動的に終了する。排除操作なしで終了した場合は以後の人定処理において再び複数の候補が表示される可能性がある。以上のようにしてステップS206が終了するとステップS207に移行する。一方、ステップS186において人定支援継続操作が所定時間内に検知されなかった場合は、人定支援が必要ないのでステップS208に進み、ステップS176からステップS180で開始された声/顔の認識を停止するとともにステップS210で人定不要表示を行いステップS207に移行する。この表示も視覚的表示および聴覚的表示を含む。
ステップS207では面会履歴更新処理を行う。この処理は、人定支援処理の機会に同一の人定対象者毎に面会履歴を蓄積更新していく処理である。具体的には、人定支援処理を通じて得られる面会相手、面会日時、面会機会(面談または電話/テレビ電話)、および携帯電話4のGPS40の機能ならびに携帯電話4の外側カメラ37または補聴器兼用眼鏡型認知支援装置2のカメラ12により撮像されたデータの建物画像認識等から得られる面会場所のデータが面会の都度、面会履歴として蓄積更新されていく。この処理も並行処理なのでその完了を待たずフローは終了し、図4のステップS26に移行する。
また、ステップS188で人定対象者の顔データおよび声紋データの取得がいずれも確認できなかった場合またはステップS166で一致データが確認できなかった場合は、ステップS212に移行する。ステップS212ではステップS176からステップS190における認識開始から所定時間が経過したか否かチェックし、所定時間の経過がなければステップS182に戻る。以下、ステップS212で所定時間の経過が検知されない限りステップS182からステップS196およびステップS212を繰り返し、人定処理の進展がないか待機する。一方ステップS212で所定時間の経過が検知されたときはステップS214に進み、ステップS176からステップS180で開始された声/顔の認識を停止するとともにステップS216で人定不能表示を行ってフローを終了する。この表示も視覚的表示および聴覚的表示を含む。
図10は、図5のステップS64におけるペアリング人定処理の詳細を示すフローチャートである。フローがスタートするとステップS217で保留人定結果表示処理に入る。この処理は、人定結果が出た時点ですぐに認定結果を知る行動を取るのが失礼な場合、例えば面会終了後にこれをゆっくり確認することを可能にする処理である。具体的には、以前に保留しておいた人定結果が存在することを、例えばバイブやチャイムで通知し、所定時間以内に操作部38の操作があれば、その人定結果の表示を実行する処理である。ペアリング人定処理にあっては、送信保留していた人定結果の表示データを操作部38の操作に基づいて補聴器兼用眼鏡型認知支援装置2に送信するようにして表示を可能にする。人定結果表示保留を行うための動作については後述する。なお、このような人定結果保留およびその表示は図10のペアリング人定処理内の機能として説明しているが、同様の機能は図9における携帯電話人定処理においても採用することができる。特に携帯電話人定処理では、認定結果の確認のために携帯電話4の表示部34で見ることになり、会話中にそのような行動をとるのは失礼なので、上記で説明した人定結果表示の保留は有用である。ステップS217は並行処理なので、その完了をまたずステップS218に移行する。
ステップS218では、携帯電話人定処理に移行する割り込みを可能にしてステップS220に移行する。これによって、図10の処理途中において補聴器兼用眼鏡型認知支援装置2との連携を中止し、図5のステップS66における携帯電話人定処理に移行することができる。
ステップS220では声紋認識および音声言語認識に使用する音声データを補聴器兼用眼鏡型認知支援装置2から受信する。次いで、ステップS222では顔認識に使用する顔データを受信する。これらは補聴器兼用眼鏡型認知支援装置2のカメラ12による人定対象者の顔画像取得とマイク14による人定対象者の音声取得と連動して並行処理で実行される。そしてこれらの受信と並行してステップS224の認識開始処理に移行する。この処理は図9のステップS176からステップS180と実質的に同じなので説明を省略する。そしてこの処理に並行してステップS226に移行し、人定不要状況であるか否かチェックする。この処理は図9のステップS182からステップS186と実質的に同じなので説明を省略する。
ステップS226において人定不要状況にないことが検知されるとフローはステップS228の人定処理に移行する。この処理は図9のステップS188からステップS194に相当するので説明を省略する。次いでステップS230では、一致データがあったか否かがチェックされる。これは、図9のステップS196に相当するが、ステップS792での一致の場合も含んでいる。そして一致データがあった場合はステップS232のクロスチェック処理に入る。この処理は図9のステップS198からステップS202に相当するので説明を省略する。これらの処理を経てステップS234に進み、補聴器兼用眼鏡型認知支援装置2で表示すべき人定結果氏名の表示データを作成する。この表示データには、視野内重畳表示部18のための視覚的表示データおよびステレオイヤホン20のための聴覚的表示データのいずれか、またはその両者を含む。
次いで、ステップS235に進み、作成した人定結果氏名表示データに基づく表示を保留する操作が所定時間以内になされたか否かチェックする。これは、人定結果が出たことを携帯電話4のバイブで知らせるか、またはその旨の信号を補聴器兼用眼鏡型認知支援装置2に送信して視野内重畳表示部18で簡易表示するかステレオイヤホン20からのチャイムで知らせるようにし、その後所定時間内に人定結果氏名の表示を保留する操作がなされたかどうかチェックすることによる。所定時間内に操作がないとステップS236に進み、ステップS234で作成された人定結果氏名表示データを補聴器兼用眼鏡型認知支援装置2に送信して表示を可能とし、ステップS238に移行する。ステップS238およびこれに後続するステップS240は図9のステップS206およびステップS207と同じなので説明を省略する。
一方、ステップS235で所定時間内に人定結果表示保留の操作があると直接ステップS240に移行する。この結果ステップS236の表示データの送信は行われず表示は保留される。このような人定結果の保留は、ステップS217の説明でも触れたように、図9の携帯電話人定処理においても採用することができる。図9のフローで採用する場合、ステップS236の「表示データ送信」は「表示部34による表示」と読み替えるものとする。
一方、ステップS226において人定不要状況であることが検知されるとステップS242に進み、ステップS224で開始された認識処理を停止するとともにステップS244に移行する。ステップS244では、人定不要表示データを補聴器兼用眼鏡型認知支援装置2送信し、ステップS240に移行する。ステップS244で送信するデータも視覚的表示のためのデータおよび聴覚的表示のためのデータを含む。
また、ステップS230で一致データが確認できなかった場合は、ステップS246に移行する。ステップS246ではステップS224における認識開始から所定時間が経過したか否かチェックし、所定時間の経過がなければステップS226に戻る。以下、ステップS246で所定時間の経過が検知されない限りステップS226からステップS230およびステップS246を繰り返し、人定処理の進展がないか待機する。一方ステップS246で所定時間の経過が検知されたときはステップS248に進み、ステップS224で開始された声/顔の認識を停止するとともにステップS249に移行して人定不能表示のためのデータを補聴器兼用眼鏡型認知支援装置2送信し、フローを終了する。ステップS249で送信されるデータも視覚的表示のためのデータおよび聴覚的表示のためのデータを含む。
図11は、図1および図2に示した実施例の補聴器兼用眼鏡型認知支援装置2における支援装置制御部8の動作を示す基本フローチャートである。フローは補聴器兼用眼鏡型認知支援装置2の電源オンでスタートし、ステップS250で補聴器兼用眼鏡型認知支援装置2の初期立ち上げ処理を行う。次いで、ステップS252で通常の補聴器機能の並行処理を開始する。そしてステップS254に移行し、カメラ12は主に認知支援のために人定対象者の顔データを取得するために用いられるが、常時起動によって必要に応じ備忘のために録画を行ったり場所データ取得のために建物画像を取得したりするのに活用する。
次いでステップS256に移行し、補聴器兼用眼鏡型認知支援装置2が携帯電話4とペアリング状態にあるか否かチェックする。ペアリング状態になければステップS258に進み、携帯電話4で認知支援装置ペアリング操作が行われた信号を受信したか否かチェックする。受信がなければステップS260に進み、補聴器兼用眼鏡型認知支援装置2側でペアリングのための操作を行ったか否かをチェックする。そして操作が検知されればステップS262の認知支援装置ペアリング処理に移行する。ステップS258で認知支援装置ペアリング操作信号受信が検知された場合もステップS262に移行する。一方、ステップS256で補聴器兼用眼鏡型認知支援装置2が既に携帯電話4とペアリング状態にあることが検知されると直接ステップS264に移行する。
以上のようにしてステップS256からステップS262を通じてペアリング状態が確立するとステップS264に移行し、マイク14で拾う人定対象者の音声データを携帯電話4に送信開始する。次いでカメラ12からのカメラデータを記録開始する。そしてステップS268で記録されたカメラデータが顔画像であるか否かがチェックされ、顔画像である判定されるとステップS270に進み、顔画像のデータを携帯電話4に送信してステップS272に移行する。ステップS268で顔画像の判定がなされないときは直接ステップS272に移行する。
ステップS272では、記録されたカメラデータが名刺画像であるか否かがチェックされ、名刺画像であると判定されるとステップS274に進み、名刺画像のデータを携帯電話4に送信してステップS276に移行する。ステップS272で名刺画像の判定がなされないときは直接ステップS276に移行する。以上のようにステップS254およびステップS268からステップS274が補聴器兼用眼鏡型認知支援装置2から携帯電話4に人定対象者から取得したデータを送信する機能である。
ステップS276では、携帯電話4から人定に関する表示データを受信したか否か検知する。この表示データは上記のように視覚的表示データおよび聴覚的表示データを含み、人定結果の氏名表示データまたは人定不能表示データまたは人定不要表示データである。ステップS276でこのようなデータの受信が検知されるとステップS278に進み、視野内重畳表示部18およびステレオイヤホン20の駆動を開始してステップSS280に移行する。具体的には、視野内重畳表示部18が駆動されて氏名等が視覚的に表示されるとともに、ステレオイヤホン20が駆動されて、例えば片側チャンネルから氏名が音声で出力される。また音声出力の場合、既に説明したように、会話相手の声が途切れたことを検知するか会話の空白時間を予想して氏名等の出力を開始する。一方、ステップS276で人定関連表示データの受信が検知されなければ直接ステップSS280に移行する。
ステップS280では、補聴器兼用眼鏡型認知支援装置2の電源がオフされたか否かがチェックされ、電源オフの検知がなければステップS256に戻り、以下ステップS280で電源オフが検知されない限りステップS256からステップS280が繰り返される。一方、ステップS280で補聴器兼用眼鏡型認知支援装置2の電源がオフされたことが検知されるとフローを終了する。
図12は、図1および図3に示した実施例の人定サーバ6におけるサーバ制御部42の動作を示す基本フローチャートである。フローはシステム開始でスタートし、ステップS282でシステム全体に必要な初期立ち上げ処理を行う。次いで、ステップ284でいずれかの携帯電話から新たな参照データのアップロードがあったか否かがチェックされる。新参照データのアップロードが検知されるとステップS286に進み、アップロードされた新参照データが仮人定ID付きのものか否かがチェックされる。そして仮人定ID付きであればステップS288に進み、アップロードされた新参照データに基づき顔データベース46、声紋データベース44およびOCRデータベースのサーチ処理に入る。そしてステップS290で一致データの有無をチェックする。
ステップS290で一致データが検出されるとステップS292に進み、複数の参照データにおいて一致があったときはステップS292で一致データ同士のクロスチェックを行う。そしてステップS294に進み、クロスチェックの結果として矛盾する可能性のある参照データがないかチェックする。(例えば、新規アップロードされた顔参照データと一致する人定サーバ内の参照顔データがあり且つ新規アップロードされた声紋参照データと一致する人定サーバ内の声紋参照データがあったとき、新規アップロードされた参照データ同士は同一人のものであるにもかかわらず、そのそれぞれと一致した人定サーバ内の参照データ同士の既存人定IDが異なる場合、つまり参照データの方は互いに他人のものだったとき、クロスチェックの結果は矛盾となる。)
そして、ステップS294で矛盾の可能性が検知されなければステップS296に移行する。なお、ステップS290で検知された一致データが一つの時はステップS292およびステップS294では何もしない。ステップS296では、新たにアップロードされた参照データにおける仮人定IDを、これと一致した人定サーバ内の参照データにおける既存人定IDに書き換えてステップS298に移行する。
一方、ステップS290において、新規アップロードした参照データが人定サーバ内の参照データのどれとも一致しないと判断されたとき、またはステップS294においてクロスチェックの結果矛盾可能性のある参照データであると判断されたときはステップS300に移行し、それらの新規アップロードされた参照データの仮人定IDをサーバ内で唯一無二のものとして新規に付与した人定IDに書き換えてステップS298に移行する。なお、ステップS300で新規に付与した人定IDは、今後はシステムの中で既存人定IDとして取り扱われる。これにより、既存人定IDに基づくデータベースシステムにおいて混同による混乱は生じることはない。しかし、このような処理の結果、同一人物のものであるにもかかわらず異なった既存人定IDを持つ参照データが生じる可能性はある。しかしこのような状況は後述のようにこれらは別途整理される。
ステップS298では、新規アップロード参照データにおける仮人定IDの書き換えに用いられた既存人定IDまたは新規付与人定IDを該当参照データの取得者IDの持ち主に送信してステップS302に移行する。ステップS298によって、仮人定IDで参照データを新規アップロードした携帯電話4側では、人定サーバ側での人定IDの書き換えを知ることができ、図8で説明した携帯電話4側フローにおけるステップS152からステップS160を実行することができる。一方、ステップS286で新参照データが既存人定IDを有するものである場合は、直接ステップS302に移行する。
ステップS302では、仮人定IDを既存人定IDまたは新規付与人定IDに書き換えた新規アップロード参照データまたは当初から既存人定IDが付与される新規アップデータ参照データを人定サーバ6の該当するデータベースに格納する。次いでフローはステップS304のサービス提供処理に移行する。サービス提供処理の詳細は後述するが、サーバ内サーチ処理および参照データの配信処理を含む。この配信処理は、例えば、サーバに新規アップロードされた参照データをアップロード者以外の関係者に配信する処理やサーバ内での参照データの更新を関係者に配信する処理である。ステップS302を経由してステップS304に至ったときは、上記サービス提供処理の中の配信処理を行う。なお、ステップS304における配信処理にあたっては、例えば、顔を盗撮して人定サーバにアクセスした悪意の者にその顔の人物の名前の情報が配信されてしまうようなプライバシーの侵害が生じないよう配慮される。その詳細については後述する。ステップS304の処理は並行処理なので完了を待たずにステップS306に移行する。
ステップS306では、人定サーバ6の定期メンテナンスタイミングが到来したか否かをチェックし、タイミングが到来すればステップS308の矛盾データ整理およびデータ統合処理に入る。この処理では矛盾データがサーチを混乱させないよう整理するとともに、声紋データおよび顔データが同じ人物であるとの推定確度が所定以上であるにもかかわらず人定IDが異なる場合、人定IDを同じもの(不都合がない限り、先に付与されている人定ID)に統合する処理である。ステップS308の処理が完了するとステップS310のサービス提供に移行する。ステップS308を経由した場合も、ステップS310のサービス提供処理では、参照データの配信処理が行われる。但しこの場合はステップS308の処理の結果が配信される。ステップS310の処理は並行処理なのでその完了を待たずステップS312に移行する。一方、ステップS306で定期メンテナンスタイミングが検知されなかったときもステップS312に移行する。
ステップS312では、いずれかの携帯電話から人定サーバ6にサーバ内サーチの要求があったか否かチェックする。サーバ内要求が検知されるとステップS314に移行する。ステップS312を経由した場合のサービス提供処理では、サーバ内サーチ処理が行われる。ステップS314の処理は並行処理なのでその完了を待たずステップS316に移行する。一方、ステップS312でサーバ内サーチ要求があったことが検知されない場合は、直接ステップS316に移行する。ステップS316ではシステムが終了されたか否かチェックし、システム終了でなければステップS284に戻る。以下、ステップS316でシステムの終了が検知されない限りステップS284からステップS316を繰り返し、種々のサービス提供に対応する。一方、ステップS316でシステムの終了が検知されれば、フローを終了する。
図13は、図12のステップS304、ステップS310およびステップS314におけるサービス提供処理の詳細を示すフローチャートである。フローがスタートするとステップS318でサーバ内サーチの要求があったか否かチェックする。要求が検知されるとステップS320に進む。これは図12のステップS312を経由してステップS314に入った場合に該当する。ステップS320では、要求のあった携帯電話から人定対象の顔データおよび声紋データのいずれかまたは両者を受信する。そしてステップS322に進み、受信したデータにより顔データベース46および声紋データベース44のいずれかまたはそれぞれ両者を検索する。
検索の結果ステップS324に至り、一致データがあればステップS326に進む。ステップS326では、一致データが複数あった場合その中に矛盾可能性のあるデータが含まれているか否かチェックする。そして矛盾可能性がなければステップS328に進む。なお、一致データが複数なければステップS326では何もせずステップS328に進む。
ステップS328では、一致データの人定データに対応する氏名データがサーバ内サーチを要求してきた携帯電話から受信された履歴があるか否かチェックする。これはサーバサーチを要求してきた携帯電話の取得者IDを持つすべての氏名データをサーチすることでチェックできる。上記のような履歴がある場合について図2で説明する。例えば、今回のサーバ内サーチ要求において携帯電話から受信した声紋データ(取得者ID412537)が声紋参照データ52の「No.2」の声紋2(人定ID381295)と一致したとすると、返信すべきは人定ID381295であるが、これは別人の取得者ID521378により提供されたものである。しかしながら、同じ人定ID381925を持つ顔参照データ54の「No.4」の特徴画像4およびOCR参照データ56の「No.3」のテキスト3の氏名データがともに同じ取得者ID412537にて以前にアップロードされており、今回のサーバ内サーチで判明した人定ID381295の氏名を取得者ID412537の人間が既に知っていたことを意味する。従って、この場合なら人定ID381295に対応する氏名データをサーチ結果として返信してもプライバシー保護の観点から問題はないことになる。
一方、ステップS328で該当する履歴がなかったときは、ステップS330に移行する。ステップS330では、一致データが、サーバ内サーチの要求対象データの取得者の自己紹介相手の人定IDであるか否かがチェックされる。上記のような自己紹介相手に関する場合について図2で説明する。例えば、今回のサーバ内サーチ要求において携帯電話から受信した顔データ(取得者ID521378)が顔参照データ54の「No.2」の特徴画像2(人定ID381295)と一致したとすると、返信すべきは人定ID381295であるが、同じ人定ID381295をもつOCR参照データ56の「No.3」のテキスト3の氏名データは別人の取得者ID412537により提供されたものであり、取得者ID521378自身からアップロードされた氏名データは存在しない。従ってこのような場合、一般には、今回サーバ内サーチを求めてきた取得者ID521378は、知らない人の顔写真を盗撮して何度もアップロードし、氏名を知ろうとしている恐れがある。
しかしながら、今回サーバ内サーチを求めてきた取得者ID521378が顔参照データ54の「No.2」の特徴画像2(人定ID381295)をアップロードしたのと同じ取得日時で、取得者ID381295も顔参照データ54の「No.1」の特徴画像1(人定ID521378)およびOCR参照データ56の「No.1」のテキスト1をアップロードしている履歴がある。従って、今回サーバ内サーチを求めてきた取得者ID521378は人定ID381295の人物に名刺を出して自己紹介していると推定され、人定ID381295の人物も取得者ID521378の人物に名前を知られて異存ない(名刺は出さなかったが口頭で既に名乗っていた)ものと推定される。ステップS330はこのような自己紹介事情の有無を推定するものである。
以上のようにして、今回サーバ内サーチにおいて一致したデータの人定IDが今回サーバ内サーチを求めてきたデータ取得者が自己紹介した相手の人定IDに相当することがステップS330で確認された場合はステップS332に進み、他の取得者から提供されている同一の人定IDに相当する氏名データがあれば、サーバ内サーチを求めてきたデータ取得者に返信する。一方、上記ステップS328において、一致データが氏名データ受信履歴のある人定IDであると判定されたときも、ステップS332に進み、サーバ内サーチを求めてきたデータ取得者に一致人定IDの氏名データを返信する。
次いでステップS334では、今回一致対象となった参照データを、サーバ内サーチを求めてきた携帯電話に配信してステップS336に移行する。これによって、今回サーバ内サーチを求めてきた携帯電話では、受信した参照データを次回のサーチから携帯電話内サーチに活用できる。一方、ステップS318でサーバ内サーチ要求が検知されない場合は直接ステップS336に移行する。これに対し、ステップS324で一致データが検知できなかった場合、ステップS326で矛盾可能性データがあった場合、およびステップS330で一致データがサーバ内サーチの要求対象データの取得者の自己紹介相手の人定IDであることが検知できなかった場合は、それぞれステップS338に進み、携帯電話に「一致なし」の返信を行ってステップS336に移行する。以上が、図12のステップS314に該当するサーバ内サーチに関するサービス提供処理である。
ステップS336以降は、サービス提供処理における参照データの配信処理に関するもので、基本的には図12のステップS304およびステップS310における処理に該当する。ステップS336では、人定サーバに参照データをアップロードした実績のある取得者IDに対し未配信の参照データがあるか否かチェックする。該当データがあればステップS340に進み他のデータとのクロスチェックの結果矛盾可能性のあるデータであるか否かがチェックされる。そして矛盾がなければステップS342およびステップS344のチェックに入る。これらのチェックは参照データの配信によってプライバシーが侵害される恐れがないかどうかをチェックするためのもので、基本的には上記のステップS328とステップS330と同様なので説明を省略する。
なお、ステップS344における自己紹介相手であるかどうかの推定には、既に説明したように、図2の声紋データベースをチェックし、例えば、「521378」というIDが付与された同一人物の「声紋1」および「声紋3」が別の機会に取得され、それぞれ「No.1」のデータにおける「381295」というIDが付与された取得者と「No.3」のデータにおける「412537」というIDが付与された取得者からともにアップロードされている状態もチェックされる。この場合は、「521378」というIDが付与された人物は「No.1」のデータにおける「381295」というIDが付与された人物と「No.3」のデータにおける「412537」というIDが付与された人物の両者に自己紹介しており、自分の「声紋1」と「声紋3」が参照データとして両者に共有されることで、声紋により自分の氏名が両者にそれぞれ明らかになっても異論はない状態にある。そこで「No.1」のデータと「No.3」のデータは「381295」および「412537」というIDが付与された人物にそれぞれ共有されるようお互いの携帯電話における認知支援データ部に配信してもよい参照データと判断される。なお、上記のように、データの共有はあくまでIDで行われ、取得者IDと他人の氏名の関係は公開されることがないので、このような配信によるデータ共有により、ある人物が自分以外の誰と面識があるか等のプライバシー情報が漏れることはない。
ステップS342において、配信候補の参照データが氏名データ受信履歴のある人定IDであったとき、またはステップS344において配信候補の参照データが当該取得者の自己紹介相手の人定IDであったときはステップS346に移行し、当該取得者IDに対して当該参照データを配信してフローを終了する。一方ステップS336で該当データでなかったとき、または、ステップS340で矛盾可能性のあるデータであったとき、またはステップS344で該当データでなかったときは配信は行わずフローを終了する。
なお、本発明の種々の特徴は上記の実施例に限られるものではなく、広く他の実施に応用可能なものである。例えば、本発明の実施例は、補聴器兼用眼鏡型認知支援装置2、携帯電話4および人定サーバ6によりシステム構成されているが、例えば補聴器兼用眼鏡型に限らない他の認知支援装置に基づいて実施してもよい。また、電話機能への適用に注目するのであれば、補聴器兼用眼鏡型認知支援装置2を省略してもよい。この場合例えば名刺のOCR読み取りの入力は携帯電話4のカメラ37によって行われる。なお、認知支援アプリ30は、スマートフォンにおけるアプリの一種として携帯電話4にダウンロードすることができる。さらに携帯電話とサーバとの間のデータのダウンロードおよびアップロード、並びにデータ共有に関する種々の特徴は、認知支援のデータに限らず広く携帯電話とサーバとの間の連携機能として活用できる。
本発明は、人の特定や認証等を活用した認知支援システム、認知支援装置、および認知支援サーバ等に適用でき、例えば認知症患者が相手の氏名の失念した場合等における援を行い、使用者の自信喪失を防止して社交性の維持に寄与することができる。
44、46、48 データベース
42 サーバ制御部
26 携帯電話制御部
4 携帯電話
6 サーバ

Claims (5)

  1. 携帯電話であって、前記携帯電話が備える面会履歴データ記録部と、面会者を人定するための人定データを検知するために前記携帯電話が備える人定データ検知部と、面会日時データを検知するために前記携帯電話が備える面会日時データ検知部と、前記人定データ検知部が検知する前記人定データに基づく前記面会者の人定結果および前記面会日時データ検知部が検知する前記面会者との前記面会日時データを面会の都度前記面会履歴データ記録部に蓄積記録して同一人物との面会履歴を更新するために前記携帯電話が備える制御部とを有することを特徴とする携帯電話。
  2. 前記人定データ検知部は前記面会者の名刺より前記面会者の人定データを検知することを特徴とする請求項1記載の携帯電話。
  3. 前記人定データ検知部は前記面会者の音声より前記面会者の人定データを検知することを特徴とする請求項1または2記載の携帯電話。
  4. 前記人定データ検知部は前記面会者の顔画像より前記面会者の人定データを検知することを特徴とする請求項1から3のいずれかに記載の携帯電話。
  5. 面会場所データ検知部を有し、前記制御部は前記面会場所データ検知部が検知する前記面会者との面会場所データを面会の都度前記面会履歴データ記録部に蓄積記録して同一人物との面会履歴を更新することを特徴とする請求項1から4のいずれかに記載の携帯電話。
JP2019026917A 2018-03-31 2019-02-18 携帯電話、サーバおよびこれらを含むシステム Active JP7308471B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019026917A JP7308471B2 (ja) 2019-02-18 2019-02-18 携帯電話、サーバおよびこれらを含むシステム
US16/792,294 US20200184845A1 (en) 2018-03-31 2020-02-16 Data control system for a data server and a plurality of cellular phones, a data server for the system, and a cellular phone for the system
US17/971,647 US20230053110A1 (en) 2018-03-31 2022-10-24 Data control system for a data server and a plurality of cellular phones, a data server for the system, and a cellular phone for the system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026917A JP7308471B2 (ja) 2019-02-18 2019-02-18 携帯電話、サーバおよびこれらを含むシステム

Publications (3)

Publication Number Publication Date
JP2020135325A JP2020135325A (ja) 2020-08-31
JP2020135325A5 JP2020135325A5 (ja) 2022-03-01
JP7308471B2 true JP7308471B2 (ja) 2023-07-14

Family

ID=72263155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026917A Active JP7308471B2 (ja) 2018-03-31 2019-02-18 携帯電話、サーバおよびこれらを含むシステム

Country Status (1)

Country Link
JP (1) JP7308471B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061265A (ja) 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP2017054356A (ja) 2015-09-10 2017-03-16 フォースタイル株式会社 コンタクト履歴管理システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061265A (ja) 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP2017054356A (ja) 2015-09-10 2017-03-16 フォースタイル株式会社 コンタクト履歴管理システム

Also Published As

Publication number Publication date
JP2020135325A (ja) 2020-08-31

Similar Documents

Publication Publication Date Title
US10692505B2 (en) Personal assistant application
US9779288B2 (en) Connecting to an onscreen entity
US9530067B2 (en) Method and apparatus for storing and retrieving personal contact information
US8090159B2 (en) Apparatus and method for identifying a name corresponding to a face or voice using a database
US8521185B2 (en) Wireless communications with visually-identified targets
US9773162B2 (en) User discovery via digital ID and face recognition
US20110047237A1 (en) Proximity based matchmaking using communications devices
WO2018066191A1 (ja) サーバ、クライアント端末、制御方法、および記憶媒体
US20080130957A1 (en) System for scheduling, recordation and biometric validation of interpersonal interactions
RU2594755C1 (ru) Способ и устройство для идентификации телефонного вызова
US20230053110A1 (en) Data control system for a data server and a plurality of cellular phones, a data server for the system, and a cellular phone for the system
EP3249570A1 (en) Method and device for providing prompt indicating loss of terminal
JP5152045B2 (ja) 電話装置、画像表示方法及び画像表示処理プログラム
CN110620847A (zh) 智能终端的防盗方法、该智能终端
JPWO2019111962A1 (ja) 名刺管理システム及び名刺入れ
JP7308471B2 (ja) 携帯電話、サーバおよびこれらを含むシステム
JP6669342B2 (ja) 認知支援システム、認知支援装置、および認知支援サーバ
JP6711621B2 (ja) ロボット、ロボット制御方法およびロボットプログラム
CN110913055B (zh) 终端设备的查找方法及装置、电子设备
JP6368666B2 (ja) 迷惑電話対策システム、および、迷惑電話対策方法
US20050093692A1 (en) Information processing device having external notification function and notification method thereof
JP6473898B1 (ja) 認知支援システム、認知支援装置、および認知支援サーバ
KR101342534B1 (ko) 개인정보 동시 교환 서비스 방법 및 이를 구현하기 위한 개인정보 동시 교환 시스템
JP2019184625A (ja) 認知支援システム、認知支援装置、および認知支援サーバ
WO2019106734A1 (ja) コンピュータシステム、機器制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230624

R150 Certificate of patent or registration of utility model

Ref document number: 7308471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150