WO2017154136A1 - 携帯情報端末及びそれに用いる情報処理方法 - Google Patents

携帯情報端末及びそれに用いる情報処理方法 Download PDF

Info

Publication number
WO2017154136A1
WO2017154136A1 PCT/JP2016/057387 JP2016057387W WO2017154136A1 WO 2017154136 A1 WO2017154136 A1 WO 2017154136A1 JP 2016057387 W JP2016057387 W JP 2016057387W WO 2017154136 A1 WO2017154136 A1 WO 2017154136A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
person
information terminal
unit
portable information
Prior art date
Application number
PCT/JP2016/057387
Other languages
English (en)
French (fr)
Inventor
西島 英男
清水 宏
橋本 康宣
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2016/057387 priority Critical patent/WO2017154136A1/ja
Priority to CN201680068181.9A priority patent/CN108292417A/zh
Priority to US16/080,920 priority patent/US20190095867A1/en
Priority to JP2018503915A priority patent/JPWO2017154136A1/ja
Publication of WO2017154136A1 publication Critical patent/WO2017154136A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

面談者の情報を使用者により迅速に提供する機能を備えた携帯情報端末及び方法を提供することを目的とする。 本発明は、上記課題を解決するために、携帯情報端末であって、周囲の変化を検出する入力センサと、外部処理装置と情報を送受信する通信部と、情報を出力する出力部と、入力センサからの入力信号変化から所定の状況を検知し、通信部を介して外部処理装置に指示信号を送信し、通信部を介して外部処理装置から指示信号に応じた人物の情報を受信し、出力部を介して人物の情報を出力する制御部とを有する構成とする。

Description

携帯情報端末及びそれに用いる情報処理方法
 本発明は直接対面して話をする対面者の情報を提供する携帯情報端末及び情報処理方法に関する。
 人と直接対面して会話をする場合、頻繁に会わない対面者の情報は忘れてしまうことが多い。その為、直接対面してもその対面者のことが思い出せないことがある。そのために、個人の手帳等に多くの友人や関係者の情報を記載して記録する方法もあるが、それでも、それらの情報と対面者との紐付すらできないことがある。
 最近では、顔写真を付けた電子情報を有する情報端末を持ち歩き、面会前に事前にその面談者の情報をチェックして、記憶を更新し面談に備えるということも少なくない。しかし、突然に対面した時にはやはり有効なツールとしての機能にはならない。
 しかしながら、顔認識技術の進歩や上記した小型のカメラや情報端末の普及が進んでおり、これらの技術を利用することで新たな対応策が可能になりつつある。例えば、特開2014-182480号公報(特許文献1)には、人物認識装置及び方法の技術が記載されている。
特開2014-182480号公報
 特許文献1には、画像データを入力する画像入力手段と、入力された画像データから人物の顔が表された顔領域を検出する顔検出手段と、検出された顔領域から顔の特徴点を検出する顔特徴点検出手段と、人物毎に、人物の顔の特徴を示す情報を含む人物情報を記憶する記憶手段と、記憶された人物情報に基づいて、記憶された人物の顔の特徴が検出された顔の特徴点と類似する順に人物を抽出する抽出手段と、検出された顔領域の撮像条件に基づいて、類似する順に抽出された人物の上位から候補とする候補数を算出する候補数算出手段と、類似する順に抽出された人物の上位から候補数に対応した人数の人物情報を出力する出力手段が記載されている。
 しかしながら、特許文献1においては、仮に類似する最上位の人物を特定者として認識しても、その情報を如何に使うかの点に関しては、何も考慮されていない。また、携帯して、突然対面した人を特定して、その対面した面談者の情報を容易に入手して、必要な会話による情報交換を行うなどの応用に関しては何ら考慮されていない。
 本発明の目的は、上記課題を考慮し、面談者の情報を迅速に提供する手段を備えた携帯情報端末及びその方法を提供することにある。
 上記課題を解決するために、本発明は、その一例を挙げるならば、携帯情報端末であって、周囲の変化を検出する入力センサと、外部処理装置と情報を送受信する通信部と、情報を出力する出力部と、入力センサからの入力信号変化から所定の状況を検知し、通信部を介して外部処理装置に指示信号を送信し、通信部を介して外部処理装置から指示信号に応じた人物の情報を受信し、出力部を介して人物の情報を出力する制御部とを有する構成とする。
 本発明によれば、面談者の情報を使用者により迅速に提供する機能を備えた携帯情報端末びその方法を提供することが可能となる。
実施例1に係る携帯情報端末を含む通信システムの構成図である。 実施例1に係る携帯情報端末のブロック図である。 実施例1に係る外部処理装置のブロック図である。 実施例2に係る携帯情報端末を含む通信システムの構成図である。 実施例2に係る携帯情報端末のブロック図である。 実施例3に係る情報処理部の機能説明図である。 実施例3に係る情報処理部の顔認識方法の説明図である。 実施例3に係る情報処理部の人物判断方法の説明図である。 実施例4に係る情報処理部の音声認識方法の説明図である。 実施例4に係る情報処理部の音声認識活用例の説明図である。 実施例4に係る情報処理部の音声認識活用例の説明図である。 実施例4に係る情報処理部の音声認識活用例の説明図である。 実施例5に係る携帯情報端末及び外部処理装置の画面表示例である。 実施例5に係る携帯情報端末及び外部処理装置の画面表示例である。 実施例5に係る携帯情報端末及び外部処理装置の画面表示情報のデータ図である。 実施例5に係る携帯情報端末及び外部処理装置の画面表示例である。 実施例6に係る携帯情報端末の動作フローチャートである。 実施例6に係る携帯情報端末の他の動作フローチャートである。 実施例7に係る携帯情報端末の端末操作をトリガとして面談相手の個人情報を取得する処理フローチャートである。 実施例7に係る携帯情報端末の他の携帯情報端末が近づいたことをトリガとして面談相手の個人情報を取得する処理フローチャートである。 実施例8に係る携帯情報端末及び外部処理装置の外観構成図である。 実施例8に係る携帯情報端末及び外部処理装置の外観構成図である。 実施例8に係る携帯情報端末及び外部処理装置の外観構成図である。 実施例8に係る携帯情報端末の外観構成図である。 実施例8に係る携帯情報端末の外観構成図である。 実施例8に係る携帯情報端末の外観構成図である。 実施例8に係る携帯情報端末の外観構成図である。 実施例8に係る携帯情報端末の他の外観構成図である。 実施例8に係る携帯情報端末の他の外観構成図である。 実施例8に係る携帯情報端末の他の外観構成図である。
 以下、本発明の実施例を、図面を用いて説明する。
 図1は、本実施例における携帯情報端末151を含む通信システムの一例であり、外部処理装置152、移動体電話通信網の基地局153、移動体電話通信メールサーバ154、インターネットメールサーバ155、アプリケーションサーバ156、公衆ネットワーク157、他の携帯情報端末158、無線通信用アクセスポイント159を有している。
 図2は、図1の通信システムにおける携帯情報端末151のブロック図である。図2において、携帯情報端末151は、情報処理部201、システムバス202、ROM203、RAM204、記憶部205、心拍数センサ220、加速度センサ221、角速度センサ222、地磁気センサ223、GPS受信部224、照度センサ225、温湿度センサ226、タッチパネル227、外部インタフェース232、表示部241、表示処理部242、映像入力部228、耳元スピーカ243、周囲スピーカ244、集音マイク229、通話マイク230、Bluetooth(登録商標)通信部264、NFC(Near field radio communication)通信部265、操作部231、電源回路207、バッテリー206を有している。
 また、携帯情報端末151および外部処理装置152の外観図の一例を図21から図30に示す。詳細は後述する図21から図30の代表的構成図にて説明するが、携帯情報端末151は、スマートウォッチ、ヘッドマウントディスプレイを有するウェアラブルコンピュータ、耳掛け型情報端末であっても良い。また、携帯型のゲーム機やその他の携帯型デジタル機器であっても良い。
 図2において、携帯情報端末151に搭載される情報処理部201は、携帯情報端末151全体のシステムを制御する、例えばマイクロプロセッサ等の制御部である。システムバス202は制御部201と携帯情報端末151内の各部との間でデータ送受信を行うためのデータ通信路である。ROM(Read Only Memory)203は携帯情報端末151の基本動作のためのプログラムが格納されたメモリであり、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュROMのような書き換え可能なROMが用いられる。ROM203に格納されたプログラムを更新することにより、基本動作プログラムのバージョンアップや機能拡張が可能であるものとする。なお、ROM203は、図2に示したような独立構成とはせず、記憶部205内の一部記憶領域を使用しても良い。RAM(Random Access Memory)204は基本動作プログラム若しくは各アプリケーション実行時のワークエリアとなる。また、ROM203及びRAM204は情報処理部201と一体構成であっても良い。
 記憶部205は、携帯情報端末151の各動作設定値や携帯情報端末151の使用者や使用者が知っている人物の個人情報(生まれてきてからの自分の履歴情報、過去に関わった知り合いの個人情報や、これからのスケジュール等)等を記憶する。バッテリー206は電源回路207を介して、携帯情報端末151内の各回路に電力を供給する。
 ここで、外部処理装置152は、図1に示した、アプリケーションサーバ156から、公衆ネットワーク157及びその無線通信用アクセスポイント159を介して新規アプリケーションをダウンロードする。携帯情報端末151は、Bluetooth通信部264またはNFC通信部265を介して、その情報を新規アプリケーションとしてダウンロードすることにより機能拡張をすることが可能であるものとする。この際、ダウンロードしたアプリケーションは記憶部205に記憶される。記憶部205に記憶されたアプリケーションは、使用時にRAM204上に展開されて実行されることにより、多種の機能を実現可能である。
 記憶部205は携帯情報端末151が電源オフの状態であっても記憶している情報を保持する必要がある。したがって、例えばフラッシュROMやSSD(Solid State Drive)、HDD(Hard Disc Drive)等が用いられる。
 心拍数センサ220、加速度センサ221、角速度センサ222、地磁気センサ223、GPS受信部224、照度センサ225、温湿度センサ226等は、携帯情報端末151の状態を検出する。これらのセンサにより、携帯情報端末151の動き、傾き、位置、方角等を検出することが可能となる。照度センサ225は携帯情報端末151周辺の明るさを検出する。
 外部インタフェース232は、携帯情報端末151の機能を拡張するためのインタフェースであり、USB(Universal Serial Bus)機器やメモリカードの接続、外部モニタに映像表示するための映像ケーブルの接続等を行う。
 表示部241は、例えば液晶パネルのような表示デバイスであり、表示処理部242において処理した映像信号を携帯情報端末151の使用者に提供する。映像入力部228はカメラである。耳元スピーカ243は特に使用者に聞こえやすく配置された音声出力である。周囲スピーカ244は使用者が本来の携帯使用状況でない形(たとえば、バック等に中に入れて持ち有いている場合など)で保持している場合や使用者だけでなく周囲の人に聞こえるように配置された音声出力である。通話マイク230は特に使用者の声を拾うように配置されたマイクであり、集音マイク229は周囲の音声等を拾うように配置されたマイクである。
 操作部231は、主に携帯情報端末151の使用者の操作に基づき文字入力を行ったり実行中のアプリケーションの操作を行ったりするための指示入力部である。ボタンスイッチを並べたマルチキーにより実現しても良いし、表示部241に重ねて配置したタッチパネル227により実現しても良い。また、映像入力部228からの映像信号や通話マイク230からの音声信号を用いた入力であっても良い。また、これらを併用しても良い。
 Bluetooth通信部264、NFC通信部265は、図1に示す外部処理装置152または他の携帯情報端末158との通信を行う。たとえば、携帯情報端末151内の入力センサの一つであるタッチパネル227を使用者がタッチすることをトリガとして携帯情報端末151内の複数の機能を起動して、Bluetooth通信部264またはNFC通信部265を介して、外部処理装置152に情報提供の指示信号を送信する。
 ここで、外部処理装置152は、携帯情報端末151の使用者が所有しており、近距離通信にて両者の通信が可能な状態にある。すなわち、先ず、より近距離の通信手段であるNFC通信部265にて両者が通信し、通信ができない場合、より広範囲な通信が可能なBluetooth通信部264にて両者の通信を確立する。外部処理装置152の詳細は後述するとして、少なくともBluetooth通信部、NFC通信部を有し、かつ、携帯情報端末151の使用者の周囲の状況を各種センサ類にて映像情報および又は音声情報を検出し、たとえば誰かと話そうとしているまたは話している相手の人物を判断して、その人の情報を前記2つの通信部の一方を介して携帯情報端末151にその人物の情報を送信する。
 携帯情報端末151はこの情報を、Bluetooth通信部264またはNFC通信部265の通信部を介して受信して、たとえば、表示部241または耳元スピーカ243等の出力部にてその面談者の情報を出力し、使用者に伝える。
 また、外部処理装置152との通信ではなく、その面談者が所有する他の携帯情報端末158の通信部と使用者の携帯情報端末151間で通信を確立し、その面談者の人物情報を携帯情報端末151が問合せ、他の携帯情報端末158が提供することにより、前述と同様に、携帯情報端末151の使用者が他の携帯情報端末158を所有する面談者の情報を入手し、使用者に伝えることができる。
 ここで、携帯情報端末151内の入力センサとして、タッチパネル227の動作を説明したが、これに限定されるわけではなく、たとえば、映像入力部228や通話マイク230を利用して、使用者がジェスチャー、目や唇の動きや声の入力にても実現できる。
 また、心拍数センサ220、加速度センサ221、角速度センサ222、地磁気センサ223、GPS受信部224、照度センサ225、温湿度センサ226は使用者が現在どのような状況に置かれているかを判断する情報として利用される。たとえば、使用者の心拍数の変化や動き(加速度、角速度)の変化で入力センサの感度を高くしたり、地磁気やGPSにより使用者の現在の居場所が多くの人が集まる場所や人と面談する場所等と判断される場合にも同様に入力センサ(特に、映像入力部228や通話マイク230)の検出感度や精度(検出周期を細かくするなど)上げたり、周囲の明るさや温湿度変化から使用者が他の人と会う可能性が少ないと考えられるときには入力センサの感度を低下して携帯情報端末151の消費電力を低減し、バッテリー206を長持ちさせることができる。
 次に、外部処理装置152の詳細について図3を用いて説明する。図3において、図2と下2桁が同一の番号を有するものは、図2と概略同一の構成/機能を有する。図3において、処理装置152は、情報処理部301、システムバス302、ROM303、RAM304、記憶部305、顔認証情報311と複数の顔の特徴を抽出した映像抽出情報312を含む映像情報を記録する映像記憶部310、認証情報314と複数の音声の特徴を抽出した音声抽出情報315を含む音声情報を記録する音声記憶部313、GPS受信部324、タッチパネル327、外部インタフェース332、表示部341、表示処理部342、映像入力部328、耳元スピーカ343、周囲スピーカ344、集音マイク329、通話マイク330、電話網通信部361、LAN(Local Area Network)通信部362、WiFi(登録商標)通信部363、Bluetooth通信部364、NFC通信部365、メール処理部308、操作部331、電源回路307、バッテリー306を有している。
 外部処理装置152は、携帯電話やスマートフォンであっても良いし、PDA(Personal Digital Assistants)やハンディタイプPC(Personal Computer)、タブレットPCであっても良い。また、携帯型のゲーム機やその他の携帯型デジタル機器であっても良い。
 外部処理装置152は前述したように、Bluetooth通信部364またはNFC通信部365を介して、携帯情報端末151のBluetooth通信部264またはNFC通信部265とコミュニケーションを行い、携帯情報端末151からの指示信号に従い外部処理装置152内の映像入力部328および又は音声入力部である集音マイク329からの映像情報および又は音声情報を映像記憶部310および又は音声記憶部313を活用して情報処理部301にて外部処理装置152の使用者が対面している相手の顔を含む人物像の撮影画像情報および又は相手の声を含む音声情報を解析し、特徴的な情報を抽出して記憶部305に記憶している使用者が知っている人物の個人情報と比較して、類似の人物がいない場合はその人物の情報を改めて記憶部305に記憶し、類似の人物がいると判断した場合には、その人物の情報を既にある記憶部305内のその人物に関する情報を更新するように蓄積(記録)する。更に、これらの情報は、Bluetooth通信部364またはNFC通信部365を介して、携帯情報端末151のBluetooth通信部264またはNFC通信部265を経由して携帯情報端末151内の記憶部205に提供する。提供された情報は、携帯情報端末151内の表示処理部243を介して表示部227に映像として表示する。または、携帯情報端末151内の耳元スピーカ243から音声情報として出力する。
 ここで、映像記憶部310は映像入力部328から入力する画像情報から面談者の映像の特徴を抽出して映像抽出情報312に記憶する。一方、記憶部305から既に記憶済の個人情報の人物認証情報を順次映像抽出情報312にコピーして、この両者の類似性を比較して、その結果を顔認証情報311に記憶して行き、類似する人物が既に記憶している人物にいるか否かの人物認証を行う。また、同様に音声記憶部313は集音マイク329から入力する音声情報から面談者の音声の特徴を抽出して音声抽出情報315に記憶する。一方、記憶部305から既に記憶済の個人情報の人物認証情報を順次音声抽出情報315にコピーして、この両者の類似性を比較して、その結果を音声認証情報314に記憶して行き、類似する人物が既に記憶している人物にいるか否かの人物認証を行う。これらの映像認証と音声認証は、それぞれ一方のみを使用しても良いし、両方を併用して人物認証を行っても良い。特に、映像入力部328や集音マイク329の配置や外部処理装置152本体を使用者がどのように身に着けているかによって、映像または音声を適した使い方が考えられる。
 電話網通信部361は、移動体電話通信網の基地局153を介して移動体電話通信メールサーバ154との通信を行う。LAN通信部362またはWi-Fi通信部363は、公衆ネットワーク157の無線通信用アクセスポイント159等と通信を行う。
 前記通信を利用して、メール処理部308はメールの作成、メールの解析等を行いメールサーバ155とのメール情報交換を行う。図3では、メール処理部308を独立した構成として記述しているが、情報処理部301がRAM304をワークエリアとして使用することにより、同機能を実現しても良い。このメール処理部308で有られた情報から使用者が次に面談する人物を想定することなどにも利用することができる。
 また、前述した通信網を利用してアプリケーションサーバ156に前述した情報処理部301の動作の一部の処理を行わせても良い。特に、大量の個人情報や映像入力部328および又は集音マイク329からの映像情報および又は音声情報からの特徴を抽出処理やその両者を比較して類似する人物を特定するなどの処理を行う機能処理をアプリケーションサーバ156上にあっても良い。このようにすることで、情報処理部301の処理負荷を低減することができる。
 更に、既に記憶している人物に関連する情報が公衆ネットワーク157を介して公開されている各種情報源からの情報を収集して記憶部305の情報を更新することができる。例えば、その人物の所属する会社の肩書や学会等での発表情報などが更新されていると、次の面談時に、それらについての詳細な情報を聞くことができるというメリットがある。
 本実施例で、Bluetooth通信部264またはNFC通信部265にて通信を確立しているが、近距離通信手段であれば前記に限定されるものではない。例えば、IrDA(赤外線)通信やUWB(超広帯域無線)通信などの近距離通信を用いても本発明の効果を損なうことはない。
 以上のように、本実施例は、携帯情報端末であって、周囲の変化を検出する入力センサと、外部処理装置と情報を送受信する通信部と、情報を出力する出力部と、入力センサからの入力信号変化から所定の状況を検知し、通信部を介して外部処理装置に指示信号を送信し、通信部を介して外部処理装置から指示信号に応じた人物の情報を受信し、出力部を介して人物の情報を出力する制御部とを有する構成とする。
 また、携帯情報端末の情報処理方法であって、周囲の変化を検出する入力ステップと、入力ステップからの入力信号の変化から所定の状況を検知し、外部処理装置へ指示信号を送信する送信ステップと、外部処理装置から指示信号に応じた人物の情報を受信する受信ステップと、受信ステップにて得られた人物の情報を出力する出力ステップを有する構成とする。
 これにより、面談者の情報を使用者により迅速に提供する機能を備えた携帯情報端末びその方法を提供することが可能となる。
 本実施例は、実施例1の携帯情報端末151および外部処理装置152を一体化した携帯情報端末460について説明する。
 図4は、本実施例における携帯情報端末460を含む通信システムの一例であり、移動体電話通信網の基地局453、移動体電話通信メールサーバ454、インターネットメールサーバ455、アプリケーションサーバ456、公衆ネットワーク457、他の携帯情報端末458、無線通信用アクセスポイント459を有している。
 図5は、図4の通信システムにおける携帯情報端末460のブロック図である。図5において、携帯情報端末460は、情報処理部501、システムバス502、ROM503、RAM504、記憶部505、顔認証情報511と複数の顔の特徴を抽出した映像抽出情報512を含む映像情報を記録する映像記憶部510、音声認証情報514と複数の音声の特徴を抽出した音声抽出情報515を含む音声情報を記録する音声記憶部513、心拍数センサ520、加速度センサ521、角速度センサ522、地磁気センサ523、GPS受信部524、照度センサ525、温湿度センサ526、タッチパネル527外部インタフェース532、表示部541、表示処理部542、映像入力部528、耳元スピーカ543、周囲スピーカ544、集音マイク529、通話マイク530、電話網通信部561、LAN通信部562、WiFi通信部563、Bluetooth通信部564、NFC通信部565、メール処理部508、操作部531、電源回路507、バッテリー506を有している。
 図4、図5で、図1~図3と下2桁が同一の番号を有するものは、図1~図3と概略同一の構成/機能を有する。また、携帯情報端末460の外観図の一例を図21から図30に示す。詳細は後述する図21から図30の代表的構成図にて説明するが、携帯情報端末460は、スマートウォッチ、ヘッドマウントディスプレイを有するウェアラブルコンピュータ、耳掛け型情報端末であっても良い。また、携帯型のゲーム機やその他の携帯型デジタル機器であっても良い。
 図5に示すように、携帯情報端末460に搭載される各構成要件は、前述した携帯情報端末151および外部処理装置152に搭載される各構成要件であり、両装置を一体化した装置である。図5において、情報処理部501は、情報処理部201と情報処理部301が行う処理を行う。一体化することによって生じる異なる処理を中心に、以下に説明する。
 ここで、携帯情報端末460は、図4に示すように、アプリケーションサーバ456から、公衆ネットワーク457及びその無線通信用アクセスポイント459を介して、新規アプリケーションを直接ダウンロードすることにより機能拡張をすることが可能であるものとする。
 図5において、検出センサとして、携帯情報端末460の使用者の周囲の状況を映像入力部528および又は集音マイク529にて映像情報および又は音声情報を検出し、たとえば誰かと話そうとしているまたは話している相手(面談者)の人物がいるか否かを検出する。そして、そのような人物を検出した場合に、映像入力部528および又は集音マイク529にて映像情報および又は音声情報からその人物の特徴を情報処理部501にて抽出する。ここで、映像記憶部510と音声記憶部513を利用して、前記検出センサから抽出した人物と、記憶部505から既に記憶済の個人情報の人物認証情報を順次比較して、類似する人物が既に記憶している人物にいるか否かの判断を行う。この判断にて過去に面談した人物情報が記憶部505に無ければ、新たにその情報を記憶部505に記憶する。また類似する人物がいた場合には、今回の面談にて得られた新たな情報を更新してその情報を記憶部505に記憶する。そして、使用者に表示部541および又は耳元スピーカ543にてその面談者の情報を出力して伝える。
 なお、携帯情報端末460は、電源オン時、通常は機能待機状態にある。機能待機中に入力センサの一つであるタッチパネル527等への使用者による端末操作を確認し、携帯情報端末460内の複数の機能を起動して、本発明の機能が動作する状態とすることで、機能待機状態の消費電力を低減することができる。
 すなわち、携帯情報端末460は、たとえばタッチパネル527からの入力指示信号に従い、映像入力部528および又は集音マイク529からの映像情報および又は音声情報を映像記憶部510および又は音声記憶部513を活用して情報処理部501にて携帯情報端末460の使用者が対面している相手の顔を含む人物像の撮影画像情報および又はその人物の声を含む音声情報を解析し、特徴的な情報を抽出して記憶部505に記憶している人物の個人情報と比較して、類似の人物がいない場合はその人物の情報を改めて記憶部505に記憶し、類似の人物がいると判断した場合には、その人物の情報を既にある記憶部505内のその人物に関する情報を更新するように蓄積(記録)する。更に、これらの情報は、携帯情報端末460内の表示処理部543を介して表示部527に映像として表示する。または、携帯情報端末551内の耳元スピーカ543から音声情報として出力する。
 また、使用者の携帯情報端末460の通信部が、その面談者が所有する他の携帯情報端末458の通信部と通信を確立し、その面談者の人物情報を他の携帯情報端末458から提供を受けることにより、前述と同様に、携帯情報端末460の使用者が他の携帯情報端末458を所有する面談者の情報を入手し、入手した情報が既に記憶してある記憶部505の人物の情報と類似した人物がいるか否かを判別し、類似する人物がいない場合にはその人物の情報を新たに記憶部505に蓄積し、類似する人物がいた場合にはその人物の情報を更新して記憶部505に蓄積する。合わせてこの人物の情報を使用者に表示部541および又は耳元スピーカ543にてその面談者の情報を出力して伝える。
 更に、上記でその面談者の人物情報を他の携帯情報端末458から提供を受けたときに、映像入力部528および又は集音マイク529からの映像情報および又は音声情報を入力し、使用者が対面している相手の人物像を記憶部505に記憶している人物の個人情報と比較して、類似の人物がいると判断した場合に初めて、記憶部505への蓄積と、使用者に表示部541および又は耳元スピーカ543にてその面談者の情報を出力して伝える。このようにすることで、周囲に面談者以外の複数の人物が存在して複数の他の携帯情報端末458からの情報を入手して誤った出力を行うことを防止することができる。
 また、この防止方法の性能向上策として、面談相手が保有する他の携帯情報端末458から、面談者の発話の音声情報を携帯情報端末458に搭載された通話マイクにて検出した音声情報を前記個人情報と合わせてほぼリアルタイムで使用者の携帯情報端末460へ送信する。これを受けて携帯情報端末460は、映像入力部528および又は集音マイク529を用いて面談者の唇の動きおよび又は音声情報を検出し、通信にて受け取った情報との類似度を確認し、受信した個人情報が面談者の情報で有るか否かを判断する。この手方によれば、複数の人物が存在した場合に、その複数の他の携帯情報端末からの個人情報をほぼ同時に受信しても、それぞれ他の携帯情報端末の所有者が誰であるかを判別することが出来る。特に、初対面の人物で記憶部505に未登録の場合にも、この方法を用いることで、周囲に面談者以外の複数の人物が存在して複数の他の携帯情報端末458からの情報を入手して誤った出力を行うことを防止することができる。
 ここで、携帯情報端末460内の入力センサとして、タッチパネル527の動作を説明したが、これに限定されるわけではなく、たとえば、映像入力部528や通話マイク530を利用して、使用者がジェスチャー、目や唇の動きや声の入力にても実現できる。ここで、映像入力部528は使用者を撮像すると同時に面談者も撮像する必要が有る為、充分な視野角が必要になるが、構成によってはそれぞれに対して2個のカメラを設けても良い。
 また、心拍数センサ520、加速度センサ521、角速度センサ522、地磁気センサ523、GPS受信部524、照度センサ525、温湿度センサ526は図2の実施例と同様に使用者が現在どのような状況に置かれているかを判断する情報として利用される。その他、図5にて説明していない構成要件は、図2、図3で説明したものと同様の動作を行う。
 電話網通信部561は、移動体電話通信網の基地局453との通信を行う。LAN通信部562またはWi-Fi通信部563は、公衆ネットワーク557の無線通信用アクセスポイント559等と通信を行う。
 前記通信を利用して、メール処理部508はメールの作成、メールの解析等を行いメールサーバ455とのメール情報交換を行う。図5では、メール処理部508を独立した構成として記述しているが、情報処理部501がRAM504をワークエリアとして使用することにより、同機能を実現しても良い。このメール処理部308で有られた情報から使用者が次に面談する人物を想定することなどにも利用することができる。
 また、前述した通信網を利用してアプリケーションサーバ456に前述した情報処理部501の動作の一部の処理を行わせても良い。特に、大量の個人情報や映像入力部528および又は集音マイク529からの映像情報および又は音声情報からの特徴を抽出処理やその両者を比較して類似する人物を特定するなどの処理を行う機能処理をアプリケーションサーバ556上にあっても良い。このようにすることで、情報処理部501の処理負荷を低減することができる。
 本実施例では、実施例1での外部処理装置152の情報処理部301、または実施例2での携帯情報端末460の情報処理部501が行う映像情報を用いた人物の判断方法について説明する。
 本実施例における情報処理部の機能説明図を図6に示す。図6において、図1~5と下2桁が同一の番号を有するものは、概略同一の構成/機能を有する。図6に示すように、人物の判断方法は、映像入力部628、抽出処理671と人物判断672と蓄積処理673とから成る映像処理機能を有する映像処理部601、記憶部605、映像記憶部610、出力部674にて実施される。
 また、抽出処理671と人物判断672の具体例の一例として、顔認識方法を図7を用いて説明する。顔認識方法の抽出処理671と人物判断672は、映像入力部628によって撮像された人物670のフレームデータから顔の輪郭を検出する顔輪郭検出775と、顔輪郭検出775によって検出された顔の輪郭の内部の目、鼻、口等の顔の要素を検出する顔要素検出776と、顔要素検出776によって検出された顔の要素に基づいて特徴量を算出する特徴量検出778と、あるフレームにおいて検出された特徴量と他のフレームにおいて検出された特徴量とを比較して同一人であるかを判定する人物判断779を備える情報処理部701である。
 映像処理部601は、ROM203、303、503に格納されている顔認識方法のプログラムデータを読み出し、順次実行する。まず映像処理部601は、顔輪郭検出775によって、フレームの中の顔の輪郭を検出する。フレームの中に顔の輪郭が検出できなければそのフレームはノイズとして破棄される。次に映像処理部601は、顔要素検出部776によって顔の輪郭の内部の目、鼻、口、等の顔の要素を検出する。次に映像処理部601は、特徴量検出778によって、各要素の大きさ、位置、要素間の位置関係等の特徴量を検出し、この特徴量をフレーム毎に映像記憶部610に格納する。映像処理部601は、あるフレームに写った人と、他のフレームに移った人とが同一人であるかの判定を要求された場合、格納されている特徴量をフレーム毎に順次読み出し、判定すべきフレームの特徴量との差分を計算する。人物判断779は、この差分が閾値以下である場合、同一人である可能性があると判定する。
 また、人物判断779は、過去の面談者の人物情報が記録されている記憶部605からその情報を映像記憶部610に読み出し、前述したフレーム間と同様に特徴量との差分を計算し、この差分が閾値以下である場合、同一人である可能性があると判定する。
 このように、人物判断779にて過去に面談した人物情報を順次記憶部605から読み出して類似する人物が居なければ、蓄積処理673にて、新たにその情報を映像記憶部610を介して記憶部605に記憶する。また一致する人物がいた場合には、今回の面談にて得られた新たな情報を更新して映像記憶部610を介して記憶部605に記憶する。
 更に、この人物判断779の動作を図8に示す情報処理部801にて具体的な一例を説明する。人物判断779の機能は、現在の映像入力部228、328、528が撮像している人物670の画像情報870、記憶部605から読み出し一時記憶する映像記憶部610に順次または複数を一括して得られた画像情報880~882、両者の情報が類似するか否かを判断する人物判断872、人物判断872の結果より類似する人物がいない場合には、その人物の情報を新たに蓄積し、類似する人物がいた場合には、その人物の情報を更新して蓄積する蓄積処理873、類似する人物がいた場合には、その人物の情報を出力する出力874から成る。情報870と情報880~882を類似しているか否かを人物判断872にて判断し、その結果に応じて、例えば、類似している情報が情報880であればその情報を出力874へ出力するのと合わせて新たな情報を更新して蓄積し、類似した情報がなければ新たな人物として蓄積する。ここで、類似している情報がない場合の出力は、過去に面談したことがない旨を伝える情報を出力するか、撮像画像から得られた情報から分かる範囲の情報を出力する。また、情報870、880~882が画像情報を図示しているが、人物の特徴を示す情報であればよい。
 本実施例では、実施例1での外部処理装置152の情報処理部301、または実施例2での携帯情報端末460の情報処理部501が行う音声情報を用いた人物の判断方法について説明する。
 本実施例における情報処理部の機能説明図を図9に示す。図9において図1~8と下2桁が同一の番号を有するものは、概略同一の構成/機能を有する。図9に示すように、人物の判断方法は、音声入力部929、抽出処理983と人物判断984と蓄積処理973とから成る音声処理機能を有する音声処理部901、記憶部905、音声記憶部913、出力部974にて実施される。
 また、抽出処理983と人物判断984の具体例の一例として、音声認識方法を以下に説明する。音声認識方法の抽出処理983と人物判断984は、音声入力部929によって集音された人物970(話者)の音声データから、いくつかの特徴を抽出して「声紋」または「テンプレート」あるいは「モデル」を構築する。認証または識別では、音声処理部901が、ROM303、503に格納されている音声認識方法のプログラムデータを読み出し、順次実行する。まず音声処理部901は、抽出処理983によって、音声入力部929にて集音した音声から使用者が対面して話をしている人物970(話者)の声を検出する。その人物970(話者)の声が検出できなければその情報はノイズとして破棄される。次に音声処理部901は、掲出された音声からいくつかの特徴を抽出する。たとえば、サウンドスペクトログラムなどの分析で「声紋」情報を抽出する。人物判断984では、過去の面談者の人物情報が記録されている記憶部905からその情報を音声記憶部913に読み出し、抽出処理983の出力情報との特徴量の差分を計算し、この差分が閾値以下である場合、同一人である可能性があると判定する。
 このように、人物判断984にて過去に面談した人物情報を順次記憶部905から読み出して一致する人物が居なければ、蓄積処理973にて、新たにその情報を音声記憶部913を介して記憶部905に記憶する。また一致する人物がいた場合には、今回の面談にて得られた新たな情報を更新してその情報を音声記憶部913を介して記憶部905に記憶する。
 更に、人物判断984の機能は、現在の音声入力部929が集音している人物970(話者)の情報と、記憶部905から読み出し一時記憶する音声記憶部913に順次または複数を一括して得られた複数の人物情報が類似するか否かを判断する。人物判断984の結果により類似する人物がいない場合には、その人物の情報を新たに蓄積し、類似する人物がいた場合には、その人物の情報を更新する。また、類似する人物がいた場合には、その人物の情報を出力する出力部974から成る。ここで、その人物の情報はサウンドスペクトログラムの分析による「声紋」に限定されるものではなく、人物の声の特徴を示す情報であればよい。
 また、音声による人物認識の精度は難しい場合が有る為、前述した実施例3の映像認識方法を併用して制度を高める処理を用いる方が良い。
 図10に、音声認識方法の活用例として「声紋」による人物認証だけではなく、会話の内容を認識する応用例について説明する。入力センサまたは検出センサの一つである集音マイク229、329、529と通話マイク230、330,530を利用した情報処理部201、301、501の処理方法を示す。情報処理部1001は、音声区間検出1085、音声認識1086、修正1087から構成される。
 図10では、入力音声に含まれるテキスト化可能な音声言語のみを対象とし、入力音声から音声言語を含む音声区間を音声区間検出1085にて検出し、該当区間を切り出している。次に、切り出した音声区間を音声認識1086にて音声認識し、認識結果である単語列のテキストデータを出力する。この認識結果には通常認識誤りが含まれているため、既に蓄積されている記憶部305、505内の情報により自動的に認識結果中の誤りを修正し、修正結果を抽出する。この一連の手続きは、音声区間が切り出されるたびに逐次的に行われ、低遅延で出力することができる。
 図11に図10に示した音声認識を利用した使用者の音声による操作方法の一例について説明する。使用者の音声を処理する方法は、音声情報1188とその音声情報に対応した情報を蓄積した情報1189とから成る情報処理部1101である。なお、情報1189は記憶部305、505に既に蓄積されているものとする。使用者は、通話マイク230、330、530から音声を入力(検出)し、その言葉により面談者に関する情報1189の内から優先的に得たい情報を選択し、出力部を構成する表示部241、341、541に表示したり、耳元スピーカ243、343、543から音声情報として出力する。いずれか一方の出力のみとしても良いし、両方を併用しても良い。
 図12に、図10に示した音声認識を利用した方法の他の一例について説明する。入力センサまたは検出センサの一つである集音マイク229、329、529と通話マイク230、330、530を利用した情報処理部201、301、501の処理方法を示す。使用者および対面者の音声を処理する方法は、音声情報1288とその音声情報から特徴的な情報を抽出して分析し必要な会話内容を蓄積する情報1290とから成る情報処理部1201である。使用者と面談者との会話を集音マイク229、329、529と通話マイク230、330、530から入力(検出)し、その会話の内容を分析し、重要な言葉などから必要な会話内容を抽出し、その情報1290をその面談者の情報として記憶部201、305、505に記憶する。
 本実施例では、実施例1での携帯情報端末151や外部処理装置152、及び、実施例2での携帯情報端末460での、表示処理部242、342、542と表示部241、341、541および耳元スピーカ243、343、543への出力方法について説明する。
 本実施例における表示画面例を図13~図16に示す。基本的に、本実施例における出力は携帯情報端末151と携帯情報端末460の表示部241、541および耳元スピーカ243、543にて、使用者に情報が伝えられるように表示および音にて出力されるが、外部処理装置152の表示部342および耳元スピーカ343に表示されても良い。
 表示情報としては、たとえば、図13の表示画面1391に示すように、面談者の名前を表示する。図14の表示画面1491では、より詳細な情報を表示している。たとえば、名前、年齢、自分との関係、前回面談時の日時、前回面談時の会話内容などを表示することで、面談者との新たな会話内容を容易に考え付くようにしている。また、図15の表示画面1592では、図14に示した、既に所有している情報を持った面談者に対面した場合に、その面談者が所有する他の携帯情報端末158、458と使用者が所有する携帯情報端末151,460間での情報交換する際に、前回の面談時以降の情報のみを交換するように制御することで、通信情報量を低減することが出来る(図15中の下線を付けた情報のみを交換する)。また、この両者の携帯情報端末が所定の距離に近づいたことや通信可能な距離に近づいたこと、または映像入力部228、328、528や集音マイク229、329、529などからの入力情報から面談者を認識した時に、この両者の携帯情報端末間の通信がなされる。また、各携帯情報端末はこのような自分の個人情報を開示するか否かの設定が出来るようにすることが出来る。
 また、他の表示方法として、図16の表示画面1691a~1691bに示すように、表示部241,341、541の表示領域が少ない場合には表示情報を自動的にスクロールして表示するようにすることも出来る。
 ここで、図示はしていないがこれらの情報を耳元スピーカ243、343、543からの音声情報として出力しても良いし、映像と音声を併用しても良い。
 また、前述したように面談者が所有する他の携帯情報端末158の通信部と使用者の携帯情報端末151間で通信を確立し、その面談者の人物情報を携帯情報端末151が問合せ、他の携帯情報端末158が提供することにより面談者の情報を入手し、使用者に伝えることができるが、同様に使用者の携帯情報端末151が保持(たとえば、記憶部205、305、505に保持)している使用者の個人情報を面談者が使用する他の携帯情報端末158供給することができる。ここで、たとえば初対面の相手には名前のみ個人情報を提供するようにしたり、仕事上の親しい関係の相手には業務に関係する情報を、家族で付き合っているような親しい関係の相手には家族の情報を提供するなどの、情報レベルを両者の関係から自動的にレベル変更することや、これを手動にて操作部231、331、531から設定することもできる。
 本実施例では、実施例1での携帯情報端末151の処理の動作について説明する。
 図17は、本実施例における携帯情報端末151の端末操作をトリガとして、面談相手の個人情報を問い合わせる処理フローチャートである。
 図17において、携帯情報端末151は、電源オン時、通常は機能待機状態にある。機能待機中に入力センサの一つであるタッチパネル227等への使用者による端末操作を確認(S101)し、タッチパネル227に入力が有るか否かの所定の状況を判断(S102)する。入力がなければ、再び入力待ちの状態へ戻る。入力が有ることを確認した場合には、それをトリガに外部処理装置152へ現在面談しようとしている、もしくは面談中の相手の個人情報を問い合わせるための送信(S103)を行う。その後、外部処理装置152からの特定人物の情報の受信を確認(S104)する。次に、外部処理装置152からの受信が有ったか否かを判断(S105)する。受信がなければ、再び外部処理装置152からの受信待ちに戻る。受信が有ったことを確認した場合は、その情報を出力部(たとえば、表示部241)に出力し、その情報を記憶部205に蓄積し終了する。
 外部処理装置152は、携帯情報端末151からの送信信号を受信し、映像入力部328および又は集音マイク329から使用者が現在面談しようとしている、もしくは面談中の相手の撮像画像情報および又は音声情報を検出してその特徴から既に記憶している記憶部305の情報と比較してその人物を特定し、その人物の個人情報を携帯情報端末151へ送信するものとする。
 または、外部処理装置152は、携帯情報端末151からの送信信号を受信し、他の携帯情報端末158とBluetooth通信部364またはNFC通信部365を用いて通信を確立し、他の携帯情報端末158が有するその使用者本人の個人情報を入手し、その人物の個人情報を携帯情報端末151へ送信するものとする。
 ここで、入力センサは前記のタッチパネル以外に、たとえば映像入力部228にて撮像した画像から使用者と対面している人物を検出した場合を前記所定の状況と判断しても良いし、集音マイク229から入力された音声情報が所定の閾値より大きく検出された場合や所定の言葉を検出した場合を前記所定の状況と判断しても良い。
 図18は、本実施例における携帯情報端末151の、他の携帯情報端末158が近づいたことをトリガとして、面談相手の個人情報を問い合わせる処理フローチャートである。
 図18において、携帯情報端末151は、電源オン時、通常は機能待機状態にある。機能待機中に入力センサとして、他の携帯情報端末158からの通信を受信したことを確認(S201)し、Bluetooth通信部264またはNFC通信部265に他の携帯情報端末158からの通信が確立したか否かの状況を判断(S202)する。受信がなければ、再び入力待ちの状態へ戻る。受信が有ることを確認した場合には、それをトリガに外部処理装置152へ現在面談しようとしているもしくは面談中の相手の個人情報を問い合わせるための送信(S203)を行う。その後、外部処理装置152からの特定人物の情報の受信を確認(S204)する。次に、外部処理装置152からの受信が有ったか否かを判断(S205)する。受信がなければ、再び外部処理装置152からの受信待ちに戻る。受信が有ったことを確認した場合は、その情報を出力部(たとえば、表示部241)に出力し、その情報を記憶部205に蓄積し終了する。
 ここで、図17および図18において、出力部は、前記の表示部241に限定されず、たとえば耳元スピーカ243からの音声情報によって使用者に伝える方法でもよい。また、記憶部205への蓄積は、既に同一人物の情報が有ればその情報を更新し、同一人物がいない場合には新たにその人物の情報を記憶する。また、この情報は、S103やS104の携帯情報端末151と外部処理装置152間の相互通信時などにその情報を記憶部205と記憶部305の登録人物の情報を交換して同一の情報に共有させることができる。
 本実施例では、実施例2での携帯情報端末460の処理の動作について説明する。
 図19は、本実施例における携帯情報端末460の端末操作をトリガとして、面談相手の個人情報を取得する処理フローチャートである。
 図19において、携帯情報端末460は、電源オン時、通常は機能待機状態にある。機能待機中に入力センサの一つであるタッチパネル527等への使用者による端末操作を確認(S301)し、タッチパネル527に入力が有るか否かの所定の状況を判断(S302)する。入力がなければ、再び入力待ちの状態へ戻る。入力が有ることを確認した場合には、それをトリガに携帯情報端末460の使用者が現在面談しようとしているもしくは面談中の相手の個人情報を得るために、映像入力部528および又は集音マイク529にて撮像した画像またおよび又は集音した音声から使用者と対面している人物の特徴を検出(S303)する。その情報と既に蓄積されている記憶部505の情報は類似している人物情報が有るか否かを判断(S304)する。この結果、類似情報がなければその人物の情報を新たに蓄積(S305)し、類似情報が有ればその情報を既にある情報を更新して蓄積(S306)する。その後、前記情報を出力部(たとえば、表示部541)に出力(S307)し終了する。
 図20は、本実施例における携帯情報端末460の、他の携帯情報端末458が近づいたことをトリガとして、面談相手の個人情報を取得する処理フローチャートである。
 図20において、携帯情報端末460は、電源オン時、通常は機能待機状態にある。機能待機中に入力センサとして、他の携帯情報端末458からの通信を受信したことを確認(S401)し、Bluetooth通信部564またはNFC通信部565に他の携帯情報端末458からの通信が確立したか否かの状況を判断(S402)する。受信がなければ、再び入力待ちの状態へ戻る。受信が有ることを確認した場合には、他の携帯情報端末458が有するその使用者本人の個人情報を入手(S403)する。更に、タッチパネル527や映像入力部528や集音マイク529などの入力センサからの入力状況の変化を確認(S404)し、所定の状況か否かを判断(S405)する。ここで、所定の状況とは、たとえば、映像入力部528にて撮像した画像から使用者と対面している人物を検出した場合を所定の状況と判断しても良いし、集音マイク529から入力された音声情報が所定の閾値より大きく検出された場合や所定の言葉を検出した場合を所定の状況と判断する。そして、所定の状況でなければ継続してその入力状況を監視し、所定の状況と判断した場合は、映像入力部528および又は集音マイク529にて撮像した画像および又は集音した音声から使用者と対面している人物の特徴を検出(S406)する。そして、S403にて入手した個人情報とS406にて検出した人物の特徴が類似しているか否かを判断(S407)する。この結果、類似情報がなければその人物は現在面談しようとしているもしくは面談中の相手の個人情報ではないと判断し、最初の状態に戻り、新たな他の携帯情報端末458からの受信を待機する状態へ戻り、類似情報であれば次のステップである記憶部505に既に蓄積されている人物と類似しているか否かも判断(S408)する。この結果、いずれにも類似情報がなければその人物の情報を新たに蓄積(S409)し、記憶部505に類似情報が有ればその情報を既にある情報を更新して蓄積(S410)する。その後、前記情報を出力部(たとえば、表示部241)に出力(S411)し終了する。
 ここで、簡易な方法として、S404~S407を削除して他の携帯情報端末458が有する、その使用者本人の個人情報を入手(S403)した後に、直接記憶部505に既に蓄積されている人物と類似しているか否かも判断(S408)する方法を用いることができる。この方法では、たとえば会議室などの特定のエリア内で面談者が限定されているような状況に適している。しかし、周囲に面談者以外の複数の人物が存在して複数の他の携帯情報端末458からの情報を入手してしまうことを考慮すると、S404~S407を用いて前記複数の人物間を判別する方法を追加(S404~S407)する方法が有効である。
 図19および図20で、図示していないが、携帯情報端末460は、電話網通信部561および基地局453を介して移動体電話通信メールサーバ454からメール情報を入手する。また、携帯情報端末460は、LAN通信部562またはWi-Fi通信部563によって無線通信用アクセスポイント459を介して公衆ネットワーク457に接続された、たとえばアプリケーションサーバ456と通信を確立し、記憶部505に蓄積する人物の情報をアプリケーションサーバ456上に供給したり、アプリケーションサーバ456上から蓄積する人物に関連した情報を受け取ることが可能である。このようにして、記憶部505に蓄積する人物の情報を更新することが可能である。
 ここで、記憶部505に記録する蓄積情報には面談した日の日付情報を含まれる。また、既に蓄積情報が有る場合に更新時には前回の蓄積の日付後の情報を追加する形で更新する。
 また、図19および図20で、入力センサは前記のタッチパネル527以外に、たとえば映像入力部528にて撮像した画像から使用者と対面している人物を検出した場合を所定の状況と判断しても良いし、集音マイク529から入力された音声情報が所定の閾値より大きく検出された場合や所定の言葉を検出した場合を前記所定の状況と判断しても良い。
 更に、図19および図20において、新規蓄積(S305、S409)と更新蓄積(S306、410)を処理後、情報出力(S307、S411)を処理する工程と記載しているが、情報出力(S307、S411)の処理工程を先に行い、情報を使用者に提供後、新規蓄積(S305、S409)または更新蓄積(S306、410)の処理工程を行うことにしても良い。特に、更新蓄積(S306、410)では、使用者が面談相手との会話等により得られた情報を追加した後に最新の更新情報を用いて更新蓄積(S306、410)を行う方が良いことが考えられる。
 本実施例では、実施例1及び2での携帯情報端末、及び、外部処理装置の外観構成について説明する。
 本実施例における携帯情報端末、及び、外部処理装置の外観構成図を図21~図31に示す。図21~図31において、図1~図5と下2桁が同一の番号を有するものは、概略同一の構成/機能を有する。
 図21、22は腕時計型の実施例1及び2での携帯情報端末151または460である。その外形は、図21に示すように携帯情報端末2151(および2160)を使用者の腕に取り付けて持ち運ぶに適した形状をしている。基本的に、実施例1及び2の図2及び図5に記載された各構成が搭載されているが、図22では図2の代表的な構成のみを記載している。よって、図5の各構成についても同様に搭載が可能である。
 図22において、携帯情報端末2251(および2260)は、タッチパネル2227、表示部2241、映像入力部2228、集音マイク2229、通話マイク2230、耳元スピーカ2243、周囲スピーカ2244を備えている。使用者が時計を見る際に使用者に近い側に通話マイク2230、耳元スピーカ2243を配置している。また、タッチパネル2227は表示部2241の全面に配置されており、使用者は腕時計の表示面をタッチする感覚でタッチパネル2227への入力を行うことができる。
 次に、図21、22が携帯情報端末151として動作する場合に、その外部処理装置152として動作する外部処理装置の外観配置図を図23用いて詳細を説明する。その外形は、図23に示すように外部処理装置2352を使用者がスマートフォンを持ち運ぶのと同様な形状をしている。基本的に、図3に記載された各構成が搭載されているが、図23では図3の代表的な構成のみを記載している。図23において、外部処理装置2352は、タッチパネル2327、表示部2341、映像入力部2328、集音マイク2329、通話マイク2330、耳元スピーカ2343、周囲スピーカ2344(図示していないが背面に構成される)を備えている。スマートフォンを使用する要領で、タッチパネル2327を操作する。
 ここで、図22の表示部2241は、表示面積が小さいため図16で開示したような表示方法を用い、図23の表示部2341は、比較的表示面積が大きいため図14で開示したような表示方法を用いて表示することが適している。
 図24~27に、特に実施例2の携帯情報端末460に適した外観構成図を示す。図24~27は、図5の各構成が搭載されているが、その代表的な構成の配置を示している。図24~27において、携帯情報端末2460、2560、2660、2760、使用者2493、タッチパネル2627、表示部2741、映像入力部2628、2728、集音マイク2629、通話マイク2730、耳元スピーカ2743、周囲スピーカ2644を示している。特に、携帯情報端末2460、2560、2660、2760を使用時には、表示部2741が使用者2493の視野角内に配置されるように構成されている。また、使用者が携帯情報端末2460を携帯している際には、通話マイク2730、耳元スピーカ2743が適切な位置に配置している。また、タッチパネル2627は携帯情報端末2660の外面に配置され、使用者が操作しやすい配置されている。また、面談者を撮影するための映像入力部2628を外向けの面に、使用者を撮影するための映像入力部2728を内向きの面に配置している。
 図28、図29に、特に実施例2の携帯情報端末460に適した外観構成図の他の例を示す。図28、図29は、図5の各構成が搭載されているが、ここでは、特に音声による出力方法時の使用例で使われる代表的な構成の配置を示している。図28、図29は、携帯情報端末2860、2960、使用者2893、タッチパネル2927、映像入力部2928、集音マイク2929、通話マイク2930、耳元スピーカ2943を示している。特に、携帯情報端末2860、2960を使用時の携帯装着時には、通話マイク2930、耳元スピーカ2943が適切な位置に配置している。また、タッチパネル2927は携帯情報端末2960の外面に配置され、使用者が操作しやすい位置に配置されている。
 さらに、図30に、特に実施例2の携帯情報端末460に適した外観構成図の他の例を示す。図30は、図5の各構成が搭載されているが、ここでは、特に映像による出力方法時の使用例で使われる代表的な構成の配置を示している。図30は、携帯情報端末3060、映像入力部3028a、3028b、集音マイク3029a、3029b、表示部3041を示している。特に、映像入力部3028a、3028b、集音マイク3029a、3029bは映像と音声をステレオ入力とすることで、映像は立体的に取扱いできるので人物認証の精度を高めることができる。音声もステレオ化することで、情報量を増やすこともできるし、音声源の位置を把握しやすくなり、映像と音声を併用して人物認証を行う際にも、必要な音声の抽出などの技術課題を解決し易くなるなどのメリットもある。また、表示部3041は透過型の表示装置を用いることで、携帯情報端末3060の出力情報と本来の周囲の情報を同時に見ることが可能になる。
 以上の処理により、本発明の面談者の情報を使用者により迅速に提供する機能を提供することができる。
 以上実施例について説明したが、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであって、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の一部について、他の構成の追加・削除・置換をすることが可能である。また、文中や図中に現れるメッセージの文章等もあくまでも一例であり、異なるものを用いても本発明の効果を損なうものではない。
151、460、2151、2251、2160、2260、2460、2560、2660、2760、2860、2960:携帯情報端末、152、2352:外部処理装置、158、458:他の携帯情報端末、159、459:無線通信用アクセスポイント、157、457:公衆ネットワーク、156、456:アプリケーションサーバ、201、301,501:情報処理部、202、302、502:システムバス、203、303、503:ROM、204、304、504:RAM、205、305、505:記憶部、227、327、527:タッチパネル、241、341、541:表示部、228、328、528、2228、2328、2628、2728:映像入力部、243、343、543、2243、2343、2743、2943:耳元スピーカ、229、329、529:集音マイク、230、330、530、2230、2330、2730、2930:通話マイク、310,510:映像記憶部、313,513:音声記憶部、361,561:電話網通信部、362、562:LAN通信部、363、563:WiFi通信部、364、564:Bluetooth通信部、365、565:NFC通信部、671、983:抽出処理、672、779、984:人物判断、673、973:蓄積処理、775:顔輪郭検出、776顔要素検出、778:特徴量検出、1085:音声区間検出、1086:音声認識

Claims (18)

  1.  周囲の変化を検出する入力センサと、
     外部処理装置と情報を送受信する通信部と、
     情報を出力する出力部と、
     前記入力センサからの入力信号変化から所定の状況を検知し、前記通信部を介して外部処理装置に指示信号を送信し、前記通信部を介して前記外部処理装置から前記指示信号に応じた人物の情報を受信し、前記出力部を介して前記人物の情報を出力する制御部とを有することを特徴とする携帯情報端末。
  2.  請求項1に記載の携帯情報端末であって、
     前記外部処理装置は、映像入力部または音声入力部を有し、該映像入力部または音声入力により検出した信号から人物の特徴を検出し、その結果に応じてその人物を特定する機能を有し、
     前記制御部は、前記外部処理装置から前記指示信号に応じた特定人物の情報を受信することを特徴とする携帯情報端末。
  3.  請求項1に記載の携帯情報端末であって、
    前記通信部は他の携帯情報端末と情報を送受信し、
     前記制御部は、前記入力センサからの入力信号変化から所定の状況を検知し、前記通信部を介して前記他の携帯情報端末に指示信号を送信し、前記通信部を介して前記他の携帯情報端末から該他の携帯情報端末の所有者を特定する情報を受信し、前記出力部を介して前記他の携帯情報端末の所有者を特定する情報を出力することを特徴とする携帯情報端末。
  4. 映像入力部または音声入力部の少なくとも一つを有する検出センサと、
     情報を出力する出力部と、
     情報蓄積部と、
     前記検出センサからの入力信号変化から所定の状況を検出し、前記検出センサにより検出した信号から人物の特徴を検出し、該検出した人物の特徴と過去に蓄積したデータと類似する人物がいるか否かを判断し、該判断の結果で類似する人物がいない場合にはその人物の情報を前記蓄積部に新たに蓄積し、類似する人物がいた場合にはその人物の情報を前記蓄積部において更新し、前記出力部を介して前記人物の情報を出力する制御部とを有することを特徴とする携帯情報端末。
  5.  請求項4に記載の携帯情報端末であって、
    他の携帯情報端末から該他の携帯情報端末の所有者の情報を受信する受信部を有し、
     前記制御部は、該受信手段から得られた情報と過去に蓄積したデータと一致する人物がいるか否かを判断し、該判断の結果で類似する人物がいない場合にはその人物の情報を前記蓄積部に新たに蓄積し、類似する人物がいた場合にはその人物の情報を前記蓄積部において更新することを特徴とする携帯情報端末。
  6.  請求項4に記載の携帯情報端末であって、
    他の携帯情報端末から該他の携帯情報端末の所有者の情報を受信する受信部を有し、
    前記制御部は、前記検出センサにより検出した信号から人物の特徴を抽出し、前記受信部からの前記他の携帯情報端末の所有者の情報と前記抽出した人物の特徴が類似しているか否かを判断し、該判断の結果で類似する人物がいない場合にはその人物の情報を前記蓄積部に新たに蓄積し、類似する人物がいた場合にはその人物の情報を前記蓄積部において更新することを特徴とする携帯情報端末。
  7.  請求項6に記載の携帯情報端末であって、
     外部のネットワークへ接続する接続部と、
     前記接続部を介して前記情報蓄積部で蓄積する人物の情報を前記ネットワークに接続されたサーバに送信する送信部と、
     前記サーバから他の携帯情報端末から受信した前記所有者の情報を受信するサーバ情報受信部を有し、
    前記情報蓄積部は前記サーバ情報受信部からの前記所有者の情報に基づいてその人物の情報を更新することを特徴とする携帯情報端末。
  8.  請求項6に記載の携帯情報端末であって、
    前記情報蓄積部の前記情報には、少なくとも新たに人物の情報を得た日付情報を含むことを特徴とする携帯情報端末。
  9.  請求項8に記載の携帯情報端末であって、
     前記判断の結果が類似する人物がいた場合には、前回蓄積した情報の日付後の更新情報を前記他の携帯情報端末から受信するようにすることを特徴とする携帯情報端末。
  10.  請求項4に記載の携帯情報端末であって、
     前記出力する前記人物の情報は、前記検出センサから前記携帯情報端末の使用者の音声情報を抽出し、前記使用者の音声情報に応じて出力情報を選択することを特徴とする携帯情報端末。
  11.  請求項3に記載の携帯情報端末であって、
     前記入力センサは、前記他の携帯情報端末と情報を送受信する通信部にて構成されることを特徴とする携帯情報端末。
  12.  請求項1に記載の携帯情報端末であって、
     前記出力する前記人物の情報は、少なくとも名前、年齢、自分との関係、前回面談時の日時、前回面談時の会話内容のいずれか一つ以上であることを特徴とする携帯情報端末。
  13. 周囲の変化を検出する入力ステップと、
     該入力ステップからの入力信号の変化から所定の状況を検知し、外部処理装置へ指示信号を送信する送信ステップと、
     前記外部処理装置から前記指示信号に応じた人物の情報を受信する受信ステップと、
     該受信ステップにて得られた人物の情報を出力する出力ステップを有することを特徴とする携帯情報端末の情報処理方法。
  14.  請求項13に記載の携帯情報端末の情報処理方法であって、
     前記外部処理装置は、映像入力部または音声入力部を有し、該映像入力部または音声入力により検出した信号から人物の特徴を検出し、その結果に応じてその人物を特定する機能を有し、
     前記外部処理装置から前記指示信号に応じた特定人物の情報を受信することを特徴とする携帯情報端末の情報処理方法。
  15.  請求項13に記載の携帯情報端末の情報処理方法であって、
     前記入力ステップからの入力信号の変化から所定の状況を検知し、他の携帯情報端末へ指示信号を送信する送信ステップと、
     前記他の携帯情報端末から前記他の携帯情報端末の所有者を特定する情報を受信する受信ステップと、
     該受信した所有者を特定する情報を出力する出力ステップを有することを特徴とする携帯情報端末の情報処理方法。
  16.  請求項15に記載の携帯情報端末の情報処理方法であって、
    前記出力ステップの前記所有者を特定する情報は、前記入力ステップから前記携帯情報端末の使用者の音声情報を抽出し、前記使用者の音声情報に応じて出力情報を選択することを特徴とする携帯情報端末の情報処理方法。
  17.  請求項15に記載の携帯情報端末の情報処理方法であって、
    前記入力ステップは、他の携帯情報端末からの情報を受信する受信ステップにて構成されることを特徴とする携帯情報端末の情報処理方法。
  18.  請求項15に記載の携帯情報端末の情報処理方法であって、
    前記出力ステップの所有者を特定する情報には、少なくとも名前、年齢、自分との関係、前回面談時の年月日、前回面談時の会話内容のいずれか一つであることを特徴とする携帯情報端末の情報処理方法。
PCT/JP2016/057387 2016-03-09 2016-03-09 携帯情報端末及びそれに用いる情報処理方法 WO2017154136A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2016/057387 WO2017154136A1 (ja) 2016-03-09 2016-03-09 携帯情報端末及びそれに用いる情報処理方法
CN201680068181.9A CN108292417A (zh) 2016-03-09 2016-03-09 便携式信息终端及其使用的信息处理方法
US16/080,920 US20190095867A1 (en) 2016-03-09 2016-03-09 Portable information terminal and information processing method used in the same
JP2018503915A JPWO2017154136A1 (ja) 2016-03-09 2016-03-09 携帯情報端末及びそれに用いる情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/057387 WO2017154136A1 (ja) 2016-03-09 2016-03-09 携帯情報端末及びそれに用いる情報処理方法

Publications (1)

Publication Number Publication Date
WO2017154136A1 true WO2017154136A1 (ja) 2017-09-14

Family

ID=59790320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/057387 WO2017154136A1 (ja) 2016-03-09 2016-03-09 携帯情報端末及びそれに用いる情報処理方法

Country Status (4)

Country Link
US (1) US20190095867A1 (ja)
JP (1) JPWO2017154136A1 (ja)
CN (1) CN108292417A (ja)
WO (1) WO2017154136A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7021316B1 (ja) 2020-09-18 2022-02-16 ヤフー株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2023119527A1 (ja) * 2021-12-22 2023-06-29 マクセル株式会社 携帯情報端末および情報処理方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150068609A (ko) * 2013-12-12 2015-06-22 삼성전자주식회사 이미지 정보 표시 방법 및 장치
CN109074323A (zh) * 2016-03-07 2018-12-21 索尼公司 信息处理装置、信息处理方法以及程序
JP6569926B2 (ja) * 2016-08-17 2019-09-04 パナソニックIpマネジメント株式会社 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム
WO2019077013A1 (en) 2017-10-18 2019-04-25 Soapbox Labs Ltd. METHODS AND SYSTEMS FOR PROCESSING AUDIO SIGNALS CONTAINING VOICE DATA

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006033A (ja) * 2005-06-22 2007-01-11 Omron Corp 対象決定装置、撮像装置および監視装置
US20100178903A1 (en) * 2009-01-13 2010-07-15 At&T Intellectual Property I, L.P. Systems and Methods to Provide Personal Information Assistance
US20110169932A1 (en) * 2010-01-06 2011-07-14 Clear View Technologies Inc. Wireless Facial Recognition
JP2012204903A (ja) * 2011-03-24 2012-10-22 Sharp Corp 携帯通信装置および通信システム
JP2013003942A (ja) * 2011-06-20 2013-01-07 Konica Minolta Holdings Inc 交流関係評価装置、交流関係評価システム、交流関係評価プログラムおよび交流関係評価方法
JP2014174782A (ja) * 2013-03-11 2014-09-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2015192348A (ja) * 2014-03-28 2015-11-02 株式会社Nttドコモ 人物特定システム及び人物特定方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9485642B2 (en) * 2010-03-26 2016-11-01 Hung Yuan Lin System and method for requesting and providing location-based assistance
JP2013045138A (ja) * 2011-08-22 2013-03-04 Nec Casio Mobile Communications Ltd 情報提供システム、情報提供装置、情報提供方法、通信端末およびプログラム
US8914875B2 (en) * 2012-10-26 2014-12-16 Facebook, Inc. Contextual device locking/unlocking
US9134792B2 (en) * 2013-01-14 2015-09-15 Qualcomm Incorporated Leveraging physical handshaking in head mounted displays
JP6013241B2 (ja) * 2013-03-18 2016-10-25 株式会社東芝 人物認識装置、及び方法
US20140310277A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Suspending user profile modification based on user context
JP6411017B2 (ja) * 2013-09-27 2018-10-24 クラリオン株式会社 サーバ、及び、情報処理方法
JP2015219768A (ja) * 2014-05-19 2015-12-07 ソニー株式会社 情報処理システム、記憶媒体及び情報処理方法
CN105574467A (zh) * 2014-10-09 2016-05-11 多媒体影像解决方案有限公司 用于具有人物辨识的相机的隐私

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006033A (ja) * 2005-06-22 2007-01-11 Omron Corp 対象決定装置、撮像装置および監視装置
US20100178903A1 (en) * 2009-01-13 2010-07-15 At&T Intellectual Property I, L.P. Systems and Methods to Provide Personal Information Assistance
US20110169932A1 (en) * 2010-01-06 2011-07-14 Clear View Technologies Inc. Wireless Facial Recognition
JP2012204903A (ja) * 2011-03-24 2012-10-22 Sharp Corp 携帯通信装置および通信システム
JP2013003942A (ja) * 2011-06-20 2013-01-07 Konica Minolta Holdings Inc 交流関係評価装置、交流関係評価システム、交流関係評価プログラムおよび交流関係評価方法
JP2014174782A (ja) * 2013-03-11 2014-09-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2015192348A (ja) * 2014-03-28 2015-11-02 株式会社Nttドコモ 人物特定システム及び人物特定方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7021316B1 (ja) 2020-09-18 2022-02-16 ヤフー株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2022051430A (ja) * 2020-09-18 2022-03-31 ヤフー株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2023119527A1 (ja) * 2021-12-22 2023-06-29 マクセル株式会社 携帯情報端末および情報処理方法

Also Published As

Publication number Publication date
JPWO2017154136A1 (ja) 2018-08-30
CN108292417A (zh) 2018-07-17
US20190095867A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
WO2017154136A1 (ja) 携帯情報端末及びそれに用いる情報処理方法
TW202105199A (zh) 資料更新方法、電子設備和儲存介質
CN107944447B (zh) 图像分类方法及装置
US10217465B2 (en) Wearable device, system and method for name recollection
CN109743504B (zh) 一种辅助拍照方法、移动终端和存储介质
US20130335314A1 (en) Intelligent Reminding Apparatus and Method Thereof
CN109660728B (zh) 一种拍照方法及装置
JP5185570B2 (ja) 個人識別通信システム及び個人識別通信システムにおいて実行されるプログラム
CN110717399A (zh) 人脸识别方法和电子终端设备
CN109584897B (zh) 视频降噪方法、移动终端及计算机可读存储介质
CN109388699A (zh) 输入方法、装置、设备及存储介质
JP4836885B2 (ja) 携帯通信端末用の非接触型入力装置、携帯通信端末及びメール作成システム
CN110060062B (zh) 一种可穿戴设备丢失后的信息交流方法、可穿戴设备及存储介质
CN110225282B (zh) 一种视频录制控制方法、设备及计算机可读存储介质
CN109669710B (zh) 便签处理方法及终端
CN113647092A (zh) 向应用提供与图像相关联的内容的电子装置和方法
CN105203456A (zh) 植物品种识别方法及装置
CN109104564B (zh) 一种拍摄提示方法及终端设备
CN108053184B (zh) 事项提示方法、移动终端和计算机可读存储介质
CN110177208B (zh) 一种视频录制的关联控制方法、设备及计算机可读存储介质
CN109922199B (zh) 一种联系人信息处理方法及终端
CN109981890B (zh) 一种提醒任务处理方法、终端及计算机可读存储介质
CN104363299B (zh) 一种基于手环控制图片传输的方法及装置
CN107896277B (zh) 设定闹钟提醒方式的方法、装置及计算机可读存储介质
CN109769069B (zh) 一种提醒方法、穿戴式设备及计算机可读存储介质

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018503915

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16893468

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16893468

Country of ref document: EP

Kind code of ref document: A1