JP6468712B2 - 通信ユニット - Google Patents

通信ユニット Download PDF

Info

Publication number
JP6468712B2
JP6468712B2 JP2014068734A JP2014068734A JP6468712B2 JP 6468712 B2 JP6468712 B2 JP 6468712B2 JP 2014068734 A JP2014068734 A JP 2014068734A JP 2014068734 A JP2014068734 A JP 2014068734A JP 6468712 B2 JP6468712 B2 JP 6468712B2
Authority
JP
Japan
Prior art keywords
caller
communication
detection
display screen
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014068734A
Other languages
English (en)
Other versions
JP2015191478A (ja
Inventor
吏 中野
吏 中野
貴司 折目
貴司 折目
広沢 建二
建二 広沢
矢島 浩之
浩之 矢島
博之 吉田
博之 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2014068734A priority Critical patent/JP6468712B2/ja
Priority to US15/129,954 priority patent/US9848166B2/en
Priority to PCT/JP2015/059390 priority patent/WO2015147168A1/ja
Publication of JP2015191478A publication Critical patent/JP2015191478A/ja
Application granted granted Critical
Publication of JP6468712B2 publication Critical patent/JP6468712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Telephonic Communication Services (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、通信ユニットに係り、特に、発信者が自己の映像及び音声のうちの少なくとも一方の情報を受信者に対して発信する際に用いる通信ユニットに関する。
遠隔地に居る者同士が互いの映像を見ながら対話をする技術は、テレビ会議や家族の見守り等の用途に既に用いられている。このような遠隔対話を実現する上で導入される通信システムについては、当然ながら取り扱いが容易であることが望まれる。特に、システム利用者が高齢者や子供である場合には、対話のために複雑な端末操作を要することになると、当該通信システムを用いた対話を適切に利用できなくなる虞がある。
上記の問題は、例えば特許文献1に記載の技術を適用することで解決することが可能である。特許文献1に開示の技術は、テレビ電話装置に関するものである。具体的に説明すると、マイクから入力された音声とカメラによって撮影された映像を通信制御手段によって通話相手に送信するテレビ電話装置である。そして、この装置の特徴は、利用者の存在を検出する人体検出手段と、人体検出手段によって利用者の存在の有無の変化を検出した際に、音声と映像を通話相手先に送信する通話モードと、音声と映像を通話相手先に送信しない保留モードと、を切り替え制御することである。
以上のような構成によれば、利用者の在・不在に応じて自動的にモード切り替えが行われるので、利用者は、通話のために特殊な操作を行う必要がなく、簡単に通話を行うことが可能となる。
特開2012−178621号公報
しかしながら、人体検出手段による検出結果に応じて通話/保留を切り替える構成では、例えば利用者が通話をする意思がなかったとしても、利用者の存在が検出されると自動的に通話モードになってしまう。このような誤動作が生じることで、利用者の映像や音声が自己の意思に反して送信されてしまい、プライバシーの侵害や秘密漏洩等の問題に発展する可能性もある。
そこで、本発明は、上記の課題に鑑みてなされたものであり、その目的とするところは、遠隔対話用の通信を行うにあたり、ユーザにとって取り扱いが容易であり、かつ、ユーザの意思に反して通信を開始するような誤動作を抑制することが可能な通信ユニットを提供することである。
前記課題は、本発明の通信ユニットによれば、発信者が自己の映像及び音声のうちの少なくとも一方の情報を受信者に対して発信する際に用いる通信ユニットであって、前記少なくとも一方の情報を取得する情報取得機器と、該情報取得機器により取得された前記少なくとも一方の情報を示す通信データを前記受信者保有の機器に向けて送信する通信端末と、前記発信者の行動によって発生し又は変化する被検知対象を検知する検知部と、を備え、該検知部は、互いに異なる種類の前記被検知対象を検知する第1検知部及び第2検知部を含み、前記通信端末は、前記第1検知部による検知結果が予め設定された第1条件を満たすときに、所定の処理を開始し、前記通信端末は、前記所定の処理の開始後に、少なくとも前記第2検知部による検知結果が予め設定された第2条件を満たすときに、前記通信データの送信を開始し、前記通信端末は、前記第1検知部による検知結果が予め設定された第1条件を満たすときに、表示画面の形成を開始する表示画面形成部を有し、前記所定の処理は、前記表示画面形成部による前記表示画面の形成であることにより解決される
上記の構成では、互いに異なる種類の被検知対象を検知する複数種類の検知部が備えられ、そのうち、少なくとも二種類以上の検知部の検知結果が予め設定された条件を満たす場合に限り、通信データの送信が開始される。これにより、単一の検知部の検知結果のみをトリガーとして通信データの送信を開始する構成に比較して、誤動作(ユーザの意思に反して通信を開始すること)をより効果的に抑制することが可能となる。
また、上記の通信ユニットにおいて、前記第1検知部は、予め設定された範囲内におけるヒトの存在を検知し、前記表示画面形成部は、前記範囲内に位置した前記発信者を前記第1検知部が検知しときに、前記表示画面の形成を開始すると、より好適である。
上記の構成では、ヒトの存在を検知する検知部(第1検知部)の検知結果を、通信開始のトリガーとして利用する一方で、さらに二種類以上の検知部の検知結果をトリガーとして使用する。これにより、ヒトの存在を検知する検知部の検知結果のみを単独利用する場合に比較して、より効果的に誤動作を抑制することが可能となる。
また、上記の通信ユニットにおいて、前記第2検知部は、前記発信者の視線又は顔の向きを検知、前記通信端末は、前記表示画面の形成が開始された後に、少なくとも前記第2検知部が検知した前記発信者の視線又は顔の向きが予め設定された向きとなっているときに、前記通信データの送信を開始すると、さらに好適である。
上記の構成では、視線や顔の向きを被検知対象とし、かかる被検知対象の検知結果を通信開始のトリガーとして使用する。ここで、視線や顔の向きは、ユーザの意思を反映して切り替わる。このため、視線や顔の向きを通信開始のトリガーとして使用すれば、ユーザの意思に反して通信を開始する事態、すなわち誤動作を更に効果的に抑制することが可能となる。
また、上記の通信ユニットにおいて、前記表示画面形成部は、前記発信者が居る建物内に配置された建築材料、家具若しくは装飾品の一部分を構成するとともに映像の表示画面を形成、該表示画面形成部は、前記第1検知部が前記範囲内に位置するヒトを検知していない期間には前記表示画面を形成せずに前記一部分としての外観を現し、前記第1検知部が前記範囲内に位置するヒトを検知している期間にのみ前記表示画面を形成すると、より一層好適である。
上記の構成では、通常、建築材料や家具としての外観を呈する表示画面形成部が表示画面を形成し、形成された当該表示画面に視線や顔の向きが向くことを通信開始のトリガーとして用いている。この場合、ユーザ(発信者)は、表示画面形成部に表示画面が形成されたことを気付いた上で、通信開始のために視線や顔の向きを切り替えるようになる。これにより、通信開始にユーザの意思をより的確に反映させることが可能となり、誤動作をより一層効果的に抑制することが可能となる。
また、上記の通信ユニットにおいて、複数種類の前記検知部の中には、前記検知結果と照合される照合基準を記憶した特定検知部が含まれており、前記通信端末は、前記所定の処理の開始後に、更に前記特定検知部の前記検知結果と前記照合基準とを照合した際のマッチング度合いが予め設定された閾値以上となるときに、前記通信データの送信を開始すると、益々好適である。
上記の構成では、ある被検知対象の検知結果をその照合基準と照合し、そのマッチング度合いが閾値以上になることを条件として通信を開始することとしている。これにより、誤動作を一段と効果的に抑制することが可能となる。
また、上記の通信ユニットにおいて、前記特定検知部は、前記発信者が発する音声、前記発信者の身体中の可動部位の動き、基準位置と前記発信者の現在位置との間の距離、前記発信者の移動方向、前記発信者の身体の一部が触れた際に形成された接触跡、及び、前記発信者の歩行動作によって生じる振動のいずれかを前記被検知対象として検知すると、尚一層好適である。
上記の構成では、ユーザが行う比較的簡単な動作等を被検知対象として検知するので、通信開始にあたりユーザに対して特に複雑な動作を要しない。換言すると、ユーザ(発信者)は、特に操作方法を知らなくとも、通常の対話時に行う動作を行えば通信(対話用の通信)を行うことが可能となる。
また、上記の通信ユニットにおいて、前記通信端末は、前記所定の処理の開始後に、前記受信者が前記少なくとも一方の情報を受け取ることが可能な空間にいることを示すデータを前記受信者保有の機器から受信し、かつ、少なくとも前記第2検知部による検知結果が予め設定された前記第2条件を満たすときに、前記通信データの送信を開始すると、さらに一層好適である。
上記の構成では、通信を開始する上で、通信相手(受信者)が対話可能な場所に居ることが条件となる。これにより、通信相手の現在の状況を考慮して通信を開始することになるので、無駄な通信、すなわち、通信相手が居ないにもかかわらず通信を開始しようとする事態を効果的に抑制することが可能となる。
本発明の通信ユニットによれば、遠隔対話用の通信を行うにあたり、ユーザの意思に反して通信を開始するような誤動作を適切に抑制することが可能となる。さらに、ユーザ(発信者)は、通信開始用に複雑な操作を要求されることがなく、通常の対話時に行う動作を行うことで通信を開始することが可能となる。
本発明の一実施形態に係る通信ユニットの構成を示す図である。 図2の(A)及び(B)は、本発明の表示画面形成部の一例を示した図である。 本発明の一実施形態に係る通信端末に搭載された機能の一覧図である。 対話準備フローの流れを示す図である。 検知照合フローの流れを示す図である。 視線検知処理の説明図である。 音声検知処理の説明図である。 手動作検知処理の説明図である。 移動方向検知処理の説明図である。 接触跡検知処理の説明図である。 歩行振動検知処理の説明図である。
以下、本発明の一実施形態(以下、本実施形態)について図面を参照しながら説明する。
本実施形態に係る通信ユニットは、互いに離れた場所にいる対話者同士が互いの姿(映像)を見ながら対話をするために用いるものであり、特に、本実施形態では、各対話者が各自の自宅にて対話相手と対話するために用いるものである。なお、通信ユニットの用途については、上記の内容に限定されるものではなく、自宅以外の場所にいる者と対話するために用いることとしてもよい。
本実施形態に係る通信ユニットは、各対話者の自宅にそれぞれ設置されている。対話者毎に設けられた通信ユニットは、対話者間で同様の構成となっている。このため、以下では、一方の対話者の自宅に設置された通信ユニットを例に挙げて、その構成を説明することとする。一方の対話者とは、「発信者」に相当し、対話を行うにあたって自己の映像や音声を他方の対話者(すなわち、「受信者」)に対して発信する者である。なお、「発信者」及び「受信者」は、相対的な概念であり、ある時点で「発信者」である者が別の時点では「受信者」となり得る。
通信ユニット100は、図1に示す機器構成となっており、具体的に説明すると、通信端末としてのホームサーバ1と、これに接続された周辺機器と、によって構成される。ホームサーバ1は、インターネット等の通信網を介して受信者側のホームサーバ1(「受信者保有の機器」に相当)と通信可能に接続されており、同ホームサーバ1との間で通信データの送受信を行う。より詳しく説明すると、ホームサーバ1は、情報取得機器としてのカメラ2及びマイク3と接続されており、これらの機器から出力される映像信号や音声信号を受け取る。そして、ホームサーバ1は、受信した信号をデジタルデータに変換し、通信データとして受信者側のホームサーバ1に向けて送信する。
カメラ2は、発信者の映像を撮影するものであり、その構成については公知である。また、マイク3は、発信者が発する声や音を集音するものであり、その構成については公知である。
なお、本実施形態では、カメラ2とマイク3の双方が備えられており、映像を示すデータに音声を示すデータを重畳することで得られるデータ、すなわち、動画データファイルを通信データとして送受信する。ただし、これに限定されるものではなく、カメラ2及びマイク3のうちの少なくとも一方が備えられていればよい。すなわち、通信ユニット100については、発信者が自己の映像及び音声のうちの少なくとも一方の情報を受信者に対して発信する際に用いられるものであればよい。同様に、ホームサーバ1についても、発信者の映像及び音声のうちの少なくとも一方の情報を示す通信データを受信者側のホームサーバ1に向けて送信するものであればよい。
また、ホームサーバ1には、周辺機器としてのタッチパネル4、人感センサ5及び加速度センサ6が接続されている。タッチパネル4は、例えば発信者が受信者に対して対話を要求する際に用いられ、対話開始にあたり発信者が行う操作(厳密にはタッチ操作)を受け付ける。発信者のタッチ操作を受け付けたタッチパネル4は、当該タッチ操作の受け付けに伴ってホームサーバ1に対して所定の信号を出力する。
人感センサ5は、その検知エリア内におけるヒトの存在を検知する検知部(すなわち、本発明の「第1検知部」)に相当し、発信者の自宅、より厳密には発信者が通信ユニット100を用いて対話を行う際に在室する部屋(以下、対話実施部屋)に設置されている。換言すると、対話実施部屋の室内空間は、人感センサ5の検知エリアとして予め設定されており、当該室内空間内に発信者が在室しているとき、その事を示す電気的信号が人感センサ5からホームサーバ1に対して出力され続けることとなる。
また、本実施形態に係る人感センサ5は、検知エリア内におけるヒトの存在を検知するとともに、当該ヒトの位置を特定する機能を備えている。すなわち、人感センサ5からの出力信号を解析することにより、対話実施部屋におけるヒトの有無を判定するとともに、ヒトが居た場合にはその者の位置を特定することが可能である。
なお、本実施形態に係る人感センサ5は、対話実施部屋に設置された家電機器(例えば、エアコン)に搭載された付属機器である。ただし、これに限定されるものではなく、単独の機器として設置されることとしてもよい。
加速度センサ6は、対話実施部屋に繋がる廊下の床に設置されており、ヒトが当該床の上を歩行した際に発する振動を捉え、当該振動の波形に応じたデータ(以下、振動データ)をホームサーバ1に出力する。したがって、対話実施部屋の外にいる発信者が対話を行うために対話実施部屋に向かって歩くと、加速度センサ6がその時に発生する振動を捉え、上記の振動データをホームサーバ1に出力する。
また、ホームサーバ1は、受信者側のホームサーバ1からの通信データ、厳密には、受信者の映像及び音声を示す動画ファイルデータを受信すると、同データを展開し、これが示す情報を出力機器に出力する。
より具体的に説明すると、ホームサーバ1には表示画面形成装置としてのディスプレイ機器7と、音声再生装置としてのスピーカ8が接続されている。ホームサーバ1は、受信者側のホームサーバ1から受信した通信データを展開することで、受信者の映像(厳密には、受信者側のカメラ2が撮影した映像)をディスプレイ機器7の表示画面に表示する。また、これと同時に、ホームサーバ1は、受信者の音声(厳密には、受信者側のマイク3が集音した音)をスピーカ8によって再生する。
なお、本実施形態では、ディスプレイ機器7のうち、表示画面を形成する部分に前述のタッチパネル4が使用されている。また、本実施形態に係るディスプレイ機器7は、通常時には発信者が居る建物内、より詳しくは対話実施部屋内に配置された装飾品、具体的には姿見として機能し、対話が実行される時にのみ表示画面を形成するものになっている。
図2の(A)及び(B)を参照しながら更に具体的に説明すると、本実施形態に係るディスプレイ機器7は、発信者宅の対話実施部屋内に配置された姿見の一部分、具体的には鏡面部分を構成する。そして、本ディスプレイ機器7は、図2の(A)に示す通り、対話が行われていない時期(通常時)には表示画面を形成せずに鏡面部分としての外観を呈している。
一方、上記のディスプレイ機器7は、発信者が対話を行う際には図2の(B)に示すように表示画面を形成するようになる。より詳しく説明すると、発信者が対話実施部屋内に在室しているとき、ホームサーバ1が人感センサ5からの出力信号に基づいて発信者の位置を割り出す。ホームサーバ1は、さらに、割り出した発信者の位置が所定位置(例えば、ディスプレイ機器7の前方位置)にあるとき、ディスプレイ機器7に対して表示画面形成命令を出力する。この命令を受信したディスプレイ機器7は、それまで鏡面を構成していた部分に表示画面を形成するようになる。そして、形成された表示画面には、受信者の映像が表示されるようになる。
以上のように本実施形態では映像表示用の表示画面が、姿見として兼用されているディスプレイ機器7によって構成されており、表示画面の形成・消去が自在に切り替え可能となっている。そして、ディスプレイ機器7は、対話実施部屋内にヒトが不在であるとき(換言すると、人感センサ5がその検知エリア内でヒトを検知していない期間)には表示画面を形成せず、姿見の一部分としての外観を現す。すなわち、本実施形態に係るディスプレイ機器7は、人感センサ5がその検知エリア内でヒトの存在を検知している期間にのみ表示画面を形成する。
以上の作用により、通常時(非対話時)には表示画面の存在を気付き難くし、ディスプレイ機器7を室内インテリアとして有効に利用することが可能となる。なお、ディスプレイ兼用の姿見の構成については、例えば国際公開第2009/122716号に記載された構成のように公知の構成が利用可能である。
ちなみに、ディスプレイ機器7については、ディスプレイ兼用の姿見に限定されず、発信者宅内に配置された建築材料、家具若しくは装飾品の一部分を構成するものであって、表示画面の形成・消去を自在に切り替えることが可能なものであれば制限なく利用可能である。例えば、建物のドアや内壁を構成する建築材料、あるいは、タンス等の家具の一部を上記ディスプレイとして用いることとしてもよい。
なお、ディスプレイ機器7については、表示画面の形成・消去が切り替え自在なものに限られず、一般的なディスプレイ機器を用いることとしてもよい。
次に、上述したホームサーバ1についてより詳しく説明する。ホームサーバ1は、所謂ホームゲートウェイをなすコンピュータであり、CPU、ROMやRAMからなるメモリ、ハードディスクドライブ、通信用インターフェース及びI/Oポートを有する。また、メモリには各種プログラムが格納されている。
ホームサーバ1の機能について説明すると、上述した機能、すなわち、データ通信の機能、発信者の映像及び音声を示す通信データを生成する機能、受信した通信データを展開して映像を表示したり音声を再生したりする機能が搭載されている。本実施形態では、これらの機能の他、図3に図示の追加機能がホームサーバ1に搭載されている。なお、各追加機能は、ホームサーバ1のメモリに記憶されたプログラムがCPUによって読み出されて実行されることで発揮されるものであるが、各機能を実現するための具体的な技術(技法)については公知のものが利用可能である。
以下、ホームサーバ1の追加機能について、それぞれ説明する。
1)在室認識機能
対話実施部屋内にヒトが在室していることを人感センサ25が検知したとき、ホームサーバ1は、人感センサ25からの出力信号に基づき、対話実施部屋内におけるヒトの存在を認識する。
2)視線検知機能
カメラ2から取得した映像信号に対して画像処理を施し、被写体であるヒト、すなわち、発信者の顔の画像を抽出する。そして、当該顔の中の瞳の位置や大きさ(厳密には、眼球に対する瞳の位置や面積比率)等を割り出すことで発信者の視線の向きを検知する。つまり、ホームサーバ1は、発信者の視線を検知する検知部(本発明の「第2検知部」に相当)をカメラ2と協働して構成している。なお、カメラ2から取得した映像信号から発信者の視線の向きを検知することに加えて、あるいは、視線の向きを検知する代わりに、発信者の顔の向きを検知することとしてもよい。
3)手動作検知機能
カメラ2から取得した映像信号に対してモーションキャプチャ技術を適用し、被写体となった発信者の手の動き、より具体的には、手の中に定められた被特定部位の運動軌跡を検知する。つまり、ホームサーバ1は、発信者の手の動きを検知する検知部をカメラ2と協働して構成しており、さらに、本機能と後述の手動作照合機能とを併用することで「特定検知部」を構成している。ここで、「特定検知部」とは、被検知対象を検知した際の検知結果と照合基準とを照合するものである。
なお、本実施形態では、発信者の手の動きを検知することとしたが、検知対象については、発信者の身体中の可動部位の動きであればよく、手以外の部位、例えば脚の動きを検知することとしてもよい。ただし、発信者が対話の際に通常行う動作若しくはこれに準ずるものであることが望ましく、かかる点では手の動きを検知対象とするのがより妥当である。
4)手動作照合機能
手動作検知機能によって検知された手の動き(厳密には手の運動軌跡)と、予め設定されている手の動きの基準(「照合基準」に相当)とを照合し、そのマッチング度合いを評価する機能である。なお、手の動きの基準については、データ化されてホームサーバ1のメモリ内に保存されている。ここで、基準とされる手の動きについては、通常の会話で行われるような単純動作、例えば一定範囲内での回動動作(手振り動作)やノック動作であることが望ましい。
5)移動方向検知機能
人感センサ5からの出力信号を解析して対話実施部屋におけるヒト(発信者)の位置を特定し、さらに、特定した位置の変化に基づいて上記ヒトの移動方向を検知する。より具体的に説明すると、人感センサ5からヒトを見たときの方向(以下、単に「ヒトまでの方向」という)を割り出す。同様に、人感センサ5から対話実施部屋の所定位置(例えば、ディスプレイ機器7の設置位置)を見たときの方向、すなわち基準方向を算出する。そして、ヒトまでの方向と基準方向との関係からヒトの移動方向を検知する。以上のようにホームサーバ1は、発信者の移動方向を検知する検知部を人感センサ5と協働して構成している。なお、ヒトの移動方向を検知することに加えて、あるいは、ヒトの移動方向を検知する代わりに、対話実施部屋におけるヒトの位置を検知することとしてもよい。
6)歩行振動検知機能
加速度センサ6から取得した振動データを解析し、対話実施部屋に繋がる廊下の床面上をヒトが歩行しているときに発生する振動を検知し、具体的には当該振動の波形を算出する。つまり、ホームサーバ1は、発信者の歩行動作によって生じる振動を検知する検知部を加速度センサ6と協働して構成しており、特に、本機能と後述の歩行振動照合機能とを併用することで「特定検知部」を構成している。
7)歩行振動照合機能
歩行振動検知機能によって検知された振動の波形と、予め設定されている基準波形(「照合基準」に相当)とを照合し、そのマッチング度合いを評価する機能である。なお、基準波形については、データ化されてホームサーバ1のメモリ内に保存されている。ここで、基準波形については、対話実施部屋に入ってからディスプレイ機器7に近付く際のパターン(例えば、居住者別のパターンや歩行速さ別のパターン)を複数用意しておき、パターン毎に基準波形を備えているとよい。
8)音声検知機能
マイク3から取得した音声信号に対して音声認識技術を適用し、当該音声信号が示す音声の内容、すなわち、発信者が発声した単語を検知する。つまり、ホームサーバ1は、発信者の音声を検知する検知部をマイク3と協働して構成しており、特に、本機能と後述の音声照合機能とを併用することで「特定検知部」を構成している。
9)音声照合機能
音声検知機能によって検知された音声の内容と、予め登録されている基準単語(「照合基準」に相当)とを照合し、そのマッチング度合いを評価する機能である。なお、基準単語については、データ化されてホームサーバ1のメモリ内に保存されている。ここで、基準単語については、会話を開始するときに一般的に使われる単語(例えば、呼び掛け用の単語や挨拶用の単語)、あるいは対話相手の名前や属柄を表す単語であることが望ましい。
10)接触跡検知機能
タッチパネル4からの出力信号を解析して、発信者がタッチパネル4をタッチした際の接触パターンを検知する。ここで、接触パターンとは、発信者がタッチパネル4をタッチした際にパネル上に残る指紋跡(接触跡に相当)のことである。つまり、ホームサーバ1は、発信者の手がタッチパネル4に接触することで形成された接触跡を検知する検知部を、タッチパネル4と協働して構成しており、特に、本機能と後述の接触跡照合機能とを併用することで「特定検知部」を構成している。
11)接触跡照合機能
接触跡検知機能によって検知された接触パターンと、予め登録されている基準パターン(「照合基準」に相当)とを照合し、そのマッチング度合いを評価する機能である。なお、基準パターンについては、データ化されてホームサーバ1のメモリ内に保存されている。ここで、基準パターンについては、タッチパネル4を掌で触れたときのパターンであり、発信者宅に住む居住者毎に用意されているとよい。
以上までに説明したように、本実施形態では、人感センサ5が単独の検知部として設けられているとともに、ホームサーバ1が周辺機器と協働することにより複数の検知部として機能している。ここで、検知部とは、発信者の行動によって発生し又は変化する被検知対象を検知するものである。また、人感センサ5及びホームサーバ1の各々が検知する被検知対象については、互いに種類が異なっている。換言すると、本実施形態では、互いに異なる種類の被検知対象を検知するように複数種類の検知部が備えられていることになる。
そして、本実施形態では、受信者側のホームサーバ1への通信データの送信、すなわち、対話用通信を開始するにあたり、上述した複数種類の検知部のうち、二種類以上の検知部が対応する被検知対象を検知することになっている。すなわち、本実施形態に係るホームサーバ1は、二種類以上の検知部の各々の検知結果が予め設定された条件を満たすことをトリガー(開始条件)として、通信データの送信を開始することとしている。これにより、例えば人感センサ5が対話実施部屋内でヒトの存在を検知することのみを条件として通信データの送信を開始する構成と比べ、ユーザの意思に反して通信を開始する誤動作をより効果的に抑制することが可能となる。
さらに、各検知部の被検知対象は、発信者が対話を開始する際に通常行う比較的簡単な動作・行動(例えば手振り動作、呼び掛け/挨拶、移動動作など)に起因するものである。このため、発信者は、対話開始の際に通常行う動作や行動を行えばよいので、特段複雑な操作を行う必要がなく、簡単に対話用通信を始めることが可能となる。
以下、対話用通信の開始条件として行われる処理である対話準備フローを、図4A及び図4Bに図示の手順に沿って説明する。なお、以下の説明中、特に断る場合を除き、ホームサーバ1は、発信者側のホームサーバ1を示すこととする。
対話準備フローは、発信者が対話用通信を開始するために対話実施部屋に入室するところから始まる。発信者が対話実施部屋に入室すると、これに伴って、人感センサ5が、同部屋内に位置している発信者を検知する。つまり、検知部としての人感センサ5が、予め検知条件として設定された検知エリア内で発信者を検知することで当該検知結果を示す信号を出力し、ホームサーバ1が同信号を受信する(S001)。
一方、対話実施部屋に入室した発信者は、対話用通信を始めるにあたりディスプレイ機器7に接近する。この間、ホームサーバ1は、人感センサ5からの出力信号に基づき、発信者の位置を算出する。そして、発信者がディスプレイ機器7の前方位置まで移動してくると、ホームサーバ1は、その事を認識した上で、ディスプレイ機器7に向けて表示画面形成命令を出力する(S002)。かかる命令を受信したディスプレイ機器7は、それまで姿見としての外観を呈していた状態から、前面に表示画面が形成された状態へと遷移するようになる。
このように発信者が対話用通信を始めるためにディスプレイ機器7に接近すると、その応答動作として、ディスプレイ機器7の状態(厳密には外観)が切り替わるようになっている。発信者は、かかる状態の変化を気付いた上で、その後の動作(通信開始用の動作)を行うようになる。これにより、通信開始にユーザの意思をより的確に反映させることが可能となり、誤動作をより一層効果的に抑制することが可能となる。
次に、ホームサーバ1は、受信者側のホームサーバ1(以下、受信者側サーバ)に対して在室情報の送信を要求する(S003)。ここで、在室情報とは、受信者が発信者の映像や音声を受け取ることが可能な空間にいることを示す情報、分かり易くは、受信者がその自宅の対話実施部屋内に在室しているか否かを示す情報のことである。
受信者側サーバは、ホームサーバ1からの要求を受け付けると、在室情報を格納したデータを生成してホームサーバ1に向けて送信する。ホームサーバ1は、当該データを受信することで、受信者側サーバから在室情報を入手する(S004)。
受信者が在室であることを示す在室情報を入手した場合(S005でYes)、ホームサーバ1は、それ以降の工程(S006以降)を実行する。一方、受信者が不在であることを示す在室情報を入手した場合、ホームサーバ1は、受信者が在室であることを示す在室情報を入手するまで待機し、対話用通信を保留する。このように本実施形態では、対話用通信を開始するにあたり、通信相手(受信者)が対話可能な場所に居ることが必要となる。すなわち、通信相手の在室状況を考慮して対話通信を開始するので、無駄な通信、つまり、通信相手が居ないにもかかわらず通信を開始しようとする事態を効果的に抑制することが可能となる。
ホームサーバ1は、その後、周辺機器と協働して複数の被検知対象を検知し、さらに、検知結果の中の幾つかについては照合基準と照合する処理を行う(S006)。かかる処理のフローについて図4Bを参照しながら説明すると、先ず、ホームサーバ1は、カメラ2からディスプレイ機器7の前方に立っている発信者の映像を示す映像信号を取得する(S011)。なお、カメラ2については、発信者の顔を含む全身映像を撮影することが可能となる位置に配置されており、例えばディスプレイ機器7の表示画面の裏側で表示画面越しに発信者を撮影するように配置されている。
映像信号を取得したホームサーバ1は、前述した視線検知機能により、発信者の視線の向きを検知する(S012)。そして、ホームサーバ1は、検知した発信者の視線が所定の向きを向いているか否かを判定する(S013)。具体的に説明すると、ホームサーバ1は、図5に示すように、ディスプレイ機器7に形成された表示画面に対する、発信者の視線の向きを特定する。そして、受信者の視線が表示画面に対して正面を向いている場合、ホームサーバ1は、以降の工程を実行する。反対に、発信者の視線が表示画面に対して正面以外を向いている場合、ホームサーバ1は、視線が正面を向くようになるまで対話用通信を保留する。
以上のようにホームサーバ1は、対話用通信を開始するにあたり発信者の視線を検知し、検知した視線の向きが予め設定された条件を満たすこと、具体的には、表示画面に対して正面を向いていることを通信開始の条件としている。
なお、発信者の視線の向きと併せて、あるいは視線の向きの代わりに発信者の顔の向きを検知するケースでは、視線の場合と同様に、発信者の顔が表示画面に対して正面を向いていることを通信開始の条件とするとよい。
その後、ホームサーバ1は、他の被検知対象を検知し、検知結果と照合基準との照合を行う(S014)。具体的に説明すると、本実施形態に係るホームサーバ1は、発信者が発する音声、発信者の手の動き、発信者の移動方向、発信者の手がタッチパネル4に触れた際に形成された接触パターン、及び、発信者の歩行動作によって生じる振動を検知する。以下、各被検知対象の検知方法について図6乃至10を参照しながら説明する。
(音声検知処理)
ホームサーバ1は、前述した音声検知機能により、発信者の音声を検知する。その具体的手順は、図6に示す通りであり、先ず、マイク3から音声信号を取得し、次に、音声信号に対して音声認識技術を適用して、当該音声信号が示す音声の内容、すなわち、発信者が発声した単語を検知(認識)する。ここで、単語認識のプロセスは、音響モデルと言語モデルを用いた一般的な単語認識技法を採用したものである。
そして、ホームサーバ1は、前述した音声照合機能により、検知した音声(すなわち、認識単語)が予め登録された条件を満たすか否かを判定する。具体的に説明すると、ホームサーバ1は、図6に示すように、自己のメモリに記憶されている基準単語を読み出し、同基準単語と検知した認識単語とを照合する。そして、両者間のマッチング度合いが予め設定されていた閾値を超えたとき、ホームサーバ1は、検知した音声を「マッチング対象」と認定する。
(手動作検知処理)
ホームサーバ1は、前述した手動作検知機能により、発信者の手の動きを検知する。その具体的手順は、図7に示す通りであり、先ず、カメラ2から映像信号を取得し、次に、映像信号に対してモーションキャプチャ技術を適用して、発信者の手の運動軌跡を検知(算出)する。その後、ホームサーバ1は、前述した手動作照合機能により、検知した手の動きが予め設定された条件を満たすか否かを判定する。具体的に説明すると、ホームサーバ1は、図7に示すように、自己のメモリに記憶されている基準軌跡(照合基準となる手の動き)を読み出し、同基準軌跡と検知した手の運動軌跡とを照合する。そして、両者のマッチング度合いが予め設定されていた閾値を超えたとき、ホームサーバ1は、検知した手の動きを「マッチング対象」と認定する。
(移動方向検知処理)
ホームサーバ1は、前述した移動方向検知機能により、対話実施部屋内で発信者が移動する際の移動方向を検知する。その具体的手順については、図8に示す通りであり、先ず、人感センサ5からの出力信号を解析して対話実施部屋における発信者の位置を特定し、さらに、特定した位置の変化に基づいて発信者の移動方向を検知(特定)する。そして、ホームサーバ1は、検知した移動方向が予め設定された条件を満たすか否か、具体的には、ディスプレイ機器7に向かう方向になっているか否かを判定する。そして、検知した移動方向がディスプレイ機器7に向かい方向となっているとき、ホームサーバ1は、検知した移動方向を「マッチング対象」と認定する。
なお、発信者の移動方向と併せて、あるいは移動方向の代わりに発信者の位置を検知するケースでは、検知された当該位置が基準位置(例えば、ディスプレイ機器7の配置位置)から所定距離以内にあるか否かを判定するとよい。そして、かかる条件を満たす場合には、検知した発信者の位置を「マッチング対象」として認定するとよい。
(接触跡検知処理)
ホームサーバ1は、前述した接触跡検知機能により、発信者が掌でタッチパネル4に触れた際に形成された接触パターンを検知する。その具体的手順については、図9に示す通りであり、先ず、タッチパネル4からの出力信号を解析し、その解析結果から接触パターンを検知(特定)する。その後、ホームサーバ1は、前述した接触跡照合機能により、検知した接触パターンが予め設定された条件を満たすか否かを判定する。具体的に説明すると、ホームサーバ1は、図9に示すように、自己のメモリに記憶されている基準パターンを読み出し、同基準パターンと検知した接触パターンとを照合する。そして、両者のマッチング度合いが予め設定されていた閾値を超えたとき、ホームサーバ1は、検知した接触パターンを「マッチング対象」と認定する。
(歩行振動検知処理)
ホームサーバ1は、前述した歩行振動検知機能により、歩行者の歩行動作により生じる振動を検知する。その具体的手順については、図10に示す通りであり、先ず、加速度センサ6から振動データを受信し、次に、振動データを解析して歩行振動の波形を検知(特定)する。その後、ホームサーバ1は、前述した歩行振動照合機能により、検知した振動波形が予め設定された条件を満たすか否かを判定する。具体的に説明すると、ホームサーバ1は、図10に示すように、自己のメモリに記憶されている基準波形を読み出し、同基準波形と検知した歩行振動の波形とを照合する。そして、両者のマッチング度合いが予め設定されていた閾値を超えたとき、ホームサーバ1は、検知した歩行振動を「マッチング対象」と認定する。
以上のように、本実施形態に係るホームサーバ1は、発信者の視線の向きの他に、上記5つの被検知対象を検知することとしている。ただし、上記5つの被検知対象をすべて検知する構成に限定されず、上記5つの被検知対象の中から少なくとも一つ以上を選択して検知することとしてもよい。
そして、上記5つの被検知対象のうちの少なくとも一つがマッチング対象となっている場合(S015)、ホームサーバ1は、検知照合フローを終了する。検知照合フロー終了後、ホームサーバ1は、受信者側サーバに対して通信開始、すなわち、通信データの送信を要求する(S007)。
受信者側サーバは、当該要求を受け付けると、その応答情報を示すデータを生成してホームサーバ1に向けて送信する。ホームサーバ1は、受信者側サーバから上記のデータを受信することで応答情報を入手し(S008)、かかる応答情報から受信者が通信可能な状態にあるか否かを判定する(S009)。具体的に説明すると、受信者側でも上記一連の工程、すなわち、対話準備フロー及び検知照合フローが実行される。そして、受信者側で対話用通信の開始条件がすべて満たされた場合(つまり、設定された被検知対象を検知し、その検知結果が照合基準とマッチングしている場合)、受信者が通信可能であることを示す応答情報がホームサーバ1に伝えられることになっている。
ホームサーバ1は、入手した応答情報から受信者が通信可能な状態にあると判定すると、対話用通信を開始し、自己の映像及び音声を示す通信データを受信者宛てに送信するようになる(S010)。かかる時点で対話準備フローが完了し、以降、発信者及び受信者の一方が通信を終了する操作(例えば、ディスプレイ機器7から所定距離以上離れる動作)を行うまで対話用通信が続行される。
以上までに、本発明の通信ユニットについて、その一例を挙げて説明してきたが、上記の実施形態は、本発明の理解を容易にするための一例に過ぎず、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは勿論である。
また、上記の実施形態では、対話実施部屋における発信者の存在、発信者の視線又は顔の向き、発信者が発する音声、発信者の身体中の可動部位の動き、基準位置と発信者の現在位置との間の距離、発信者の移動方向、発信者の身体の一部がタッチパネル4に触れた際に形成される接触跡、及び、発信者の歩行動作によって生じる振動を被検知対象とした。そして、上記の実施形態では、(X1)人感センサ5が対話実施部屋内での発信者の存在を検知すること、(X2)ホームサーバ1が検知した発信者の視線又は顔の向きが所定の向きとなっていること、(X3)その他一種類以上の検知部の検知結果が予め設定された条件を満たすことを、対話用通信の開始条件(トリガー)としている。ただし、これに限定されるものではなく、被検知対象については、上記した被検知対象以外のものを加えることとしてもよい。また、対話用通信の開始条件については、上記3つの条件X1、X2、X3をすべて満たす場合に限定されず、上記3つの条件X1、X2、X3のうち、少なくとも二つ以上の条件を満たせばよい。
1 ホームサーバ
2 カメラ
3 マイク
4 タッチパネル
5 人感センサ
6 加速度センサ
7 ディスプレイ機器
8 スピーカ
100 通信ユニット

Claims (7)

  1. 発信者が自己の映像及び音声のうちの少なくとも一方の情報を受信者に対して発信する際に用いる通信ユニットであって、
    前記少なくとも一方の情報を取得する情報取得機器と、
    該情報取得機器により取得された前記少なくとも一方の情報を示す通信データを前記受信者保有の機器に向けて送信する通信端末と、
    前記発信者の行動によって発生し又は変化する被検知対象を検知する検知部と、を備え、
    該検知部は、互いに異なる種類の前記被検知対象を検知する第1検知部及び第2検知部を含み、
    前記通信端末は、前記第1検知部による検知結果が予め設定された第1条件を満たすときに、所定の処理を開始し、
    前記通信端末は、前記所定の処理の開始後に、少なくとも前記第2検知部による検知結果が予め設定された第2条件を満たすときに、前記通信データの送信を開始し、
    前記通信端末は、前記第1検知部による検知結果が予め設定された第1条件を満たすときに、表示画面の形成を開始する表示画面形成部を有し、
    前記所定の処理は、前記表示画面形成部による前記表示画面の形成であることを特徴とする通信ユニット。
  2. 前記第1検知部は、予め設定された範囲内におけるヒトの存在を検知し、
    前記表示画面形成部は、前記範囲内に位置した前記発信者を前記第1検知部が検知したときに、前記表示画面の形成を開始することを特徴とする請求項に記載の通信ユニット。
  3. 前記第2検知部は、前記発信者の視線又は顔の向きを検知し、
    前記通信端末は、前記表示画面の形成が開始された後に、少なくとも前記第2検知部が検知した前記発信者の視線又は顔の向きが予め設定された向きとなっているときに、前記通信データの送信を開始することを特徴とする請求項に記載の通信ユニット。
  4. 前記表示画面形成部は、前記発信者が居る建物内に配置された建築材料、家具若しくは装飾品の一部分を構成するとともに映像の表示画面を形成し、
    該表示画面形成部は、前記第1検知部が前記範囲内に位置するヒトを検知していない期間には前記表示画面を形成せずに前記一部分としての外観を現し、前記第1検知部が前記範囲内に位置するヒトを検知している期間にのみ前記表示画面を形成することを特徴とする請求項に記載の通信ユニット。
  5. 複数種類の前記検知部の中には、前記検知結果と照合される照合基準を記憶した特定検知部が含まれており、
    前記通信端末は、前記所定の処理の開始後に、更に前記特定検知部の前記検知結果と前記照合基準とを照合した際のマッチング度合いが予め設定された閾値以上となるときに、前記通信データの送信を開始することを特徴とする請求項1乃至のいずれか一項に記載の通信ユニット。
  6. 前記特定検知部は、前記発信者が発する音声、前記発信者の身体中の可動部位の動き、基準位置と前記発信者の現在位置との間の距離、前記発信者の移動方向、前記発信者の身体の一部が触れた際に形成された接触跡、及び、前記発信者の歩行動作によって生じる振動のうちのいずれかを前記被検知対象として検知することを特徴とする請求項に記載の通信ユニット。
  7. 前記通信端末は、前記所定の処理の開始後に、前記受信者が前記少なくとも一方の情報を受け取ることが可能な空間にいることを示すデータを前記受信者保有の機器から受信し、かつ、少なくとも前記第2検知部による検知結果が予め設定された前記第2条件を満たすときに、前記通信データの送信を開始することを特徴とする請求項1乃至のいずれか一項に記載の通信ユニット。
JP2014068734A 2014-03-28 2014-03-28 通信ユニット Active JP6468712B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014068734A JP6468712B2 (ja) 2014-03-28 2014-03-28 通信ユニット
US15/129,954 US9848166B2 (en) 2014-03-28 2015-03-26 Communication unit
PCT/JP2015/059390 WO2015147168A1 (ja) 2014-03-28 2015-03-26 通信ユニット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014068734A JP6468712B2 (ja) 2014-03-28 2014-03-28 通信ユニット

Publications (2)

Publication Number Publication Date
JP2015191478A JP2015191478A (ja) 2015-11-02
JP6468712B2 true JP6468712B2 (ja) 2019-02-13

Family

ID=54195674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014068734A Active JP6468712B2 (ja) 2014-03-28 2014-03-28 通信ユニット

Country Status (3)

Country Link
US (1) US9848166B2 (ja)
JP (1) JP6468712B2 (ja)
WO (1) WO2015147168A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170017455A1 (en) * 2015-07-16 2017-01-19 Yoshihiko SHIMOHIRA Electronic information terminal, image processing apparatus and image processing system
JP2017084090A (ja) * 2015-10-28 2017-05-18 シャープ株式会社 接客システム
CN108370431B (zh) 2015-12-11 2021-03-19 索尼公司 信息处理装置、信息处理方法和程序
EP3493534B1 (en) 2016-07-28 2023-04-05 Sony Group Corporation Information processing device, information processing method, and program
US10405038B2 (en) * 2016-08-30 2019-09-03 Patrick Dean Cummins Systems, methods, and apparatus for network architecture with video hardware basis
US10469800B2 (en) * 2017-01-26 2019-11-05 Antimatter Research, Inc. Always-on telepresence device
WO2018191619A1 (en) 2017-04-13 2018-10-18 Senti Biosciences, Inc. Combinatorial cancer immunotherapy
JP7361460B2 (ja) * 2018-09-27 2023-10-16 沖電気工業株式会社 コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法
US11419898B2 (en) 2018-10-17 2022-08-23 Senti Biosciences, Inc. Combinatorial cancer immunotherapy
AU2019359890A1 (en) 2018-10-17 2021-06-03 Senti Biosciences, Inc. Combinatorial cancer immunotherapy
US11134042B2 (en) * 2019-11-15 2021-09-28 Scott C Harris Lets meet system for a computer using biosensing

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05300500A (ja) * 1992-04-21 1993-11-12 Canon Inc テレビ電話装置
JPH05344499A (ja) * 1992-06-11 1993-12-24 Canon Inc 端末装置
US6674458B1 (en) * 2000-07-21 2004-01-06 Koninklijke Philips Electronics N.V. Methods and apparatus for switching between a representative presence mode and one or more other modes in a camera-based system
US7242421B2 (en) * 2000-11-10 2007-07-10 Perceptive Network Technologies, Inc. Methods of establishing a communications link using perceptual sensing of a user's presence
JP4485150B2 (ja) * 2003-05-29 2010-06-16 三菱電機株式会社 遠隔通話システム
JP4455383B2 (ja) * 2005-03-31 2010-04-21 エヌ・ティ・ティ・コムウェア株式会社 サービス提供システム
JP4645355B2 (ja) * 2005-08-11 2011-03-09 ソニー株式会社 情報処理装置および方法、並びにプログラム
KR101540912B1 (ko) * 2007-12-21 2015-07-31 코닌클리케 필립스 엔.브이. 매칭된 통신 디바이스들
WO2009122716A1 (ja) * 2008-04-03 2009-10-08 パナソニック株式会社 情報表示装置
US9350940B1 (en) * 2009-10-29 2016-05-24 Hewlett-Packard Development Company, L.P. Privacy control for a visual-collaborative system
JP2011139360A (ja) 2009-12-28 2011-07-14 Sharp Corp 映像表示装置、動作モード切替方法、プログラムおよび記録媒体
JP2012178621A (ja) 2011-02-25 2012-09-13 Sanyo Electric Co Ltd テレビ電話装置
WO2013187869A1 (en) * 2012-06-11 2013-12-19 Intel Corporation Providing spontaneous connection and interaction between local and remote interaction devices
JP3181046U (ja) * 2012-11-05 2013-01-24 合同会社時空 画像表示装置

Also Published As

Publication number Publication date
US9848166B2 (en) 2017-12-19
WO2015147168A1 (ja) 2015-10-01
JP2015191478A (ja) 2015-11-02
US20170142367A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6468712B2 (ja) 通信ユニット
JP6739907B2 (ja) 機器特定方法、機器特定装置及びプログラム
EP2911149A1 (en) Determination of an operational directive based at least in part on a spatial audio property
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP2000347692A (ja) 人物検出方法、人物検出装置及びそれを用いた制御システム
EP3698359A1 (en) Methods and systems for speech detection
JP2009166184A (ja) ガイドロボット
JP5844418B2 (ja) エレベータ制御装置およびエレベータ制御方法
WO2016043279A1 (ja) 対話用通信システム及び対話用通信方法
CN107148614B (zh) 信息处理设备、信息处理方法和程序
JP7439826B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2015147169A1 (ja) 状況把握用ユニット
WO2016157993A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2019093123A1 (ja) 情報処理装置および電子機器
EP3428779A1 (en) User-machine interaction method and system based on feedback signals
JP6489793B2 (ja) 電子機器、制御システム、制御方法、および制御プログラム
JP6543891B2 (ja) コミュニケーション補助装置、コミュニケーション補助システム、コミュニケーション補助方法及びプログラム
JP2019061334A (ja) 機器制御装置、機器制御方法及び機器制御システム
JP6586617B2 (ja) 音声認識装置、方法、及びコンピュータプログラム
US11221684B2 (en) Information processing device, information processing method, and recording medium
WO2019123754A1 (ja) 情報処理装置、情報処理方法、および記録媒体
JP4735965B2 (ja) 遠隔地間対話システム
WO2015092635A1 (en) Device, method and computer program product
WO2020213244A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019202852A1 (ja) 情報処理システム、クライアント装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R150 Certificate of patent or registration of utility model

Ref document number: 6468712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250