JP2021176212A - 仮想的空間接続装置 - Google Patents

仮想的空間接続装置 Download PDF

Info

Publication number
JP2021176212A
JP2021176212A JP2020081110A JP2020081110A JP2021176212A JP 2021176212 A JP2021176212 A JP 2021176212A JP 2020081110 A JP2020081110 A JP 2020081110A JP 2020081110 A JP2020081110 A JP 2020081110A JP 2021176212 A JP2021176212 A JP 2021176212A
Authority
JP
Japan
Prior art keywords
space
processing
signal
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020081110A
Other languages
English (en)
Other versions
JP2021176212A5 (ja
JP7387167B2 (ja
Inventor
良 川口
Ryo Kawaguchi
キャンベル タージ
Campbell Taj
ジェイコブ マックギンティ アレン
Jacob McGinty Allen
シュウィンド ブライアン
Schwind Brian
ロウ アンドレア
Law Andrea
ファルコン アルバロ アレギ
Falcon Alvaro Arregui
アリスン 福垣
Alisaun Fukugaki
志郎 後尾
Shiro Gobi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tonari Co Ltd
Original Assignee
Tonari Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tonari Co Ltd filed Critical Tonari Co Ltd
Priority to JP2020081110A priority Critical patent/JP7387167B2/ja
Priority to US17/997,305 priority patent/US20230199380A1/en
Priority to PCT/JP2021/011790 priority patent/WO2021220665A1/ja
Priority to EP21797043.3A priority patent/EP4145822A4/en
Priority to CN202180031125.9A priority patent/CN115462064A/zh
Publication of JP2021176212A publication Critical patent/JP2021176212A/ja
Publication of JP2021176212A5 publication Critical patent/JP2021176212A5/ja
Application granted granted Critical
Publication of JP7387167B2 publication Critical patent/JP7387167B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Otolaryngology (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】異なる空間にいるユーザの円滑な意思疎通を実現する仮想的空間接続装置を提供する。【解決手段】仮想的空間接続装置は、第1空間SAを撮像した第1撮像画像信号と第1空間で収音した第1音声信号とを第1空間と離隔した第2空間SB側に送信する処理と、第2空間を撮像した第2撮像画像信号と第2空間で収音した第2音声信号とを受信し、第2撮像画像信号に基づく表示及び第2音声信号に基づく音声出力を実行させる第1制御部と、第2撮像画像信号と第2音声信号とを第2空間と離隔した第1空間側に送信する処理と、第1撮像画像信号と第1音声信号とを受信し、第1撮像画像信号に基づく表示及び第1音声信号に基づく音声出力を実行させる第2制御部と、第1空間に第2空間を仮想的に接続する第1表示ユニット(第1プロジェクタ31A、第1スクリーン32A)と、第2空間に第1空間を仮想的に接続する第2表示ユニットと、を備える。【選択図】図2

Description

本技術は、互いに離隔する空間を仮想的に接続する仮想的空間接続装置の技術に関する。
一方の空間で撮像された撮像画像及び収音された音声を、他方の空間に出力することで各空間にいるユーザが会話を行うテレビ電話などのコミュニケーション手段が知られている。
特許文献1では、撮像部で撮像したユーザの撮像画像を、コミュニケーション相手となる他のユーザのコミュニケーション装置へ送信するとともに、当該他のユーザのコミュニケーション装置から送信されてくる他のユーザの画像を受信して表示部に表示するコミュニケーション装置が開示されている。
特開2019−146118号公報
このようなコミュニケーション手段においては、ただ単に会話をすることのみならず、互いの空間の状況を各空間のユーザ同士が共有することで臨場感のある意思疎通を行うことが望まれている。
また各空間における臨場感をより高めるためには、一方の空間における収音をどのように他方の空間に出力するかが重要となる。
そこで本発明では、互いに離隔した空間を仮想的に接続し、各空間の状況に応じて音声出力の調整を行うことで、互いの空間にいるユーザ同士の円滑な意思疎通を実現することを目的とする。
本発明に係る仮想的空間接続装置は、第1空間を撮像した第1撮像画像信号と前記第1空間で収音した第1音声信号とを前記第1空間と離隔した第2空間側に送信する処理と、前記第2空間を撮像した第2撮像画像信号と前記第2空間で収音した第2音声信号とを受信し、前記第2撮像画像信号に基づく表示及び前記第2音声信号に基づく音声出力を実行させる第1演算処理部と、前記第2撮像画像信号と前記第2音声信号とを前記第2空間と離隔した第1空間側に送信する処理と、前記第1撮像画像信号と前記第1音声信号とを受信し、前記第1撮像画像信号に基づく表示及び前記第1音声信号に基づく音声出力を実行させる第2演算処理部と、前記第1演算処理部からの制御信号により前記第1空間内で前記第2撮像画像信号に基づく表示を実行することで前記第1空間に前記第2空間を仮想的に接続する第1表示ユニットと、前記第2演算処理部からの制御信号により前記第2空間内で前記第1撮像画像信号に基づく表示を実行することで前記第2空間に前記第1空間を仮想的に接続する第2表示ユニットと、を備え、前記第1空間の状況に応じて前記第1音声信号の音声処理に関するパラメータを制御し、前記第2空間の状況に応じて前記第2音声信号の音声処理に関するパラメータを制御する。
これにより、第1の空間と第2空間の何れにおいても他方の空間の画像が表示され、かつ音声が出力されることで、第1の空間と第2の空間が仮想的に接続される。
ここで空間の状況とは、例えば騒音や静寂といった空間内の環境音の状況や、ユーザの存否、人数、位置、仕草、向きといった空間内のユーザの状況、空間内の明るさ、温度、天候の状況、室内、屋外といった空間が設けられている状況など、様々な状況が含まれる。
また音声処理に関するパラメータとは、例えば音声入力ユニットの指向性制御に関するパラメータ、ノイズリダクション処理に関するパラメータ、エンコード処理のためのパラメータ、増幅処理に関するパラメータ、周波数特性やボイスチェンジといった音質処理に関するパラメータなどのことである。
上記した本発明に係る仮想的空間接続装置において、前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号を収音するマイクロフォンの指向性に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号を収音するマイクロフォンの指向性に関するパラメータを制御することが考えられる。
これにより、第1空間の状況に応じてマイクロフォンの指向性が制御された第1音声入力ユニットに入力された第1音声信号が第1空間と離隔した第2空間側に送信され、第2空間の第2音声出力ユニットにより出力される。また第2空間の状況に応じてマイクロフォンの指向性が制御された第2音声入力ユニットに入力された第2音声信号が第2空間と離隔した第1空間側に送信され、第1空間の第1音声出力ユニットにより出力される。
上記した本発明に係る仮想的空間接続装置において、前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号のノイズリダクション処理に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号をノイズリダクション処理に関するパラメータを制御することが考えられる。
これにより、第1空間の状況に応じたノイズリダクション処理が行われた第1音声信号が第1空間と離隔した第2空間側に送信され、第2空間の第2音声出力ユニットにより出力される。また第2空間の状況に応じたノイズリダクション処理が行われた第2音声信号が第2空間と離隔した第1空間側に送信され、第1空間の第1音声出力ユニットにより出力される。
上記した本発明に係る仮想的空間接続装置において、前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号の減衰処理に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号を減衰処理に関するパラメータを制御する。
これにより、第1空間の状況に応じた減衰処理が行われた第1音声信号が第1空間と離隔した第2空間側に送信され、第2空間の第2音声出力ユニットにより出力される。また第2空間の状況に応じた減衰処理が行われた第2音声信号が第2空間と離隔した第1空間側に送信され、第1空間の第1音声出力ユニットにより出力される。
上記した本発明に係る仮想的空間接続装置において、前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号の増幅処理に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号を増幅処理に関するパラメータを制御する。
これにより、第1空間の状況に応じた増幅処理が行われた第1音声信号が第1空間と離隔した第2空間側に送信され、第2空間の第2音声出力ユニットにより出力される。また第2空間の状況に応じた増幅処理が行われた第2音声信号が第2空間と離隔した第1空間側に送信され、第1空間の第1音声出力ユニットにより出力される。
上記した本発明に係る仮想的空間接続装置において、前記第1撮像画像信号の解析処理結果に基づいて前記第1空間内の状況を判定し、前記第2撮像画像信号の解析処理結果に基づいて前記第2空間内の状況を判定することが考えられる。
これにより、例えば一方の空間内にユーザを検出した場合は、ユーザの発した声が他方の空間側に伝わるように一方の空間内で収音した音声信号の音声処理に関するパラメータを制御する。
上記した本発明に係る仮想的空間接続装置において、前記第1空間内の状況として前記第1空間内の輝度を判定し、前記第2空間内の状況として前記第2空間内の輝度を判定することが考えられる。
これにより、例えば空間内の輝度が低い場合、当該空間に意思疎通を行おうとしているユーザがいないことが推定できる。
本発明によれば、互いに離隔した空間にいるユーザ同士が円滑に意思疎通を行うことができる。
本発明の実施の形態における仮想的空間接続装置の概要を示す図である。 実施の形態における仮想的空間接続装置の実装例を示す図である。 第1の実施の形態における演算装置の処理を示すフローチャートである。 第2の実施の形態における演算装置の処理を示すフローチャートである。 第3の実施の形態における演算装置の処理を示すフローチャートである。
本発明の実施の形態では一例として、第1空間SAと当該第1空間SAから離隔した第2空間SBとにおいて自空間に他方の空間の撮像画像及び音声を出力することで、第1空間SAと第2空間SBを仮想的に接続する仮想的空間接続装置100について説明する。
本実施の形態における第1空間SAと第2空間SBは、例えば屋内であり、自宅の部屋と親戚の部屋、病院の診察室と自宅の部屋、会社のオフィスと自宅の部屋、自社のオフィスと他社のオフィスなど様々な組み合わせが考えられる。このように本実施の形態の仮想的空間接続装置100は様々な空間を仮想的に接続することができる。
また以下の説明では、第1空間SA側で撮像された画像信号を第1撮像画像信号、第1空間SA側で収音された音声信号を第1音声信号と、第2空間SB側で撮像された画像信号を第2撮像画像信号、第2空間SB側で収音された音声信号を第2音声信号と表記する。
なお、説明にあたり参照する図面に記載された各構成は、本発明に係る要部の構成のみ抽出したものであり、図面に記載された構成は、本発明の技術的思想を逸脱しない範囲であれば設計などに応じて種々な変更が可能である。
また、以下で一度説明した構成は、それ以降同一の符号を付して説明を省略することがある。さらに、本発明は本実施の形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
以下、実施の形態を次の順序で説明する。
<1.仮想的空間接続装置の構成>
<2.仮想的空間接続装置の概要>
<3.第1の実施の形態>
<4.第2の実施の形態>
<5.第3の実施の形態>
<6.まとめ>
<7.変型例>
<1.仮想的空間接続装置の構成>
本発明の実施の形態としての仮想的空間接続装置100の構成について、図1及び図2を参照して説明する。図1は、仮想的空間接続装置100により第1空間SAと第2空間SBを仮想的に接続することで、第1空間SAにいるユーザU1と第2空間SBにいるユーザU2とが図2に示すように実際に隣の部屋にいるように感じながら意思疎通を行うための構成を示している。
図1において仮想的空間接続装置100は、第1撮像部1A、第1音声入力ユニット2A、第1表示ユニット3A、第1音声出力ユニット4A、第1演算処理部5A、及び第2撮像部1B、第2音声入力ユニット2B、第2表示ユニット3B、第2音声出力ユニット4B、第2演算処理部5Bを有している。
第1撮像部1Aは第1空間SAに設けられ、例えばCCD(Charge Coupled Device)型やCMOS(Complementary Metal Oxide Semiconductor)型として構成された撮像素子を有する。この第1撮像部1Aは、撮像素子で受光した光を光電変換し、第1撮像画像信号として第1演算処理部5Aに出力する。
第1音声入力ユニット2Aは第1空間SAに設けられ、複数、例えば3つの第1マイクロフォン21Aを有している(図2参照)。第1音声入力ユニット2Aは、各第1マイクロフォン21Aで収音した音声のアナログ信号としての第1音声信号を第1演算処理部5Aに出力する。
第1表示ユニット3Aは第1空間SAに設けられ、例えば第1プロジェクタ31Aと第1スクリーン32Aにより構成される。第1プロジェクタ31Aは、第2演算処理部5Bから受信した第2空間SBの第2撮像画像信号に基づく画像出力、ここでは投影出力を第1スクリーン32Aに対して行う。
第1音声出力ユニット4Aは、例えば1又は複数のスピーカ41Aであり第1空間SAに設けられている(図2参照)。第1音声出力ユニット4Aは、第2空間SBで収音された第2音声信号を受信した第1演算処理部5Aから取得し、当該受信した第2音声信号に基づく音声出力を実行する。
第1演算処理部5Aは例えば第1空間SAの第1プロジェクタ31Aに内蔵されたり、第1プロジェクタ31Aとは別体の装置として設けられている。第1演算処理部5Aは、第1画像信号処理部51A、第1音声信号処理部52A、第1通信部53A、第1制御部54Aを有する。
第1画像信号処理部51Aは、例えばDSP(Digital Signal Processor)やVDP(Video Display Processor)等により画像処理プロセッサとして構成され、第1制御部54Aからの制御により、第1撮像部1Aからのアナログ信号としての第1撮像画像信号にA/D(Analog/Digital)変換処理等の各種の信号処理を実行する。また第1画像信号処理部51Aは、デジタル信号としての第1撮像画像信号に対して輝度信号処理、色処理、解像度変換処理、コーデック処理などの各種の信号処理を施す。
第1音声信号処理部52Aは、例えばDSPにより音声処理プロセッサとして構成され、第1制御部54Aからの制御により、第1音声入力ユニット2Aからのアナログ信号としての第1音声信号にA/D(Analog/Digital)変換処理等の各種の信号処理を実行する。また第1音声信号処理部52Aは、デジタル信号としての第1音声信号に対して各種の信号処理を施す。例えば第1音声信号処理部52Aは、第1音声信号に対してビームフォーミング処理、ノイズリダクション処理、増幅処理や減衰処理、音質処理、コーデック処理等を行う。
ここでビームフォーミング処理とは、音源から各第1マイクロフォン21Aへの音波伝搬がそれぞれ異なることに基づいて収音方向の指向性を制御する処理のことである。
第1通信部53Aは、第1制御部54Aからの制御により、第2空間SB側の第2演算処理部5BとネットワークNWを介した無線通信によるデータ通信を実行する。
第1通信部53Aは、第1空間SAを撮像した第1撮像画像信号と第1空間SAで収音した第1音声信号とを第1空間SAと離隔した第2空間SB側の第2演算処理部5Bに送信する。また第1通信部53Aは、第2空間SBを撮像した第2撮像画像信号と第2空間SBで収音した第2音声信号とを第2空間SB側の第2演算処理部5Bから受信する。
第1制御部54Aは、例えばGPU(Graphics Processing Unit)やCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータで構成される。
第1制御部54Aは、第1撮像部1A、第1音声入力ユニット2A、第1表示ユニット3A、第1音声出力ユニット4A、第1画像信号処理部51A、第1音声信号処理部52A、第1通信部53Aの制御を実行する。
また第1制御部54Aは、第1撮像部1Aから受信した第1撮像画像信号について画像解析処理や、第1音声入力ユニット2Aから受信した第1音声信号について音声解析処理を実行する。そして画像解析処理及び音声解析処理の結果に基づいて第1空間SAの状況を判定する。
ここで空間の状況とは、例えば騒音や静寂といった空間内の環境音の状況や、ユーザの存否、人数、位置、仕草、向きといった空間内のユーザの状況、空間内の明るさ、温度、天候の状況、室内、屋外といった空間が設けられている状況などのことである。
なお、第1空間SAの状況を判定するにあたっては、画像解析処理と音声解析処理の両方の解析結果を用いてもよいし、何れか一方の解析結果のみ用いてもよい。また何れか一方の解析結果を用いる場合、他方の解析処理を実行しないこととしてもよい。
第1制御部54Aは、第1空間SAの状況の判定結果に基づいて、第1音声信号処理部52Aが実行する第1音声信号の音声処理に関するパラメータを制御する。ここで音声処理に関するパラメータとは、例えば各第1マイクロフォン21Aの指向性制御に関するパラメータ、ノイズリダクション処理に関するパラメータ、増幅処理や減衰処理に関するパラメータ、周波数特性やボイスチェンジといった音質処理に関するパラメータ、コーデック処理に関するパラメータなどのことである。
第1音声入力ユニット2Aは、第1制御部54Aから取得した音声処理に関するパラメータに基づいて、ビームフォーミング処理、ノイズリダクション処理、増幅処理や減衰処理、音質処理、コーデック処理等を実行する。
第2撮像部1B、第2音声入力ユニット2B、第2表示ユニット3B、第2音声出力ユニット4B、及び第2演算処理部5Bの各構成は、上述した第1空間SA側の各構成の説明における、第1空間SAと第2空間SB、第1撮像画像信号と第2撮像画像信号、第1音声信号と第2音声信号、第1撮像部1Aと第2撮像部1B、第1音声入力ユニット2Aと第2音声入力ユニット2B、第1表示ユニット3Aと第2表示ユニット3B、第1音声出力ユニット4Aと第2音声出力ユニット4B、第1演算処理部5Aと第2演算処理部5B、第1マイクロフォン21Aと第2マイクロフォン21B、第1プロジェクタ31Aと第2プロジェクタ31B、第1スクリーン32Aと第2スクリーン32B、第1スピーカ41Aと第2スピーカ41B、第1画像信号処理部51Aと第2画像信号処理部51B、第1音声信号処理部52Aと第2音声信号処理部52B、第1通信部53Aと第2通信部53B、第1制御部54Aと第2制御部54B、を互いに読み替えることで説明される。そのため、第2空間SB側の構成の説明を省略する。また、以降の説明において第1空間SA側と同様であることから第2空間SB側の構成や処理を省略する際には、上記のように読み替えるものとする。
以上の構成に基づいて本発明の実施の形態が実現される。
<2.仮想的空間接続装置の実装例>
本発明の実施の形態における仮想的空間接続装置の実装例について、図2を参照して説明する。図2は、第1空間SA側から見て第2空間SBが仮想的に接続された状態の一例を示している。ここでは、第1空間SAと第2空間SBが互いに異なる建物の一室である例について説明する。
第1空間SA側には、第1撮像部1A、3つの第1マイクロフォン21A、第1演算処理部5Aが内蔵された第1プロジェクタ31A、第1スクリーン32A、2つの第1スピーカ41Aが配置される。
第1演算処理部5Aは、第1撮像部1A、第1マイクロフォン21A、第1プロジェクタ31A、第1スピーカ41Aのそれぞれと有線又は無線により接続されている。
第1スクリーン32Aは、例えば第1空間SAの壁面に床面から天井にかけて設けられており、第1プロジェクタ31Aは、例えば第1スクリーン32Aの側方に設けられている。ここで第1プロジェクタ31Aは、ユーザU1から見て第1スクリーン32Aの右側方に設けられている。また第1プロジェクタ31Aは、第1スクリーン32Aの高さ方向における中央付近の高さに設けられている。
第1プロジェクタ31Aが、第2空間SB側での第2撮像画像信号に基づく画像投影を、第1スクリーン32Aの側方から第1スクリーン32Aに向けて行うことで、第1スクリーン32Aに第2空間SBの撮像画像が表示され、第2空間SBにいるユーザU2や第2空間SBの様子が第1空間SA側に表示される。これにより、第1空間にいるユーザU1は、第2空間SB側の状況を視覚的にリアルタイムに認識することができる。
第1スクリーン32Aの左右側方にはそれぞれ第1スピーカ41Aが配置されている。ここではユーザU1から見て前方の第1スクリーン32Aの左右側方に第1スピーカ41Aが配置されている。
第1スピーカ41Aにより、第2空間SB側での第2音声信号に基づく音声が出力され、第2空間SBにいるユーザU2の声や第2空間SBの環境音などが第1空間SA側に出力される。これにより、第1空間SAにいるユーザU1は、第2空間SB側の状況を聴覚によりリアルタイムに認識することができる。
このように、第1スクリーン32A及び第1スピーカ41Aにより、第1空間SAにいるユーザU1が、視覚及び聴覚によりリアルタイムに第2空間SB側の状況を認識可能とすることで、ユーザU1は第2空間SBがまるで隣の部屋として存在するかのような感覚を得ることができる。
第1スクリーン32Aの裏側には第1撮像部1Aが配置されている。第1撮像部1Aは例えば撮像レンズの幅が2mm程の小型デジタルカメラである。第1スクリーン32Aには、第1空間SAのユーザU1の首の辺りの高さ(例えば床面から145cm程の高さ)であって、第1スクリーン32Aの幅方向の中央部に極小の孔が設けられており、当該孔に小型デジタルカメラの撮像レンズが収まるように当該小型デジタルカメラが配置される。
第1撮像部1Aにより第1スクリーン32A側から第1空間SAを撮像することで、第2空間SB側から第1空間SAを見たような撮像を実現することができる。またユーザU1の首の辺りの高さに第1撮像部1Aを設けることで、第2空間SB側のユーザU2と会話をしようとしている第1空間SA側のユーザU1を略正面から撮像することができる。これにより、第1空間SA側のユーザU1の目線が第2空間SB側のユーザU2に向いているような撮像が可能となる。
第1撮像部1Aで撮像された第1撮像画像信号は第1演算処理装置5Aで所定の処理が施された後、第2空間SB側の第2演算処置装置5Bに送信される。
その後、第2空間SB側の図示しない第2プロジェクタ31Bが、第1空間SA側の第1撮像画像信号に基づく画像投影を、図示しない第2スクリーン32Bに行うことで、第1空間SBの撮像画像が表示される。このとき、リアルタイムな通信や相手がすぐそこにいる感じを強調するために、第1空間SA側の画像が等身大に表示される。
これにより、第2空間SB側のユーザU2も第2空間SBにいながら第1空間SA側の状況を視覚により認識することができる。
第1空間SAには、3つの第1マイクロフォン21Aが、例えば第1空間SAの天井に互いに離間して配置されている。
第1マイクロフォン21Aで収音された第1音声信号は第1演算処理装置5Aで所定の処理が施された後、第2空間SB側の第2演算処置装置5Bに送信され、第2空間SB側に配置された図示しない第2スピーカ41Bにより、第1空間SA側の第1音声信号に基づく音声が出力される。これにより、第2空間SB側のユーザU2も第2空間SBにいながら第1空間SA側の状況を聴覚により認識することができる。
以上のように、本発明の実施の形態における仮想的空間接続装置100においては、一方の空間で入力された撮像画像信号及び音声信号を他方の空間側で出力する処理を互いに連続して実行することで、第1空間SAと第2空間SBを仮想的に常時接続する。
これにより、ユーザU1とユーザU2が互いの空間がまるで隣の部屋として存在するかのような感覚を得ることができる。また第1空間SA側のユーザU1と第2空間SB側のユーザU2とが互いの空間を認識したうえで、違和感のない会話、動作などによる意思疎通を行うことが可能となる。
なお、ここでの常時接続とは、ユーザの有無に関わらず撮像画像及び音声信号の相互通信が常時行われている状態をいい、またユーザによりいつでも音声や画像による通話が実行できる状態で相手先と接続されていることをいう。
<3.第1の実施の形態>
第1の実施の形態を実現するための第1制御部54Aが実行する処理例について図3を参照して説明する。第1の実施の形態では、第1制御部54Aは、第1空間SAの状況をユーザU1の存否により判定し、当該判定結果に応じて音声処理に関するパラメータを制御する。
なお、以下に説明する各実施の形態における処理は、第2空間SB側の第2制御部54Bも同様に実行するため、第2制御部54Bの処理については説明を省略する。
まず第1制御部54AはステップS101において、第1撮像部1Aから受信した第1撮像画像信号、及び第1音声入力ユニット2Aから受信した第1音声信号を取得する。
そして第1制御部54AはステップS102において、第1撮像部1Aからの第1撮像画像信号に基づく画像解析処理を各フレーム単位で実行する。第1制御部54Aは、第1撮像画像信号に基づく画像解析処理により第1空間SA内におけるユーザU1の検出を行い、そのユーザU1の位置情報(画面上での座標値、被写体距離の情報等)、サイズ情報(例えばユーザU1の横幅、高さ、ピクセル数等)、属性情報(例えば性別、年齢等)などを取得する。
画像解析処理としては、パターンマッチングの手法でユーザU1の画像を抽出してもよいし、例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体からユーザU1を検出することなども考えられる。ユーザU1の検出の手法は以上に限定されず、多様に考えられる。
また第1制御部54Aは、ステップS103において、第1音声入力ユニット2Aから受信した第1音声信号に基づく音声解析処理を実行する。第1制御部54Aは、当該音声解析処理を行うことでユーザU1の話し声、第1空間SA内の環境音などの音声種別情報を取得する。
このとき第1制御部54Aは、第1音声入力ユニット2Aにおける各第1マイクロフォン21Aへの音源からの音波伝搬がそれぞれ異なることに基づき、ユーザU1の位置情報(音源の第1空間SAにおける座標値、音源までの距離情報等)を取得することができる。
第1制御部54Aは、ステップS104において、画像解析処理及び音声解析処理により取得した各種情報に基づいて第1空間SAの状況を判定する。第1の実施の形態では第1空間SAの状況判定の一例として、第1空間SAにおいてユーザU1を検出したか否かを判定する。
なお、第1制御部54Aは、画像解析処理及び音声解析処理の何れか一方の処理により取得した情報に基づいて第1空間SAの状況を判定することとしてもよい。この場合、第1制御部54Aは、ステップS102又はS103の何れかの処理を行うことなくステップS104に処理を進めることになる。
ステップS104で第1空間SAにおけるユーザU1を検出した場合、第1制御部54Aは現在のモードを検知モードと判定し、ステップS105に処理を進める。
第1制御部54Aは、ステップS105において、画像解析処理及び音声解析処理により取得した位置情報に基づいてユーザU1の位置を判定する。
そして第1制御部54AはステップS106に処理を進め、指向性制御処理を実行する。第1制御部54Aは指向性制御処理として、第1音声信号の音声処理に関するパラメータとして、収音する第1音声信号の指向性に関するパラメータを制御する。ここで第1制御部54Aは、例えばビームフォーミング処理のパラメータを設定する。
第1制御部54Aは、判定したユーザU1の位置に収音の位置を合わせた指向性をもって第1音声信号を収音できるパラメータ制御を行い、当該制御信号を第1音声信号処理部52Aに送信する。
これにより第1音声信号処理部52Aではビームフォーミング処理により、ユーザU1から発せられる声を主に収音した聞き取りやすい音声信号を得ることが可能となる。
続いて第1制御部54Aは、ステップS107において、第1音声信号処理部52Aに対して検知モードに基づく音声信号処理制御を実行する。第1制御部54Aは、音声信号処理制御として例えばノイズリダクション処理に関するパラメータ、第1音声信号の増幅処理や減衰処理に関するパラメータなどの様々なパラメータ制御を実行する。
例えば第1制御部54Aは、ノイズリダクション処理に関するパラメータ制御として、ユーザU1の発する声の周波数に基づいて、ユーザU1の声が強調されるようなローパスフィルタ及びハイパスフィルタ、ハンドパスフィルタなどのフィルタ処理を実行させるためのパラメータ制御を行う。
またユーザU1の性別による声の周波数帯域の違いに着目し、第1制御部54Aは、画像解析処理により取得したユーザU1の性別情報に基づいて、当該性別で想定される声の周波数帯域を強調したフィルタ処理を実行させるためのパラメータ制御を行うことも考えられる。
さらに第1制御部54Aは、音声解析処理に基づいて第1空間SA内の環境音の音声種別情報を取得し、当該音声種別情報に基づいてフィルタ処理を実行させるためのパラメータ制御を行うことも考えられる。例えば第1制御部54Aは、第1空間SA内の環境音における騒音と判定される周波数帯域についてフィルタ処理を実行させるためのパラメータ制御を行う。
また例えば第1制御部54Aは、第1音声信号の増幅処理や減衰処理に関するパラメータ制御として、第1空間SAにユーザU1がいる場合はコミュニケーションを行う際に臨場感が伝わるように、第1音声信号の増幅処理を実行させるためのパラメータ制御を行う。
第1制御部54Aは、上記のような各種パラメータに基づく音声信号処理を第1音声信号処理部52Aに実行させる。その後、第1制御部54AはステップS107の処理を終えるとステップS110に処理を進める。
一方、ステップS104で第1空間SAにおいてユーザU1を検出しなかった場合、第1制御部54Aは現在のモードを非検知モードと判定し、ステップS108に処理を進める。
第1制御部54Aは、ステップS108において無指向性制御処理を実行する。第1制御部54Aは無指向性制御として、第1音声信号の指向性に関するパラメータをリセットし、第1音声信号の指向性が無指向性となるような制御信号を第1音声信号処理部52Aに送信する。これにより第1音声信号処理部52Aでは、収音方向の指向性を加味しない音声信号処理が可能となる。
続いて第1制御部54Aは、ステップS109において、非検知モードに基づく音声信号処理制御を実行する。
第1制御部54Aは、音声信号処理制御として例えばノイズリダクション処理に関するパラメータ、第1音声信号の増幅処理や減衰処理に関するパラメータなどの様々なパラメータ制御を実行する。
例えば第1制御部54Aは、ノイズリダクション処理に関するパラメータ制御として、全周波数帯域についてフィルタ処理を実行させるためのパラメータ制御を行う。これにより、第1音声信号処理部52Aにより当該パラメータに基づく音声処理が行われることで、第1空間SAにユーザU1がいない場合において、第2空間SB側における第1空間SA側の環境音を遮断することができる。
また例えば第1制御部54Aは、第1音声信号の増幅処理や減衰処理に関するパラメータ制御として、第1空間SAにユーザU1がいない場合は、第1音声信号の減衰処理を実行させるためのパラメータ制御を行う。これにより、第1空間SAにユーザU1がいない場合は、第2空間SB側における第1空間SA側の環境音を小さくすることができる。
第1制御部54Aは、上記のような各種パラメータに基づく音声信号処理を第1音声信号処理部52Aに実行させる。その後、第1制御部54AはステップS109の処理を終えるとステップS110に処理を進める。
第1制御部54Aは、ステップS110において、第1音声信号処理部52Aで信号処理がされた第1音声信号、及び第1画像信号処理部51Aで信号処理がされた第1撮像画像信号について、第2空間SB側の第2演算処理部5Bに送信するための送信用データを生成する。そして第1制御部54Aは、ステップS111において、生成した送信用データを第2演算処理部5Bに送信する。
第2演算処理部5Bは、受信した送信用データに基づいて、第1撮像画像信号に基づく撮像画像を第2表示ユニット3Bにより表示させ、第1音声信号に基づく音声を第2音声出力ユニット4Bにより出力される。これにより、第1空間SA側の画像及び音声が第2空間SB側に出力される。
第1制御部54Aは、ステップS111の処理を終えるとステップS101に処理を戻し、以降同様の処理を繰り返し実行する。これにより、第1空間SA側の画像及び音声が常に第2空間SB側に出力されることになり、第1空間SAが第2空間SBと仮想的に接続された状態となる。
以上により、第1の実施の形態における第1制御部54Aの処理が実現される。
<4.第2の実施の形態>
第2の実施の形態を実現するための第1制御部54Aが実行する処理例について図4を参照して説明する。第2の実施の形態では、第1制御部54Aは、第1空間SAの状況をユーザU1の顔の向きにより判定し、当該判定結果に応じて音声処理に関するパラメータを制御する。
第1制御部54Aは、ステップS101において第1撮像画像信号及び第1音声信号を取得し、ステップS102において第1撮像画像信号に基づく画像解析処理を、ステップS103において第1音声信号に基づく音声解析処理を実行する。
ここで第1制御部54Aは、画像解析処理によりユーザU1の位置情報、サイズ情報、属性情報などに加えて、ユーザU1の人数情報や、顔の向き等のユーザU1の姿勢に関する情報を取得する。
第1制御部54Aは、ステップS104において、画像解析処理及び音声解析処理により取得した各種情報に基づいて第1空間SAにおいてユーザU1を検出したか否か、及び検出したのであればその人数を判定する。
まず第1空間SAにいるユーザU1が1人であると判定した場合、第1制御部54Aは現在のモードを検知モードと判定し、ステップS104からステップS112,S105の順に処理を進める。
そして第1制御部54Aは、ステップS105においてユーザU1の位置判定を行い、ステップS106において、ユーザU1の位置に収音の位置を合わせた指向性をもって指向性制御処理を実行する。また第1制御部54Aは、ステップS107において、検知モードに基づく音声信号処理制御を実行する。
次に第1空間SAにユーザU1が複数人いると判定した場合、第1制御部54Aは現在のモードを検知モードと判定し、ステップS104からステップS112,S113の順に処理を進める。
第1制御部54Aは、ステップS113において、画像解析処理で取得したユーザU1の姿勢に関する情報から、顔が正面を向いている(第1スクリーン32Aと対向している)ユーザU1がいるか否かを判定する。
顔が正面を向いているユーザU1がいると判定した場合、第1制御部54Aは、顔が正面を向いているユーザU1が第2空間SB側のユーザU2と会話をしようとしていると推定する。
そこで第1制御部54AはステップS113からステップS105に処理を進め、顔が正面を向いているユーザU1の位置判定を行い、ステップS106において、顔が正面を向いているユーザU1の位置に収音の位置を合わせた指向性をもってパラメータを制御する指向性制御を実行する。また第1制御部54Aは、ステップS107において、検知モードに基づく音声信号処理制御を実行する。その後、第1制御部54AはステップS107からステップS110に処理を進める。
一方、ステップS113において顔が正面を向いているユーザU1がいないと判定した場合、第1制御部54Aは、第1空間SAにおいて現在第2空間SB側のユーザU2と会話しようとしているユーザU1がいないものと推定する。そこで第1制御部54Aは、ステップS108で無指向性制御処理を実行し、ステップS109において非検知モードに基づく音声信号処理制御を実行する。その後、第1制御部54AはステップS109からステップS110に処理を進める。
なお、ステップS104で第1空間SAにおいてユーザU1を検出しなかった場合、第1制御部54Aは現在のモードを非検知モードと判定し、ステップS108で無指向性制御処理を実行し、ステップS109において非検知モードに基づく音声信号処理制御を実行する。その後、第1制御部54AはステップS109からステップS110に処理を進める。
上述の処理を実行した後、第1制御部54Aは、ステップS110において、第1音声信号及び第1撮像画像信号について、第2空間SB側の第2演算処理部5Bに送信するための送信用データを生成する。そして第1制御部54Aは、ステップS111において、生成した送信用データを第2演算処理部5Bに送信する。
第1制御部54Aは、ステップS111の処理を終えるとステップS101に処理を戻し、以降同様の処理を繰り返し実行する。
以上により、第2の実施の形態における第1制御部54Aの処理が実現される。
<5.第3の実施の形態>
第3の実施の形態を実現するための第1制御部54Aが実行する処理例について図5を参照して説明する。第3の実施の形態では、第1制御部54Aは、第1空間SAの状況を第1空間SAの輝度に基づいて判定し、当該判定結果に応じて音声処理に関するパラメータを制御する。
第1制御部54Aは、ステップS101において第1撮像画像信号及び第1音声信号を取得し、ステップS102において第1撮像画像信号に基づく画像解析処理を、ステップS103において第1音声信号に基づく音声解析処理を実行する。
ここで第1制御部54Aは、画像解析処理によりユーザU1の位置情報、サイズ情報、属性情報などに加えて、第1空間SAの輝度情報を取得する。
そして第1制御部54Aは、ステップS114において、第1空間SAが暗室状態であるか否かを判定する。例えば第1制御部54Aは、画像解析処理により取得した第1空間SAの輝度の値と所定の閾値との比較に基づいて暗室状態であるか否かを判定する。
第1空間SAが暗室状態である場合、第1制御部54Aは現在のモードが暗室モードであると判定し、ステップS115に処理を進める。
第1制御部54Aは、ステップS115において無指向性制御処理を実行し、ステップS116において暗室モードに基づく音声信号処理を実行する。
例えば第1制御部54Aは、ノイズリダクション処理に関するパラメータ制御として、全周波数帯域についてフィルタ処理を実行させるためのパラメータ制御を行う。これにより、第1音声信号処理部52Aにより当該パラメータに基づく音声処理が行われることで、第1空間SAが暗室状態である場合において、第2空間SB側における第1空間SA側の環境音を遮断することができる。
また例えば第1制御部54Aは、第1音声信号の増幅処理や減衰処理に関するパラメータ制御として、第1空間SAが暗室状態である場合は、第1音声信号の減衰処理を実行させるためのパラメータ制御を行う。これにより、第1空間SAが暗室状態である場合は、第2空間SB側における第1空間SA側の環境音を小さくすることができる。
第1制御部54Aは、ステップS110において、第1音声信号処理部52Aで信号処理がされた第1音声信号、及び第1画像信号処理部51Aで信号処理がされた第1撮像画像信号について、第2空間SB側の第2演算処理部5Bに送信するための送信用データを生成する。そして第1制御部54Aは、ステップS111において、生成した送信用データを第2演算処理部5Bに送信する。
第2演算処理部5Bは、受信した送信用データに基づいて、第1撮像画像信号に基づく撮像画像を第2表示ユニット3Bにより表示させ、第1音声信号に基づく音声を第2音声出力ユニット4Bにより出力される。これにより、第1空間SA側の画像及び音声が第2空間SB側に出力される。
第1制御部54Aは、ステップS111の処理を終えるとステップS101に処理を戻し、以降同様の処理を繰り返し実行する。なお、第1制御部54AによるステップS104以降の処理は、第1の実施の形態で説明した処理と同様であるため、説明を省略する。
以上により、第3の実施の形態における第1制御部54Aの処理が実現される。
<6.まとめ及び変型例>
以上の実施の形態の仮想的空間接続装置100は、第1空間SAを撮像した第1撮像画像信号と第1空間SAで収音した第1音声信号とを第1空間SAと離隔した第2空間SB側に送信する処理と、第2空間SBを撮像した第2撮像画像信号と第2空間SBで収音した第2音声信号とを受信し、第2撮像画像信号に基づく表示及び第2音声信号に基づく音声出力を実行させる第1演算処理部5Aと、第2撮像画像信号と第2音声信号とを第2空間SBと離隔した第1空間SA側に送信する処理と、第1撮像画像信号と第1音声信号とを受信し、第1撮像画像信号に基づく表示及び第1音声信号に基づく音声出力を実行させる第2演算処理部5Bと、第1演算処理部5Aからの制御信号により第1空間SA内で第2撮像画像信号に基づく表示を実行することで第1空間SAに第2空間SBを仮想的に接続する第1表示ユニット3Aと、第2演算処理部5Bからの制御信号により第2空間SB内で第1撮像画像信号に基づく表示を実行することで第2空間SBに第1空間SAを仮想的に接続する第2表示ユニット3Bと、を備え、第1演算処理部5Aは、第1空間SAの状況に応じて第1音声信号の音声処理に関するパラメータを制御し、第2演算処理部5Bは、第2空間SBの状況に応じて第2音声信号の音声処理に関するパラメータを制御する(図1及び図3等参照)。
これにより、第1空間SAと第2空間SBの何れにおいても他方の空間の画像が表示され、かつ音声が出力されることで、第1空間SAと第2空間SBが仮想的に接続され、第1音声入力ユニット2Aから第2空間SAの状況を反映した音声が出力され、第2音声入力ユニット3Bから第1空間SAの状況を反映した音声が出力される。
従って、互いに離隔する空間を仮想的に接続することにより、例えば自宅の一室と勤務先のオフィスといった互いに離れた場所にいるユーザが互いの空間を擬似的に共有することができ、互いに意思疎通を図ることができる。
また、一方の空間の状況に応じて他方への音声出力を調整することで、隣接する空間にいる互いのユーザが違和感のない臨場感のある円滑な意思疎通を実現できる。
実施の形態の仮想的空間接続装置100では、第1プロジェクタ31Aが、第1演算処理部5Aから受信した第2空間SB側の第2撮像画像信号に基づく画像出力を、第1スクリーン32Aの側方から第1スクリーン32Aに向けて行う(図1及び図2等参照)。
このように、第1スクリーン32Aを用いて第2空間SBを表示することで、第1空間SA内に第2空間SBの表示領域を、液晶パネル等を用いるときよりも容易に設置することができる。
また第1プロジェクタ31Aにより、第1スクリーン32Aの側方から撮像画像の投影を行うことで、第1プロジェクタ31Aからの光がユーザU1などにあたることで生じる影が第1スクリーン32Aにかかることにより、映像の臨場感が損なわれることを防止することができる。また、第1プロジェクタ31Aを第1スクリーン32Aの側方に設置することで、床から天井までを占める投影が可能となる。これは第2空間SB側においても同様である。
実施の形態の仮想的空間接続装置100において、第1演算処理部5Aは、第1音声信号の音声処理に関するパラメータとして第1音声信号を収音する第1マイクロフォン21Aの指向性に関するパラメータを制御し、第2演算処理部5Bは、第2音声信号の音声処理に関するパラメータとして第2音声信号を収音する第2マイクロフォン21Bの指向性に関するパラメータを制御する(図3のS106,S108等参照)。
これにより、第1空間SAの状況に応じて第1空間SAにおける収音の指向性が制御された第1音声入力ユニット2Aに入力された第1音声信号が第1空間SAと離隔した第2空間SB側に送信され、第2空間SBの第2音声出力ユニット2Bにより出力される。また第2空間SBの状況に応じて第2空間SBにおける収音の指向性が制御された第2音声入力ユニット2Bに入力された第2音声信号が第2空間SBと離隔した第1空間SA側に送信され、第1空間SAの第1音声出力ユニット2Aにより出力される。
従って、空間の状況に応じて収音方向の指向性を制御することで、例えばユーザの話し声といった特定の音声を強調して他の空間側に出力したり、他の方向からの騒音等を減衰して他の空間に出力することができる。よって、互いの空間にいるユーザ同士が円滑な意思疎通を行うことができる。
実施の形態の仮想的空間接続装置100において、第1演算処理部5Aは、第1音声信号の音声処理に関するパラメータとして第1音声信号のノイズリダクション処理に関するパラメータを制御し、第2演算処理部5Bは、第2音声信号の音声処理に関するパラメータとして第2音声信号をノイズリダクション処理に関するパラメータを制御する(図3のS107,S109等参照)。
これにより、第1空間SAの状況に応じたノイズリダクション処理が行われた第1音声信号が第1空間SAと離隔した第2空間SB側に送信され、第2空間SBの第2音声出力ユニット4Bにより出力される。また第2空間SBの状況に応じたノイズリダクション処理が行われた第2音声信号が第2空間SBと離隔した第1空間SA側に送信され、第1空間SAの第1音声出力ユニット4Aにより出力される。
従って、空間の状況に応じて特定の周波数についてフィルタリングを行うといった処理が可能となり、ユーザの話し声の周波数帯域以外をフィルタリングすることでユーザの声を強調したり、騒音に該当する周波数帯域をフィルタリングすることで騒音を目立たせなくすることができる。これによってもユーザ同士の円滑な意思疎通が図られる。
実施の形態の仮想的空間接続装置100において、第1演算処理部5Aは、第1撮像画像信号の解析処理結果に基づいて第1空間SA内の状況を判定し、第2演算処理部5Bは、第2撮像画像信号の解析処理結果に基づいて第2空間SB内の状況を判定する(図3のS102,S104等参照)。
これにより、例えば第1空間SA内のユーザU1を検出した場合は、ユーザU1の発した声が第2空間SB側に伝わるように第1空間SA内で収音する第1音声信号の音声処理に関するパラメータを制御することが可能となる。
撮像画像信号の解析処理結果に基づいて空間内の状況を判定することで、例えば空間内にいるユーザ等を高精度で認識することができる。
第3の実施の形態の仮想的空間接続装置100において、第1演算処理部5Aは、第1空間SA内の状況として第1空間SA内の輝度を判定し、第2演算処理部5Bは、第2空間SB内の状況として第2空間SB内の輝度を判定する(図5のS114からS116等参照)。
これにより、例えば空間内の輝度が低い場合にユーザが当該空間に意思疎通を行おうとしているユーザがいないことが推定できる。
このような場合、例えば輝度が低い場合に音声信号を減衰させて、第2空間SB側に出力される第1空間SA側の音声を小さくするといった出力音声の調整をすることができる。
<7.変型例>
本実施の形態では、第1空間SAにいるユーザU1と第2空間SBにいるユーザU2とが意思疎通を行う例について説明したが、仮想的空間接続装置100により仮想的に接続された第1空間SA及び第2空間SBには、必ずしも他方の空間にいるユーザと意思疎通をしようとするユーザがいる必要はなく、単に一方の空間が他方の空間の撮像画像及び音声を共有できるように用いられてもよい。
本実施の形態では一例として、第1空間SAと第2空間SBを屋内として説明したが、第1空間SAと第2空間SBは、仮想的空間接続装置の各構成が配置可能な環境であれば屋内に限られず、屋外であってもよい。即ち、屋内と屋外や、屋外と屋外の空間を仮想的に接続することも可能である。
本実施の形態では、第1撮像部1Aは第1スクリーン32Aの略中心部に1つ設けられているが、第1撮像部1Aは周囲の空間座標を把握するために複数の撮像装置から構成されていてもよい。これは第2撮像部1Bにおいても同様である。
本実施の形態では、第1音声入力ユニット2Aを3つのマイクロフォンで構成される例について説明したが、第1音声入力ユニット2Aは2つ又は4以上のマイクロフォンから構成されていてもよい。マイクロフォンの数を増やすことで、空間的な自由度が高まり、鋭い指向性を得ることができる。これは第2音声入力ユニット2Bにおいても同様である。
本実施の形態では、第1演算処理部5Aからの第1空間SAの状況に応じた制御信号により、第1音声入力ユニット2Aが各マイクロフォンの指向性制御、ノイズリダクション処理、ファイル化処理、増幅処理、音質処理などの処理を実行する例について説明したが、ノイズリダクション処理、ファイル化処理、増幅処理、音質処理などについては、第1演算処理部5Aにおいて実行することとしてもよい。
この場合、第1演算処理部5Aは、第1音声入力ユニット2Aから受信した第1音声信号について、第1空間SAの状況に応じたノイズリダクション処理、ファイル化処理、増幅処理、音質処理などの処理を実行する。これは第2空間SB側においても同様である。
本実施の形態では、第1演算処理部5Aと第2演算処理部5BはネットワークNWを介した無線通信によりデータ通信が実行されるとしたが(図1参照)、通信方式は無線通信に限られず、有線通信によりデータ通信を実行するものとしてもよい。
また本実施の形態では、第1演算処理部5Aの第1画像信号処理部51Aが、第1撮像部1Aからのアナログ信号としての第1撮像画像信号にA/D変換処理等の各種の信号処理を実行する例について説明したが、当該各種の信号処理は、第1撮像部1A側で実行することとしてもよい。同様に、第2演算処理部5Bの第2画像信号処理部51Bについても当該各種の信号処理を第2撮像部1B側で実行することとしてもよい。
本実施の形態では、第1空間SA側の第1表示ユニット3Aが第1プロジェクタ31Aと第1スクリーン32Aにより構成される例について説明したが、第1表示ユニット3Aは、撮像制御装置と表示部から構成されていてもよい。ここで表示部は、例えば液晶パネル(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスによる表示パネルである。この場合、撮像制御装置と表示部は有線又は無線により接続され、撮像制御装置からの出力に応じて、表示部に第2空間SB側の撮像画像が表示される。これは第2空間SB側の第2表示ユニット3Bについても同様である。
本実施の形態では、第1空間側の第1制御部54Aが、第1撮像部1Aから受信した第1撮像画像信号について画像解析処理や、第1音声入力ユニット2Aから受信した第1音声信号について音声解析処理を実行し、第1空間側の第1制御部54Aが画像解析処理及び音声解析処理の結果に基づいて第1空間SAの状況を判定することとしたが、第2空間SB側の第2制御部54Bが、第1撮像部1Aから受信した第1撮像画像信号について画像解析処理や、第1音声入力ユニット2Aから受信した第1音声信号について音声解析処理を実行し、第1空間側の第1制御部54Aが画像解析処理及び音声解析処理の結果に基づいて第1空間SAの状況を判定することとしてもよい。
この場合、第2空間SB側の第2制御部54Bにより、第1空間SAの状況の判定結果に基づいて、第1音声信号処理部52Aが実行する第1音声信号の音声処理に関するパラメータが設定され、第1空間SA側の第1制御部54Aは、当該第2制御部54Bから受信した第1音声信号の音声処理に関するパラメータに基づいて第1音声入力ユニット2Aに各種処理を実行させる。
これは本実施の形態における第2空間SB側の第2制御部54Bについても同様に適用できる。
最後に、本開示に記載された効果はあくまでも例示であり限定されるものではなく、他の効果を奏するものであってもよいし、本開示に記載された効果の一部を奏するものであってもよい。
また本開示に記載された実施の形態はあくまでも例示であり、本発明が上述の実施の形態に限定されることはない。従って、上述した実施の形態以外であっても本発明の技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能なことはもちろんである。また実施の形態で説明されている構成の組み合わせの全てが課題の解決に必須であるとは限らない。
100 仮想的空間接続装置
1A 第1撮像部
1B 第2撮像部
2A 第1音声入力ユニット
2B 第2音声入力ユニット
3A 第1表示ユニット
3B 第2表示ユニット
5A 第1演算処理部
5B 第2演算処理部
SA 第1空間
SB 第2空間

Claims (7)

  1. 第1空間を撮像した第1撮像画像信号と前記第1空間で収音した第1音声信号とを前記第1空間と離隔した第2空間側に送信する処理と、前記第2空間を撮像した第2撮像画像信号と前記第2空間で収音した第2音声信号とを受信し、前記第2撮像画像信号に基づく表示及び前記第2音声信号に基づく音声出力を実行させる第1演算処理部と、
    前記第2撮像画像信号と前記第2音声信号とを前記第2空間と離隔した前記第1空間側に送信する処理と、前記第1撮像画像信号と前記第1音声信号とを受信し、前記第1撮像画像信号に基づく表示及び前記第1音声信号に基づく音声出力を実行させる第2演算処理部と、
    前記第1演算処理部からの制御信号により前記第1空間内で前記第2撮像画像信号に基づく表示を実行することで前記第1空間に前記第2空間を仮想的に接続する第1表示ユニットと、
    前記第2演算処理部からの制御信号により前記第2空間内で前記第1撮像画像信号に基づく表示を実行することで前記第2空間に前記第1空間を仮想的に接続する第2表示ユニットと、を備え、
    前記第1空間の状況に応じて前記第1音声信号の音声処理に関するパラメータを制御し、前記第2空間の状況に応じて前記第2音声信号の音声処理に関するパラメータを制御する
    仮想的空間接続装置。
  2. 前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号を収音するマイクロフォンの指向性に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号を収音するマイクロフォンの指向性に関するパラメータを制御する
    請求項1に記載の仮想的空間接続装置。
  3. 前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号のノイズリダクション処理に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号をノイズリダクション処理に関するパラメータを制御する
    請求項1又は請求項2に記載の仮想的空間接続装置。
  4. 前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号の減衰処理に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号の減衰処理に関するパラメータを制御する
    請求項1から請求項3の何れかに記載の仮想的空間接続装置。
  5. 前記第1音声信号の音声処理に関するパラメータとして前記第1音声信号の増幅処理に関するパラメータを制御し、前記第2音声信号の音声処理に関するパラメータとして前記第2音声信号の増幅処理に関するパラメータを制御する
    請求項1から請求項4の何れかに記載の仮想的空間接続装置。
  6. 前記第1撮像画像信号の解析処理結果に基づいて前記第1空間内の状況を判定し、前記第2撮像画像信号の解析処理結果に基づいて前記第2空間内の状況を判定する
    請求項1から請求項5の何れかに記載の仮想的空間接続装置。
  7. 前記第1空間内の状況として前記第1空間内の輝度を判定し、前記第2空間内の状況として前記第2空間内の輝度を判定する
    請求項1から請求項6の何れかに記載の仮想的空間接続装置。
JP2020081110A 2020-05-01 2020-05-01 仮想的空間接続装置、システム Active JP7387167B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020081110A JP7387167B2 (ja) 2020-05-01 2020-05-01 仮想的空間接続装置、システム
US17/997,305 US20230199380A1 (en) 2020-05-01 2021-03-22 Virtual space connection device
PCT/JP2021/011790 WO2021220665A1 (ja) 2020-05-01 2021-03-22 仮想的空間接続装置
EP21797043.3A EP4145822A4 (en) 2020-05-01 2021-03-22 VIRTUAL SPACE CONNECTION DEVICE
CN202180031125.9A CN115462064A (zh) 2020-05-01 2021-03-22 虚拟空间连接装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020081110A JP7387167B2 (ja) 2020-05-01 2020-05-01 仮想的空間接続装置、システム

Publications (3)

Publication Number Publication Date
JP2021176212A true JP2021176212A (ja) 2021-11-04
JP2021176212A5 JP2021176212A5 (ja) 2022-09-05
JP7387167B2 JP7387167B2 (ja) 2023-11-28

Family

ID=78300550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081110A Active JP7387167B2 (ja) 2020-05-01 2020-05-01 仮想的空間接続装置、システム

Country Status (5)

Country Link
US (1) US20230199380A1 (ja)
EP (1) EP4145822A4 (ja)
JP (1) JP7387167B2 (ja)
CN (1) CN115462064A (ja)
WO (1) WO2021220665A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983381B2 (en) 2022-03-18 2024-05-14 Seiko Epson Corporation Display method, display system, and non-transitory computer-readable storage medium storing program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056161A (ja) * 2002-05-28 2004-02-19 Matsushita Electric Works Ltd マルチメディア通信システム
JP2010529738A (ja) * 2007-05-31 2010-08-26 イーストマン コダック カンパニー 居宅用動画通信システム
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2012213013A (ja) * 2011-03-31 2012-11-01 Nippon Telegr & Teleph Corp <Ntt> Tv会議システム
JP2015159391A (ja) * 2014-02-24 2015-09-03 株式会社リコー 伝送端末、伝送システム、及びプログラム
WO2017073324A1 (ja) * 2015-10-26 2017-05-04 ソニー株式会社 信号処理装置、信号処理方法、並びにプログラム
JP2019125972A (ja) * 2018-01-18 2019-07-25 株式会社リコー 端末装置、情報処理方法、プログラム、通信システム
WO2020079957A1 (ja) * 2018-10-15 2020-04-23 ソニー株式会社 音声信号処理装置、雑音抑圧方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9094645B2 (en) * 2009-07-17 2015-07-28 Lg Electronics Inc. Method for processing sound source in terminal and terminal using the same
JP4945675B2 (ja) * 2010-11-12 2012-06-06 株式会社東芝 音響信号処理装置、テレビジョン装置及びプログラム
DE102011085361A1 (de) * 2011-10-28 2013-05-02 Sennheiser Electronic Gmbh & Co. Kg Mikrofoneinrichtung
CN106657485B (zh) * 2017-03-07 2020-05-12 Oppo广东移动通信有限公司 移动终端
JP7035613B2 (ja) 2018-02-23 2022-03-15 沖電気工業株式会社 コミュニケーション装置、コミュニケーション方法、コミュニケーションプログラム及びコミュニケーションシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056161A (ja) * 2002-05-28 2004-02-19 Matsushita Electric Works Ltd マルチメディア通信システム
JP2010529738A (ja) * 2007-05-31 2010-08-26 イーストマン コダック カンパニー 居宅用動画通信システム
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2012213013A (ja) * 2011-03-31 2012-11-01 Nippon Telegr & Teleph Corp <Ntt> Tv会議システム
JP2015159391A (ja) * 2014-02-24 2015-09-03 株式会社リコー 伝送端末、伝送システム、及びプログラム
WO2017073324A1 (ja) * 2015-10-26 2017-05-04 ソニー株式会社 信号処理装置、信号処理方法、並びにプログラム
JP2019125972A (ja) * 2018-01-18 2019-07-25 株式会社リコー 端末装置、情報処理方法、プログラム、通信システム
WO2020079957A1 (ja) * 2018-10-15 2020-04-23 ソニー株式会社 音声信号処理装置、雑音抑圧方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983381B2 (en) 2022-03-18 2024-05-14 Seiko Epson Corporation Display method, display system, and non-transitory computer-readable storage medium storing program

Also Published As

Publication number Publication date
WO2021220665A1 (ja) 2021-11-04
US20230199380A1 (en) 2023-06-22
EP4145822A1 (en) 2023-03-08
CN115462064A (zh) 2022-12-09
JP7387167B2 (ja) 2023-11-28
EP4145822A4 (en) 2023-10-25

Similar Documents

Publication Publication Date Title
DK2153693T3 (en) Hearing aid system which establishes a talk group among hearing aids used by different users
US20200077048A1 (en) Information Processing Apparatus, Information Processing Method, And Program
JP5857674B2 (ja) 画像処理装置、及び画像処理システム
JP5675729B2 (ja) オーディオエンハンス型装置
WO2021037129A1 (zh) 一种声音采集方法及装置
US10616681B2 (en) Suppressing ambient sounds
WO2018025458A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021220665A1 (ja) 仮想的空間接続装置
JP2009049734A (ja) カメラ付きマイクロフォン、カメラ付きマイクロフォンの制御プログラムおよびテレビ会議システム
JP2011087218A (ja) 拡声システム
JP4708960B2 (ja) 情報伝達システム及び音声可視化装置
JP5120020B2 (ja) 画像付音声通信システム、画像付音声通信方法およびプログラム
JP5151131B2 (ja) テレビ会議装置
CN114594892B (zh) 远程交互方法、远程交互设备以及计算机存储介质
WO2018198790A1 (ja) コミュニケーション装置、コミュニケーション方法、プログラム、およびテレプレゼンスシステム
WO2022009485A1 (ja) 仮想的空間接続装置
JP2006339869A (ja) 映像信号と音響信号の統合装置
JP6353700B2 (ja) 遠距離点間双方向コミュニケーションシステムおよび遠距離点間双方向コミュニケーション方法
JP2011055103A (ja) 集合住宅インターホンシステム
JP7390582B2 (ja) 通話システム、制御方法及びプログラム
JP2023086246A (ja) 通信システム及び通信方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231108

R150 Certificate of patent or registration of utility model

Ref document number: 7387167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150