JPWO2020031696A1 - 情報処理装置及び情報処理方法、並びに映像音声出力システム - Google Patents

情報処理装置及び情報処理方法、並びに映像音声出力システム Download PDF

Info

Publication number
JPWO2020031696A1
JPWO2020031696A1 JP2020536443A JP2020536443A JPWO2020031696A1 JP WO2020031696 A1 JPWO2020031696 A1 JP WO2020031696A1 JP 2020536443 A JP2020536443 A JP 2020536443A JP 2020536443 A JP2020536443 A JP 2020536443A JP WO2020031696 A1 JPWO2020031696 A1 JP WO2020031696A1
Authority
JP
Japan
Prior art keywords
image
sound
unit
screen
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020536443A
Other languages
English (en)
Other versions
JP7314944B2 (ja
Inventor
吉田 明
明 吉田
安達 浩
浩 安達
岡本 直樹
直樹 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority claimed from PCT/JP2019/028972 external-priority patent/WO2020031696A1/ja
Publication of JPWO2020031696A1 publication Critical patent/JPWO2020031696A1/ja
Application granted granted Critical
Publication of JP7314944B2 publication Critical patent/JP7314944B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2440/00Bending wave transducers covered by H04R, not provided for in its groups
    • H04R2440/05Aspects relating to the positioning and way or means of mounting of exciters to resonant bending wave panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • H04R7/04Plane diaphragms
    • H04R7/045Plane diaphragms using the distributed mode principle, i.e. whereby the acoustic radiation is emanated from uniformly distributed free bending wave vibration induced in a stiff panel and not from pistonic motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Stereophonic System (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

映像信号に同期した音響信号の出力処理を行う情報処理装置及び情報処理方法、並びに映像音声出力システムを提供する。情報処理装置は、表示部の画面に表示される映像内に出現する音源の位置を検出して、前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように1つ以上の加振器を用いて前記表示部を振動させることによる音声出力を制御する制御部を具備する。2以上の映像ソースの映像をそれぞれ個別のウィンドウに表示する場合に、前記制御部は、各映像ソースの映像から検出された音源の音像を、対応するウィンドウ内で音源が出現する位置にそれぞれ定位させる。

Description

本明細書で開示する技術は、映像信号に同期した音響信号の出力処理を行う情報処理装置及び情報処理方法、並びに映像音声出力システムに関する。
近年、再生音声の音源を所望の位置に仮想的に定位させる音像定位技術を利用したテレビジョン装置(若しくは、テレビジョン装置に接続するアンプ装置など)が提案されている(特許文献1を参照のこと)。基本的には、テレビジョン装置に左右のスピーカーを配置して、左右2チャンネルのステレオ信号を再生することによって、音像定位を実現することができる。音声信号のチャネル数を増やし、スピーカーを多重化することによって、さらに高解像度で音場を制御することが可能である。例えば、複数のスピーカーを用いて音響出力を行い、所定の聴取領域を高音質化する音響信号処理装置について提案がなされている(特許文献2を参照のこと)。
他方、有機EL(Electroluminescence)技術などを利用して大画面化も進んできている。大画面では、テレビ番組などの1つのコンテンツを表示するだけでなく、複数のコンテンツを並列して表示することができる。例えば、画面内で特定の映像を表示する親画面の中に子画面で別の映像を表示するPIP(Picture in Picture)や、表示画面内で特定の映像の外側に別の映像を表示するPAP(Picture and Picture)などが知られている(特許文献3を参照のこと)。また、並列表示する映像ソースは、放送コンテンツに限定されず、インターネット経由で配信されるネットワークコンテンツや、ブルーレイなどのディスク再生装置から出力される再生コンテンツなどさまざまである。例えば、放送コンテンツ及びネットワークコンテンツの双方を扱うハイブリッド端末について提案がなされている(特許文献4を参照のこと)。
特開2011−259299号公報 特開2013−102389号公報 特許第3526056号公報 特開2013−31046号公報
本明細書で開示する技術の目的は、映像信号に同期した音響信号の出力処理を行う情報処理装置及び情報処理方法、並びに映像音声出力システムを提供することにある。
本明細書で開示する技術の第1の側面は、
表示部の画面に表示される映像内に出現する音源の位置を検出して、前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように1つ以上の加振器を用いて前記表示部を振動させることによる音声出力を制御する制御部を具備する情報処理装置である。
2以上の映像ソースの映像をそれぞれ個別のウィンドウに表示する場合には、前記制御部は、各映像ソースの映像から検出された音源の音像を、対応するウィンドウ内で音源が出現する位置にそれぞれ定位させるようになっている。
また、本明細書で開示する技術の第2の側面は、
表示部の画面に表示される映像内に出現する音源の位置を検出する検出ステップと、
前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように1つ以上の加振器を用いて前記表示部を振動させることによる音声出力を制御する制御ステップと、
を有する情報処理方法である。
また、本明細書で開示する技術の第3の側面は、
表示部と、
1つ以上の加振器を用いて前記表示部を振動させることにより音声出力を行う音声出力部と、
前記表示部の画面に表示される映像内に出現する音源の位置を検出して、前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように前記音声出力部を制御する制御部と、
を具備する映像音声出力システムである。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
本明細書で開示する技術によれば、映像信号に同期した音響信号の出力処理を行う情報処理装置及び情報処理方法、並びに映像音声出力システムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術が適用される環境の一例を示した図である。 図2は、テレビジョン装置200の内部構成例を模式的に示した図である。 図3は、映像送コンテンツに対して音像を画像に一致させる処理を行う機能的構成を模式的に示した図である。 図4は、ビジュアルコミュニケーションにおいて、音像を画像に一致させる処理を行う機能的構成を模式的に示した図である。 図5は、音声エージェントの音像を画像に一致させる処理を行う機能的構成を模式的に示した図である。 図6は、対話中のユーザの移動に追従して音声エージェントが大画面内で移動する様子を示した図である。 図7は、ユーザの位置に追従して音声エージェントの音声出力を制御するための処理手順を示したフローチャートである。 図8は、画面の左上端からOSDが出現している様子を示した図である。 図9は、複数の画像に対して音像を一致させる処理を並列に実施する処理部201の構成例を示した図である。 図10は、ビデオメモリ内のプレーンを重畳する様子を示した図である。 図11は、画面振動スピーカー技術の適用例を示した図である。 図12は、手術室システム1200の全体構成を示した図である。 図13は、術部を表示した内視鏡映像の画面に警告音の音像を定位させる様子を示した図である。 図14は、術部を表示した内視鏡映像の画面に警告音の音像を定位させる様子を示した図である。 図15は、術部を表示した内視鏡映像の画面に警告音の音像を定位させる様子を示した図である。 図16は、術部を表示した内視鏡映像の画面に警告音の音像を定位させる様子を示した図である。 図17は、車両制御システム1700の概略的な構成例を示した図である。 図18は、撮像部17410及び車外情報検出部17420の設置位置の一例を示した図である。 図19は、車両制御システム1700における音像定位の具体例を示した図である。 図20は、車両制御システム1700における音像定位の具体例を示した図である。 図21は、車両制御システム1700における音像定位の具体例を示した図である。 図22は、車両制御システム1700における音像定位の他の具体例を示した図である。 図23は、車両制御システム1700における音像定位の他の具体例を示した図である。 図24は、車両制御システム1700における音像定位の他の具体例を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術が適用される環境の一例を示している。同図では、リビングのソファに座って寛いでいる複数のユーザ(家族など)に対向する壁面にテレビジョン装置100が設置されている。テレビジョン装置100は、有機EL技術などを利用した大画面を備えている。
テレビジョン装置100は、図示しない複数のスピーカーからなるスピーカーレイを装備し、又は外付け接続している。スピーカーレイは、テレビジョン装置100の画面の裏側に2次元配列した1つ以上の加振器(アクチュエータ)によって画面振動させることで音声を出力するものでもよい。また、加振器(アクチュエータ)の配置位置は画面の裏側に限定されず、配列は2次元に限定されない。本実施形態では、テレビジョン装置100は、スピーカーレイを使って、高解像度の音場制御が可能であることを想定している。
テレビジョン装置100は、チューナを内蔵し若しくは外付けチューナを介して放送信号を選局受信可能である。また、テレビジョン装置100は、ネットワークインターフェースカードを装備し、プロバイダーが提供するOTT(Over the Top)サービスやテレビ会議などのビジュアルコミュニケーションに関連するデータ送受信を行うことが可能である。また、テレビジョン装置100上では、音声エージェント又はアシスタントを始めとしてあらかじめインストールされたアプリケーションを実行することが可能である。
したがって、テレビジョン装置100の大画面上には、オンエア中又は録画した放送コンテンツや、OTTサービスにより配信されるストリーミングコンテンツ、テレビ会議(若しくは、Web会議)などのビジュアルコミュニケーション、音声エージェント又はアシスタントのキャラクターといった複数のコンテンツのうち少なくとも1つが表示される。また、PIPやPAPといった技術を利用して、大画面上に2以上のコンテンツを同時に並列して表示することも可能である。図1に示す例では、テレビジョン100の大画面上に、オンエア中の放送コンテンツ101と、ビジュアルコミュニケーション102と、音声エージェントのキャラクター103が並列して同時表示されている。また、図1では省略しているが、大画面上には、テレビジョン装置100内部で生成するOSD(On Screen Display)などのグラフィックス情報を表示することもできる。
なお、図1に示した例では、リビングルームの1つの壁にのみテレビ画面が設置されているが、2面以上の壁にテレビ画面が設置されていてもよい。そして、隣接する壁に連続してテレビ画面が設置されている場合には、すべてのテレビ画面を同期的に駆動させて、例えば音声エージェントなどのキャラクターを2面以上のテレビ画面にまたがって連続的に移動させるような表示方法を実施することもできる。
図2には、テレビジョン装置200の内部構成例を模式的に示している。但し、テレビジョン装置200は、放送チューナを備えた情報処理装置であってもよい。図示のテレビジョン装置200は、処理部201と、チューナ202と、通信部203と、表示部204と、音声入力部205と、音声出力部206と、撮像部207と、センサ部208と、リモコン受信部209と、記録部210を備えている。
チューナ202は、地上波放送並びに衛星放送の放送信号を選局受信する。また、通信部203は、イーサネット(登録商標)などの有線通信又はWi−Fi(登録商標)などの無線通信を利用して、インターネットなどの外部ネットワークに接続している。例えば、通信部203は、プロバイダーが提供するOTTサービスやビジュアルコミュニケーションに関連するデータの送受信を行う。また、通信部203は、HDMI(登録商標)(High Definition Multimedia Interface)などの映像及び音声のデジタル信号を伝送する通信インターフェースを備え、ブルーレイ又はハードディスクなどの録画再生機やゲーム機などをテレビジョン装置200に外付け接続するのに利用することができる。また、通信部203は、例えばDLNA(登録商標)(Digital Living Network Alliance)などの規格に則って、ホームネットワークを介して家庭内の各CE機器と相互接続していてもよいし、IoT(Internet of Things)デバイスとのインターフェース機能をさらに備えていてもよい。
表示部204は、例えば有機EL素子などで構成され、16:9の縦横比からなる大画面を備え、チューナ202で選局受信した番組コンテンツの映像やEPG(Electronic Program Guide)、データ放送コンテンツを表示したり、OTTサービスにより配信されるストリーミングコンテンツを表示したり、テレビ会議などのビジュアルコミュニケーションの映像を表示したりするのに用いられる。また、音声エージェントなどテレビジョン装置200にあらかじめインストールされたアプリケーションの画像や、テレビジョン装置200内で生成されるOSDなどのグラフィックスも表示部204に表示される。なお、表示部204の画面の一部又は全部の領域にタッチセンサが重畳されていてもよい。
音声入力部205は、マイクなどの収音素子で構成され、テレビジョン装置200が設置された室内(図1に示したリビング内)で発生する音声の入力に用いられる。室内で発生する音声として、テレビ番組の視聴者若しくは音声エージェントを利用するユーザによる発話を挙げることができる。音声入力部205は、複数のマイクを組み合わせたマイクロフォンアレイを備えていてもよい。また、一部又は全部のマイクロフォンがテレビジョン装置200に外付け接続されていてもよい。あるいは、テレビジョン装置200用のリモコンに搭載されたマイクを含んでいてもよいし、スマートフォンやウェアラブル機器などテレビジョン装置200の外部機器に搭載されたマイクを含んでいてもよい。音声入力部205が複数のマイクロフォンを備える場合、ビームフォーム処理により、所望する音源位置からの音声、例えば音声エージェントに話し掛けるユーザの音声の収音感度を高めたり、逆に不要な音源位置からの音声、例えばその他のユーザの音声や、室内の他のAV機器から出力される音響などの収音感度を低減させたりすることができる。
音声出力部206は、チューナ202で選局受信した番組コンテンツやデータ放送コンテンツの音声出力、並びに音声エージェント機能の合成音声の出力などに用いられる。音声出力部206は、スピーカーなどの音響発生素子で構成される。本実施形態では、音声出力部206は、複数のスピーカーを組み合わせたスピーカーレイ(多チャンネルスピーカー若しくは超多チャンネルスピーカー)を備えていることを想定している(一部又は全部のスピーカーがテレビジョン装置200に外付け接続されていてもよい)。したがって、音声出力部206は、各スピーカーの出力制御に基づいて音場を生成して、所望の位置に音像を定位させたり、所望の位置以外の場所からは音声を聴こえ難くしたりすることができる。
コーン型スピーカーの他、フラットパネル型スピーカーをアレイ状に配置して、音声出力部206として用いることができる。もちろん、異なるタイプのスピーカーを組み合わせたスピーカーレイを音声出力部206として用いることもできる。また、スピーカーレイは、振動を生成する1つ以上の加振器(アクチュエータ)によって表示部204を振動させることで音声出力を行うものを含んでもよい。加振器(アクチュエータ)は、表示部204に後付けされるような形態であってもよい。
図11には、ディスプレイへの画面振動スピーカー技術の適用例を示している。ディスプレイ1100は、背面のスタンド1102で支持されている。また、ディスプレイ1100の裏面には、スピーカーユニット1101が取り付けられている。スピーカーユニット1101の左端には加振器(アクチュエータ)1101−1が配置され、また、右端には加振器(アクチュエータ)1101−2が配置されており、スピーカーレイを構成している。各加振器(アクチュエータ)1101−1及び1101−2が、それぞれ左右の音声信号に基づいてディスプレイ1101を振動させて音響出力することができる。また、スタンド1102が、低音域の音響を出力するサブウーファーを内蔵してもよい。なお、ディスプレイ1100は、有機EL素子を用いた表示部204に相当する。
再び図2を参照して、テレビジョン装置200の内部構成について引き続き説明する。撮像部207は、例えばCMOS(Complementary Metal Oxyde Semiconductor)やCCD(Charge Couopled Device)などのイメージセンサからなるカメラで構成され、主にテレビジョン装置200の正面方向、例えば表示部204の大画面前方にいるユーザや室内の風景を撮像する。撮像部207は、例えば、2台のカメラを用いたステレオカメラや、3台以上のカメラを用いた多眼カメラであってもよい。また、一部又は全部のカメラがテレビジョン装置200に外付け接続されていてもよい。
センサ部208は、主に、テレビジョン装置200が設置されている室内の環境情報をセンシングする。センサ部208の構成、すなわちどのようなセンサ素子を含むかは任意である。例えば、センサ部208は、物体検出センサや深度センサを含んでいてもよい。物体検出センサや深度センサの検出結果に基づいて(必要に応じて、撮像部207で撮影した画像に画像認識結果と併せて)、室内に設置された家具や部屋のレイアウトを検出することができる。また、センサ部208は、照度センサや温度センサ、湿度センサなどの環境情報を検出する環境センサを備えていてもよい。また、センサ部208は、赤外線センサや人感センサを備え、部屋内でのユーザの位置や移動を検出するようにしていてもよい。また、センサ部208は、ユーザの脈拍や発汗、脳波、筋電位、呼気などを検出する生体センサを備えていてもよい。センサ部208を構成するセンサ部の一部又は全部がテレビジョン装置200に外付け接続され、又は無線接続されていてもよい。
リモコン受信部209は、リモコン(図示しない)から赤外線通信や近距離無線通信などを利用して送信されるリモコンコマンドを受信処理する。リモコンの操作者は、例えば、図1に示したリビングにいるテレビジョン装置200の視聴ユーザなどである。
記録部210は、例えばHDD(Hard Disc Drive)などの大容量記録装置で構成され、主にチューナ202で受信した番組コンテンツの録画に使用される。記録部210は、テレビジョン装置200内に配設される他、HDMI(登録商標)(High Definition Multimedia Interface)やUSB(Universal Serial Bus)などのインターフェースを介してテレビジョン装置200に外付け接続される場合もある。
処理部201は、プロセッサ及びメモリを含み、メモリにロードしたプログラムを実行して、各種処理を実施して、テレビジョン装置200内の動作を統括的にコントロールする。処理部201内では、基本的には、オペレーティングシステム(OS)が提供する実行環境下で、さまざまなアプリケーションが実行される。例えばマルチプロセッサが利用可能な場合、あるいはOSによってマルチスレッド実行が可能な場合においては、並列実行可能な処理単位はすべてメモリに読み出され並列実行させることができる。
処理部201において実行される処理として、リモコン受信部209で受信したリモコンコマンドに応じた選局、音量調整、録画、並びに画質調整などの機器100内の操作や、チューナ202で選局受信された番組コンテンツの映像及び音声出力処理、記録部210に録画した番組コンテンツの再生出力処理、OTTサービスにより配信されるストリーミングコンテンツの再生出力処理、アプリケーションの実行、OSDの表示制御などを挙げることができる。また、処理部201が実行するアプリケーションの中には、チューナ202又は通信部203を介して受信したデータ放送アプリケーションやOTTサービスのアプリケーション、音声エージェント、ビジュアルコミュニケーションなど処理部201内にあらかじめインストールされたアプリケーションを挙げることができる。また、処理部201が複数のエージェント用アプリケーションを並列実行することにより、テレビジョン装置200が複数のエージェントデバイスとして機能することも可能である。
テレビジョン装置200は、選局受信した放送コンテンツの映像及び音声出力、OTTサービスにより配信されるストリーミングコンテンツの再生出力、テレビ会議などのビジュアルコミュニケーションの再生出力、音声エージェントなどのグラフィックスの表示など、ハイブリッドな映像表示を並行して行う。このため、処理部201は、放送コンテンツ用、ストリーミングコンテンツ用、ビジュアルコミュニケーション用、グラフィックス用を含む複数のプレーンを備えたビデオメモリを備えている。また、複数の映像コンテンツを同時に表示する際に、図1にも示したようにマルチウィンドウが適用される。すなわち、処理部201内で、放送コンテンツ、ストリーミングコンテンツ、ビジュアルコミュニケーション、グラフィックスの各映像は、各々に設定されたウィンドウサイズに合わせて解像度変換して、各プレーン上のウィンドウ位置にコピーされる。その後、ビデオメモリ内の各プレーンを所定の順序で重畳して1枚の画像フレームを生成し、ビデオバッファに一時格納した後、表示部204で映像表示される。
また、本実施形態に係るテレビジョン装置200は、音像を画像に一致させる音像定位を音声信号処理で行う点に特徴がある。
映像に対応する音声が映像の表示位置とは異なる位置に定位されると、画面を視聴するユーザは違和感を覚える。例えば、放送コンテンツのウィンドウに複数の出演者が出現するとともに、ビジュアルコミュニケーションのウィンドウに1人又は複数人のテレビ会議参加者が映っているときに、テレビ会議参加者が発言した音声の音像がビジュアルコミュニケーションのウィンドウ内に定位されていないと、ユーザは誰の声なのか混乱したり、意思疎通の障害になったりすることがある。
大画面全体を使って、複数の出演者が映っているテレビ番組を表示しているときに、ある出演者が発話している音声がその出演者が表示されている位置から離間した場所に定位されていると、ユーザは話者を識別し難くなり、又は違和感を覚える。また、画面内を移動する音声エージェントの音像を、常に一定の場所に定位させ続けると、不自然である。音像と画像の不一致の問題は、画面が大型化するほど顕著になる。
また、上述したように、放送やストリーミングの映像コンテンツ、ビジュアルコミュニケーション、音声エージェントなど複数の映像が並列に表示される場合には、音像が画像と一致していないと、ユーザは、どのウィンドウから聴こえた音声だったのか、錯覚してしまうおそれもある。
そこで、本実施形態に係るテレビジョン装置200では、映像内に出現する音源を検出し、その音源の画面上の表示位置を計算して、その音源から発される音声を音源の表示位置に定位させる処理を実施することで、音像を画像に一致させるようにしている。
以下では、テレビジョン装置200において、映像コンテンツ(放送及びOTTサービスを含む)、ビジュアルコミュニケーション、グラフィックスの各々を表示する際に音像を画像に一致させるための処理について、それぞれ説明する。
(1)映像コンテンツの場合
映像が放送コンテンツの場合、映像内に出現する音源とは、そのテレビ番組の出演者(若しくは、画面に表示されている話者)である。例えば映像解析により画像内の出演者の顔位置を検出することにより、音源を検出することができる。複数の出演者が同時に映っているときには、各出演者の顔位置をそれぞれ音源として検出する。あるいは、放送コンテンツのメタ情報として、各出演者の顔位置のデータが送られるようにしてもよい。テレビ番組を全画面表示しているときには、検出された顔位置が音源の表示位置になる。また、マルチウィンドウが適用されている場合には、テレビ番組を表示するウィンドウ内での顔位置を、音源の表示位置として計算する。そして、各出演者が発話する度に、その音声の音像を画面上でその出演者の顔が表示される位置に定位するように音声信号処理を施して、音声出力部206から出力するようにする。
なお、OTTサービスにより配信されるストリーミングコンテンツに対して音像を画像に一致させる処理についても、上記と同様である。
図3には、映像コンテンツに対して音像を画像に一致させる処理を行う機能的構成を模式的に示している。但し、図3に示す各機能モジュールは、基本的には処理部201内で実装されるものとする。
チューナ202(図3には図示しない)で選局受信した放送信号は、復調され、映像と音声にデマルチプレクスされた後、さらに映像信号と音声信号それぞれについてデコード処理される。図3では、デコード処理後の映像信号及び音声信号が入力されることを前提としている。
OTTサービスの場合には、通信部203(図3には図示しない)で受信した通信信号が復調され、映像と音声にデマルチプレクスされた後、さらに映像信号と音声信号それぞれについてデコード処理される。ストリームの転送方式やデータの形式は、サービスを提供するプロバイダー毎に相違することも想定される。いずれにせよ、図3では、デコード処理後の映像信号及び音声信号が入力されることを前提としている。また、HDMI(登録商標)などのデジタル通信インターフェースを介してブルーレイ又はハードディスクなどの録画再生機やゲーム機などから映像及び音声のデジタル信号が入力される場合には、OTTサービスに準じた処理が実施されるものとする。
映像処理部301は、デコード後の映像信号を入力すると、映像フレームに含まれる音源の位置を検出する。音源は、番組の出演者などの話者である。楽器など音響を出力する物体がフレームに含まれる場合には、これらも音源として位置検出を行うようにする。映像処理部301は、例えば映像信号の画質調整処理の過程で、映像解析などにより、画像内の話者の顔位置を検出することによって、音源を検出するようにする。あるいは、ストリームに付随して送られてくるメタ情報に音源位置の情報が含まれる場合には、メタ情報の復号処理によって音源位置を検出するようにしてもよい。映像内に複数の話者が同時に含まれている場合には、映像処理部301は、話者毎に音源として検出して、音源位置の検出を行う。映像処理部301による処理後の映像信号は、ビデオメモリ(図3には図示しない)内の映像用プレーンに一旦書き込まれた後、他のプレーンの画像情報と重畳されて表示部204の画面に表示出力される。
音声処理部302は、デコード後の音声信号を入力すると、音声出力部206に含まれる複数のスピーカーを使って、音声を出力する。映像処理部301から音源の位置情報が与えられる場合には、音声処理部302は、その音源の位置に音像を定位させて、音声出力部206から音声を出力する。
映像フレームが表示部204で全画面表示される場合には、音声処理部302は、映像処理部301が検出した音源位置を画面上の表示位置の情報に変換して、音像定位を行う。一方、表示部204の画面にマルチウィンドウが適用されている場合には、音声処理部302は、映像の表示に割り当てられたウィンドウの表示位置及びサイズの情報をウィンドウ制御部303から取得すると、映像処理部301が検出したフレーム内での音源位置を当該ウィンドウ内の位置に換算し、これにウィンドウの表示位置(オフセット)を加算することにより、画面上における音源の位置の情報を求めて、音像定位を行う。
複数の音源を含む映像の場合(例えば、映像内に複数の話者が同時に出現する場合)、映像処理部301は話者毎に音源位置を検出するとともに、音声処理部302は、入力された音声信号を音源毎(例えば話者毎)の音声に分離して、各音源をそれぞれに対応する音源位置に定位させて、音声出力部206から音声を出力する。
なお、テレビジョン装置200が多重チューナを備える場合や、テレビ番組の視聴とOTTサービスを同時に利用されるような場合には、映像コンテンツ毎に並行して上記の処理が実施されることになる。
(2)ビジュアルコミュニケーションの場合
映像がテレビ会議などのビジュアルコミュニケーションの場合、映像内に出現する音源は、そのテレビ会議の参加者である。例えば、映像解析により画像内の会議出席者の顔位置を検出することにより、音源を検出することができる。会議参加者が複数いる場合には、各会議参加者の顔位置をそれぞれ音源として検出する。続いて、ビジュアルコミュニケーションのウィンドウ内で、会議参加者の顔位置を、音源の表示位置として計算する。そして、会議参加者が発言する度に、その音声の音像を該当する会議参加者の顔位置に定位するように音声信号処理を施して、音声出力部206から出力するようにする。
図4には、ビジュアルコミュニケーションにおいて、音像を画像に一致させる処理を行う機能的構成を模式的に示している。但し、図4に示す各機能モジュールは、基本的には処理部201内で実装されるものとする。
ビジュアルコミュニケーション用の通信信号が通信部203(図4には図示しない)で受信されると、映像と音声にデマルチプレクスされた後、さらに映像信号と音声信号それぞれについてデコード処理される。ストリームの転送方式やデータの形式は、サービスを提供するプロバイダー毎に相違することも想定される。いずれにせよ、図4では、デコード処理後の映像信号及び音声信号が入力されることを前提としている。
ビジュアルコミュニケーション(VC)処理部401は、デコード後の映像信号を入力すると、テレビ会議の映像の表示処理を実施する。ここで、多地点通信によりビジュアルコミュニケーションが行われている場合には、ビジュアルコミュニケーション処理部401は、表示部204の画面(若しくはビジュアルコミュニケーションに割り当てられたウィンドウ領域)を複数の領域に分割して、各分割領域に他の地点で撮影しているテレビ会議映像を表示出力する(すなわち、各地点に分割領域を割り当てる)ための処理を実行する。また、分割領域の総数が接続中の地点数よりも少ないときには、ビジュアルコミュニケーション処理部401は、各分割領域の画面切り替えを行う。例えば、発言順序が回って来た地点や新たにイニシアチブを握った地点の映像が隠れている場合には、現在表示されている他の地点の映像と切り替えを行う。ビジュアルコミュニケーション処理部401による処理後の映像信号は、ビデオメモリ(図4には図示しない)内のビジュアルコミュニケーション用プレーンに一旦書き込まれた後、他のプレーンの画像情報と重畳されて表示部204の画面に表示出力される。
ビジュアルコミュニケーション処理部401は、映像フレームに含まれる音源の位置を検出する。音源は、映像に写っているテレビ会議の参加者などの話者である。ビジュアルコミュニケーション処理部401は、例えば顔検出処理によって、映像フレーム内の会議参加者の顔位置を検出することによって、音源を検出するようにする。また、上記のように多地点通信によりビジュアルコミュニケーションが行われている場合には、ビジュアルコミュニケーション処理部401は、現在発言中の地点の映像を表示している分割領域を音源の位置として検出する。
音声処理部402は、デコード後の音声信号を入力すると、音声出力部206に含まれる複数のスピーカーを使って、音声を出力する。ビジュアルコミュニケーション処理部401から音源の位置情報が与えられる場合には、その音源の位置に音像を定位させて、音声出力部206から音声を出力する。多地点通信(前述)によりビジュアルコミュニケーションが行われている場合には、音声処理部402は、現在発言中の地点の映像を表示している分割領域に音像を定位させる。
ビジュアルコミュニケーションの映像が表示部204で全画面表示される場合には、音声処理部402は、ビジュアルコミュニケーション処理部401が検出した音源位置を画面上の表示位置の情報に変換して、音像定位を行う。多地点通信によりビジュアルコミュニケーションが行われている場合には、現在発言している地点の映像を流している分割領域に音像が定位される。
一方、表示部204の画面にマルチウィンドウが適用されている場合には、音声処理部402は、ビジュアルコミュニケーションに割り当てられたウィンドウの表示位置及びサイズの情報をウィンドウ制御部303から取得すると、ビジュアルコミュニケーション処理部401が検出した音源位置を当該ウィンドウ内の位置に換算し、これにウィンドウの表示位置(オフセット)を加算することにより、音源の画面上の表示位置の情報を求めて、音像定位を行う。多地点通信によりビジュアルコミュニケーションが行われている場合には、当該ウィンドウ内で、現在発言している地点の映像を流している分割領域に音像が定位される。
テレビジョン装置200を介して複数のビジュアルコミュニケーションに同時にログインしている場合には、ビジュアルコミュニケーション毎に並行して上記の処理が実施されることになる。
(3)グラフィックスの場合
音声エージェントの音源は音声エージェントの映像そのものである。したがって、音声エージェントの映像を生成するグラフィックス処理部から音声エージェントの表示位置を取得することにより、音源の位置を検出することができる。また、ユーザが部屋内を移動すると、音声エージェントも追従して大画面内で移動するような場合には、そのユーザの位置情報に基づいて音源の位置を検出するようにする。そして、音声エージェントが発話する度に、その音声エージェントの合成音声の音像を音声エージェントの表示位置に定位するように音声信号処理を施して、音声出力部206から出力するようにする。
図5には、音声エージェントの音像を画像に一致させる処理を行う機能的構成を模式的に示している。但し、図5に示す各機能モジュールは、基本的には処理部201内で実装されるものとする。
本実施形態では、音声エージェント用のアプリケーションがあらかじめテレビジョン装置200にインストールされていることを想定している。処理部201内では、このようなアプリケーションを実行して、音声エージェントのグラフィックス(アニメーションキャラクタなど)を表示部204の画面に表示したり、音声エージェントからの音声メッセージを音声出力部206から音声出力したりする。但し、テレビジョン装置200内で音声エージェント用のアプリケーションを実行するのではなく、テレビジョン装置200が外部のエージェントサービスを利用することも想定される。この場合、テレビジョン装置200は、通信部203を使って外部のエージェントサービスによる対話処理を利用し、テレビジョン装置200上では音声の入出力と音声エージェントのグラフィックス表示のみをもっぱら行う。
グラフィックス処理部501は、処理部201内のプロセッサが実行した対話処理結果に基づいて(若しくは、通信部203を介して外部のエージェントサービスから受け取った対話処理結果に基づいて)、音声エージェントのキャラクターのグラフィックスを生成する。そして、コンポーザ502は、生成したキャラクターのアニメーションをコンポーズする。コンポーズされたキャラクターアニメーションの画像は、ビデオメモリ(図5には図示しない)内のグラフィックス用プレーンに一旦書き込まれた後、他のプレーンの画像情報と重畳されて表示部204の画面に表示出力される。
また、グラフィックス処理部501は、表示部204の画面上で音声エージェントのグラフィックスを表示させる位置に関する情報を、音声信号処理部503に出力する。
音声信号処理部503は、処理部201内のプロセッサ(若しくは、外部のエージェントサービス)によって生成された音声エージェントのメッセージ(テキスト)を音声合成して、音声出力部206に含まれる複数のスピーカーを使って、音声を出力する。上述したように、グラフィックス処理部501から音声エージェントの表示位置の情報が与えられる場合には、音声信号処理部503はその表示位置に音像を定位させて、音声出力部206から音声エージェントの音声を出力する。
本実施形態では、図6に示すように、音声エージェントと対話中のユーザが部屋内を移動すると、音声エージェントも追従して大画面内で移動することを想定している。また、撮像部207の撮像画像や、赤外線センサ又は人感センサを備えたセンサ部208を使って、部屋内を移動するユーザの位置を検出することができる。
図7には、ユーザの位置に追従して音声エージェントの音声出力を制御するための処理手順をフローチャートの形式で示している。図示の処理手順は、処理部201内のプロセッサの制御下で実行されるものとする。
撮像部207の撮像画像や、赤外線センサ又は人感センサを備えたセンサ部208を使って、部屋内を移動するユーザの位置(若しくは、前回検出した位置から移動したこと)を検出したときには(ステップS701のYes)、グラフィックス処理部501は、ユーザの位置に基づいて、表示部204の画面上で音声エージェントのグラフィックスを表示させる位置を計算する(ステップS702)。また、グラフィックス処理部501は、表示部204の画面上で音声エージェントのグラフィックスを表示させる位置に関する情報を、音声信号処理部503に出力する。
次いで、音声信号処理部503は、グラフィックス処理部501から与えられた音声エージェントの表示位置の情報に基づいて、音声エージェントの音声の音像を定位させるとともに、音場計算を実施する(ステップS703)。
そして、音声信号処理部503は、先行ステップS703で算出した音場を実現するための、音声出力部206に含まれる複数のスピーカーのうち、音声エージェントの音声を出力すべき出音位置を決定して(ステップS704)、これらの出音位置から音声エージェントの音声を出力する(ステップS705)。
また、OSDやUI(User Interface)などのグラフィックス表示に合わせて効果音を発生させることもある。効果音は、ユーザが迅速に対応すべき事象が発生したことをユーザに通知するといった役割がある。このような場合も、音声エージェントの場合と同様に、グラフィックスの表示位置に効果音の音像を定位することによって、効果音がより効果的にユーザの耳に響くことになる。
処理部201内のプロセッサは、アプリケーションを実行中に、OSDやUIなどのグラフィックスを表示すべき事象を検出すると、グラフィックス処理部501に対して、該当するグラフィックスの表示を指示する。
グラフィックス処理部501は、処理部201内のプロセッサからの指示に基づいて、OSDやUIなどのグラフィックスを生成する。そして、コンポーザ502は、生成したグラフィックスをコンポーズする。コンポーズされたグラフィックスの画像は、ビデオメモリ(図5には図示しない)内のグラフィックス用プレーンに一旦書き込まれた後、他のプレーンの画像情報と重畳されて表示部204の画面に表示出力される。また、グラフィックス処理部501は、表示部204の画面上でOSDやUIなどのグラフィックスを表示させる位置に関する情報を、音声信号処理部503に出力する。
音声信号処理部503は、OSDやUIなどのグラフィックス用の効果音を合成して、音声出力部206に含まれる複数のスピーカーを使って、音声を出力する。上述したように、グラフィックス処理部501からグラフィックスの表示位置の情報が与えられる場合には、音声信号処理部503はその表示位置に音像を定位させて、音声出力部206からグラフィックス用の効果音を出力する。
図8には、画面の左上端から、参照番号801で示すOSDが出現している様子を示している。大画面の周縁部を使ってグラフィックスを表示しても、ユーザは気が付かないことがある。図1に示したようなマルチウィンドウの場合、そもそも画面の表示が煩雑であり、OSDが壁紙などのテクスチャに埋もれて、ユーザはグラフィックスの表示場所を見つけ難い。また、OSDの表示と同期して警告音などの効果音を発しても、OSDの表示場所以外から鳴っても、ユーザがその表示を見つけ出す手掛かりにはならない。これに対し、本実施形態によれば、OSDが出現する場所から効果音が鳴るので、ユーザは必然的に視線をその音像位置の方向に向けるので、OSDの表示を見つけ易くなる。
上記では、テレビジョン装置200において、映像コンテンツ、ビジュアルコミュニケーション、及びグラフィックスについて、音像を画像に一致させるための機能的構成について、それぞれ個別に説明してきた。本実施形態では、テレビジョン装置200は、マルチウィンドウ方式を取り入れて、映像コンテンツ、ビジュアルコミュニケーション、及びグラフィックスを並列に表示し、各々の画像に対して音像を一致させる処理も並列に実施する。
図9には、映像コンテンツ、ビジュアルコミュニケーション、及びグラフィックスを並列に表示し、各々の画像に対して音像を一致させる処理を並列に実施する処理部201の構成例を示している。
放送サービス又はOTTサービスにより提供される信号は、映像と音声にデマルチプレクスされ、さらに映像信号と音声信号それぞれについてデコード処理された後、映像処理部901及び音声処理部905にそれぞれ入力される。
映像処理部901は、デコード後の映像信号を入力すると、映像フレームに含まれる音源の位置を検出する。音源は、番組の出演者などの話者である。楽器など音響を出力する物体がフレームに含まれる場合には、これらも音源として位置検出を行うようにする。映像処理部901は、例えば映像信号の画質調整処理の過程で、映像解析などにより、画像内の話者の顔位置を検出することによって、音源を検出するようにする。映像内に複数の話者が同時に含まれている場合には、映像処理部901は、話者毎に音源として検出して、音源位置の検出を行う。映像処理部901による処理後の映像信号は、重畳部907に出力され、ビデオメモリ(図9には図示しない)内の映像用プレーンに一旦書き込まれる。
音声処理部905は、映像の表示に割り当てられたウィンドウの表示位置及びサイズの情報をウィンドウ制御部906から取得すると、映像処理部301が検出したフレーム内での音源位置を当該ウィンドウ内の位置に換算し、これにウィンドウの表示位置(オフセット)を加算することにより、画面上における音源の位置の情報を求めて、音像定位を行う。
ビジュアルコミュニケーション処理部902は、デコード後の映像信号を入力すると、テレビ会議の映像の表示処理を実施する一方、映像フレームに含まれる音源の位置を検出する。音源は、映像に写っているテレビ会議の参加者などの話者である。多地点通信(前述)によりビジュアルコミュニケーションが行われている場合には、ビジュアルコミュニケーション処理部902は、現在発言中の地点の映像を表示している分割領域を音源の位置として検出する。ビジュアルコミュニケーション処理部902による処理後の映像信号は、重畳部907に出力され、ビデオメモリ(図9には図示しない)内のビジュアルコミュニケーション用プレーンに一旦書き込まれる。
テレビジョン装置200を介して複数のビジュアルコミュニケーションに同時にログインしている場合には、ビジュアルコミュニケーション毎に並行してビジュアルコミュニケーション処理が実施されることになる。
音声処理部905は、ビジュアルコミュニケーションの表示に割り当てられたウィンドウの表示位置及びサイズの情報をウィンドウ制御部906から取得すると、ビジュアルコミュニケーション処理部902から与えられる音源位置を当該ウィンドウ内の位置に換算し、これにウィンドウの表示位置(オフセット)を加算することにより、画面上における音源の位置の情報を求めて、音像定位を行う。また、多地点通信(前述)によりビジュアルコミュニケーションが行われている場合には、音声処理部905は、現在発言中の地点の映像を表示している分割領域に音像を定位させる。
グラフィックス処理部903は、処理部201内のプロセッサが実行した対話処理結果に基づいて、音声エージェントのキャラクターのグラフィックスを生成する。そして、コンポーザ904は、生成したキャラクターのアニメーションをコンポーズする。コンポーズされたキャラクターアニメーションの画像は、ビデオメモリ(図9には図示しない)内のグラフィックス用プレーンに一旦書き込まれる。また、グラフィックス処理部903は、表示部204の画面上で音声エージェントのグラフィックスを表示させる位置に関する情報を、音声信号処理部905に出力する。
音声信号処理部905は、処理部201内のプロセッサによって生成された音声エージェントのメッセージ(テキスト)を音声合成する。そして、音声処理部905は、グラフィックス処理部903から与えられるグラフィックスの表示位置にキャラクターの音声の音像を定位させて、音声出力部206から音声を出力する。
重畳部907は、映像処理部901から出力される映像信号を、ビデオメモリ内の映像用プレーンに一旦書き込む。その際、映像の表示に割り当てられたウィンドウの表示位置及びサイズの情報をウィンドウ制御部906から取得して、映像用プレーン上の映像の表示に割り当てられたウィンドウ領域内に映像を書き込む。
また、重畳部907は、ビジュアルコミュニケーション処理部902から出力される映像信号を、ビデオメモリ内のビジュアルコミュニケーション用プレーンに一旦書き込む。その際、ビジュアルコミュニケーションの表示に割り当てられたウィンドウの表示位置及びサイズの情報をウィンドウ制御部906から取得して、ビジュアルコミュニケーション用プレーン上の映像の表示に割り当てられたウィンドウ領域内に映像を書き込む。
また、重畳部907は、コンポーザ904から出力されるキャラクターの映像やOSD又はUIなどのグラフィックスを、グラフィックス用プレーンに書き込む。
そして、重畳部907は、ビデオメモリ内の複数のプレーンを所定の順序で重畳して1枚の画像フレームを完成させる。本実施形態では、図10に示すように、奥側から手前に向かって、背景プレーン、映像用プレーン、グラフィックス用プレーンの順に重畳される。但し、各プレーンの配置順は任意である。画像フレームは、その後、表示部204の画面に表示出力される。手前側のプレーンが優先して表示されることになる。図1に示したテレビジョン装置100の画面構成例では、テレビ番組などの映像コンテンツとビジュアルコミュニケーションの各ウィンドウ101、102、並びに音声エージェントのキャラクター103が重なり合わないように配置されているが、各領域の少なくとも一部が重なり合う場合には、奥側の映像が手前側の映像で隠れることになる。
本開示に係る技術は、さまざまな製品へ応用することができる。例えば、本開示に係る技術を、手術室システムに適用することができる。本開示に係る技術を手術室システムに適用する場合について、以下で説明する。
図12には、本開示に係る技術が適用され得る手術室システム1200の全体構成を概略的に示している。図示の手術室システム1200は、視聴覚コントローラ(AV Controller)1207と、手術室制御装置1209を備えている。視聴覚コントローラ1207と手術室制御装置1209は、相互接続され、連携して動作できるものとする。
手術室内には、さまざまな装置が設置されることが想定される。図12に示す例では、内視鏡下手術のための各種の装置群1201と、手術室の天井に設けられ術者の手元を撮像するシーリングカメラ1287と、手術室の天井に設けられ手術室全体の様子を撮像する術場カメラ1289と、複数の表示装置1203A〜1203Dと、レコーダ1205と、患者ベッド1283と、照明1291などが手術室内に設置されている。
上記の装置のうち、装置群1201は、内視鏡手術システムに属するものであり、内視鏡やその内視鏡によって撮像された画像を表示する表示装置などからなる。内視鏡手術システムに属する各装置は、医療用機器とも呼ばれる。一方、表示装置1203A〜D、レコーダ1205、患者ベッド1283、及び照明1291は、内視鏡手術システムには属さないが、同じ手術室に備え付けられる装置である。これら内視鏡手術システムに属さない各装置は、非医療用機器とも呼ばれる。視聴覚コントローラ1207と手術室制御装置1209は、これら医療用機器並びに非医療法機器の動作を互いに連携して制御する。
視聴覚コントローラ1207は、手術室システム1200内における医療機器及び非医療機器における画像表示に関する処理を統括的に制御する。ここで、手術室システム1200が備える装置のうち、装置群1201、シーリングカメラ1287及び術場カメラ1289は、手術中に表示すべき情報(以下、「表示情報」ともいう)を発信する機能を有する装置(以下、「発信元の装置」とも呼称する)である。また、表示装置1203A〜1203Dは、表示情報を出力する装置(以下、「出力先の装置」ともいう)である。また、レコーダ1205は、発信元の装置及び出力先の装置の双方に該当する装置である。このような手術室システム1200において、視聴覚コントローラ1207は、発信元の装置及び出力先の装置の動作を制御し、発信元の装置から表示情報を取得するとともに、当該表示情報を出力先の装置に送信し、表示又は記録させる機能を有する。なお、表示情報は、手術中に撮像された各種の画像や、手術に関する各種の情報(例えば、患者の身体情報や、過去の検査結果、術式についての情報)などである。
具体的には、装置群1201から視聴覚コントローラ1207へ、表示情報として、内視鏡によって撮像された患者の体腔内の術部の画像についての情報が送信される。また、シーリングカメラ1287から視聴覚コントローラ1207へ、表示情報として、当該シーリングカメラ1287によって撮像された術者の手元の画像についての情報が送信される。また、術場カメラ1289から視聴覚コントローラ1207へ、表示情報として、当該術場カメラ1289によって撮像された手術室全体の様子を示す画像についての情報が送信される。なお、手術室システム1200内に、撮像機能を有する他の装置(図示しない)がさらに存在する場合には、視聴覚コントローラ1207は、表示情報として、当該他の装置からも当該他の装置によって撮像された画像についての情報を取得してもよい。
また、レコーダ1205には、上記のような撮像機能を有する装置によって過去に撮像された画像についての情報が、視聴覚コントローラ1207によって記録されている。視聴覚コントローラ1207は、表示情報として、レコーダ1205から当該過去に撮像された画像についての情報を取得することができる。なお、レコーダ1205には、手術に関する各種の情報も事前に記録されていてもよい。
視聴覚コントローラ1207は、発信元の装置から取得した表示情報(すなわち、手術中に撮影された画像や、手術に関する各種の情報)を、出力先の装置である表示装置1203A〜1203Dの少なくともいずれかに表示させる。図12に示す例では、表示装置1203Aは手術室の天井から吊り下げられて設置される表示装置であり、表示装置1203Bは手術室の壁面に設置される表示装置であり、表示装置1203Cは手術室内の机上に設置される表示装置である。また、表示装置1203Dは、例えばタブレットPC(Personal Computer)のような、表示機能を有するモバイル機器である。
また、図12では図示を省略しているが、手術室システム1200は、手術室の外部に設置された装置をさらに備えていてもよい。手術室の外部に設置された装置として、例えば、病院内外に構築されたネットワークに接続されるサーバや、医療スタッフが使用するPC、病院の会議室に設置されるプロジェクタなどを挙げることができる。さらに、遠隔医療などの目的で、手術室システム1200が病院外に設置された装置を備えていてもよい。このような場合には、視聴覚コントローラ1207は、テレビ会議システムなどを介して、他の病院の表示装置に表示情報を表示させることもできる。
手術室制御装置1209は、非医療機器における画像表示以外に関する処理を、統括的に制御する。例えば、手術室制御装置1209は、患者ベッド1283、シーリングカメラ1287、術場カメラ1289及び照明1291の駆動を制御する。
手術室システム1200には、集中操作パネル1211が設けられている。ユーザ(術者など)は、集中操作パネル1211を介して、視聴覚コントローラ1207に対して画像表示についての指示を与えたり、手術室制御装置1209に対して非医療機器の動作についての指示を与えたりすることができる。集中操作パネル1211は、表示装置の表示面上にタッチパネルが設けられた構成を備えている。
このような手術室システム1200が装備された医療現場では、例えば、表示装置1203A〜Dの画面上に患者の身体の一部(術部など)を表示しながら手術を行うことがある。この場合、画面上に表示された術部の位置に対応する音声の音像を、当該術部の画面上の表示位置に対応する位置に定位するように出力するようにしてもよい。例えば図13に示すように、内視鏡映像の画面上の術部から出血がみられたときに、当該出血している術部に対応する位置に警告音の音像を定位する。また、術部の3次元的な深度情報に基づいて、音像の定位位置を術者と画面の間で3次元的に変化させるようにしてもよい。例えば図14に示すように画面上に表示された術部の出血位置の深度が深い場合には、より画面に近い位置(若しくは、術者からより遠い位置)に音像を定位させるようにする。逆に出血位置が浅い場合には、図15に示すようにより術者に近い位置に音像を定位させる。本技術を用いて、術者の注意を早急に対処が必要な術部へと適切に導くことが可能となる。
これらの術部に関する画像は、シーリングカメラ1287や内視鏡によって得られる。また、本開示に係る技術は、術場カメラ1289によって撮像された手術室の画像に適用することができるが、もちろん、その他のカメラによって撮像された画像や、過去に撮像された画像、手術室外部から配信された画像に対しても同様に適用することができる。
さらに、本技術を表示装置1203A〜Dの画面の外に存在する術部に対して適用することも可能である。例えば、表示装置1203A〜Dの画面上に表示されている術部は、術部全体の一部であることが想定されるが、術中においては画面上に表示されていない術部からの出血などがみられることがある。本技術によれば、画面上に表示されていない術部に合わせて、警告音の音像を定位させることができる。
表示装置1203A〜Dの画面外に存在する術部から出血がみられた場合には、当該術部に対応する方向に音像を定位させることによって、術者の注意を誘導することができる。例えば図16に示すように、画面に表示された術部の右方向から出血がみられた場合には、画面の右側から警告音が聞こえるような音像の定位が実現される。ここで、画面の右側への音像の定位とは、一般的なスピーカーシステムが採用されている場合において表示装置の画面の範囲よりも右側に音像を定位させることであってもよいし、加振器による画面振動スピーカーシステム(図11を参照のこと)が採用されている場合において画面の右半分や画面の右端から音声が発せられるように音像を定位させることであってもよい。また、これら複数のスピーカーシステムが組み合わされて使用される場合には、複数の音場生成方法を組み合わせて用いてもよい。
術部が表示画面の範囲外にある場合には、本開示に係る技術を適用して、警告音の音像をどの方向にも定位させることが可能であり、また、画面上の表示範囲から当該術部までの距離に応じて音像の定位位置が変化してもよい。例えば、画面上の表示範囲から術部までの距離が大きい場合には、距離が小さい場合よりも遠くから音が聞こえるように音像を定位してもよい。また、画面上の表示範囲と術部までの距離に応じて、出力する音声の音量を変化させるようにしていてもよい。この場合には、画面上の表示範囲から術部までの距離が大きい場合には、距離が小さい場合よりも大きな音声を発するようにしていてもよい。
また、本開示に係る技術を、表示装置1203A〜Dの画面上に術者の注意を誘導するような表示と併用するようにしてもよい。術者の注意を誘導する表示として、例えば、画面上の表示範囲から術部がどの方向にあるかを示すGraphic User Interface(GUI)の表示を挙げることができる。このようなGUIは、術部の方向を示す矢印記号のような単純な表示だけであってもよいし、術部の位置や方向に関する情報の記載を含んでもよい。
本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置にも適用することができる。本開示に係る技術を移動体制御システムに適用する場合について、以下で説明する。
図17には、本開示に係る技術が適用され得る移動体制御システムの一例としての車両制御システム1700の概略的な構成例を示している。図示の車両制御システム1700は、駆動系制御ユニット17100と、ボディ系制御ユニット17200と、バッテリ制御ユニット17300と、車外情報検出ユニット17400と、車内情報検出ユニット17500と、統合制御ユニット17600を備えている。これらの複数の制御ユニットを接続する通信ネットワーク17010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークで構成される。
各制御ユニットは、各種プログラムに従って演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータなどを記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備えている。各制御ユニットは、通信ネットワーク17010を介して他の制御ユニットとの間で通信を行うためのネットワークインターフェース(IF)を備えるとともに、車内外の装置又はセンサなどとの間で、有線通信又は無線通信により通信を行うための通信インターフェース(IF)を備える。図17では、統合制御ユニット17600の機能構成として、マイクロコンピュータ17610と、汎用通信インターフェース(IF)17620と、専用通信インターフェース(IF)17630と、測位部17640と、ビーコン受信部17650と、車内機器インターフェース(IF)17660と、音声画像出力部17670と、車載ネットワークインターフェース(NW IF)17680と、記憶部17690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信インターフェース及び記憶部などを備えている。
駆動系制御ユニット17100は、各種プログラムに従って車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット17100は、内燃機関又は駆動用モータなどの車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット17100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)などの制御装置としての機能を有してもよい。
駆動系制御ユニット17100には、車両状態検出部17110が接続されている。車両状態検出部17110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度などを検出するためのセンサのうちの少なくとも1つが含まれる。駆動系制御ユニット17100は、車両状態検出部17110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置などを制御する。
ボディ系制御ユニット17200は、各種プログラムに従って車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット17200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプなどの各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット17200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット17200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプなどを制御する。
バッテリ制御ユニット17300は、各種プログラムに従って駆動用モータの電力供給源である二次電池17310を制御する。例えば、バッテリ制御ユニット17300には、二次電池17310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量などの情報が入力される。バッテリ制御ユニット17300は、これらの信号を用いて演算処理を行い、二次電池17310の温度調節制御又はバッテリ装置に備えられた冷却装置などの制御を行う。
車外情報検出ユニット17400は、車両制御システム1700を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット17400には、撮像部17410及び車外情報検出部17420のうちの少なくとも一方が接続される。撮像部17410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも1つが含まれる。車外情報検出部17420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム1700を搭載した車両の周囲の他の車両、障害物又は歩行者などを検出するための周囲情報検出センサのうちの少なくとも1つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも1つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも1つであってよい。撮像部17410及び車外情報検出部17420は、それぞれ独立したセンサ乃至装置として備えられてもよいし、複数のセンサ乃至装置が統合された装置として備えられてもよい。
図18には、撮像部17410及び車外情報検出部17420の設置位置の一例を示している。撮像部2910、2912、2914、2916、2918は、例えば、車両2900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも1つの位置にそれぞれ設けられる。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として車両2900の前方の画像を取得する。サイドミラーに備えられる撮像部2912、2914は、主として車両2900の左側方及び右側方の画像をそれぞれ取得する。リアバンパ又はバックドアに備えられる撮像部2916は、主として車両2900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部2918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線などの検出に用いられる。
なお、図18には、各撮像部2910、2912、2914、2916の撮影範囲の一例を併せて示している。撮像範囲aは、フロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b及びcは、それぞれサイドミラーに設けられた撮像部2912、2914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部2916の撮像範囲を示している。例えば、撮像部2910、2912、2914、2916で撮像された画像データを合成処理することによって、車両2900を上方から見た俯瞰画像を得ることができる。
車両2900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部2920、2922、2924、2926、2928、2930は、例えば超音波センサ又はレーダ装置で構成される。車両2900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920、2926、2930は、例えばLIDAR装置で構成される。これらの車外情報検出部2920〜2930は、主として先行車両、歩行者又は障害物などの検出に用いられる。
図17を再び参照して、車両制御システム1700について引き続き説明する。車外情報検出ユニット17400は、撮像部17410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット17400は、接続されている車外情報検出部17420から検出情報を受信する。車外情報検出部17420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット17400は、超音波又は電磁波などを発信させるとともに、受信された反射波の情報を受信する。そして、車外情報検出ユニット17400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行うことができる。また、車外情報検出ユニット17400は、受信した情報に基づいて、降雨、霧又は路面状況などを認識する環境認識処理を行うことができる。そして、車外情報検出ユニット17400は、受信した情報に基づいて、車外の物体までの距離を算出することができる。
また、車外情報検出ユニット17400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字などを認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット17400は、受信した画像データに対して歪補正又は位置合わせなどの処理を行うとともに、異なる撮像部17410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット17400は、異なる撮像部17410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット17500は、車内の情報を検出する。車内情報検出ユニット17500には、例えば、運転者の状態を検出する運転者状態検出部17510が接続される。運転者状態検出部17510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイクなどで構成される。生体センサは、例えば、座面又はステアリングホイールなどに設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット17500は、運転者状態検出部17510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット17500は、集音された音声信号に対してノイズキャンセリング処理などの処理を行ってもよい。
統合制御ユニット17600は、各種プログラムに従って車両制御システム1700内の動作全般を制御する。統合制御ユニット17600には、入力部17800が接続されている。入力部17800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバーなど、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット17600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。
また、入力部17800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム1700の操作に対応した携帯電話又はPDA(Personal Digital Assistant)などの外部接続機器であってもよい。
また、入力部17800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが統合制御ユニット17600に入力されてもよい。
さらに、入力部17800は、例えば、上記の入力部17800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット17600に出力する入力制御回路などを含んでもよい。搭乗者などは、この入力部17800を操作することにより、車両制御システム1700に対して各種のデータを入力したり処理動作を指示したりする。
記憶部17690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値などを記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部17690は、HDD(Hard Disc Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイスなどを含んでいてもよい。
汎用通信インターフェース17620は、外部環境17750に存在するさまざまな機器との間の通信を仲介する汎用的な通信インターフェースである。汎用通信インターフェース17620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信インターフェース17620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信インターフェース17620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信インターフェース17630は、車両における使用を目的として策定された通信プロトコルをサポートする通信インターフェースである。専用通信インターフェース17630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装している。専用通信インターフェース17630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうち少なくとも1つを含む概念であるV2X通信を遂行する。
測位部17640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部17640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS(personal Handy−phone System)若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部17650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間などの情報を取得する。なお、ビーコン受信部17650の機能は、上述した専用通信インターフェース17630に含まれてもよい。
車内機器インターフェース17660は、マイクロコンピュータ17610と車内に存在するさまざまな車内機器17760との間の接続を仲介する通信インターフェースである。車内機器インターフェース17660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器インターフェース17660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB、HDMI(登録商標)又はMHL(Mobile High−definition Link)などの有線接続を確立してもよい。車内機器17760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器17760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器インターフェース17660は、これらの車内機器17760との間で、制御信号又はデータ信号を交換する。
車載ネットワークインターフェース17680は、マイクロコンピュータ17610と通信ネットワーク17010との間の通信を仲介するインターフェースである。車載ネットワークインターフェース17680は、通信ネットワーク17010によりサポートされる所定のプロトコルに則して、信号などを送受信する。
統合制御ユニット17600内のマイクロコンピュータ17610は、汎用通信インターフェース17620、専用通信インターフェース17630、測位部17640、ビーコン受信部17650、車内機器インターフェース17660及び車載ネットワークインターフェース17680のうちの少なくとも1つを介して取得される情報に基づき、各種プログラムに従って、車両制御システム1700を制御する。例えば、マイクロコンピュータ17610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット17100に対して制御指令を出力してもよい。具体的には、マイクロコンピュータ17610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告などを含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ17610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置などを制御することにより、運転者の操作に拠らずに自律的に走行する自動運転などを目的とした協調制御を行ってもよい。
マイクロコンピュータ17610は、汎用通信インターフェース17620、専用通信インターフェース17630、測位部17640、ビーコン受信部17650、車内機器インターフェース17660及び車載ネットワークインターフェース17680のうちの少なくとも1つを介して取得される情報に基づき、車両と周辺の構造物や人物などの物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ17610は、取得される情報に基づき、車両の衝突、歩行者などの近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部17670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図17に示す例では、出力装置として、オーディオスピーカー17710、表示部17720及びインストルメントパネル17730が装備されている。表示部17720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも1つを含んでいてもよい。表示部7720は、カーナビゲーションシステムの表示部であってもよい。表示部17720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイなどのウェアラブルデバイス、プロジェクタ又はランプなどの他の装置であってもよい。出力装置としての表示装置は、マイクロコンピュータ17610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフなどさまざまな形式で視覚的に表示する。また、出力装置としての音声出力装置は、再生された音声データ又は音響データなどからなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図17に例示した車両制御システム1700において、通信ネットワーク7010を介して接続された少なくとも2つの制御ユニットが1つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム1700が、図示しない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク17010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク17010を介して相互に検出情報を送受信してもよい。
上述したような車両制御システム1700において、例えば、車外情報検出ユニット17400によって検出された周囲の他の車両に関する情報を表示部17720に表示するケースが考えられる。この場合、マイクロコンピュータ17610などの処理によって、表示部17720に表示された他の車両と、車外情報検出ユニット17400を搭載する車両の関係に応じて、オーディオスピーカー17710から出力する音声の音像を定位させることができる。したがって、本開示に係る技術を用いることで、音像の定位位置を通じて、運転者又は搭乗者の注意を他の車両や歩行者へと適切に導くことが可能となる。
図19〜図21には、本開示に係る技術を用いた音像定位の具体例を図解している。図19に示す例では、フロントガラス1900の一部が画像を表示又は投影する表示部17720に割り当てられている。そして、フロントガラス1900内の表示部17720は、バックカメラで撮像した画像を表示又は投影するバックカメラ画像表示部1901として用いられている。図示のように、バックカメラ画像表示部1901に後続車両が表示又は投影されているときに、当該後続車両の表示位置に対応した位置に警告音などの音声の音像が定位される。その際、当該後続車両の位置や速度、自車両から当該後続車両までの車間距離に応じて、音像の定位位置を運転者又は搭乗者と表示部17720の間で3次元的に変化させてもよい。その際、音像を定位させる音声の音量の制御も併せて行うようにしてもよい。
車両制御システム1700では、後続車両の表示位置への音像定位処理を行っている間に、運転者状態検出部17510を用いて運転者又は搭乗者の車内の位置や姿勢を検出し、運転者又は搭乗者の位置や姿勢を考慮して音像の定位位置を制御するようにしてもよい。例えば、自車両と後続車両間との車間距離が大きい場合には、図20に示すようにより画面に近い位置に音声の音像を定位させて、車間距離が大きいことを聴覚的に表現する。逆に車間距離が小さい場合には、図21に示すようにより運転者又は搭乗者に近い位置に音像を定位させることによって、車間距離が小さいことを聴覚的に表現する。
同様に、後続車両の進行速度が自車両よりも小さい場合には、より画面に近い位置に音声の音像を定位させるが、逆に後続車両の進行速度が自車両よりも大きい場合には、より運転者又は搭乗者に近い位置に音声の音像を定位させて、後続車両が自車両に近づいている状況を聴覚的に表現する。
なお、上述したような後続車両と音像の定位位置の関係はあくまで一例であり、上記の例に限定されない。例えば、画面上に表示された後続車両と自車両の車間距離が大きい場合には、より運転者又は搭乗者に近い位置に音像を定位させるが、車間距離が小さい場合には、より画面に近い位置に音像を定位させるように、音像定位の制御を実施するようにしてもよい。また、自車両と後続車両との関係に応じて、出力される音声の音量を変化させるようにしてもよい。
上記では図19〜図21を参照しながら自車両と後続車両との関係に応じて音像の定位位置を制御する場合について説明したが、本開示に係る技術はこれに限定されない。本開示に係る技術によれば、車外情報検出ユニット17400によって検出可能な、後続車両以外の対象物に応じて音像の定位位置を制御することもできる。
図22には、本開示に係る技術を用いた音像定位の他の具体例を図解している。図22に示す例では、フロントガラス2200の一部が画像を表示又は投影する表示部17720に割り当てられている。そして、車外情報検出ユニット17400によって検出した、自車両の前方に位置する歩行者並びに先行車両の各々に対応した音声の音像を、表示部17720(若しくは、フロントガラス2200)上にそれぞれ定位させている。
図22に示したように、車外情報検出ユニット17400によって検出される対象物が自車両の進行方向の前方に位置する場合には、当該対象物は運転車の前方のフロントガラス2200を透過して、運転者に視認されることが考えられる。このような場合、自車両の前方に位置する対象物は必ずしも表示部17720を通じて運転者に視認される必要はないが、自車両の後方に位置する対象物の場合(図19〜図21を参照のこと)と同様に、前方の対象物の位置や速度、自車両から当該前方の対象物までの距離に応じて、音像の定位位置をフロントガラス2200と運転者の間で3次元的に変化させてもよい。その際、音像を定位させる音声の音量の制御も併せて行うようにしてもよい。
なお、フロントガラス2200に透過型ディスプレイを用いることができる。この場合、外部からの透過光として運転者に視認される対象物と、透過型ディスプレイからの出力光によって運転者によって視認される対象物が存在する。これらの透過光として視認される対象物と、出力光として視認される対象物のそれぞれに対して同様に音像を定位させるようにしてもよいし、透過光による対象物か出力光よる対象物かによって音像の定位のさせ方を変えるようにしてもよい。例えば、透過型ディスプレイで構成されるフロントガラス上に表示される後続車の画像に対しては、背後から音声が聞こえるように音像を定位させてもよい。
また、通常のフロントガラスや透過型ディスプレイを用いたフロントガラスに対して、画面振動スピーカー技術を適用する場合には、フロントガラス上に加振器を設置してもよいし、車体のフレームがフロントガラスを振動させるようにして音声を出力させてもよい。画面振動スピーカーを利用する技術は、フロントガラスに限定されず、サイドウィンドウやリアウィンドウに対しても適用可能である。
ここまでは、表示部17720としてのフロントガラス上の対象物(後続車両、先行車両、歩行者など)の表示位置と運転者又は搭乗者の間で音像の定位位置を3次元的に変化させる例について説明してきた。これに対し、対象物の現実の位置と運転者又は搭乗者の間で音像の定位位置を変化させるようにしてもよい。
具体的には、車両制御システム1700では、車外情報検出ユニット17400を用いて自車両と後続車両間の車間距離を検出するとともに、運転者状態検出部17510を用いて運転者又は搭乗者の車内の位置や姿勢を検出して、実際の後続車両の位置と運転者又は搭乗者の間で音像の定位位置を3次元的に変化させるようにする。例えば、自車両と後続車両間との車間距離が大きい場合には、図23に示すように、当該後続車両により近い位置(例えばリアウィンドウ付近)に音声の音像を定位させて、車間距離が大きいことを聴覚的に表現する。逆に車間距離が小さい場合には、図24に示すようにより運転者又は搭乗者に近い位置(例えば後頭部付近)に音像を定位させることによって、車間距離が小さいことを聴覚的に表現する。
同様に、後続車両の進行速度が自車両よりも小さい場合には、当該後続車両により近い位置(例えばリアウィンドウ付近)に音声の音像を定位させるが、逆に後続車両の進行速度が自車両よりも大きい場合には、より運転者又は搭乗者に近い位置(例えば後頭部付近)に音声の音像を定位させて、後続車両が自車両に近づいている状況を聴覚的に表現する。
なお、上述したような後続車両の現実の位置と音像の定位位置の関係はあくまで一例であり、上記の例に限定されない。例えば、後続車両と自車両の車間距離が大きい場合には、より運転者又は搭乗者に近い位置(例えば後頭部付近)に音像を定位させるが、後続車両との距離が小さい場合には、当該後続車両により近い位置(例えばリアウィンドウ付近)に音像を定位させるように、音像定位の制御を実施するようにしてもよい。また、自車両と後続車両との関係に応じて、出力される音声の音量を変化させるようにしてもよい。
最後に、本開示に係る技術を、フロントガラス、リアウィンドウ、又はサイドウィンドウの一部又は全部が表示部17720となっている車両制御システム1700に適用して用いる場合について説明する。但し、表示部17720は、フロントガラス、リアウィンドウ、又はサイドウィンドウの一部又は全部を使用する透過型ディスプレイであってもよい。
例えば、車両制御システム1700を搭載した車両が自動運転車である場合、当該車両の走行中又は停車中に、運転者及び搭乗者は、表示部17720としてのフロントガラス、リアウィンドウ、又はサイドウィンドウの一部又は全部を用いて映像コンテンツを観賞したり、インターネットブラウジングを行ったりすることができる。そして、本開示に係る技術を適用することで、表示部17720に表示された表示物と連携した音像の定位や音場の生成を行い、運転者や搭乗者のコンテンツへの没入感を向上させることができる。その際、運転者状態検出部17510によって検出された、運転者や搭乗者の車内の位置や姿勢に関する情報を用いて音像の定位を行うことができる。
具体例として、フロントガラス、リアウィンドウ、及びサイドウィンドウの全てが表示部17720であり、且つ、加振器を用いた画面振動スピーカー技術を搭載している場合には、対応コンテンツ内のオブジェクトの表示位置に音声の音像を定位させ、その表示位置を部分的に振動させることによって、運転者や搭乗者に音声を伝達することが可能である。
なお、フロントガラス、リアウィンドウ、又はサイドウィンドウの一部又は全部を用いた表示部17720に、マルチウィンドウ(例えば、図1を参照のこと)を適用することができる。この場合、フロントガラス、リアウィンドウ、又はサイドウィンドウの一部又は全部に、放送コンテンツ、ストリーミングコンテンツ、ビジュアルコミュニケーション、グラフィックスなどの各映像が表示される。また、マルチウィンドウには、車外情報検出ユニット17400によって取得された情報(後続車両や先行車両、歩行者など)を表示するウィンドウが含まれていてもよい。
そして、車両制御システム1700に、図9に示したような処理機能を搭載することで、本開示に係る技術に従って、各ウィンドウに表示されるオブジェクトの位置を検出して適切な位置に音像を定位することができる。図9に示したように、ウィンドウ内の出演者(話者)の顔位置を検出して、当該出演者(話者)の顔位置に対応する位置に音像を定位させてもよい。また、車外情報検出ユニット17400によって取得された対象物に対応するウィンドウ内のオブジェクトに対応する位置に音像を定位させてもよい。
上記の説明は、オーディオスピーカー17710として画面振動スピーカーを用いることを前提としているが、もちろん一般的なスピーカーシステムを用いてもよいし、画面振動スピーカーとその他のスピーカーシステムを組み合わせて用いてもよい。但し、画面振動スピーカーを用いた場合には、一般的なスピーカーシステムを車室内に配置する必要がなくなり、車室内のスペースを有効に活用することができる。
また、上記の説明では、フロントガラス、リアウィンドウ、又はサイドウィンドウの一部又は全部を表示部17720とし、オーディオスピーカー17710に画面振動スピーカーを用いることを前提としているが、本開示に係る技術を実現する構成はこれに限定されない。例えば、車室の天井に配置された照明が、加振器を用いた筐体振動スピーカー機能を有していてもよい。これにより、一般的なスピーカーシステムを車室内に配置する必要がなくなり、車室内のスペースを有効に活用することができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、本明細書で開示する技術をテレビジョン装置に適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。プロジェクタやパーソナルコンピュータ、タブレット、スマートフォンを始め、映像を表示するとともに映像に同期する音声を出力するさまざまなタイプの表示装置に対して、同様に本明細書で開示する技術を適用することができる。
また、本明細書で開示する技術は、例えば画面振動スピーカー技術と組み合わせることで、より好適に動作することができる。
また、本明細書で開示する技術はディスプレイ及びスピーカーを使用するさまざまな製品へ応用することができる。例えば、本明細書で開示する技術を、手術室システムや車両制御システムにも適用することができる。車両として、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローンなどの無人航空機、歩行型又は車輪型のロボット、建設機械、農業機械(トラクターなど)などを挙げることができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)表示部の画面に表示される映像内に出現する音源の位置を検出して、前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように1つ以上の加振器を用いて前記表示部を振動させることによる音声出力を制御する制御部を具備する情報処理装置。
(2)前記制御部は、放送又はOTTサービスの映像、又は外部入力される映像内に出現する音源を検出して、前記画面上で前記音源が出現する位置に音像を定位させる、
上記(1)に記載の情報処理装置。
(3)前記制御部は、ビジュアルコミュニケーションの映像内に出現する音源を検出して、前記画面上で音源が出現する位置に音像を定位させる、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(4)前記制御部は、前記画面上に表示される所定のグラフィックスを音源として検出して、前記グラフィックスに関連する音声を前記画面上で前記グラフィックスが表示される位置に定位させる、
上記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)前記制御部は、前記情報処理装置上で実行される音声エージェントのグラフィックスを音源として検出して、前記画面上で前記グラフィックスが表示される位置に前記音源の音声の音像を定位させる、
上記(4)に記載の情報処理装置。
(6)前記音声エージェントと対話しているユーザを検出する検出部をさらに備え、
前記制御部は、前記ユーザの位置に追従して前記キャラクターの表示位置をさらに制御する、
上記(5)に記載の情報処理装置。
(7)前記制御部は、前記画面上に出現するOSD又はUIのグラフィックスを音源として検出し、前記画面上で前記グラフィックスが表示されたことに同期して、前記グラフィックスに関連付けられた効果音の音像を定位させる、
上記(4)に記載の情報処理装置。
(8)2以上の映像ソースの映像をそれぞれ個別のウィンドウに表示する場合に、
前記制御部は、各映像ソースの映像から検出された音源の音像を、対応するウィンドウ内で音源が出現する位置にそれぞれ定位させる、
上記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)表示部の画面に表示される映像内に出現する音源の位置を検出する検出ステップと、
前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように1つ以上の加振器を用いて前記表示部を振動させることによる音声出力を制御する制御ステップと、
を有する情報処理方法。
(10)表示部と、
1つ以上の加振器を用いて前記表示部を振動させることにより音声出力を行う音声出力部と、
前記表示部の画面に表示される映像内に出現する音源の位置を検出して、前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように前記音声出力部を制御する制御部と、
を具備する映像音声出力システム。
100…テレビジョン装置
200…テレビジョン装置(情報処理装置)
201…処理部、202…チューナ、203…通信部、204…表示部
205…音声入力部、206…音声出力部、207…撮像部
208…センサ部、209…リモコン受信部、210…記録部
301…映像処理部、302…音声処理部、303…ウィンドウ制御部
401…ビジュアルコミュニケーション処理部、402…音声処理部
403…ウィンドウ制御部
501…グラフィックス処理部、502…コンポーザ
503…音声処理部、504…ウィンドウ制御部
501…映像処理部、502…コンポーザ、503…音声処理部
504…ウィンドウ制御部
901…映像処理部、902…ビジュアルコミュニケーション処理部
903…グラフィックス処理部、904…コンポーザ
905…音声処理部、906…ウィンドウ制御部、907…重畳部
1100…ディスプレイ、1101…スピーカーユニット
1101−1及び1101−2…加振器(アクチュエータ)
1102…スタンド
1200…手術室システム、1201…装置群
1203A〜D…表示装置、1205…レコーダ
1207…視聴覚コントローラ(AC Controller)
1209…手術室制御装置、1283…患者ベッド
1287…シーリングカメラ、1289…術場カメラ、1291…照明
1700…車両制御システム、17010…通信ネットワーク
17100…駆動系制御ユニット、17110…車両状態検出部
17200…ボディ系制御ユニット、17300…バッテリ制御ユニット
17310…二次電池、17400…車外情報検出ユニット
17410…撮像部、17420…車外情報検出部
17500…車内情報検出ユニット、17510…運転者状態検出部
17600…統合制御ユニット、17610…マイクロコンピュータ
17620…汎用通信インターフェース
17630…専用通信インターフェース、17640…測位部
17650…ビーコン受信部、17660…車内機器インターフェース
17670…音声画像出力部
17680…車載ネットワークインターフェース、17690…記憶部

Claims (10)

  1. 表示部の画面に表示される映像内に出現する音源の位置を検出して、前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように1つ以上の加振器を用いて前記表示部を振動させることによる音声出力を制御する制御部を具備する情報処理装置。
  2. 前記制御部は、放送又はOTTサービスの映像、又は外部入力される映像内に出現する音源を検出して、前記画面上で前記音源が出現する位置に音像を定位させる、
    請求項1に記載の情報処理装置。
  3. 前記制御部は、ビジュアルコミュニケーションの映像内に出現する音源を検出して、前記画面上で音源が出現する位置に音像を定位させる、
    請求項1に記載の情報処理装置。
  4. 前記制御部は、前記画面上に表示される所定のグラフィックスを音源として検出して、前記グラフィックスに関連する音声を前記画面上で前記グラフィックスが表示される位置に定位させる、
    請求項1に記載の情報処理装置。
  5. 前記制御部は、前記情報処理装置上で実行される音声エージェントのグラフィックスを音源として検出して、前記画面上で前記グラフィックスが表示される位置に前記音源の音声の音像を定位させる、
    請求項4に記載の情報処理装置。
  6. 前記音声エージェントと対話しているユーザを検出する検出部をさらに備え、
    前記制御部は、前記ユーザの位置に追従して前記キャラクターの表示位置をさらに制御する、
    請求項5に記載の情報処理装置。
  7. 前記制御部は、前記画面上に出現するOSD又はUIのグラフィックスを音源として検出し、前記画面上で前記グラフィックスが表示されたことに同期して、前記グラフィックスに関連付けられた効果音の音像を定位させる、
    請求項4に記載の情報処理装置。
  8. 2以上の映像ソースの映像をそれぞれ個別のウィンドウに表示する場合に、
    前記制御部は、各映像ソースの映像から検出された音源の音像を、対応するウィンドウ内で音源が出現する位置にそれぞれ定位させる、
    請求項1に記載の情報処理装置。
  9. 表示部の画面に表示される映像内に出現する音源の位置を検出する検出ステップと、
    前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように1つ以上の加振器を用いて前記表示部を振動させることによる音声出力を制御する制御ステップと、
    を有する情報処理方法。
  10. 表示部と、
    1つ以上の加振器を用いて前記表示部を振動させることにより音声出力を行う音声出力部と、
    前記表示部の画面に表示される映像内に出現する音源の位置を検出して、前記映像に同期する音声の音像が、前記映像を表示する画面上で前記音源が出現する位置に定位するように前記音声出力部を制御する制御部と、
    を具備する映像音声出力システム。
JP2020536443A 2018-08-10 2019-07-24 情報処理装置及び情報処理方法、並びに映像音声出力システム Active JP7314944B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018152121 2018-08-10
JP2018152121 2018-08-10
JPPCT/JP2019/019714 2019-05-17
PCT/JP2019/019714 WO2020031453A1 (ja) 2018-08-10 2019-05-17 情報処理装置及び情報処理方法、並びに映像音声出力システム
PCT/JP2019/028972 WO2020031696A1 (ja) 2018-08-10 2019-07-24 情報処理装置及び情報処理方法、並びに映像音声出力システム

Publications (2)

Publication Number Publication Date
JPWO2020031696A1 true JPWO2020031696A1 (ja) 2021-08-26
JP7314944B2 JP7314944B2 (ja) 2023-07-26

Family

ID=69414637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536443A Active JP7314944B2 (ja) 2018-08-10 2019-07-24 情報処理装置及び情報処理方法、並びに映像音声出力システム

Country Status (5)

Country Link
US (1) US11647334B2 (ja)
EP (1) EP3836554B1 (ja)
JP (1) JP7314944B2 (ja)
CN (1) CN112514406A (ja)
WO (1) WO2020031453A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441660B2 (ja) * 2020-02-04 2024-03-01 株式会社デンソーテン 後席ディスプレイ装置、車載システムおよび制御方法
US20240298132A1 (en) * 2022-05-31 2024-09-05 Beijing Boe Display Technology Co., Ltd. Audio control method, control device, driving circuit and readable storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187288A (ja) * 2002-11-20 2004-07-02 Haruhiko Onozato 音源映像の表示領域からその音声を出力させる映像音声再生方法
WO2005057549A1 (ja) * 2003-12-12 2005-06-23 Nec Corporation 情報処理システム、情報処理方法および情報処理用プログラム
JP2007189354A (ja) * 2006-01-11 2007-07-26 Hitachi Ltd デジタル放送受信装置及びデジタルテレビジョン放送受像機
WO2010035477A1 (ja) * 2008-09-29 2010-04-01 パナソニック株式会社 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
JP2010206265A (ja) * 2009-02-27 2010-09-16 Toshiba Corp 音像制御装置、音像制御方法、ストリームのデータ構造、及びストリーム生成装置
WO2012029790A1 (ja) * 2010-09-02 2012-03-08 シャープ株式会社 映像提示装置、映像提示方法、映像提示プログラム、記憶媒体
WO2017098772A1 (ja) * 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3526056B2 (ja) 1992-05-06 2004-05-10 ソニー株式会社 テレビジョン受像機
AU2003234144B2 (en) * 2002-04-19 2008-12-04 Opentv, Inc. Supporting common interactive television functionality through presentation engine syntax
JP2004144912A (ja) * 2002-10-23 2004-05-20 Matsushita Electric Ind Co Ltd 音声情報変換方法、音声情報変換プログラム、および音声情報変換装置
CN100348020C (zh) 2004-09-14 2007-11-07 南京Lg新港显示有限公司 根据画面上说话人的位置控制音量的图像显示设备及方法
JP2008078713A (ja) * 2006-09-19 2008-04-03 Sony Corp 記録装置および方法、プログラム、並びに再生装置および方法
JP4934580B2 (ja) * 2007-12-17 2012-05-16 株式会社日立製作所 映像音声記録装置および映像音声再生装置
US20100328419A1 (en) 2009-06-30 2010-12-30 Walter Etter Method and apparatus for improved matching of auditory space to visual space in video viewing applications
JP5423183B2 (ja) 2009-07-03 2014-02-19 ソニー株式会社 表示制御装置および表示制御方法
US8665321B2 (en) * 2010-06-08 2014-03-04 Lg Electronics Inc. Image display apparatus and method for operating the same
JP2011259299A (ja) 2010-06-10 2011-12-22 Sony Corp 頭部伝達関数生成装置、頭部伝達関数生成方法及び音声信号処理装置
JP6077200B2 (ja) 2011-07-29 2017-02-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 受信装置、表示制御方法、放送システム、並びにコンピューター・プログラム
JP5838740B2 (ja) 2011-11-09 2016-01-06 ソニー株式会社 音響信号処理装置と音響信号処理方法およびプログラム
US20140241558A1 (en) * 2013-02-27 2014-08-28 Nokia Corporation Multiple Audio Display Apparatus And Method
US9905231B2 (en) * 2013-04-27 2018-02-27 Intellectual Discovery Co., Ltd. Audio signal processing method
KR20150068112A (ko) * 2013-12-11 2015-06-19 삼성전자주식회사 오디오를 추적하기 위한 방법 및 전자 장치
US20160198097A1 (en) * 2015-01-05 2016-07-07 GenMe, Inc. System and method for inserting objects into an image or sequence of images
GB2534165B (en) * 2015-01-14 2018-06-06 Jaguar Land Rover Ltd Vehicle interface device
US9807535B2 (en) * 2015-10-30 2017-10-31 International Business Machines Corporation Three dimensional audio speaker array
US10271154B2 (en) * 2015-11-25 2019-04-23 The University Of Rochester Systems and methods for audio scene generation by effecting spatial and temporal control of the vibrations of a panel
CN105892651B (zh) * 2016-03-28 2019-03-29 联想(北京)有限公司 一种虚拟对象的显示方法和电子设备
US10757482B2 (en) * 2017-12-05 2020-08-25 Fdn. for Res.&Bus., Seoul Nat. Univ. of Sci.&Tech. System and method for predicting user viewpoint using location information of sound source in 360 VR contents

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187288A (ja) * 2002-11-20 2004-07-02 Haruhiko Onozato 音源映像の表示領域からその音声を出力させる映像音声再生方法
WO2005057549A1 (ja) * 2003-12-12 2005-06-23 Nec Corporation 情報処理システム、情報処理方法および情報処理用プログラム
JP2007189354A (ja) * 2006-01-11 2007-07-26 Hitachi Ltd デジタル放送受信装置及びデジタルテレビジョン放送受像機
WO2010035477A1 (ja) * 2008-09-29 2010-04-01 パナソニック株式会社 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
JP2010206265A (ja) * 2009-02-27 2010-09-16 Toshiba Corp 音像制御装置、音像制御方法、ストリームのデータ構造、及びストリーム生成装置
WO2012029790A1 (ja) * 2010-09-02 2012-03-08 シャープ株式会社 映像提示装置、映像提示方法、映像提示プログラム、記憶媒体
WO2017098772A1 (ja) * 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US11647334B2 (en) 2023-05-09
WO2020031453A1 (ja) 2020-02-13
CN112514406A (zh) 2021-03-16
EP3836554A4 (en) 2021-07-21
EP3836554A1 (en) 2021-06-16
EP3836554B1 (en) 2024-10-16
US20210306752A1 (en) 2021-09-30
JP7314944B2 (ja) 2023-07-26

Similar Documents

Publication Publication Date Title
JP6977720B2 (ja) 生成装置および生成方法、並びに、再生装置および再生方法
CN109891875B (zh) 图像传送设备、方法、系统和存储介质
WO2018074252A1 (ja) 画像処理装置および画像処理方法
CN111301284B (zh) 车载装置、程序以及车辆
JP6813027B2 (ja) 画像処理装置および画像処理方法
WO2018225392A1 (en) Control apparatus, image pickup apparatus, control method, program, and image pickup system
WO2019003889A1 (ja) 生成装置および生成方法、並びに、再生装置および再生方法
JP7314944B2 (ja) 情報処理装置及び情報処理方法、並びに映像音声出力システム
US20230269537A1 (en) Information Processing Apparatus, Information Processing Method, And Video Sound Output System
JP7077557B2 (ja) 表示制御装置および表示制御方法
WO2018034171A1 (ja) 画像処理装置および画像処理方法
WO2021256483A1 (ja) 制御装置、投影システム、制御方法及びプログラム
US20190394405A1 (en) Information processing apparatus, information processing method, and information processing program
JP7302477B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7098526B2 (ja) 電子機器および電子機器のレーン状態制御方法
WO2018123714A1 (ja) カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置
US11303815B2 (en) Imaging apparatus and imaging method
KR20160082060A (ko) 차량용 디스플레이 장치 및 이를 구비한 차량 통신 시스템
JP2024097450A (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R151 Written notification of patent or utility model registration

Ref document number: 7314944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151