JP2006287731A - 情報処理装置および方法、記録媒体、並びにプログラム - Google Patents
情報処理装置および方法、記録媒体、並びにプログラム Download PDFInfo
- Publication number
- JP2006287731A JP2006287731A JP2005106571A JP2005106571A JP2006287731A JP 2006287731 A JP2006287731 A JP 2006287731A JP 2005106571 A JP2005106571 A JP 2005106571A JP 2005106571 A JP2005106571 A JP 2005106571A JP 2006287731 A JP2006287731 A JP 2006287731A
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- unit
- processing
- filtering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】情報を提供することによるプライバシの侵害を軽減することができるようにする。
【解決手段】 映像音声通信装置1−1の時空間積分フィルタ部13−1は、カメラ部11−1により撮像された空間の映像情報を入力し、入力した映像情報に対して、ユーザAにより操作入力部12−1を介して入力されるパラメータと映像情報の時空間的特性に応じたフィルタリング処理を実行し、フィルタリング処理された映像情報を、出力映像情報として、通信部15−1およびミキサ処理部16−1に供給する。送信部21−1は、時空間積分フィルタ部13−1によりフィルタリング処理された出力映像情報を、ネットワーク2を介して、映像音声通信装置1−2に送信する。本発明は、所定の空間を入力した映像音声情報を送受信する映像音声通信システムに適用できる。
【選択図】図1
【解決手段】 映像音声通信装置1−1の時空間積分フィルタ部13−1は、カメラ部11−1により撮像された空間の映像情報を入力し、入力した映像情報に対して、ユーザAにより操作入力部12−1を介して入力されるパラメータと映像情報の時空間的特性に応じたフィルタリング処理を実行し、フィルタリング処理された映像情報を、出力映像情報として、通信部15−1およびミキサ処理部16−1に供給する。送信部21−1は、時空間積分フィルタ部13−1によりフィルタリング処理された出力映像情報を、ネットワーク2を介して、映像音声通信装置1−2に送信する。本発明は、所定の空間を入力した映像音声情報を送受信する映像音声通信システムに適用できる。
【選択図】図1
Description
本発明は、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、入力される所定の実空間内の情報に対して、その情報の時空間的特性に応じたフィルタリング処理を行うことにより、プライバシを保護しつつ、高臨場感を伴うコミュニケーションが可能な環境を実現することができるようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。
パーソナルコンピュータの急速な普及やネットワーク環境の整備が進んだことなどにより、遠隔地間での高画質で、常時接続可能な映像音声通信が可能になり、いつでも、どこでも、だれとでも、高臨場感を伴うコミュニケーションを行うことができるようになってきている。
しかしながら、従来の映像音声通信の方法では、例えば、音声電話のような通信方法と較べてより多くの情報が送受信されることから、場合によっては、ユーザのパーソナルスペースやプライバシの保護が困難になってしまうといった社会心理学的な問題が生じている。
この問題に対応して、特許文献1または特許文献2に示されるように、仮想空間においてアバタなどのキャラクタを用いての遠隔地間のコミュニケーションを行う方法が提案されている。
また、例えば、テレビ電話装置において送受信される映像情報内のプライバシを保護するために、ユーザの輪郭情報などを解析し、表情や視線を伝える映像情報部分のみに遮蔽処理を施す方法も提案されている。
しかしながら、前者のように仮想空間を用いてのコミュニケーション方法では、現実に撮像された映像情報などが表示されないことから、プライバシの問題は緩和される一方で、現実に撮像された映像情報から得られる、そもそもの高臨場感および常時接続感が失われてしまう。すなわち、プライバシを保護しつつ、高臨場感を伴うコミュニケーションを行うことが困難であった。
また、後者の方法では、プライバシを保護しつつ、実際の映像によるコミュニケーションを行うことができるが、その際、輪郭情報の解析などの複雑な画像認識処理が必要となり、ユーザの操作や、画像認識処理を行う装置に負荷がかかってしまっていた。
本発明はこのような状況に鑑みてなされたものであり、プライバシを保護しつつ、リアルタイムなコミュニケーションが可能な環境を簡単に実現することができるようにすることを目的とする。
本発明の情報処理装置は、所定の実空間内において入力された空間性を有する空間情報に対して、所定の空間内に存在する物体の情報が空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理手段と、フィルタリング処理手段によりフィルタリング処理が実行された空間情報を、後段に出力する出力手段とを備えることを特徴とする。
ユーザの操作に応じて、フィルタリング処理におけるパラメータを入力するパラメータ入力手段をさらに備え、フィルタリング処理手段は、空間情報に対して、パラメータ入力手段により入力されたパラメータおよび時空間的特性に応じたフィルタリング処理を実行するようにすることができる。
空間情報は、映像情報であるようにすることができる。
フィルタリング処理手段は、映像情報を時間積分することにより、時空間的特性に応じたフィルタリング処理を実行するようにすることができる。
フィルタリング処理手段は、映像情報に対して、時空間的特性に応じた透明度、ぼかし度、または部分的遮断のフィルタリング処理を実行するようにすることができる。
所定の実空間内から空間情報を入力する入力手段をさらに備えるようにすることができる。
フィルタリング処理が実行された空間情報を、ネットワークを介して、他の情報処理装置に送信する送信手段をさらに備えるようにすることができる。
他の情報処理装置から、ネットワークを介して、フィルタリング処理が実行された空間情報を受信する受信手段をさらに備えるようにすることができる。
フィルタリング処理が実行された空間情報のユーザに対しての出力を制御する出力制御手段をさらに備えるようにすることができる。
本発明の情報処理方法は、所定の実空間内において入力された空間性を有する空間情報に対して、所定の空間内に存在する物体の情報が空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理ステップと、フィルタリング処理ステップの処理によりフィルタリング処理が実行された空間情報を、後段に出力する出力ステップとを含むことを特徴とする。
本発明の記録媒体に記録されているプログラムは、所定の実空間内において入力された空間性を有する空間情報に対して、所定の空間内に存在する物体の情報が空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理ステップと、フィルタリング処理ステップの処理によりフィルタリング処理が実行された空間情報を、後段に出力する出力ステップとを含むことを特徴とする。
本発明のプログラムは、所定の実空間内において入力された空間性を有する空間情報に対して、所定の空間内に存在する物体の情報が空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理ステップと、フィルタリング処理ステップの処理によりフィルタリング処理が実行された空間情報を、後段に出力する出力ステップとを含むことを特徴とする。
本発明においては、所定の実空間内において入力された空間性を有する空間情報に対して、所定の空間内に存在する物体の情報が空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理が実行される。そして、フィルタリング処理が実行された空間情報が、後段に出力される。
ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであってもよいし、1つの装置を構成している内部ブロックどうしであってもよい。
また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、すなわち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであってもよい。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであってもよい。
本発明によれば、情報を提供することによるプライバシの侵害を軽減することができる。
また、本発明によれば、プライバシを保護しつつ、高臨場感を伴うコミュニケーションが可能な環境を実現することができる。
また、本発明によれば、プライバシを保護しつつ、高臨場感を伴うコミュニケーションが可能な環境を実現することができる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
請求項1に記載の情報処理装置(例えば、図1の映像音声通信装置1−1)は、所定の実空間内において入力された空間性を有する空間情報に対して、所定の空間内に存在する物体の情報(例えば、図5の物体Gのオブジェクト)が空間情報(例えば、図5の映像72の映像情報)に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理手段(例えば、図2の時空間積分演算部44)と、フィルタリング処理手段によりフィルタリング処理が実行された空間情報を、後段に出力する出力手段(例えば、図2の情報出力部45)とを備えることを特徴とする。
請求項2に記載の情報処理装置は、ユーザの操作に応じて、フィルタリング処理におけるパラメータを入力するパラメータ入力手段(例えば、図1の操作入力部12−1)をさらに備え、フィルタリング処理手段は、空間情報に対して、パラメータ入力手段により入力されたパラメータおよび時空間的特性に応じたフィルタリング処理を実行することを特徴とする。
請求項6に記載の情報処理装置は、所定の実空間内から空間情報を入力する入力手段(例えば、図1のカメラ部11−1)をさらに備えることを特徴とする。
請求項7に記載の情報処理装置は、フィルタリング処理が実行された空間情報を、ネットワーク(例えば、図1のネットワーク2)を介して、他の情報処理装置(例えば、図1の映像音声通信装置1−2)に送信する送信手段(例えば、図1の送信部21−1)をさらに備えることを特徴とする。
請求項8に記載の情報処理装置は、他の情報処理装置から、ネットワークを介して、フィルタリング処理が実行された空間情報を受信する受信手段(例えば、図1の受信部22−1)をさらに備えるようにすることができる。
請求項9に記載の情報処理装置は、フィルタリング処理が実行された空間情報のユーザに対しての出力を制御する出力制御手段(例えば、図1のミキサ処理部16−1)をさらに備えるようにすることができる。
請求項10に記載の情報処理方法は、所定の実空間内において入力された空間性を有する空間情報に対して、所定の空間内に存在する物体の情報が空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理ステップ(図9のステップS14)と、フィルタリング処理ステップの処理によりフィルタリング処理が実行された空間情報を、後段に出力する出力ステップ(例えば、図9のステップS15)とを含むことを特徴とする。
なお、請求項11に記載の記録媒体および請求項12に記載のプログラムも、上述した請求項10に記載の情報処理方法と基本的に同様の構成であるため、繰り返しになるのでその説明は省略する。
以下、図を参照して本発明の実施の形態について説明する。
図1は、本発明を適用した映像音声通信システムの構成例を示している。この映像音声通信システムは、常時接続を行う映像音声通信装置1−1および1−2が、それぞれ、所定の実空間を入力した映像音声情報に、ユーザの操作および映像音声情報の時空間的特性に応じたフィルタリング処理を行い、フィルタリング処理された映像音声情報を、ネットワーク2を介して、リアルタイムに送受信することで、遠隔地の通信相手と、お互いのプライバシを保護しつつ、高臨場感のあるコミュニケーションを行うようにするものである。なお、以下、入力された映像情報が送受信される場合について説明する。
図1の例において、インタネットに代表されるネットワーク2には、ユーザAが操作する映像音声通信装置1−1、ユーザBが操作する映像音声通信装置1−2が接続されている。なお、以下、映像音声通信装置1−1および1−2を個々に区別する必要がない場合、まとめて映像音声通信装置1とも称する。この例においては、映像音声通信装置1が2台のみ示されているが、ネットワーク2には、任意の台数の映像音声通信装置1が接続される。
映像音声通信装置1−1は、パーソナルコンピュータなどで構成される。映像音声通信装置1−1は、カメラ部11−1、操作入力部12−1、時空間積分フィルタ部13−1、接続制御部14−1、通信部15−1、ミキサ処理部16−1、モニタ17−1、および記憶部18−1により構成される。なお、映像音声通信装置1−1において、各部を接続する二重線矢印は映像情報の流れを表わしており、矢印(一重線矢印)は制御信号などの流れを表わしている。
カメラ部11−1は、映像音声通信装置1−1が設置されているユーザAのユーザ空間(実空間)内を撮像し、撮像した空間情報(空間の映像情報)を入力し、時空間積分フィルタ部13−1または記憶部18−1に供給する。すなわち、空間の映像情報には、撮像した所定の空間に存在する物体(被写体)に対応する映像(オブジェクト)情報が含まれている。したがって、空間の映像情報は、空間性を有する映像情報である。なお、空間に存在する物体とは、例えば、人や物、壁、カーテンなどであり、その空間に存在する物体であれば、人や物、壁、カーテンなどに限定されない。
操作入力部12−1は、キーボードやマウス、またはダイヤルなどで構成され、ユーザAの操作に対応した制御信号をカメラ部11−1、時空間積分フィルタ部13−1または接続制御部14−1に供給する。すなわち、ユーザAは、操作入力部12−1を操作することにより、カメラ部11−1の撮像開始を指示したり、接続制御部14−1に通信開始を指示する。また、ユーザAは、操作入力部12−1を操作することにより、時空間積分フィルタ部13−1が行うフィルタリング処理を調整するためのパラメータ(例えば、後述する積分時間パラメータ情報)を入力する。
時空間積分フィルタ部13−1は、カメラ部11−1により撮像された空間の映像情報を直接、あるいは、記憶部18−1を介して入力し、入力した空間の映像情報に対して、ユーザAにより操作入力部12−1を介して入力されるパラメータと空間の映像情報の時空間的特性に応じたフィルタリング処理を実行する。
ここで、時空間的特性とは、カメラ部11−1により撮像される、空間性を有する空間情報(空間の映像情報)から取得される時間的特性であって、現在から過去(所定の時間)の空間の映像情報に含まれる、撮像された所定の空間内に存在する物体の映像(オブジェクト)情報がどの空間位置にどのくらいの時間、存在(滞在)しているかといった、空間の映像情報における各オブジェクト情報の存在時間と存在位置(滞在時間と滞在位置)の特性のことである。すなわち、空間の映像情報の時空間的特性は、空間性を有する映像情報の時間変動の特性である。
さらに、換言するに、時空間的特性は、現在から過去(所定の時間)に、カメラ部11−1により映像情報として入力された対象の、所定の空間内に存在する物体が所定の空間の中のどの位置にどのくらいの時間存在しているかといった、所定の空間内に存在する物体の存在時間と存在位置(滞在時間と滞在位置)の特性、すなわち、所定の空間内における時間変動の特性ともいえる。なお、以下、空間の映像情報を、単に映像情報とも称する。
したがって、時空間積分フィルタ部13−1は、ユーザAにより操作入力部12−1を介して入力されるパラメータと映像情報の時空間的特性に応じて、透明度や部分遮断、あるいはぼかしなどのフィルタリング処理を実行する。例えば、時空間積分フィルタ部13−1は、映像情報において、位置aに短い時間しか存在しないオブジェクト(例えば、通り過ぎる他のユーザの映像)情報に対しては、位置bに長い時間存在するオブジェクト(例えば、常設される家具の映像)情報に対するよりも、透過度を大きくしたり、部分遮断するなどのフィルタリング処理を実行したり、あるいは、映像情報において、位置cに長い時間存在するオブジェクト情報に対しては、位置dに短い時間しか存在しないオブジェクト情報に対するよりもぼかしを大きくするなどのフィルタリング処理を実行する。
そして、時空間積分フィルタ部13−1は、フィルタリング処理された映像情報を、出力映像情報として、通信部15−1およびミキサ処理部16−1に供給する。
接続制御部14−1は、操作入力部12−1を介して入力されるユーザAの操作に応じて、通信部15−1を制御し、ネットワーク2を介しての映像音声通信装置1−2との通信の接続を確立させたり、接続を遮断させる。
通信部15−1は、送信部21−1および受信部22−1により構成され、ネットワーク2を介して、他の映像音声通信装置1と通信を行う。送信部21−1は、時空間積分フィルタ部13−1から供給される出力映像情報を、ネットワーク2を介して、映像音声通信装置1−2に送信する。受信部22−1は、映像音声通信装置1−2からネットワーク2を介して受信される出力映像情報を、ミキサ処理部16−1に供給する。
ミキサ処理部16−1は、時空間積分フィルタ部13−1から供給される出力映像情報および受信部22−1から供給される出力映像情報を合成(重畳)する。ミキサ処理部16−1は、合成した出力映像情報に対応する映像や、時空間積分フィルタ部13−1から供給される出力映像情報または受信部22−1から供給される出力映像情報に対応する映像を、モニタ17−1に表示させる。
これにより、LCD(Liquid Crystal Display)などにより構成されるモニタ17−1からは、時空間積分フィルタ部13−1によりフィルタリング処理されたユーザAの空間の映像情報に対応する映像や、映像音声通信装置1−2の時空間積分フィルタ部13−2によりフィルタリング処理されたユーザBの空間の映像情報に対応する映像が、後述する図8に示されるように表示される。
記憶部18−1は、カメラ部11−1から入力される空間の映像情報を一旦記憶しておき、記憶している映像情報を、時空間積分フィルタ部13−1に供給する。すなわち、時空間積分フィルタ部13−1においては、リアルタイムに撮像された空間の映像情報だけでなく、記憶部18−1に一旦記憶されている空間の映像情報も処理される。
映像音声通信装置1−2は、カメラ部11−2、操作入力部12−2、時空間積分フィルタ部13−2、接続制御部14−2、送信部21−2および受信部22−2からなる通信部15−2、ミキサ処理部16−2、モニタ17−2、並びに記憶部18−2により構成され、映像音声通信装置1−1と基本的な構成は同じであるため、その説明は省略する。
なお、以下、カメラ部11−1および11−2、操作入力部12−1および12−2、時空間積分フィルタ部13−1および13−2、通信部15−1および15−2、接続制御部14−1および14−2、ミキサ処理部16−1および16−2、モニタ17−1および17−2、記憶部18−1および18−2、送信部21−1および21−2、並びに受信部22−1および22−2を個々に区別する必要がない場合、まとめて、カメラ部11、操作入力部12、時空間積分フィルタ部13、接続制御部14、通信部15、ミキサ処理部16、モニタ17、記憶部18、送信部21、並びに受信部22とも称する。
また、この映像音声通信装置1は、パーソナルコンピュータで構成することができることはもちろん、例えば、携帯電話機、その他のPDA(Personal Digital Assistant)機器や、AV(Audio Visual)機器や家電(家庭用電化製品)などのCE(Consumer Electronics)機器などで構成することもできる。
以上のように、映像音声通信システムにおいては、所定の空間を撮像して入力された空間の映像情報が、ユーザが設定するパラメータと空間の映像情報の時空間的特性に応じたフィルタリング処理が実行されてから、通信相手に送信される。
なお、上記説明においては、カメラ部11および記憶部18と、通信部15およびミキサ処理部16との間に、時空間積分フィルタ部13を設け、時空間積分フィルタ部13においては、カメラ部11または記憶部18からの映像情報をフィルタリング処理する場合を説明したが、時空間積分フィルタ部13の位置は、図1の場合に限定されず、映像音声通信装置1の二重線矢印で示される映像情報が入出力される各部間であれば、どこに設置されてもよい。
例えば、時空間積分フィルタ部13は、受信部22とミキサ処理部16に設置されてもよく、その場合、時空間積分フィルタ部13は、他の映像音声通信装置1において入力され、受信部22より受信された空間の映像情報をフィルタリング処理し、ミキサ処理部16に出力するように構成される。
図2は、図1の時空間積分フィルタ部の詳細な構成例を示している。なお、図2に示される構成例は、空間の映像情報に対してなされる時空間的特性に応じたフィルタリング処理の具体的な一例として、空間の映像情報を積分時間パラメータ情報に応じて積分演算処理する場合の構成例である。
図2の時空間積分フィルタ部13は、パラメータ設定部41、情報変換処理部42、記憶部43、時空間積分演算部44、および情報出力部45により構成される。
パラメータ設定部41には、操作入力部12を介して、時空間積分フィルタ部13−1が行うフィルタリング処理を調整するためのパラメータとして、積分時間パラメータ情報が入力される。積分時間パラメータ情報は、積分時間T[s](Tmin≦T≦Tmax,T=0)とサンプル(フレーム)数N[f(frequency)](1≦N≦Fs*T)で構成される。
なお、T=0の場合は、時空間積分演算部44により現在時刻の映像情報(サンプル)が記憶部43から読み出されて、そのまま情報出力部45より出力される。すなわち、T=0の場合、リアルタイムの映像情報がそのまま出力される。
パラメータ設定部41は、操作入力部12を介して積分時間パラメータ情報が入力されると、入力された積分時間パラメータ情報を、時空間積分演算部44が行う処理のパラメータとして設定する。すなわち、パラメータ設定部41においては、積分時間パラメータ情報に基づいて、サンプル数N、およびサンプル数Nと積分時間Tから求まるサンプル間隔τが設定される。いまの場合、サンプル間隔τ=T/N(Tmin≦τ≦T)となる。
情報変換処理部42は、例えば、図1の場合、カメラ部11などから撮像された空間の映像情報を入力し、入力した映像情報を、所定の形式に変換して、記憶部43に書き込む。記憶部43は、最大サンプル蓄積時間Tmax[s]で、最大サンプル数Nmax[f]の映像情報(画像情報)を蓄積する。なお、蓄積される映像情報が、最大サンプル数Nmax[f]を超えた場合には、最も古いサンプルから情報が消去され、順次サンプル情報列が更新される。すなわち、記憶部43には、逐次、ある時刻(例えば、現在時刻)から過去までの所定の時間の映像情報が記憶されている。
例えば、情報変換処理部42が、サンプル周波数Fs[fps]でVGA(640*480ピクセル)サイズの24ビットフルカラーRGB形式に変換した場合、記憶部43には、サンプル周波数Fs=1/最小サンプル間隔(Tmin)[fps]、最大サンプル蓄積時間Tmax[s]、および最大サンプル数Nmax=Fs*Tmax[f]の映像情報が蓄積される。
時空間積分演算部44は、サンプル抽出部51、サンプル加算部52、およびサンプル除算部53により構成され、ユーザにより入力され、パラメータ設定部41により設定されたサンプル数Nおよびサンプル間隔τに応じて、記憶部43に蓄積されている映像情報を積分演算することにより、映像情報に対して、映像情報の時空間的特性に応じたフィルタリング処理を実行し、フィルタリング処理された映像情報を、出力映像情報として、情報出力部45に供給する。
サンプル抽出部51は、パラメータ設定部41により設定されたサンプル数Nおよびサンプル間隔τに応じたサンプル(フレーム)を、記憶部43から読み出し、読み出したサンプルを、サンプル加算部52に供給する。
サンプル加算部52は、サンプル抽出部51により抽出された全サンプルについて、VGAサイズのサンプルの各ピクセル毎に、色情報(R(赤):0乃至255、G(緑):0乃至255、B(青):0乃至255)の値を加算し、各ピクセル毎の加算した色情報の値を、サンプル除算部53に供給する。
サンプル除算部53は、サンプル加算部52から供給される各ピクセル毎の色情報の値を除算し、各ピクセル毎の除算した色情報の値を、出力映像情報として、情報出力部45に供給する。
情報出力部45は、サンプル除算部53からの出力映像情報を、後段(例えば、図1の場合、通信部15およびミキサ処理部16)に供給する。
次に、図3および図4を参照して、図2の時空間積分演算部の積分演算処理について詳しく説明する。
図3の例においては、現在を時刻t=0とし、ユーザによりサンプル間隔τ=最小サンプル間隔Tminが設定されている場合の時間軸が表されている。
この時間軸において、現在時刻t=0より図中右側のt=1τ乃至7τは、これから経過する未来の時刻を表しており、現在時刻t=0より図中左側のt=−1τ乃至−11τは、経過した過去の時刻を表している。また、時間軸上には、ユーザが操作入力部12を操作することにより設定される積分時間T1(時刻t=0乃至−4),積分時間T2(時刻t=0乃至−7)、および積分時間T3(時刻t=0乃至−10)が示されている。
現在時刻t=0において、記憶部43には、過去に向けてサンプル間隔τ(最小サンプル間隔Tmin)毎にサンプル(フレーム)が蓄積されている。したがって、サンプル抽出部51は、そのうち、ユーザにより設定される積分時間T内のサンプルを、ユーザにより設定されるサンプル数N枚抽出する。
例えば、ユーザが操作入力部12を操作することにより、積分時間パラメータ情報として、積分時間T1=4τが設定された場合、サンプル抽出部51は、現在時刻t=0からの積分時間T1(時刻t=0乃至−4)に含まれる、サンプル間隔τ毎のN=T1/τ=4(枚)のサンプルを抽出する。
また、ユーザが操作入力部12を操作することにより、積分時間パラメータ情報として、積分時間T2=7τが設定された場合、サンプル抽出部51は、現在時刻t=0より積分時間T2(時刻t=0乃至−7)に含まれる、サンプル間隔τ毎のN=T2/τ=7(枚)のサンプルを抽出する。
同様に、ユーザが操作入力部12を操作することにより、積分時間パラメータ情報として、積分時間T3=10τが設定された場合、サンプル抽出部51は、現在時刻t=0より積分時間T3(時刻t=−1乃至−10)に含まれる、サンプル間隔τ毎のN=T3/τ=10(枚)のサンプルを抽出する。
なお、現在時刻t=0において、積分時間T=0の場合は、サンプル数0となる。したがって、現在時刻t=0、積分時間T=0の場合には、時空間積分フィルタ部13−1からは、現在時刻t=0の映像情報、すなわち、リアルタイムの映像情報がそのまま出力される。
図4は、時刻tにおける各サンプル(フレーム)内の情報構造を示している。
図4の例において、サンプルは、縦方向に1,2,…,x,…,480行で、横方向に1,2,…,y,…,640列の合計640*480=307,200画素(ピクセル)で構成される。
このとき、x行y列のピクセルは、赤(R)、緑(G)、青(B)の24ビットフルカラーの情報を有している。x行y列のピクセルが有する色情報Pxy(t)は、次の式(1)で表される。
Pxy(t)={Rxy,Gxy,Bxy} ・・・(1)
なお、24ビットフルカラーの場合、各色情報の値は、それぞれ0≦Rxy,Gxy,Bxy≦255となる。
式(1)より、サンプルにおけるピクセル行列ごとの色情報P(t)は、次の式(2)で表される。
サンプル加算部52およびサンプル除算部53は、サンプル抽出部51が抽出したサンプルを用いて、以下の式(3)、式(4)、および式(5)に従って、積分演算処理を行う。
具体的には、サンプル加算部52は、式(3)に示されるように、サンプル間隔τ毎にN枚のサンプルにおけるx行y列のピクセルの色情報Pxy(t)を加算する。
サンプル除算部53は、サンプル加算部52により加算された値をサンプル数Nで除算し、出力映像情報を算出する。時間tにおける積分時間T(=N*τ)の出力映像情報Q(t)は、次の式(4)で表される。
なお、式(3)および式(4)を合わせることにより、ピクセル毎の出力映像情報Q(t)は、次の式(5)で表される。
以上のように、時空間積分演算部44においては、サンプル抽出部51により積分時間Tおよびサンプル数Nに応じて抽出されたサンプルの情報に対して積分演算が実行される。
次に、図5乃至図8を参照して、上述した積分演算処理による時空間的特性に応じたフィルタリング処理の結果について具体的に説明する。
図5は、ある空間内を撮像した空間の映像情報が対応する映像の例を示している。図5の例においては、左から順に、モニタ17に表示される、t=−10τに撮像(入力)された映像情報(サンプル)に対応する映像71、t=−2τに撮像された映像情報に対応する映像72、t=0に撮像された映像情報に対応する映像73が示されている。また、各映像71乃至73(が対応するサンプル)において、中央の定位置のピクセルを、ピクセルPとする。
これらの映像71乃至73は、ある空間の奥に壁Bがt=−16τ乃至t=0の間(長時間)存在し、ある空間の中央、かつ、壁Bの手前に、物体Gがt=−4τに出現し、t=−4τ乃至t=0の間(中時間)存在し、ある空間の中央、かつ、物体Gの手前に、物体Rがt=−1に出現し、t=−1τ乃至t=0の間(短時間)存在する場合に、ある空間内が撮像された映像情報に対応するものである。
t=−10τにおける映像71には、壁Bのオブジェクト(映像)のみが表示される。このとき、映像71のピクセルPにおいては、壁Bのオブジェクトが表示される。したがって、現在時刻t=−10τのとき、ピクセルPは、壁Bのオブジェクトの色情報を有している。
t=−2τの映像72には、壁Bのオブジェクトの手前に、物体Gのオブジェクトが表示される。このとき、映像72のピクセルPにおいては、一番手前の物体Gのオブジェクトが表示される。したがって、現在時刻t=−2τのとき、ピクセルPは、物体Gのオブジェクトの色情報を有している。
t=0の映像73には、壁Bのオブジェクトの手前の物体Gのオブジェクトの手前に、さらに、物体Rのオブジェクトが表示される。このとき、映像73のピクセルPにおいては、一番手前の物体Rのオブジェクトが表示される。したがって、現在時刻t=0のとき、ピクセルPは、物体Rのオブジェクトの色情報を有している。
ここで、各映像におけるピクセルPが有する色情報の時間による変化について、図6を参照して説明する。図6のグラフにおいては、縦軸がピクセルPにおいて表示されるオブジェクトの表示比率(不透明度)(%)を表しており、横軸が時間軸を表している。
t=−16τから、壁Bのオブジェクトの手前に物体Gのオブジェクトが出現するt=−4τまでは、例えば、図5の映像71に示されるように、ピクセルPにおいては、壁Bのオブジェクトが表示比率100%で表示される。すなわち、この間のサンプルにおけるピクセルPは、壁Bのオブジェクトの色情報を有している。
物体Gのオブジェクトが出現したt=−4τから、物体Gのオブジェクトの手前に物体Rのオブジェクトが出現するt=−1τまでは、例えば、図5の映像72に示されるように、ピクセルPにおいては、物体Gのオブジェクトが表示比率100%で表示される。すなわち、この間のサンプルにおけるピクセルPは、物体Gのオブジェクトの色情報を有している。
物体Rのオブジェクトが出現したt=−1τから、現在時刻t=0までは、例えば、図5の映像73に示されるように、ピクセルPにおいては、物体Rのオブジェクトが表示比率100%で表示される。すなわち、この間のサンプルにおけるピクセルPは、物体Rのオブジェクトの色情報を有している。
以上のように、ある空間内を物体が移動する場合、ある空間内が撮像された映像上のピクセルPの色情報は、時間や物体の移動(位置)に応じて変化する。このように、時間や物体の位置の特性(すなわち、時空間的特性)に応じて色情報が変化するピクセルPにおいて、例えば、時空間的特性に応じたフィルタリング処理として、積分時間Tのサンプルを用いて積分演算を実行することにより、その結果、図7に示されるように、積分時間Tに応じてピクセルPにおける各オブジェクトの表示比率を変化させることができる。
図7は、現在時刻t=0において、時空間的特性に応じたフィルタリング処理を行った場合のピクセルPにおけるオブジェクトの表示比率の変化を表すグラフである。図7のグラフにおいては、縦軸がピクセルPにおけるオブジェクトの表示比率(不透明度)(%)を表しており、横軸が積分時間Tを表している。
積分時間Tが1τの場合、時刻t=−1τから、現在時刻t=0までのサンプルにおけるピクセルPの色情報は、図6を参照して上述したように、物体Rのオブジェクトの色情報のみで構成される。したがって、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、物体Rのオブジェクトが表示比率100%で表示される。
積分時間Tが2τ乃至4τの場合、t=−2τ、−3τ、または−4τから、現在時刻t=0までのサンプルにおけるピクセルPの色情報は、図6を参照して上述したように、物体Gのオブジェクトの色情報になるときと、物体Rのオブジェクトの色情報になるときがあるため、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、物体Gのオブジェクトと、物体Rのオブジェクトが積分時間Tに応じた表示比率で表示される。
すなわち、積分時間Tが2τの場合、t=−2τ乃至―1τの間(1τ間)、ピクセルPは、物体Gのオブジェクトの色情報を有し、t=−1τ乃至0の間(1τ間)、ピクセルPは、物体Rのオブジェクトの色情報を有する。したがって、積分時間Tが2τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、物体Gのオブジェクトと物体Rのオブジェクトが、1対1(50%,50%)の表示比率で表示される。
積分時間Tが3τの場合、t=−3τ乃至―1τの間(2τ間)、ピクセルPは、物体Gのオブジェクトの色情報を有し、t=−1τ乃至0の間(1τ間)、ピクセルPは、物体Rのオブジェクトの色情報を有する。したがって、積分時間Tが3τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、物体Gのオブジェクトと物体Rのオブジェクトが、2対1の表示比率で表示される。
積分時間Tが4τの場合、t=−4τ乃至―1τの間(3τ間)、ピクセルPは、物体Gのオブジェクトの色情報を有し、t=−1τ乃至0の間(1τ間)、ピクセルPは、物体Rのオブジェクトの色情報を有する。したがって、積分時間Tが4τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、物体Gのオブジェクトと物体Rのオブジェクトが、3対1(75%,25%)の表示比率で表示される。
さらに、積分時間Tが5τ乃至16τの場合、t=−5τ乃至−16τのうちの時刻tから、現在時刻t=0までのサンプルにおけるピクセルPの色情報は、図6を参照して上述したように、壁Bのオブジェクトの色情報になるとき、物体Gのオブジェクトの色情報になるとき、および物体Rのオブジェクトの色情報になるときがあるため、現在時刻t=0のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、および物体Rのオブジェクトが積分時間Tに応じた表示比率で表示される。
すなわち、積分時間Tが5τの場合、t=−5τ乃至―4τの間(1τ間)、ピクセルPは、壁Bのオブジェクトの色情報を有し、t=−4τ乃至―1τの間(3τ間)、ピクセルPは、物体Gのオブジェクトの色情報を有し、t=−1τ乃至0の間(1τ間)、ピクセルPは、物体Rのオブジェクトの色情報を有する。したがって、積分時間Tが5τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、1対3対1の表示比率で表示される。
積分時間Tが6τの場合、t=−6τ乃至―4τの間(2τ間)、ピクセルPは、壁Bのオブジェクトの色情報を有し、t=−4τ乃至―1τの間(3τ間)、ピクセルPは、物体Gのオブジェクトの色情報を有し、t=−1τ乃至0の間(1τ間)、ピクセルPは、物体Rのオブジェクトの色情報を有する。したがって、積分時間Tが6τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、2対3対1の表示比率で表示される。
積分時間Tが7τの場合、t=−7τ乃至―4τの間(3τ間)、ピクセルPは、壁Bのオブジェクトの色情報を有し、t=−4τ乃至―1τの間(3τ間)、ピクセルPは、物体Gのオブジェクトの色情報を有し、t=−1τ乃至0の間(1τ間)、ピクセルPは、物体Rのオブジェクトの色情報を有する。したがって、積分時間Tが7τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、3対3対1の表示比率で表示される。
以下、同様に、積分時間Tが8τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、4対3対1の表示比率で表示される。積分時間Tが9τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、5対3対1の表示比率で表示される。積分時間Tが10τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、6対3対1の表示比率で表示される。
積分時間Tが11τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、7対3対1の表示比率で表示される。積分時間Tが12τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、8対3対1の表示比率で表示される。積分時間Tが13τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、9対3対1の表示比率で表示される。
積分時間Tが14τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、10対3対1の表示比率で表示される。積分時間Tが15τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、11対3対1の表示比率で表示される。積分時間Tが16τの場合、時空間的特性に応じたフィルタリング処理後のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、12対3対1の表示比率で表示される。
図8は、図5を参照して上述した空間の映像情報が、図7の積分時間Tに応じたサンプルを用いて積分演算処理を行うことによる時空間的特性に応じたフィルタリング処理が実行された場合に、現在時刻t=0において表示される映像を表している。
図8の例においては、左より、現在時刻t=0においてモニタ17に表示される、積分時間T=10τの場合のフィルタリング処理後の映像情報に対応する映像91、積分時間T=2τの場合のフィルタリング処理後の映像情報に対応する映像92、積分時間T=0の場合のフィルタリング処理後の映像情報に対応する映像93が示されている。
現在時刻t=0において、積分時間T=10τに応じたサンプルを用いて、時空間的特性に応じたフィルタリング処理が実行された場合、図7を参照して上述したように、映像91のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、6対3対1の表示比率で表示される。すなわち、フィルタリング処理が実行された結果、現在時刻t=0に表示される映像91のピクセルPの色情報は、10%の物体Rのオブジェクトの色情報、30%の物体Gのオブジェクトの色情報、60%の壁Bのオブジェクトの色情報で表わされる。
同様に、現在時刻t=0において、積分時間T=2τに応じたサンプルを用いて、時空間的特性に応じたフィルタリングを行った場合、図7を参照して上述したように、映像92のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、0対5対5の表示比率で表示される。すなわち、フィルタリング処理が実行された結果、現在時刻t=0に表示される映像92のピクセルPの色情報は、50%の物体Rのオブジェクトの色情報、50%の物体Gのオブジェクトの色情報、0%の壁Bのオブジェクトの色情報で表わされる。
また、現在時刻t=0において、積分時間T=0に応じたサンプルを用いて、時空間的特性に応じたフィルタリングを行った場合、すなわち、積分時間T=0の場合、t=0の映像情報がそのまま表示されるので、映像93のピクセルPにおいては、壁Bのオブジェクト、物体Gのオブジェクト、物体Rのオブジェクトが、0対0対1の表示比率で表示される。すなわち、フィルタリング処理が実行された結果、現在時刻t=0に表示される映像93のピクセルPの色情報は、100%の物体Rのオブジェクトの色情報、0%の物体Gのオブジェクトの色情報、0%の壁Bのオブジェクトの色情報で表わされる。
以上のように、積分時間T=10τのように、積分時間Tが長く設定されることにより、設定された積分時間T内において、壁Bのオブジェクトのように映像情報に存在する時間の長いオブジェクトが、動きがあり存在時間の短いオブジェクトよりも明確に表示される。
これに対して、積分時間T=2τのように、積分時間Tが短く設定されることにより、積分時間Tよりも時間的に前に存在した映像情報は考慮されなくなるため、積分時間T以前を含めると長く存在したオブジェクトよりも、物体Gのオブジェクトのように比較的近い過去(積分時間T内の)、および物体Rのオブジェクトのように最も近い過去において出現するオブジェクトが明確に表示される。すなわち、短く設定された積分時間Tにおいて、映像情報に、壁Bのオブジェクトより長く存在している物体Gや物体Rのオブジェクトがより明確に表示される。
そして、積分時間T=0が設定される場合には、過去の映像情報は考慮されなくなるため、積分時間T以前から長く存在したオブジェクトは表示されず、物体Rのオブジェクトのように現在時刻に存在しているオブジェクトのみ(すなわち、現在時刻の映像情報)が表示される。
すなわち、積分時間Tを用いて、時空間的特性に応じたフィルタリング処理を行うことにより、空間の映像情報において、積分時間T内に存在する時間の長いオブジェクトがより明確に表示されることとなる。
したがって、例えば、長時間変化することのない壁などの周囲の背景のオブジェクト(映像)は、通信相手に開示されてもいいが、1,2時間座っている被撮像ユーザ(自分)の表情や、被撮像ユーザの後ろを横切る他のユーザのオブジェクト(映像)をあまり明確に表示させたくない場合には、積分時間Tを長く設定して積分を実行させることにより、長い積分時間Tにおいて、背景のオブジェクトが、被撮像ユーザや他のユーザのオブジェクトより長く存在することになり、背景のオブジェクトを、被撮像ユーザや他のユーザのオブジェクトより明確に表示させることができる。
これに対して、被撮像ユーザや他のユーザのオブジェクトを、背景のオブジェクトより明確に表示させたい場合には、積分時間Tを短く設定して積分を実行させることにより、短い積分時間Tにおいて、被撮像ユーザや他のユーザのオブジェクトが背景のオブジェクトより長く存在することになり、被撮像ユーザや他のユーザのオブジェクトを背景のオブジェクトより明確に表示させることができる。
すなわち、図2の時空間積分演算部44においては、入力された積分時間Tに応じて、通信相手に送信する情報の表示比率(明瞭度)が調整されるので、プライバシの侵害を容易に軽減することができる。
以上のように、例えば、ある空間を撮像している場合に、長時間撮像される(すなわち、映像情報に存在する存在時間が長い)時空間的特性を有する壁Bなどのオブジェクトと、撮像時間が比較的短い、あるいは、移動時間が速い(すなわち、映像情報に存在する存在時間が短い)時空間的特性を有する物体RやB、または人間などのオブジェクトとの表示バランスを、被撮像ユーザが積分時間Tを入力することにより調整することができる。これにより、被撮像ユーザが望む表示バランスで、映像情報を通信相手のユーザに送信することができる。
なお、上記説明における壁Bのオブジェクトの色情報は、物体名とは特に関連はない。すなわち、壁Bのオブジェクトの色情報は、物体名と同様に、{R,G,B}={0,0,255}であってもよいし、{R,G,B}={150,30,20}であってもよい。他の物体のオブジェクトの色情報についても同様である。
また、上記説明においては、積分時間に応じたサンプルの映像情報の積分を行うことにより表示比率を変更するようにしたが、例えば、表示比率(不透明度)に限らず、ぼかしや部分的に遮断させるようなフィルタリング処理を行うようにしてもよい。
次に、図9のフローチャートを参照して、映像音声通信装置1−1が映像音声通信装置1−2と行う映像通信処理を説明する。
ユーザAは、ユーザBの映像音声通信装置1−2と相互に通信するために、操作入力部12−1を操作する。操作入力部12−1は、ユーザAの操作に対応した制御信号を、接続制御部14−1に供給する。接続制御部14−1は、ステップS11において、操作入力部12−1からの制御信号に応じて、送信部21−1を制御し、ネットワーク2を介して、映像音声通信装置1−2との接続を確立させる。
具体的には、接続制御部14−1は、操作入力部12−1からの制御信号に応じて、送信部21−1を制御し、ネットワーク2を介して、映像音声通信装置1−2に対して接続要求を送信させる。
映像音声通信装置1−2は、映像音声通信装置1−1からの接続要求を受けると、ミキサ処理部16−2を介して、接続要求に対応する通知をモニタ17−2に表示させる。ユーザBは、モニタ17−2に表示される接続要求の通知に応じて、操作入力部12−2を操作して、接続を許可する。操作入力部12−2は、ユーザBの操作に対応した制御信号を接続制御部14−2に供給する。接続制御部14−2は、送信部21−2を制御し、ネットワーク2を介して、映像音声通信装置1−1に対して接続許可を送信させる。
映像音声通信装置1−1の受信部22−1は、映像音声通信装置1−2からの接続許可を受けると、接続許可を接続制御部14−1に供給する。これにより、映像音声通信装置1−1は、通信相手の映像音声通信装置1−2とのネットワーク2を介しての接続が確立され、映像音声通信装置1−1および映像音声通信装置1−2の間は、後述するステップS20において映像通信処理の終了が指示されたと判定されるまで、常時接続の状態となる。
ユーザAは、通信相手の映像音声通信装置1−2に、ユーザAのユーザ空間の映像情報を送信し、かつ、送信する映像情報に対して、所望の度合いのプライバシ保護に対応するフィルタリング処理を行うために、操作入力部12−1を操作して、積分時間Tとサンプル数Nからなる積分時間パラメータ情報を入力するとともに、カメラ部11−1に対して撮像開始を指示する。
パラメータ設定部41は、操作入力部12を介して積分時間パラメータ情報が入力されると、ステップS12において、入力された積分時間パラメータ情報を、時空間積分演算部44が行う処理のパラメータとして設定し、ステップS13に進む。すなわち、パラメータ設定部41は、積分時間パラメータ情報に基づいて、サンプル数N、およびサンプル数Nと積分時間Tから求まるサンプル間隔τなどを設定する。
カメラ部11−1は、ステップS13において、操作入力部12−1からの制御信号に応じて、ユーザAのユーザ空間の撮像を開始し、撮像した空間情報、すなわち、ユーザ空間に存在する被写体に対応する映像(オブジェクト)の情報が含まれる空間の映像情報を入力し、情報変換処理部42に供給する。情報変換処理部42は、カメラ部11−1から入力された映像情報を、所定の形式に変換して、記憶部43に書き込み、ステップS14に進む。
ステップS14において、時空間積分演算部44は、パラメータ設定部41により設定された積分時間パラメータ情報に応じて時空間積分フィルタ処理を実行する。この時空間積分フィルタ処理は、図10を参照して後述する。
ステップS14の時空間積分フィルタ処理により、積分時間パラメータ情報に応じた積分演算処理が実行されることで、記憶部43の映像情報に対して、映像情報の時空間的特性に応じたフィルタリング処理が実行される。すなわち、映像情報に含まれる各オブジェクトの情報が有する時空間的特性に応じたフィルタリング処理が実行され、時空間的特性に応じたフィルタリング処理が実行された映像情報(色情報)が、情報出力部45に供給される。
情報出力部45は、ステップS15において、時空間積分演算部44からの映像情報を、
出力映像情報として、後段(すなわち、送信部21−1およびミキサ処理部16−1)に供給し、ステップS16に進む。
出力映像情報として、後段(すなわち、送信部21−1およびミキサ処理部16−1)に供給し、ステップS16に進む。
ステップS16において、送信部21−1は、フィルタリング処理が施された出力映像情報を、ネットワーク2を介して、接続中の映像音声通信装置1−2に送信する。これに対応して、映像音声通信装置1−2の受信部22−2は、映像音声通信装置1−1からの出力映像情報を受信する。これにより、受信された出力映像情報に対応する映像がミキサ処理部16−2を介して、モニタ17−2に表示される。すなわち、映像音声通信装置1−2のモニタ17−2には、ユーザAの所望した度合いのフィルタリング処理が施された映像情報に対応する映像が表示される。
また、映像音声通信装置1−2も、ステップS11で接続が確立された後、映像音声通信装置1−1と同様に、ユーザBのユーザ空間(の所定の空間)に存在する被写体(物体)に対応するオブジェクトの情報が含まれる映像情報を入力し、ユーザBにより操作入力部12−2を介して入力された積分時間パラメータ情報を用いて時空間的特性に応じたフィルタリング処理が実行された出力映像情報を、ネットワーク2を介して送信してくる。
映像音声通信装置1−1の受信部22−1は、ステップS17において、映像音声通信装置1−2からの出力映像情報を受信し、受信した出力映像情報をミキサ処理部16−1に供給し、ステップS18に進む。
ミキサ処理部16−1は、ステップS18において、時空間積分フィルタ部13−1からの出力映像情報と、映像音声通信装置1−2からの出力映像情報を合成(重畳)し、合成した出力映像情報に対応する画像をモニタ17−1に表示させる。
具体的には、ミキサ処理部16−1は、映像音声通信装置1−2からの出力映像情報に対応する映像を親画面に表示させ、時空間積分フィルタ部13−1からの出力映像情報に対応する映像を子画面に表示させるように合成して表示させたり、あるいは、映像音声通信装置1−2からの出力映像情報に対応する映像をモニタ17−1に表示させ、映像音声通信装置1−2からの出力映像情報に対応する映像を図示せぬ他のモニタに表示させるように、出力映像情報の表示を制御する。
以上のようにして、ユーザAの映像音声通信装置1−1のモニタには、ユーザBの所望のフィルタ処理が施された出力映像情報に対応する映像が表示される。すなわち、ユーザBが所望しない限り、すなわち、積分時間T=0を設定しない限り、撮像されたままの映像情報は表示されないので、これにより、ユーザBのプライバシの保護が促進される。
また、ユーザAは、モニタ17−1の、例えば、子画面に表示される時空間的特性に応じたフィルタリング処理が施されたユーザAのユーザ空間の映像情報に対応する映像を見て、フィルタリング処理の結果を確認する。
例えば、フィルタリング処理の結果が好ましくないと思った場合、ユーザAは、映像音声通信装置1−2に送信する映像情報に対するフィルタリング処理の積分時間パラメータ情報を変更するために、操作入力部12−1を操作して、積分時間Tとサンプル数Nからなる積分時間パラメータ情報を再度入力する。
操作入力部12−1から積分時間パラメータ情報に対応する制御信号が入力されると、パラメータ設定部41は、ステップS19において、積分時間パラメータ情報が変更されたか否かを判定し、積分時間パラメータ情報が変更されたと判定した場合、ステップS12に戻り、操作入力部12−1を介して入力される積分時間パラメータ情報を更新(設定)し、それ以降の処理を繰り返す。
これにより、ステップS14の時空間積分フィルタ処理は、変更された積分時間パラメータ情報に応じて実行される。
また、パラメータ設定部41は、ステップS19において、積分時間パラメータ情報が変更されていないと判定した場合、ステップS20に進む。
例えば、ユーザAは、操作入力部12−1を操作して、映像音声通信装置1−2との映像通信処理を終了する指示を入力する。操作入力部12−1は、ユーザの操作に対応する制御信号を接続制御部14−1に供給する。あるいは、ユーザBにより映像通信処理を終了したいとの要求が受信部22−1に受信され、受信された要求が接続制御部14−1に供給される。
接続制御部14−1は、ステップS20において、ユーザAまたはユーザBからの映像通信処理の終了が指示されたか否かを判定し、どちらか一方からでも映像通信処理の終了が指示されたと判定した場合、通信部15−1を制御し、接続を切断させ、映像通信処理を終了させる。なお、特に説明はしないが、接続が切断される前に、映像音声通信装置1−2やモニタ17−1に終了通知を表示させるようにしてもよい。
一方、ステップS20において、ユーザAまたはユーザBからの映像通信処理の終了が指示されていないと判定された場合、ステップS13に戻り、それ以降の処理が繰り返される。すなわち、この場合、前回設定されたままの積分時間パラメータ情報に基づいて時空間積分フィルタ処理が実行される。
なお、図9の例において、映像情報の送受信のみの終了指示があった場合には、映像音声通信装置1−1および1−2の接続は確立されたまま、映像情報の送受信のみが終了される。
また、図9の例においては、ユーザにより設定された積分時間パラメータ情報によるフィルタリング処理された画像を通信相手に送信するとともに、積分時間パラメータ情報による処理の効果を確認するように説明したが、ユーザの有するモニタにおいて、まず、積分時間パラメータ情報による処理の効果を確認して、映像情報に所望のフィルタリング処理が施されていることを確認した後に、通信相手に映像情報を送信開始するようにしてもよい。
さらに、例えば、積分時間パラメータ情報を入力するための操作入力部12−1を、例えば、回転の度合いに応じて、積分時間パラメータ情報が入力可能なダイヤルや、傾きの度合いに応じて、積分時間パラメータ情報が入力可能なスティックなどで構成するようにすることにより、ユーザは、ダイヤルを回転させたり、スティックを傾けるだけで、変更された積分時間パラメータ情報を用いてフィルタリング処理された映像情報に対応する映像をモニタ17−1で確認することができるので、簡単に、積分時間パラメータ情報を変更、その結果を確認することができる。
次に、図10のフローチャートを参照して、図9のステップS14の時空間積分フィルタ処理を説明する。記憶部43には、カメラ部11により撮像、入力され、情報変換処理部42により所定の形式に変換された映像情報が蓄積されている。
ステップS31において、サンプル抽出部51は、パラメータ設定部41により設定された積分時間パラメータ情報の積分時間Tおよびサンプル数Nに基づいて、サンプル(フレーム)を抽出し、抽出したサンプルを、サンプル加算部52に供給し、ステップS32に進む。
ステップS32において、サンプル加算部52は、サンプル抽出部51により抽出されたサンプルを用いて、ピクセル毎に色情報を加算し、加算したピクセル毎の色情報の値を、サンプル除算部53に供給し、ステップS33に進む。
ステップS33において、サンプル除算部53は、サンプル加算部52により加算されたピクセル毎の色情報の値を、サンプル数で除算し、除算した色情報の値からなる映像情報を、情報出力部45に供給し、時空間積分フィルタ処理を終了する。
以上のように、ユーザAの操作により設定された積分時間パラメータ情報の積分時間Tおよびサンプル数Nに応じたサンプル(映像情報)の各ピクセル毎の色情報が積分されることにより、映像情報に含まれる各オブジェクト情報の存在時間と存在位置の時空間的特性で構成される映像時間の時空間的特性に応じて、表示比率が変更されるフィルタリング処理が実行される。
したがって、入力したユーザAの空間の映像情報を通信相手に送信する場合、ユーザAは、例えば、壁などの長く存在するオブジェクトを明確に、通り過ぎるユーザをあまり明確に表示させたくないときには、積分時間Tを長めに設定したり、あるいは、壁などの長く存在するオブジェクトより、所定の空間に出入りするユーザなどを明確に表示させたいときには、積分時間Tを短めに設定するなど、所望の積分時間パラメータ情報を簡単に設定するだけで、通信相手に知られたくない情報をフィルタリングしてから、送信することができる。
すなわち、時空間的特性フィルタリング処理により、ユーザにより所定の空間を撮像して入力された映像情報内の、例えば、ユーザの顔の表情や、通り過ぎる他のユーザなどといったような個人特定情報や行動情報といったプライバシ情報や環境情報の情報量がある程度削減されてから送信されるので、ユーザのプライバシ侵害が軽減され、プライバシ保護を行いつつ、通信相手と映像情報を用いたコミュニケーションを簡単に行うことができる。
また、このフィルタリング処理は、ユーザにより指示される積分時間パラメータ情報に応じたサンプルで積分演算を行うことにより行われるので、例えば、輪郭抽出などの複雑な画像認識処理が必要なく、したがって、複雑な画像認識処理などのような負荷が装置にかかるのを抑制することができる。
さらに、上述したように、時空間積分フィルタ部13は、図1の二重線矢印のどの各部間に設置されてもよい。したがって、この時空間的特性フィルタリング処理は、他のユーザから送信されてくる他のユーザの空間の映像情報に対しても実行することができるので、他のユーザの空間の映像情報のうち、ユーザの所望の情報以外の情報が出力されないように制限することも可能である。
なお、上記説明においては、ユーザにより指示される積分時間パラメータ情報に応じて積分演算を行うことにより、表示比率(透過度)を変更する時空間的特性に応じたフィルタリング処理を行う例を説明したが、例えば、映像情報から取得される時空間的特性を用いて、時空間的特性に応じたフィルタリング処理を行うものであれば、他の方法を用いてもよく、さらに、フィルタリングの効果も、ぼかしや部分遮断などの効果を用いるようにしてもよい。
さらに、上記説明においては、入力される空間情報が、図4に示される2次元の映像情報である場合に対して、時空間的特性に応じたフィルタリング処理を行う例を説明したが、入力される空間情報は、2次元の映像情報に限定されず、例えば、点としての0次元であってもよいし、線などの1次元の映像情報であってもよいし、さらに、3次元以上の多次元の映像情報であってもよい。
図11は、多視点からの2次元の映像情報が空間情報として入力される場合の時刻tにおける各サンプル(フレーム)内の情報構造を示している。
図11の例においては、例えば、多視点カメラなどからなるカメラ部11から入力された空間の映像情報が、ユーザが見る(ユーザの視点の)水平方向によって異なる映像を表示させる多視点ディスプレイなどに表示される場合の情報構造が示されている。
したがって、図11のフレームにおける各ピクセルには、図4を参照して上述したx成分、y成分の他に、さらに、視点方向である1,2,…,θ,…,M方向からなる水平方向成分が付加されている。なお、1,2,…,θ,…,M方向は、所定の範囲(1乃至M)がM−2分割された各方向を表わしており、Mは、2方向以上であればよく、例えば、72や128方向で構成される。
すなわち、図11の例の場合のx行y列のピクセルは、赤、緑、青の24ビットフルカラーの情報を、視点(水平方向成分)毎に有することとなり、x行y列のピクセルがθ方向について有する色情報は、Pxyθ(t)で表わされる。
したがって、このx行y列のピクセルがθ方向について有する色情報Pxyθ(t)を、図4のx行y列のピクセルが有する色情報Pxy(t)に置き換えて、式(2)乃至(5)に従って積分演算処理を行うことにより、多視点からの2次元の映像情報が空間情報として入力される場合であっても、2次元の映像情報の場合と同様に、時空間的特性に応じたフィルタ処理を行うことができる。
なお、もちろん、水平方向成分だけでなく、垂直方向成分も付加された場合でも、同様に、時空間的特性に応じたフィルタ処理は実行可能である。
図12は、3次元の映像情報が空間情報として入力される場合の時刻tにおける各サンプル(フレーム)内の情報構造を示している。
図12の例においては、例えば、3次元映像を入力可能なカメラ部11から入力された空間の映像情報が、3次元表示可能なディスプレイに表示する場合などに表示される場合の情報構造が示されており、サンプルは、x成分方向に、1,2,…,x,…,nx個で、y成分方向に1,2,…,y,…,ny個で、z成分方向に1,2,…,z,…,nz個からなる画素(ピクセル)で構成される。
すなわち、図12の例の各ピクセルは、図4を参照して上述したx成分、y成分の他に、さらに、z成分で構成されている。したがって、図12の例の場合の(x成分,y成分,z成分)=(x,y,z)のピクセルは、赤、緑、青の24ビットフルカラーの情報を有しており、(x,y,z)のピクセルが有する色情報は、Pxyz(t)で表わされる。なお、図12の例の場合、説明の便宜上、Pxyz(t)の先には、(x,y,z)のピクセルが指し示されているものとする。
したがって、この(x,y,z)のピクセルが有する色情報Pxyz(t)を、図4のx行y列のピクセルが有する色情報Pxy(t)に置き換えて、式(2)乃至(5)に従って積分演算処理を行うことにより、3次元の映像情報が空間情報として入力される場合であっても、2次元の映像情報の場合と同様に、時空間的特性に応じたフィルタ処理を行うことができる。
以上のように、本発明は、多視点からの2次元の映像情報が空間情報として入力される場合や、3次元の映像情報が空間情報として入力される場合にも適用される。
また、上記説明においては、映像情報を用いて説明したが、音声情報の場合も同様に適用することができる。例えば、マイクロフォンなどにより所定の空間内が集音された音声情報のうち、ユーザの音声やある物体が発する音声(すなわち、音源)がどの方位や位置にどのくらいの時間存在しているかなどの時空間的特性に応じてフィルタリング処理を実行してから、音声情報を送信することにより、例えば、打ち合わせにおける会話などだけを遮断させることができる。これにより、音声情報の場合も、プライバシ保護を行いつつ、通信相手と臨場感のあるコミュニケーションが実現される。
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、例えば、図1の映像音声通信装置1−1および1−2は、図11に示されるようなパーソナルコンピュータ201により構成される。
図11において、CPU(Central Processing Unit)211は、ROM(Read Only Memory) 212に記憶されているプログラム、または、記憶部218からRAM(Random Access Memory)213にロードされたプログラムに従って各種の処理を実行する。RAM213にはまた、CPU211が各種の処理を実行する上において必要なデータなどが適宜記憶される。
CPU211、ROM212、およびRAM213は、バス214を介して相互に接続されている。このバス214にはまた、入出力インタフェース215も接続されている。
入出力インタフェース215には、キーボード、マウスなどよりなる入力部216、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部217、ハードディスクなどより構成される記憶部218、モデム、ターミナルアダプタなどより構成される通信部219が接続されている。通信部219は、無線などのネットワークを介しての通信処理を行う。
入出力インタフェース215にはまた、必要に応じてドライブ220が接続され、磁気ディスク221、光ディスク222、光磁気ディスク223、或いは半導体メモリ224などが適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部218にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
なお、このプログラムは、全体として上述した一連の処理を実行できれば、その形態は特に限定されない。例えば、上述した各ブロックのそれぞれに対応するモジュールのそれぞれからなるモジュール構成とされてもよいし、幾つかのブロックの機能の一部または全部が組み合わされたモジュール、若しくは、ブロックの機能が分割されたモジュールからなるモジュール構成とされてもよい。或いは、単に1つのアルゴリズムを有するプログラムでもよい。
このプログラムが記録される記録媒体は、図11に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク221(フレキシブルディスクを含む)、光ディスク222(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク223(MD(Mini-Disk)(商標)を含む)、もしくは半導体メモリ224などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM212や、記憶部218に含まれるハードディスクなどで構成される。
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
1−1,1−2 映像音声通信装置,2 ネットワーク,11−1,11−2 カメラ部,12−1,12−2 操作入力部,13−1,13−2 時空間積分フィルタ部,14−1,14−2 接続制御部,15−1,15−2 通信部,16−1,16−2 ミキサ処理部,17−1,17−2 モニタ,41 情報入力部,42 情報変換処理部,43 記憶部,44 時空間積分演算部,45 情報出力部,51 サンプル抽出部,52 サンプル加算部,53 サンプル除算部
Claims (12)
- 入力される情報に対して所定の処理を行う情報処理装置において、
所定の実空間内において入力された空間性を有する空間情報に対して、前記所定の空間内に存在する物体の情報が前記空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理手段と、
前記フィルタリング処理手段により前記フィルタリング処理が実行された空間情報を後段に出力する出力手段と
を備えることを特徴とする情報処理装置。 - ユーザの操作に応じて、前記フィルタリング処理におけるパラメータを入力するパラメータ入力手段をさらに備え、
前記フィルタリング処理手段は、前記空間情報に対して、前記パラメータ入力手段により入力されたパラメータおよび前記時空間的特性に応じたフィルタリング処理を実行する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記空間情報は、映像情報である
ことを特徴とする請求項1に記載の情報処理装置。 - 前記フィルタリング処理手段は、前記映像情報を時間積分することにより、前記時空間的特性に応じたフィルタリング処理を実行する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記フィルタリング処理手段は、前記映像情報に対して、前記時空間的特性に応じた透明度、ぼかし度、または部分的遮断のフィルタリング処理を実行する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記所定の実空間内から前記空間情報を入力する入力手段を
さらに備えることを特徴とする請求項1に記載の情報処理装置。 - 前記フィルタリング処理が実行された空間情報を、ネットワークを介して、他の情報処理装置に送信する送信手段を
さらに備えることを特徴とする請求項1に記載の情報処理装置。 - 他の情報処理装置から、ネットワークを介して、前記フィルタリング処理が実行された空間情報を受信する受信手段を
さらに備えることを特徴とする請求項1に記載の情報処理装置。 - 前記フィルタリング処理が実行された空間情報のユーザに対しての出力を制御する出力制御手段を
さらに備えることを特徴とする請求項1に記載の情報処理装置。 - 入力される情報に対して所定の処理を行う情報処理装置の情報処理方法において、
所定の実空間内において入力された空間性を有する空間情報に対して、前記所定の空間内に存在する物体の情報が前記空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理ステップと、
前記フィルタリング処理ステップの処理により前記フィルタリング処理が実行された前記空間情報を、後段に出力する出力ステップと
を含むことを特徴とする情報処理方法。 - 入力される情報に対して所定の処理をコンピュータに行わせるプログラムが記録されている記録媒体であって、
所定の実空間内において入力された空間性を有する空間情報に対して、前記所定の空間内に存在する物体の情報が前記空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理ステップと、
前記フィルタリング処理ステップの処理により前記フィルタリング処理が実行された前記空間情報を、後段に出力する出力ステップと
を含むことを特徴とするプログラムが記録されている記録媒体。 - 入力される情報に対して所定の処理をコンピュータに行わせるプログラムであって、
所定の実空間内において入力された空間性を有する空間情報に対して、前記所定の空間内に存在する物体の情報が前記空間情報に存在する存在時間と存在位置の特性である時空間的特性に応じたフィルタリング処理を実行するフィルタリング処理ステップと、
前記フィルタリング処理ステップの処理により前記フィルタリング処理が実行された前記空間情報を、後段に出力する出力ステップと
を含むことを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005106571A JP2006287731A (ja) | 2005-04-01 | 2005-04-01 | 情報処理装置および方法、記録媒体、並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005106571A JP2006287731A (ja) | 2005-04-01 | 2005-04-01 | 情報処理装置および方法、記録媒体、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006287731A true JP2006287731A (ja) | 2006-10-19 |
Family
ID=37409140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005106571A Pending JP2006287731A (ja) | 2005-04-01 | 2005-04-01 | 情報処理装置および方法、記録媒体、並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006287731A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006333044A (ja) * | 2005-05-26 | 2006-12-07 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2008235989A (ja) * | 2007-03-16 | 2008-10-02 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置および画像処理方法 |
JP2011130203A (ja) * | 2009-12-17 | 2011-06-30 | Canon Inc | 映像情報処理方法及びその装置 |
JP2020536431A (ja) * | 2017-10-05 | 2020-12-10 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 遠隔の受信者へのリアルタイム視覚データの伝送 |
-
2005
- 2005-04-01 JP JP2005106571A patent/JP2006287731A/ja active Pending
Non-Patent Citations (7)
Title |
---|
CSNB199700425001, 宮本敏雄(外1名)訳編, 「基礎数学ハンドブック【増補版】」, 19900901, 増補版第3刷, 第149−150,358−359,364−365頁, JP, 森北出版株式会社 * |
CSND200500615009, 花木真一(外1名), "「状況映像におけるプライバシ保護」", 画像ラボ, 20031101, 第14巻,第11号, 第40〜44頁, JP, 日本工業出版株式会社 * |
CSNG200401868002, 鷲見和彦, "「サーベイランスのための映像処理技術」", 映像情報メディア学会誌, 20030901, 第57巻,第9号, 第1058〜1060頁, JP, (社)映像情報メディア学会 * |
JPN6010031729, 土井美鈴(外1名), "「プライバシーを考慮した監視カメラ映像配信システム」", インタラクション2004論文集, 20040304, 第203〜204頁, JP, 社団法人情報処理学会 * |
JPN6010031731, 花木真一(外1名), "「状況映像におけるプライバシ保護」", 画像ラボ, 20031101, 第14巻,第11号, 第40〜44頁, JP, 日本工業出版株式会社 * |
JPN6010031733, 鷲見和彦, "「サーベイランスのための映像処理技術」", 映像情報メディア学会誌, 20030901, 第57巻,第9号, 第1058〜1060頁, JP, (社)映像情報メディア学会 * |
JPN6010052275, 宮本敏雄(外1名)訳編, 「基礎数学ハンドブック【増補版】」, 19900901, 増補版第3刷, 第149−150,358−359,364−365頁, JP, 森北出版株式会社 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006333044A (ja) * | 2005-05-26 | 2006-12-07 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2008235989A (ja) * | 2007-03-16 | 2008-10-02 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置および画像処理方法 |
JP2011130203A (ja) * | 2009-12-17 | 2011-06-30 | Canon Inc | 映像情報処理方法及びその装置 |
JP2020536431A (ja) * | 2017-10-05 | 2020-12-10 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 遠隔の受信者へのリアルタイム視覚データの伝送 |
JP7160446B2 (ja) | 2017-10-05 | 2022-10-25 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 遠隔の受信者へのリアルタイム視覚データの伝送 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109479114B (zh) | 用于图像捕获和处理的方法、系统和介质 | |
CN109996055B (zh) | 位置零时延 | |
US11106422B2 (en) | Method for processing display data | |
US20190222823A1 (en) | Techniques for Capturing and Rendering Videos with Simulated Reality Systems and for Connecting Services with Service Providers | |
JP2009194687A (ja) | 画像処理装置、カメラ装置、通信システム、画像処理方法、およびプログラム | |
KR20020086697A (ko) | 카메라 시스템 및 카메라 시스템 동작 방법 | |
CN107211081B (zh) | 基于独立编码的背景更新的视频传输 | |
CA2974104A1 (en) | Video transmission based on independently encoded background updates | |
CN114666477B (zh) | 一种视频数据处理方法、装置、设备及存储介质 | |
JP2006287731A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
CN111147883A (zh) | 直播方法、装置、头戴显示设备和可读存储介质 | |
CN107580228B (zh) | 一种监控视频处理方法、装置及设备 | |
EP3736667A1 (en) | Virtual reality equipment capable of implementing a replacing function and a superimposition function and method for control thereof | |
KR101552070B1 (ko) | 영상 신호 전송 방법 및 장치 | |
JP2002351438A (ja) | 映像監視システム | |
US9451161B2 (en) | System and methods for video image processing | |
WO2020241269A1 (ja) | 映像伝送システム、映像送信装置、映像受信装置、映像配信方法、映像送信方法、映像受信方法およびコンピュータプログラム | |
JP2006279893A (ja) | 画像処理装置及び画像処理方法 | |
JP6004978B2 (ja) | 被写体画像抽出装置および被写体画像抽出・合成装置 | |
CN111630484A (zh) | 用于电话会议的虚拟窗口 | |
JP2006333044A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
WO2022201784A1 (ja) | 画像処理装置および画像処理方法 | |
CN110602480A (zh) | 一种采用增强现实分享场景的方法、装置及系统 | |
JP2008301399A (ja) | テレビ会議装置、テレビ会議方法、テレビ会議システム、コンピュータプログラム及び記録媒体 | |
JP2000175179A (ja) | 画像伝送装置及び画像伝送を実行するプログラムを記憶した記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100723 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100907 |