JP2017143376A - 画像合成装置および画像合成プログラム - Google Patents

画像合成装置および画像合成プログラム Download PDF

Info

Publication number
JP2017143376A
JP2017143376A JP2016022730A JP2016022730A JP2017143376A JP 2017143376 A JP2017143376 A JP 2017143376A JP 2016022730 A JP2016022730 A JP 2016022730A JP 2016022730 A JP2016022730 A JP 2016022730A JP 2017143376 A JP2017143376 A JP 2017143376A
Authority
JP
Japan
Prior art keywords
image
room
indoor
brightness
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016022730A
Other languages
English (en)
Other versions
JP6552978B2 (ja
Inventor
中島 靖
Yasushi Nakajima
靖 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Network Corp
Original Assignee
Mitsubishi Electric Information Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Network Corp filed Critical Mitsubishi Electric Information Network Corp
Priority to JP2016022730A priority Critical patent/JP6552978B2/ja
Publication of JP2017143376A publication Critical patent/JP2017143376A/ja
Application granted granted Critical
Publication of JP6552978B2 publication Critical patent/JP6552978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】自分側の部屋の室内と画面に映る相手側の室内とが空間的に連続しているかのような臨場感が得られる画像合成装置および画像合成プログラムを提供する。【解決手段】受信部は、第1の室内画像と第2の室内画像とを受信する。第1の室内画像は、第1の画面が設けられる第1の部屋の中を示す画像であって第1の画面が位置する方向から撮像された画像である。第2の室内画像は、第2の画面が設けられる第2の部屋の中を示す画像であって第2の画面が位置する方向から撮像された画像である。加工部は、第2の室内画像のうちの第2の部屋の内面に対応する第2の内面領域に合わせて、第1の内面画像を変形する。第1の内面画像は、第1の室内画像から得られる画像であって第1の部屋の内面を示す画像である。合成部は、変形後の第1の内面画像を第2の室内画像に合成して、第1の画面に表示される合成画像を生成する。【選択図】図1

Description

本発明は、ビデオコミュニケーションシステムに関するものである。
拠点間で、各拠点の映像を観ながら会話を行うビデオコミュニケーションシステムが利用されている。
ビデオコミュニケーションシステムに関して、以下のような技術が提案されている。
特許文献1には、利用者および利用者周辺が映った映像をグラフィカルユーザインタフェースに反映する技術が開示されている。
特許文献2には、拠点間で行われるテレビ会議において、相手側の拠点の映像を自分側の拠点の映像に合成する技術が開示されている。この技術では、各拠点で参加者および背景が映った拠点映像と背景のみが映った背景映像とが撮影され、相手側の拠点映像から参加者の画像が抽出され、抽出された参加者の画像が自分側の背景映像に合成される。
特許文献3には、テレビ会議において、会話している者の視線が合うように画像を表示する技術が開示されている。
特許文献4には、2つの部屋において、相手の部屋内の映像を自分の部屋内に表示する技術が開示されている。この技術では、各部屋に撮影手段が設けられて、各部屋で部屋内の映像が撮影される。そして、自分の部屋内において、自分側の部屋内を撮影した撮影手段が設けられた方向にある壁面に、相手側の部屋内の映像が表示される。
特開2009−252240号公報 特開2014−175837号公報 特開2011−097447号公報 特開2014−064217号公報
本発明は、自分側の部屋の室内と画面に映る相手側の室内とが空間的に連続しているかのような臨場感が得られるようにすることを目的とする。
本発明の画像合成装置は、
第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部とを備える。
前記第1の内面画像は、前記第1の部屋の壁面を示す第1の壁面画像と、前記第1の部屋の床面を示す第1の床面画像と、前記第1の部屋の天井面を示す第1の天井面画像とであり、
前記第2の内面領域は、前記第2の部屋の壁面に対応する第2の壁面領域と、前記第2の部屋の床面に対応する第2の床面領域と、前記第2の部屋の天井面に対応する第2の天井面領域とであり、
前記加工部は、前記第1の壁面画像を前記第2の壁面領域に合わせて変形し、前記第1の床面画像を前記第2の床面領域に合わせて変形し、前記第1の天井面画像を前記第2の天井面領域に合わせて変形する。
第1の部品が、前記第1の部屋の内面に設けられ、
前記画像合成装置は、
前記第1の内面画像から、前記第1の部品を示す部分を第1の部品画像として抽出する抽出部を備え、
前記合成部は、前記第2の部屋の奥行距離に対応する個数の前記第1の部品画像を、変形後の第1の内面画像に対応する奥行の方向に並べて、変形後の第1の内面画像に合成し、合成後の第1の内面画像を前記第2の室内画像に合成する。
前記加工部は、並べられた第1の部品画像の各々を、並べられた位置に対応する大きさに縮小し、
前記合成部は、縮小して並べられた第1の部品画像を、変形後の第1の内面画像に合成する。
前記第1の部屋が、照明が設けられた天井面を内面として有し、
前記第1の部品が、前記第1の部屋の天井面に設けられた照明である。
前記加工部は、前記第2の室内画像の明度が前記第1の室内画像の明度より明るい場合、前記第1の部品画像を、点灯している照明を示す点灯画像に置き換え、前記第2の室内画像の明度が前記第1の室内画像の明度より暗い場合、前記第1の部品画像を、消灯している照明を示す消灯画像に置き換える。
前記加工部は、前記第1の室内画像の明度と前記第2の室内画像の明度との明度差が明度閾値より大きい場合、前記第1の部品画像を前記点灯画像または前記消灯画像に置き換え、前記明度差が前記明度閾値より小さい場合、前記第2の室内画像の明度を前記第1の室内画像の明度に合わせて補正する。
前記第1の部屋が、窓が設けられた壁面を内面として有し、
前記第1の部品が、前記第1の部屋の壁面に設けられた窓である。
前記加工部は、前記第2の室内画像の明度が前記第1の室内画像の明度より明るい場合、前記第1の部品画像を、覆いで覆われていない窓を示す採光画像に置き換えて、前記第2の室内画像の明度が前記第1の室内画像の明度より暗い場合、前記第1の部品画像を、覆いで覆われた窓を示す遮光画像に置き換える。
前記加工部は、前記第1の室内画像の明度と前記第2の室内画像の明度との明度差が明度閾値より大きい場合、前記第1の部品領域を前記採光画像または前記遮光画像に置き換え、前記明度差が前記明度閾値より小さい場合、前記第2の室内画像の明度を前記第1の室内画像の明度に合わせて補正する。
本発明の画像合成プログラムは、
第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部として、コンピュータを機能させる。
本発明によれば、自分側の部屋(第1の部屋)の内面が相手側の部屋(第2の部屋)の内面の大きさ及び形状に合わせて相手側の室内画像に合成されて、合成画像が生成される。この合成画像が画面に表示されることにより、自分側の部屋の室内と画面に映る相手側の部屋の室内とが空間的に連続しているかのような臨場感を得ることができる。
実施の形態1におけるビデオコミュニケーションシステム100の概要図。 実施の形態1におけるビデオコミュニケーションシステム100の構成図。 実施の形態1における画像合成装置200の構成図。 実施の形態1における画像合成方法のフローチャート。 実施の形態1における第1の室内データ120および第1の付加データ130の構成図。 実施の形態1における第1のデータ取得処理(S110)のフローチャート。 実施の形態1におけるカメラ113と室内画像との関係図。 実施の形態1における第2の室内データ140および第2の付加データ150の構成図。 実施の形態1における第1の室内画像121と第2の室内画像141との関係図。 実施の形態1における合成画像生成処理(S140)のフローチャート。 実施の形態1における天井面192と天井面画像182との関係図。 実施の形態1におけるビデオコミュニケーションシステム100の構成例を示す図。
実施の形態1.
ビデオコミュニケーションシステム100について、図1から図12に基づいて説明する。
ビデオコミュニケーションシステム100は、テレビ会議などに用いられるシステムである。
***概要の説明***
図1に基づいて、ビデオコミュニケーションシステム100の概要について説明する。
図1の(1)は、相手側の部屋110の室内画像が、自分側の部屋110の画面112に表示された様子を示している。
自分側の部屋110と相手側の部屋110とは、壁面191に設けられる窓195の有無、天井面192に設けられる照明194の配置および床面193の模様などが異なる。
そのため、図1の(1)では、自分側の部屋110と相手側の部屋110とが空間的に連続しているかのような臨場感を得ることはできない。
図1の(2)は、相手側の部屋110の室内画像が、自分側の部屋110の様子に合わせて加工された様子を示している。
自分側の部屋110と相手側の部屋110の室内画像とは、壁面191に設けられる窓195の有無、天井面192に設けられる照明194の配置および床面193の模様などが統一されている。
そのため、図1の(2)では、自分側の部屋110と相手側の部屋110とが空間的に連続しているかのような臨場感を得ることができる。
実施の形態1におけるビデオコミュニケーションシステム100では、図1の(2)のように、相手側の部屋110の室内画像が、自分側の部屋110の様子に合わせて加工されて、自分側の部屋110の画面112に表示される。
***構成の説明***
図2に基づいて、ビデオコミュニケーションシステム100の構成について説明する。
ビデオコミュニケーションシステム100は、複数の部屋110を有する。部屋110はビデオ会議が行われる拠点である。
各々の部屋110の中には、画像合成装置200と、表示装置111と、画面112と、カメラ113と、距離センサ114とが設けられる。
画像合成装置200は、相手側の室内を示す画像に自分側の室内の壁面等を示す画像を合成する装置である。画像合成装置200の詳細については後述する。
表示装置111は、合成して得られた画像を画面112に表示する。具体的には、表示装置111は、ディスプレイまたはプロジェクタなどである。表示装置111はスピーカを備え、スピーカは相手側の室内の音声を出力する。
画面112は、合成後の画像が表示される範囲である。表示装置111がディスプレイである場合、画面112はディスプレイに備わる表示面である。表示装置111がプロジェクタである場合、画面112は画像が投影されるスクリーンまたは壁面などである。
カメラ113は、画面112の付近に設けられて、画面112が位置する方から室内を撮像して、室内が映った画像を得る。また、カメラ113はマイクを備え、マイクは室内の音声を得る。
距離センサ114は、室内の奥行を計測する。
画像合成装置200は、ネットワーク101を介して、相手側の画像合成装置200と通信を行う。具体的には、ネットワーク101は、構内LAN(Local Area Network)、社内イントラネットまたはインターネットなどである。
また、画像合成装置200は、自分側の部屋110の表示装置111、カメラ113および距離センサ114と通信を行う。
図3に基づいて、画像合成装置200の構成について説明する。
画像合成装置200は、プロセッサ901とメモリ902と補助記憶装置903と通信装置904と入力装置907とディスプレイ908といったハードウェアを備えるコンピュータである。プロセッサ901は、信号線を介して他のハードウェアと接続されている。
プロセッサ901は、プロセッシングを行うIC(Integrated Circuit)であり、他のハードウェアを制御する。具体的には、プロセッサ901は、CPU、DSPまたはGPUである。CPUはCentral Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、GPUはGraphics Processing Unitの略称である。
メモリ902は揮発性の記憶装置である。メモリ902は、主記憶装置またはメインメモリとも呼ばれる。具体的には、メモリ902はRAM(Random Access Memory)である。
補助記憶装置903は不揮発性の記憶装置である。具体的には、補助記憶装置903は、ROM、HDDまたはフラッシュメモリである。ROMはRead Only Memoryの略称であり、HDDはHard Disk Driveの略称である。
通信装置904は、通信を行う装置であり、レシーバ905とトランスミッタ906とを備える。具体的には、通信装置904は通信チップまたはNIC(Network Interface Card)である。
入力装置907は、入力を受け付ける装置である。具体的には、入力装置907は、キーボード、マウス、テンキーまたはタッチパネルである。
ディスプレイ908は、画像を表示する表示装置である。具体的には、ディスプレイ908は液晶ディスプレイである。
画像合成装置200は、検出部210と抽出部220と加工部230と合成部240と取得部250といった「部」を機能構成の要素として備える。「部」の機能はソフトウェアで実現される。「部」の機能については後述する。
補助記憶装置903には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムは、メモリ902にロードされて、プロセッサ901によって実行される。
さらに、補助記憶装置903にはOS(Operating System)が記憶されている。OSの少なくとも一部は、メモリ902にロードされて、プロセッサ901によって実行される。
つまり、プロセッサ901は、OSを実行しながら、「部」の機能を実現するプログラムを実行する。
「部」の機能を実現するプログラムを実行して得られるデータは、メモリ902、補助記憶装置903、プロセッサ901内のレジスタまたはプロセッサ901内のキャッシュメモリといった記憶装置に記憶される。これらの記憶装置は、データを記憶する記憶部291として機能する。
なお、画像合成装置200が複数のプロセッサ901を備えて、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
メモリ902には、画像合成装置200で使用、生成、入出力または送受信されるデータが記憶される。
具体的には、メモリ902には、第1の室内データ120、第1の付加データ130、第2の室内データ140、第2の付加データ150および合成画像160等が記憶される。メモリ902に記憶されるデータの内容については後述する。
通信装置904はデータを通信する通信部として機能し、レシーバ905はデータを受信する受信部292として機能し、トランスミッタ906はデータを送信する送信部293として機能する。
入力装置907は入力を受け付ける受付部294として機能する。
ディスプレイ908はデータを表示する表示部295として機能する。
プロセッサ901とメモリ902と補助記憶装置903とをまとめたハードウェアを「プロセッシングサーキットリ」という。
「部」は「処理」または「工程」に読み替えてもよい。「部」の機能はファームウェアで実現してもよい。
「部」の機能を実現するプログラムは、磁気ディスク、光ディスクまたはフラッシュメモリ等の不揮発性の記憶媒体に記憶することができる。
***動作の説明***
画像合成装置200の動作は画像合成方法に相当する。また、画像合成方法の手順は画像合成プログラムの手順に相当する。
以下、自分側の部屋110に関する名称に「第1」を付し、相手側の部屋110に関する名称に「第2」を付して説明を行う。
図4に基づいて、画像合成方法について説明する。
ステップS110は第1のデータ取得処理である。
ステップS110において、画像合成装置200は、第1の室内データ120と第1の付加データ130とを取得する。
図5に基づいて、第1の室内データ120および第1の付加データ130の構成について説明する。
第1の室内データ120は、第1の室内画像121と、第1の室内音声122とを含む。
第1の付加データ130は、第1の動体領域情報131と、第1の指定領域情報132と、第1の内面領域情報133と、第1の画像明度134と、第1の撮像角度135と、第1の奥行距離136と、第1の部品画像群137とを含む。
図6に基づいて、第1のデータ取得処理(S110)の手順について説明する。
ステップS111において、画像合成装置200は、第1の室内画像121と第1の室内音声122とを取得する。
第1の室内画像121は、第1のカメラ113から見える第1の部屋110の中を示す画像である。
第1の室内画像121には、第1の部屋110にいる人間、第1の部屋110にある家具および第1の部屋110の内面などが映っている。
部屋110の内面は、壁面、床面および天井面である。壁面には、右の壁面、左の壁面および奥の壁面がある。
第1の室内音声122は、第1の部屋110の中の音声である。
具体的には、画像合成装置200は、第1の室内画像121と第1の室内音声122とを以下のように取得する。
第1のカメラ113は、第1の室内画像121と第1の室内音声122とを得て、第1の室内画像121と第1の室内音声122とを画像合成装置200に送信する。
そして、画像合成装置200の受信部292は、第1の室内画像121と第1の室内音声122とを受信する。
また、加工部230は、第1の室内画像121に対して視点変換を行う。視点変換は、第1の視点から見た像を示す画像を第2の視点から見た像を示す画像に変換する画像処理である。視点は、画像を撮像したカメラの位置に相当する。
具体的には、加工部230は、第1の撮像角度135に基づいて、第1の室内画像121を、視線方向から見た第1の部屋110の中を示す画像に補正する。
第1の撮像角度135は、第1のカメラ113が第1の部屋110の中を撮像する方向を示す3次元の角度である。後述するように、第1の撮像角度135は記憶部291に予め記憶されている。
視線方向は、画面112に対応する方向である。具体的には、視線方向は、画面112と直交する方向、または、画面112とおおよそ直交するする方向である。
図7に、カメラ113の設置位置と室内画像との関係を示す。
図7の(A)のように、カメラ113が部屋の正面に設けられた場合、図7の(B)のように、視線方向から見た室内の様子を示す画像が得られる。このような画像が相手側の画面112に表示されると、相手側の部屋110の室内と相手側の画面112に映る室内とによって空間的な連続性が創り出されて、違和感が減少する。
図7の(C)のように、カメラ113が部屋の隅に設けられた場合、図7の(D)のように、視線方向とは異なる方向から見た室内の様子を示す画像が得られる。このような画像が相手側の画面112に表示されると、相手側の部屋110の室内と相手側の画面112に映る室内とによって空間的な連続性が創り出されず、違和感が増大する。
そこで、加工部230は、図7の(D)のような室内画像を図7の(B)のような室内画像に補正する。
図6に戻り、ステップS112から説明を続ける。
ステップS112において、画像合成装置200は、第1の動体領域情報131を取得する。
第1の動体領域情報131は、第1の動体領域を示す情報である。第1の動体領域は、第1の室内画像121のうちの動体領域である。動体領域は、動体を示す部分である。動体は動く物体である。具体的な動体は人間である。
具体的には、画像合成装置200の検出部210が、第1の動体領域情報131を以下のように取得する。
まず、検出部210は、今回取得された第1の室内画像121を、前回以前に取得された第1の室内画像121と比較する。
次に、検出部210は、比較結果に基づいて、今回の第1の室内画像121から、前回以前の第1の室内画像121と異なる部分を検出する。検出される部分が動体領域である。具体的には、検出部210は、差分の値が閾値より大きい部分を動体領域として検出する。閾値は、外光または照明光のゆらぎ等が動体として検出されないように、予め決められた値である。
そして、検出部210は、動体領域を示す情報を生成する。生成される情報が第1の動体領域情報131である。
ステップS113において、画像合成装置200は、第1の指定領域情報132を取得する。
第1の指定領域情報132は、第1の指定領域を示す情報である。第1の指定領域は、第1の室内画像121のうちの指定領域である。指定領域は、加工される対象とならない領域として指定された部分である。具体的には、テーブルセット(テーブルと椅子)または書棚などの家具を示す部分が、指定領域として指定される。
第1の指定領域情報132は記憶部291に予め記憶されて、画像合成装置200の取得部250が第1の指定領域情報132を記憶部291から取得する。
第1の指定領域情報132は、以下のように記憶部291に記憶される。
まず、利用者は、入力装置907を操作して、画像合成装置200に表示命令を入力する。画像合成装置200において、受付部294は表示命令を受け付けて、表示部295は第1の室内画像121を表示する。
次に、利用者は、入力装置907を操作して、画像合成装置200に第1の指定領域情報132を入力する。具体的には、利用者は、マウスを操作して、指定したい領域を囲う。但し、利用者が指定したい領域内の一点を指定し、検出部210が指定された一点を含んだ領域を検出してもよい。
そして、画像合成装置200において、受付部294は第1の指定領域情報132を受け付けて、記憶部291は第1の指定領域情報132を記憶する。
ステップS114において、画像合成装置200は、第1の内面領域情報133を取得する。
第1の内面領域情報133は、第1の内面領域を示す情報である。第1の内面領域は、第1の室内画像121のうちの内面領域である。内面領域は内面を示す部分である。具体的な内面は、壁面、床面および天井面である。
具体的には、画像合成装置200の検出部210が、第1の内面領域情報133を以下のように取得する。
検出部210は、第1の室内画像121から境界線を検出し、検出した境界線を繋げて四角領域を検出する。検出される四角領域が内面領域である。四角領域は四角形の部分である。境界線はエッジともいう。右の四角領域が右の壁面を示す部分であり、左の四角領域が左の壁面を示す部分であり、中央の四角領域が奥の壁面を示す部分である。また、上の四角領域が天井面を示す部分であり、下の四角領域が床面を示す部分である。
そして、検出部210は、検出した四角領域を示す情報を生成する。生成される情報が第1の内面領域情報133である。
また、柱のような突起物が内面にある場合、検出部210は、内面領域から突起領域を検出する。突起領域は、突起物を示す部分である。
突起領域が検出された場合、加工部230は、内面領域を、突起物がない状態に加工する。つまり、加工部230は、内面領域を、平らな内面を示す画像に加工する。
ステップS115において、画像合成装置200は、第1の画像明度134を取得する。
第1の画像明度134は、第1の室内画像121の明度である。
具体的には、画像合成装置200の取得部250が、第1の室内画像121を用いて、第1の画像明度134を算出する。
ステップS116において、画像合成装置200は、第1の撮像角度135を取得する。
第1の撮像角度135は、第1のカメラ113が第1の部屋110の中を撮像する方向を示す3次元の角度である。
具体的には、画像合成装置200の取得部250が、記憶部291から第1の撮像角度135を取得する。
第1の撮像角度135は、第1のカメラ113から画像合成装置200に送信されて、記憶部291に予め記憶される。
ステップS117において、画像合成装置200は、第1の奥行距離136を取得する。
第1の奥行距離136は、第1の部屋110の奥行の長さである。
具体的には、画像合成装置200の取得部250が,記憶部291から第1の奥行距離136を取得する。
第1の奥行距離136は、第1の距離センサ114から画像合成装置200に送信されて、記憶部291に予め記憶される。
ステップS118において、画像合成装置200は、第1の部品画像群137を取得する。
第1の部品画像群137は、1つ以上の第1の部品画像である。第1の部品画像は、第1の部品を示す画像である。第1の部品は、第1の部屋110の内面に設けられた部品である。具体的な部品は、天井面に設けられた照明および壁面に設けられた窓である。
第1の部品画像は以下のように取得される。
検出部210は、第1の室内画像121内の内面領域から第1の部品領域を検出する。第1の部品領域は第1の部品を示す部分である。具体的には、検出部210は、第1の室内画像121内の内面領域から境界線を検出し、検出された境界線で囲われた部分を検出する。検出される部分が第1の部品領域となる。
抽出部220は、第1の室内画像121内の内面領域から、第1の部品領域を抽出する。抽出される第1の部品領域が第1の部品画像となる。
図4に戻り、ステップS120から説明を続ける。
ステップS120において、送信部293は、第1の室内データ120と第1の付加データ130とを相手側の画像合成装置200に送信する。
ステップS130において、相手側の画像合成装置200から、第2の室内データ140および第2の付加データ150が送信される。
そして、受信部292は、第2の室内データ140と第2の付加データ150とを受信する。
図8に基づいて、第2の室内データ140および第2の付加データ150の構成について説明する。
第2の室内データ140および第2の付加データ150は、相手側の画像合成装置200で取得された第1の室内データ120および第1の付加データ130である。
第2の室内データ140は、第2の室内画像141と、第2の室内音声142とを含む。
第2の室内画像141は、第2のカメラ113から見える第2の部屋110の中を示す画像である。
第2の室内音声142は、第2の部屋110の中の音声である。
第2の付加データ150は、第2の動体領域情報151と、第2の指定領域情報152と、第2の内面領域情報153と、第2の画像明度154と、第2の撮像角度155と、第2の奥行距離156と、第2の部品画像群157とを含む。
第2の動体領域情報151は、第2の動体領域を示す情報である。第2の動体領域は、第2の室内画像141のうちの動体領域である。動体領域は、前述の通り、人間のような動体を示す部分である。
第2の指定領域情報152は、第2の指定領域を示す情報である。第2の指定領域は、第2の室内画像141のうちの指定領域である。指定領域は、前述の通り、テーブルセットまたは書棚などの家具を示す部分である。
第2の内面領域情報153は、第2の内面領域を示す情報である。第2の内面領域は、第2の室内画像141のうちの内面領域である。内面領域は、前述の通り、壁面、床面および天井面などの内面を示す部分である。
第2の画像明度154は、第2の室内画像141の明度である。
第2の撮像角度155は、第2のカメラ113が第2の部屋110の中を撮像する方向を示す3次元の角度である。
第2の奥行距離156は、第2の部屋110の奥行の長さである。
第2の部品画像群157は、1つ以上の第2の部品画像である。第2の部品画像は、第2の部品を示す画像である。第2の部品は、第2の部屋110の内面に設けられた部品である。部品は、前述の通り、照明および窓である。
図4に戻り、ステップS140から説明を続ける。
ステップS140は合成画像生成処理である。
ステップS140において、加工部230は、第1の内面画像を第2の内面領域に合わせて変形する。
第1の内面画像は、第1の室内画像121から得られる画像であって第1の部屋110の内面を示す画像である。
第2の内面領域は、第2の室内画像141のうちの第2の部屋110の内面に対応する部分である。
具体的には、第1の内面画像は、第1の壁面画像、第1の床面画像および第1の天井面画像である。第1の壁面画像は、第1の部屋110の壁面を示す画像である。第1の床面画像は、第1の部屋110の床面を示す画像である。第1の天井面画像は、第1の部屋110の天井面を示す画像である。
また、第2の内面領域は、第2の壁面領域、第2の床面領域および第2の天井面領域である。第2の壁面領域は、第2の部屋の壁面に対応する領域である。第2の床面領域は、第2の部屋の床面に対応する領域である。第2の天井面領域は、第2の天井面に対応する領域である。
加工部230は、第1の壁面画像を第2の壁面領域に合わせて変形し、第1の床面画像を第2の床面領域に合わせて変形し、第1の天井面画像を第2の天井面領域に合わせて変形する。
そして、合成部240は、変形後の第1の内面画像を第2の室内画像141に合成して、合成画像160を生成する。
合成画像160は、第1の画面112に表示される画像である。
図9に基づいて、合成画像生成処理(S140)の概要を説明する。
(1)に示すように、第1の室内画像121から得られる天井面画像は、第2の室内画像141の天井面領域に合わせて変形されて、第2の室内画像141の天井面領域に合成される。
(2)に示すように、第1の室内画像121から得られる壁面画像は、第2の室内画像141の壁面領域に合わせて変形されて、第2の室内画像141の壁面領域に合成される。
(3)に示すように、第1の室内画像121から得られる床面画像は、第2の室内画像141の床面領域に合わせて変形されて、第2の室内画像141の床面領域に合成される。
合成画像生成処理(S140)の詳細については後述する。
図4に戻り、ステップS150を説明する。
ステップS150において、画像合成装置200は、合成画像160を第1の画面112に表示し、第2の室内音声142を第1のスピーカから出力する。
具体的には、画像合成装置200の送信部293が合成画像160と第2の室内音声142とを第1の表示装置111に送信し、第1の表示装置111が合成画像160と第2の室内音声142とを受信する。そして、第1の表示装置111が、合成画像160を第1の画面112に表示し、第2の室内音声142を第1のスピーカから出力する。
図10に基づいて、合成画像生成処理(S140)の手順を説明する。
ステップS141において、加工部230は、第1の室内画像121を用いて、第1の内面画像を生成する。
具体的には、第1の内面画像は、以下のように生成される。
まず、抽出部220は、第1の内面領域情報133が示す第1の内面領域を、第1の室内画像121から抽出する。抽出される第1の内面領域が第1の内面画像となる。
次に、検出部210は、第1の内面画像から、第1の部品領域を検出する。第1の部品領域を検出する方法は、ステップS118における方法と同じである。
次に、抽出部220は、第1の内面画像から、第1の部品領域以外の領域の一部を抽出する。
そして、加工部230は、抽出された部分を用いて、第1の部品領域を塗りつぶす。
ステップS142において、加工部230は、第1の内面画像を第2の内面領域に合わせて変形する。
具体的には、加工部230は、第2の内面領域情報153が示す第2の内面領域の大きさ及び形状に合わせて、第1の内面画像を変形する。
ステップS143において、加工部230は、第1の室内画像121の明度と第2の室内画像141の明度との明度差を、第1の閾値と比較する。
具体的には、加工部230は、第1の画像明度134と第2の画像明度154との明度差を算出し、算出した明度差を第1の閾値と比較する。
明度差が第1の閾値より大きい場合、処理はステップS144に進む。
明度差が第1の閾値以下である場合、処理はステップS147に進む。
ステップS144において、加工部230は、第1の室内画像121の明度と第2の室内画像141の明度との明度差を、第2の閾値と比較する。第2の閾値は、第1の閾値よりも大きい値である。
明度差が第2の閾値より大きい場合、処理はステップS145に進む。
明度差が第2の閾値以下である場合、処理はステップS146に進む。
ステップS145において、加工部230は、第1の部品画像を他の部品画像に置き換える。
具体的には、加工部230は、第1の部品画像群137に含まれる第1の照明画像と、第1の部品画像群137に含まれる第1の窓画像とを、以下のように置き換える。
加工部230は、第2の室内画像141の明度を第1の室内画像121の明度と比較する。つまり、加工部230は、第2の画像明度154を、第1の画像明度134と比較する。
第2の室内画像141の明度が第1の室内画像121の明度より明るい場合、加工部230は、第1の照明画像を点灯画像に置き換える。点灯画像は、予め用意される画像であり、点灯している状態の第1の照明を示す画像である。また、加工部230は、第1の窓画像を採光画像に置き換える。採光画像は、予め用意される画像であり、覆いで覆われていない状態の第1の窓を示す画像である。具体的には、覆いは、カーテンまたはブラインドである。
第2の室内画像141の明度が第1の室内画像121の明度より暗い場合、加工部230は、第1の照明画像を消灯画像に置き換える。消灯画像は、予め用意される画像であり、消灯している状態の第1の照明を示す画像である。また、加工部230は、第1の窓画像を遮光画像に置き換える。遮光画像は、予め用意される画像であり、覆いで覆われている状態の第1の窓を示す画像である。
ステップS146において、加工部230は、第2の室内画像141の明度を第2の室内画像141の明度に合わせて補正する。
具体的には、加工部230は、第1の画像明度134と同じになるように、第2の室内画像141の明度を補正する。
ステップS147において、加工部230は、第2の奥行距離156に対応する個数の第1の部品画像を、変形後の第1の内面画像に対応する奥行の方向に並べる。第2の奥行距離156に対応する個数は、第2の奥行距離156を用いて算出される値であり、第2の奥行距離156が長いほど多い。
次に、加工部230は、並べられた第1の部品画像の各々を、並べられた位置に対応する大きさに縮小する。奥に並べられた第1の部品画像ほど小さくなる。
そして、合成部240は、並べられた第1の部品画像を、変形後の第1の内面画像に合成する。
図11に基づいて、ステップS147の概要について説明する。
図11の(1)に示す天井面画像182は、天井面192を示す画像を変形して得られる画像である。図11の(1)において、天井面192と天井面画像182との連続性は損なわれている。
図11の(2)に示す天井面画像182は、天井面192を示す画像を変形して得られる画像において、照明の個数および大きさが加工された画像である図11の(2)において、天井面192と天井面画像182との連続性は保たれている。
そこで、加工部230および合成部240は、図11の(2)に示すような天井面画像182を生成する。
また、加工部230および合成部240は、壁面画像も同様に生成する。天井面画像182と同様に生成される壁面画像は、壁面191を示す画像を変形して得られる画像において、窓の個数および大きさが加工された画像である。
図10に戻り、ステップS148を説明する。
ステップS148において、抽出部220は、第2の動体領域情報151と第2の指定領域情報152とを用いて、第2の室内画像141から、第2の動体領域と第2の指定領域とを抽出する。
次に、合成部240は、第2の内面領域情報153を用いて、第2の室内画像141のうちの第2の内面領域に、合成後の第1の内面画像を合成する。
さらに、合成部240は、抽出された第2の動体領域を第2の動体領域情報151を用いて第2の室内画像141に合成し、抽出された第2の指定領域を第2の指定領域情報152を用いて第2の室内画像141に合成する。
***実施の形態1の効果***
自分側の部屋110の内面が相手側の部屋110の内面の大きさ及び形状に合わせて相手側の室内画像に合成されて、合成画像160が生成される。この合成画像160が画面112に表示されることにより、自分側の部屋110の室内と画面112に映る相手側の部屋110の室内とが空間的に連続しているかのような臨場感を得ることができる。
***他の構成***
図12に基づいて、ビデオコミュニケーションシステム100の構成例を説明する。
各々の部屋110には、画像合成装置200の代わりにゲートウェイ装置115が設けられてもよい。
画像合成装置200は、ネットワーク101に接続し、ゲートウェイ装置115を介して、表示装置111、カメラ113および距離センサ114と通信を行う。
このような構成は、クラウドサービスの提供に適している。
***実施の形態の補足***
実施の形態において、画像合成装置200の機能はハードウェアで実現してもよい。
また、画像合成装置200の機能は、ソフトウェアとハードウェアとの組み合わせで実現してもよい。つまり、「部」の一部をソフトウェアで実現し、「部」の残りをハードウェアで実現してもよい。
実施の形態は、好ましい形態の例示であり、本発明の技術的範囲を制限することを意図するものではない。実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
100 ビデオコミュニケーションシステム、101 ネットワーク、110 部屋、111 表示装置、112 画面、113 カメラ、114 距離センサ、115 ゲートウェイ装置、120 第1の室内データ、121 第1の室内画像、122 第1の室内音声、130 第1の付加データ、131 第1の動体領域情報、132 第1の指定領域情報、133 第1の内面領域情報、134 第1の画像明度、135 第1の撮像角度、136 第1の奥行距離、137 第1の部品画像群、140 第2の室内データ、141 第2の室内画像、142 第2の室内音声、150 第2の付加データ、151 第2の動体領域情報、152 第2の指定領域情報、153 第2の内面領域情報、154 第2の画像明度、155 第2の撮像角度、156 第2の奥行距離、157 第2の部品画像群、160 合成画像、182 天井面画像、191 壁面、192 天井面、193 床面、194 照明、195 窓、200 画像合成装置、210 検出部、220 抽出部、230 加工部、240 合成部、250 取得部、291 記憶部、292 受信部、293 送信部、294 受付部、295 表示部、901 プロセッサ、902 メモリ、903 補助記憶装置、904 通信装置、905 レシーバ、906 トランスミッタ、907 入力装置、908 ディスプレイ。

Claims (13)

  1. 第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
    前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
    変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部と
    を備える画像合成装置。
  2. 前記第1の内面画像は、前記第1の部屋の壁面を示す第1の壁面画像と、前記第1の部屋の床面を示す第1の床面画像と、前記第1の部屋の天井面を示す第1の天井面画像とであり、
    前記第2の内面領域は、前記第2の部屋の壁面に対応する第2の壁面領域と、前記第2の部屋の床面に対応する第2の床面領域と、前記第2の部屋の天井面に対応する第2の天井面領域とであり、
    前記加工部は、前記第1の壁面画像を前記第2の壁面領域に合わせて変形し、前記第1の床面画像を前記第2の床面領域に合わせて変形し、前記第1の天井面画像を前記第2の天井面領域に合わせて変形する
    請求項1に記載の画像合成装置。
  3. 第1の部品が、前記第1の部屋の内面に設けられ、
    前記画像合成装置は、
    前記第1の内面画像から、前記第1の部品を示す部分を第1の部品画像として抽出する抽出部を備え、
    前記合成部は、前記第2の部屋の奥行距離に対応する個数の前記第1の部品画像を、変形後の第1の内面画像に対応する奥行の方向に並べて、変形後の第1の内面画像に合成し、合成後の第1の内面画像を前記第2の室内画像に合成する
    請求項1に記載の画像合成装置。
  4. 前記加工部は、並べられた第1の部品画像の各々を、並べられた位置に対応する大きさに縮小し、
    前記合成部は、縮小して並べられた第1の部品画像を、変形後の第1の内面画像に合成する
    請求項3に記載の画像合成装置。
  5. 前記第1の部屋が、照明が設けられた天井面を内面として有し、
    前記第1の部品が、前記第1の部屋の天井面に設けられた照明である
    請求項3または請求項4に記載の画像合成装置。
  6. 前記加工部は、前記第2の室内画像の明度が前記第1の室内画像の明度より明るい場合、前記第1の部品画像を、点灯している照明を示す点灯画像に置き換え、前記第2の室内画像の明度が前記第1の室内画像の明度より暗い場合、前記第1の部品画像を、消灯している照明を示す消灯画像に置き換える
    請求項5に記載の画像合成装置。
  7. 前記加工部は、前記第1の室内画像の明度と前記第2の室内画像の明度との明度差が明度閾値より大きい場合、前記第1の部品画像を前記点灯画像または前記消灯画像に置き換え、前記明度差が前記明度閾値より小さい場合、前記第2の室内画像の明度を前記第1の室内画像の明度に合わせて補正する
    請求項6に記載の画像合成装置。
  8. 前記第1の部屋が、窓が設けられた壁面を内面として有し、
    前記第1の部品が、前記第1の部屋の壁面に設けられた窓である
    請求項3または請求項4に記載の画像合成装置。
  9. 前記加工部は、前記第2の室内画像の明度が前記第1の室内画像の明度より明るい場合、前記第1の部品画像を、覆いで覆われていない窓を示す採光画像に置き換えて、前記第2の室内画像の明度が前記第1の室内画像の明度より暗い場合、前記第1の部品画像を、覆いで覆われた窓を示す遮光画像に置き換える
    請求項8に記載の画像合成装置。
  10. 前記加工部は、前記第1の室内画像の明度と前記第2の室内画像の明度との明度差が明度閾値より大きい場合、前記第1の部品画像を前記採光画像または前記遮光画像に置き換え、前記明度差が前記明度閾値より小さい場合、前記第2の室内画像の明度を前記第1の室内画像の明度に合わせて補正する
    請求項9に記載の画像合成装置。
  11. 前記第1の部屋の内面に突起部分がある場合に、前記第1の室内画像から、前記突起部分を示す突起領域を検出する検出部を備え、
    前記加工部は、前記突起領域を、平らな内面を示す画像に加工する
    請求項1に記載の画像合成装置。
  12. 前記加工部は、前記第1の室内画像に対して視点変換を行う
    請求項1に記載の画像合成装置。
  13. 第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
    前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
    変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部として、
    コンピュータを機能させるための画像合成プログラム。
JP2016022730A 2016-02-09 2016-02-09 画像合成装置および画像合成プログラム Active JP6552978B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016022730A JP6552978B2 (ja) 2016-02-09 2016-02-09 画像合成装置および画像合成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016022730A JP6552978B2 (ja) 2016-02-09 2016-02-09 画像合成装置および画像合成プログラム

Publications (2)

Publication Number Publication Date
JP2017143376A true JP2017143376A (ja) 2017-08-17
JP6552978B2 JP6552978B2 (ja) 2019-07-31

Family

ID=59628767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016022730A Active JP6552978B2 (ja) 2016-02-09 2016-02-09 画像合成装置および画像合成プログラム

Country Status (1)

Country Link
JP (1) JP6552978B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031742A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318015A (ja) * 2005-05-10 2006-11-24 Sony Corp 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
JP2014175837A (ja) * 2013-03-08 2014-09-22 Kddi Corp 被写体画像抽出および合成装置
JP2015162708A (ja) * 2014-02-26 2015-09-07 Kddi株式会社 空間共有装置、空間共有システム、空間共有方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318015A (ja) * 2005-05-10 2006-11-24 Sony Corp 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
JP2014175837A (ja) * 2013-03-08 2014-09-22 Kddi Corp 被写体画像抽出および合成装置
JP2015162708A (ja) * 2014-02-26 2015-09-07 Kddi株式会社 空間共有装置、空間共有システム、空間共有方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031742A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP6552978B2 (ja) 2019-07-31

Similar Documents

Publication Publication Date Title
US10834359B2 (en) Information processing apparatus, information processing method, and program
US20200184653A1 (en) Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects
US10148909B2 (en) Immersive telepresence anywhere
EP3804301A1 (en) Re-creation of virtual environment through a video call
US10659728B2 (en) Information processing apparatus and information processing method
US10291848B2 (en) Image display system and image display method
JP2017034502A (ja) 通信装置、通信方法、プログラムおよび通信システム
US9900568B2 (en) Remote communication system, method for controlling remote communication system, and storage medium
JP2017085372A (ja) 通信システム、通信装置、通信方法およびプログラム
US10600218B2 (en) Display control system, display control apparatus, display control method, and storage medium
JP7074056B2 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JP6946684B2 (ja) 電子情報ボードシステム、画像処理装置、及びプログラム
JP2011217350A (ja) 描画画像共有装置、データ処理方法、プログラムおよび記録媒体
JP2009071478A (ja) 情報通信端末および情報通信システム
JP6090917B2 (ja) 被写体画像抽出および合成装置、および方法
KR20150066883A (ko) 이미지 처리 방법 및 장치
JP2011097447A (ja) コミュニケーションシステム
JP6552978B2 (ja) 画像合成装置および画像合成プログラム
US11695819B2 (en) Securing image data from unintended disclosure at a videoconferencing endpoint
JP2016213675A (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
US20230199380A1 (en) Virtual space connection device
JP5924833B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置
JP2003244669A (ja) 視線検出機能を有するテレビ会議システム
US10986310B2 (en) Information processing apparatus, information processing method, and program
US9560313B2 (en) Dialogue system and dialogue method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190703

R150 Certificate of patent or registration of utility model

Ref document number: 6552978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250