JP2017143376A - 画像合成装置および画像合成プログラム - Google Patents
画像合成装置および画像合成プログラム Download PDFInfo
- Publication number
- JP2017143376A JP2017143376A JP2016022730A JP2016022730A JP2017143376A JP 2017143376 A JP2017143376 A JP 2017143376A JP 2016022730 A JP2016022730 A JP 2016022730A JP 2016022730 A JP2016022730 A JP 2016022730A JP 2017143376 A JP2017143376 A JP 2017143376A
- Authority
- JP
- Japan
- Prior art keywords
- image
- room
- indoor
- brightness
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000203 mixture Substances 0.000 title claims abstract description 56
- 230000002194 synthesizing effect Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 15
- 238000005286 illumination Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004148 unit process Methods 0.000 claims 1
- 239000002131 composite material Substances 0.000 abstract description 16
- 238000000034 method Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
特許文献1には、利用者および利用者周辺が映った映像をグラフィカルユーザインタフェースに反映する技術が開示されている。
特許文献2には、拠点間で行われるテレビ会議において、相手側の拠点の映像を自分側の拠点の映像に合成する技術が開示されている。この技術では、各拠点で参加者および背景が映った拠点映像と背景のみが映った背景映像とが撮影され、相手側の拠点映像から参加者の画像が抽出され、抽出された参加者の画像が自分側の背景映像に合成される。
特許文献3には、テレビ会議において、会話している者の視線が合うように画像を表示する技術が開示されている。
特許文献4には、2つの部屋において、相手の部屋内の映像を自分の部屋内に表示する技術が開示されている。この技術では、各部屋に撮影手段が設けられて、各部屋で部屋内の映像が撮影される。そして、自分の部屋内において、自分側の部屋内を撮影した撮影手段が設けられた方向にある壁面に、相手側の部屋内の映像が表示される。
第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部とを備える。
前記第2の内面領域は、前記第2の部屋の壁面に対応する第2の壁面領域と、前記第2の部屋の床面に対応する第2の床面領域と、前記第2の部屋の天井面に対応する第2の天井面領域とであり、
前記加工部は、前記第1の壁面画像を前記第2の壁面領域に合わせて変形し、前記第1の床面画像を前記第2の床面領域に合わせて変形し、前記第1の天井面画像を前記第2の天井面領域に合わせて変形する。
前記画像合成装置は、
前記第1の内面画像から、前記第1の部品を示す部分を第1の部品画像として抽出する抽出部を備え、
前記合成部は、前記第2の部屋の奥行距離に対応する個数の前記第1の部品画像を、変形後の第1の内面画像に対応する奥行の方向に並べて、変形後の第1の内面画像に合成し、合成後の第1の内面画像を前記第2の室内画像に合成する。
前記合成部は、縮小して並べられた第1の部品画像を、変形後の第1の内面画像に合成する。
前記第1の部品が、前記第1の部屋の天井面に設けられた照明である。
前記第1の部品が、前記第1の部屋の壁面に設けられた窓である。
第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部として、コンピュータを機能させる。
ビデオコミュニケーションシステム100について、図1から図12に基づいて説明する。
ビデオコミュニケーションシステム100は、テレビ会議などに用いられるシステムである。
図1に基づいて、ビデオコミュニケーションシステム100の概要について説明する。
図1の(1)は、相手側の部屋110の室内画像が、自分側の部屋110の画面112に表示された様子を示している。
自分側の部屋110と相手側の部屋110とは、壁面191に設けられる窓195の有無、天井面192に設けられる照明194の配置および床面193の模様などが異なる。
そのため、図1の(1)では、自分側の部屋110と相手側の部屋110とが空間的に連続しているかのような臨場感を得ることはできない。
自分側の部屋110と相手側の部屋110の室内画像とは、壁面191に設けられる窓195の有無、天井面192に設けられる照明194の配置および床面193の模様などが統一されている。
そのため、図1の(2)では、自分側の部屋110と相手側の部屋110とが空間的に連続しているかのような臨場感を得ることができる。
図2に基づいて、ビデオコミュニケーションシステム100の構成について説明する。
ビデオコミュニケーションシステム100は、複数の部屋110を有する。部屋110はビデオ会議が行われる拠点である。
画像合成装置200は、相手側の室内を示す画像に自分側の室内の壁面等を示す画像を合成する装置である。画像合成装置200の詳細については後述する。
表示装置111は、合成して得られた画像を画面112に表示する。具体的には、表示装置111は、ディスプレイまたはプロジェクタなどである。表示装置111はスピーカを備え、スピーカは相手側の室内の音声を出力する。
画面112は、合成後の画像が表示される範囲である。表示装置111がディスプレイである場合、画面112はディスプレイに備わる表示面である。表示装置111がプロジェクタである場合、画面112は画像が投影されるスクリーンまたは壁面などである。
カメラ113は、画面112の付近に設けられて、画面112が位置する方から室内を撮像して、室内が映った画像を得る。また、カメラ113はマイクを備え、マイクは室内の音声を得る。
距離センサ114は、室内の奥行を計測する。
また、画像合成装置200は、自分側の部屋110の表示装置111、カメラ113および距離センサ114と通信を行う。
画像合成装置200は、プロセッサ901とメモリ902と補助記憶装置903と通信装置904と入力装置907とディスプレイ908といったハードウェアを備えるコンピュータである。プロセッサ901は、信号線を介して他のハードウェアと接続されている。
メモリ902は揮発性の記憶装置である。メモリ902は、主記憶装置またはメインメモリとも呼ばれる。具体的には、メモリ902はRAM(Random Access Memory)である。
補助記憶装置903は不揮発性の記憶装置である。具体的には、補助記憶装置903は、ROM、HDDまたはフラッシュメモリである。ROMはRead Only Memoryの略称であり、HDDはHard Disk Driveの略称である。
通信装置904は、通信を行う装置であり、レシーバ905とトランスミッタ906とを備える。具体的には、通信装置904は通信チップまたはNIC(Network Interface Card)である。
入力装置907は、入力を受け付ける装置である。具体的には、入力装置907は、キーボード、マウス、テンキーまたはタッチパネルである。
ディスプレイ908は、画像を表示する表示装置である。具体的には、ディスプレイ908は液晶ディスプレイである。
さらに、補助記憶装置903にはOS(Operating System)が記憶されている。OSの少なくとも一部は、メモリ902にロードされて、プロセッサ901によって実行される。
つまり、プロセッサ901は、OSを実行しながら、「部」の機能を実現するプログラムを実行する。
「部」の機能を実現するプログラムを実行して得られるデータは、メモリ902、補助記憶装置903、プロセッサ901内のレジスタまたはプロセッサ901内のキャッシュメモリといった記憶装置に記憶される。これらの記憶装置は、データを記憶する記憶部291として機能する。
なお、画像合成装置200が複数のプロセッサ901を備えて、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
具体的には、メモリ902には、第1の室内データ120、第1の付加データ130、第2の室内データ140、第2の付加データ150および合成画像160等が記憶される。メモリ902に記憶されるデータの内容については後述する。
入力装置907は入力を受け付ける受付部294として機能する。
ディスプレイ908はデータを表示する表示部295として機能する。
「部」は「処理」または「工程」に読み替えてもよい。「部」の機能はファームウェアで実現してもよい。
「部」の機能を実現するプログラムは、磁気ディスク、光ディスクまたはフラッシュメモリ等の不揮発性の記憶媒体に記憶することができる。
画像合成装置200の動作は画像合成方法に相当する。また、画像合成方法の手順は画像合成プログラムの手順に相当する。
ステップS110は第1のデータ取得処理である。
ステップS110において、画像合成装置200は、第1の室内データ120と第1の付加データ130とを取得する。
第1の室内データ120は、第1の室内画像121と、第1の室内音声122とを含む。
第1の付加データ130は、第1の動体領域情報131と、第1の指定領域情報132と、第1の内面領域情報133と、第1の画像明度134と、第1の撮像角度135と、第1の奥行距離136と、第1の部品画像群137とを含む。
ステップS111において、画像合成装置200は、第1の室内画像121と第1の室内音声122とを取得する。
第1の室内画像121には、第1の部屋110にいる人間、第1の部屋110にある家具および第1の部屋110の内面などが映っている。
部屋110の内面は、壁面、床面および天井面である。壁面には、右の壁面、左の壁面および奥の壁面がある。
第1の室内音声122は、第1の部屋110の中の音声である。
第1のカメラ113は、第1の室内画像121と第1の室内音声122とを得て、第1の室内画像121と第1の室内音声122とを画像合成装置200に送信する。
そして、画像合成装置200の受信部292は、第1の室内画像121と第1の室内音声122とを受信する。
具体的には、加工部230は、第1の撮像角度135に基づいて、第1の室内画像121を、視線方向から見た第1の部屋110の中を示す画像に補正する。
第1の撮像角度135は、第1のカメラ113が第1の部屋110の中を撮像する方向を示す3次元の角度である。後述するように、第1の撮像角度135は記憶部291に予め記憶されている。
視線方向は、画面112に対応する方向である。具体的には、視線方向は、画面112と直交する方向、または、画面112とおおよそ直交するする方向である。
図7の(A)のように、カメラ113が部屋の正面に設けられた場合、図7の(B)のように、視線方向から見た室内の様子を示す画像が得られる。このような画像が相手側の画面112に表示されると、相手側の部屋110の室内と相手側の画面112に映る室内とによって空間的な連続性が創り出されて、違和感が減少する。
図7の(C)のように、カメラ113が部屋の隅に設けられた場合、図7の(D)のように、視線方向とは異なる方向から見た室内の様子を示す画像が得られる。このような画像が相手側の画面112に表示されると、相手側の部屋110の室内と相手側の画面112に映る室内とによって空間的な連続性が創り出されず、違和感が増大する。
そこで、加工部230は、図7の(D)のような室内画像を図7の(B)のような室内画像に補正する。
ステップS112において、画像合成装置200は、第1の動体領域情報131を取得する。
第1の動体領域情報131は、第1の動体領域を示す情報である。第1の動体領域は、第1の室内画像121のうちの動体領域である。動体領域は、動体を示す部分である。動体は動く物体である。具体的な動体は人間である。
まず、検出部210は、今回取得された第1の室内画像121を、前回以前に取得された第1の室内画像121と比較する。
次に、検出部210は、比較結果に基づいて、今回の第1の室内画像121から、前回以前の第1の室内画像121と異なる部分を検出する。検出される部分が動体領域である。具体的には、検出部210は、差分の値が閾値より大きい部分を動体領域として検出する。閾値は、外光または照明光のゆらぎ等が動体として検出されないように、予め決められた値である。
そして、検出部210は、動体領域を示す情報を生成する。生成される情報が第1の動体領域情報131である。
第1の指定領域情報132は、第1の指定領域を示す情報である。第1の指定領域は、第1の室内画像121のうちの指定領域である。指定領域は、加工される対象とならない領域として指定された部分である。具体的には、テーブルセット(テーブルと椅子)または書棚などの家具を示す部分が、指定領域として指定される。
まず、利用者は、入力装置907を操作して、画像合成装置200に表示命令を入力する。画像合成装置200において、受付部294は表示命令を受け付けて、表示部295は第1の室内画像121を表示する。
次に、利用者は、入力装置907を操作して、画像合成装置200に第1の指定領域情報132を入力する。具体的には、利用者は、マウスを操作して、指定したい領域を囲う。但し、利用者が指定したい領域内の一点を指定し、検出部210が指定された一点を含んだ領域を検出してもよい。
そして、画像合成装置200において、受付部294は第1の指定領域情報132を受け付けて、記憶部291は第1の指定領域情報132を記憶する。
第1の内面領域情報133は、第1の内面領域を示す情報である。第1の内面領域は、第1の室内画像121のうちの内面領域である。内面領域は内面を示す部分である。具体的な内面は、壁面、床面および天井面である。
検出部210は、第1の室内画像121から境界線を検出し、検出した境界線を繋げて四角領域を検出する。検出される四角領域が内面領域である。四角領域は四角形の部分である。境界線はエッジともいう。右の四角領域が右の壁面を示す部分であり、左の四角領域が左の壁面を示す部分であり、中央の四角領域が奥の壁面を示す部分である。また、上の四角領域が天井面を示す部分であり、下の四角領域が床面を示す部分である。
そして、検出部210は、検出した四角領域を示す情報を生成する。生成される情報が第1の内面領域情報133である。
突起領域が検出された場合、加工部230は、内面領域を、突起物がない状態に加工する。つまり、加工部230は、内面領域を、平らな内面を示す画像に加工する。
第1の画像明度134は、第1の室内画像121の明度である。
第1の撮像角度135は、第1のカメラ113が第1の部屋110の中を撮像する方向を示す3次元の角度である。
第1の撮像角度135は、第1のカメラ113から画像合成装置200に送信されて、記憶部291に予め記憶される。
第1の奥行距離136は、第1の部屋110の奥行の長さである。
第1の奥行距離136は、第1の距離センサ114から画像合成装置200に送信されて、記憶部291に予め記憶される。
第1の部品画像群137は、1つ以上の第1の部品画像である。第1の部品画像は、第1の部品を示す画像である。第1の部品は、第1の部屋110の内面に設けられた部品である。具体的な部品は、天井面に設けられた照明および壁面に設けられた窓である。
検出部210は、第1の室内画像121内の内面領域から第1の部品領域を検出する。第1の部品領域は第1の部品を示す部分である。具体的には、検出部210は、第1の室内画像121内の内面領域から境界線を検出し、検出された境界線で囲われた部分を検出する。検出される部分が第1の部品領域となる。
抽出部220は、第1の室内画像121内の内面領域から、第1の部品領域を抽出する。抽出される第1の部品領域が第1の部品画像となる。
ステップS120において、送信部293は、第1の室内データ120と第1の付加データ130とを相手側の画像合成装置200に送信する。
そして、受信部292は、第2の室内データ140と第2の付加データ150とを受信する。
第2の室内データ140および第2の付加データ150は、相手側の画像合成装置200で取得された第1の室内データ120および第1の付加データ130である。
第2の室内画像141は、第2のカメラ113から見える第2の部屋110の中を示す画像である。
第2の室内音声142は、第2の部屋110の中の音声である。
第2の動体領域情報151は、第2の動体領域を示す情報である。第2の動体領域は、第2の室内画像141のうちの動体領域である。動体領域は、前述の通り、人間のような動体を示す部分である。
第2の指定領域情報152は、第2の指定領域を示す情報である。第2の指定領域は、第2の室内画像141のうちの指定領域である。指定領域は、前述の通り、テーブルセットまたは書棚などの家具を示す部分である。
第2の内面領域情報153は、第2の内面領域を示す情報である。第2の内面領域は、第2の室内画像141のうちの内面領域である。内面領域は、前述の通り、壁面、床面および天井面などの内面を示す部分である。
第2の画像明度154は、第2の室内画像141の明度である。
第2の撮像角度155は、第2のカメラ113が第2の部屋110の中を撮像する方向を示す3次元の角度である。
第2の奥行距離156は、第2の部屋110の奥行の長さである。
第2の部品画像群157は、1つ以上の第2の部品画像である。第2の部品画像は、第2の部品を示す画像である。第2の部品は、第2の部屋110の内面に設けられた部品である。部品は、前述の通り、照明および窓である。
ステップS140は合成画像生成処理である。
ステップS140において、加工部230は、第1の内面画像を第2の内面領域に合わせて変形する。
第1の内面画像は、第1の室内画像121から得られる画像であって第1の部屋110の内面を示す画像である。
第2の内面領域は、第2の室内画像141のうちの第2の部屋110の内面に対応する部分である。
また、第2の内面領域は、第2の壁面領域、第2の床面領域および第2の天井面領域である。第2の壁面領域は、第2の部屋の壁面に対応する領域である。第2の床面領域は、第2の部屋の床面に対応する領域である。第2の天井面領域は、第2の天井面に対応する領域である。
加工部230は、第1の壁面画像を第2の壁面領域に合わせて変形し、第1の床面画像を第2の床面領域に合わせて変形し、第1の天井面画像を第2の天井面領域に合わせて変形する。
合成画像160は、第1の画面112に表示される画像である。
(1)に示すように、第1の室内画像121から得られる天井面画像は、第2の室内画像141の天井面領域に合わせて変形されて、第2の室内画像141の天井面領域に合成される。
(2)に示すように、第1の室内画像121から得られる壁面画像は、第2の室内画像141の壁面領域に合わせて変形されて、第2の室内画像141の壁面領域に合成される。
(3)に示すように、第1の室内画像121から得られる床面画像は、第2の室内画像141の床面領域に合わせて変形されて、第2の室内画像141の床面領域に合成される。
ステップS150において、画像合成装置200は、合成画像160を第1の画面112に表示し、第2の室内音声142を第1のスピーカから出力する。
具体的には、画像合成装置200の送信部293が合成画像160と第2の室内音声142とを第1の表示装置111に送信し、第1の表示装置111が合成画像160と第2の室内音声142とを受信する。そして、第1の表示装置111が、合成画像160を第1の画面112に表示し、第2の室内音声142を第1のスピーカから出力する。
ステップS141において、加工部230は、第1の室内画像121を用いて、第1の内面画像を生成する。
まず、抽出部220は、第1の内面領域情報133が示す第1の内面領域を、第1の室内画像121から抽出する。抽出される第1の内面領域が第1の内面画像となる。
次に、検出部210は、第1の内面画像から、第1の部品領域を検出する。第1の部品領域を検出する方法は、ステップS118における方法と同じである。
次に、抽出部220は、第1の内面画像から、第1の部品領域以外の領域の一部を抽出する。
そして、加工部230は、抽出された部分を用いて、第1の部品領域を塗りつぶす。
具体的には、加工部230は、第2の内面領域情報153が示す第2の内面領域の大きさ及び形状に合わせて、第1の内面画像を変形する。
具体的には、加工部230は、第1の画像明度134と第2の画像明度154との明度差を算出し、算出した明度差を第1の閾値と比較する。
明度差が第1の閾値より大きい場合、処理はステップS144に進む。
明度差が第1の閾値以下である場合、処理はステップS147に進む。
明度差が第2の閾値より大きい場合、処理はステップS145に進む。
明度差が第2の閾値以下である場合、処理はステップS146に進む。
加工部230は、第2の室内画像141の明度を第1の室内画像121の明度と比較する。つまり、加工部230は、第2の画像明度154を、第1の画像明度134と比較する。
第2の室内画像141の明度が第1の室内画像121の明度より明るい場合、加工部230は、第1の照明画像を点灯画像に置き換える。点灯画像は、予め用意される画像であり、点灯している状態の第1の照明を示す画像である。また、加工部230は、第1の窓画像を採光画像に置き換える。採光画像は、予め用意される画像であり、覆いで覆われていない状態の第1の窓を示す画像である。具体的には、覆いは、カーテンまたはブラインドである。
第2の室内画像141の明度が第1の室内画像121の明度より暗い場合、加工部230は、第1の照明画像を消灯画像に置き換える。消灯画像は、予め用意される画像であり、消灯している状態の第1の照明を示す画像である。また、加工部230は、第1の窓画像を遮光画像に置き換える。遮光画像は、予め用意される画像であり、覆いで覆われている状態の第1の窓を示す画像である。
具体的には、加工部230は、第1の画像明度134と同じになるように、第2の室内画像141の明度を補正する。
次に、加工部230は、並べられた第1の部品画像の各々を、並べられた位置に対応する大きさに縮小する。奥に並べられた第1の部品画像ほど小さくなる。
そして、合成部240は、並べられた第1の部品画像を、変形後の第1の内面画像に合成する。
図11の(1)に示す天井面画像182は、天井面192を示す画像を変形して得られる画像である。図11の(1)において、天井面192と天井面画像182との連続性は損なわれている。
図11の(2)に示す天井面画像182は、天井面192を示す画像を変形して得られる画像において、照明の個数および大きさが加工された画像である図11の(2)において、天井面192と天井面画像182との連続性は保たれている。
そこで、加工部230および合成部240は、図11の(2)に示すような天井面画像182を生成する。
また、加工部230および合成部240は、壁面画像も同様に生成する。天井面画像182と同様に生成される壁面画像は、壁面191を示す画像を変形して得られる画像において、窓の個数および大きさが加工された画像である。
ステップS148において、抽出部220は、第2の動体領域情報151と第2の指定領域情報152とを用いて、第2の室内画像141から、第2の動体領域と第2の指定領域とを抽出する。
次に、合成部240は、第2の内面領域情報153を用いて、第2の室内画像141のうちの第2の内面領域に、合成後の第1の内面画像を合成する。
さらに、合成部240は、抽出された第2の動体領域を第2の動体領域情報151を用いて第2の室内画像141に合成し、抽出された第2の指定領域を第2の指定領域情報152を用いて第2の室内画像141に合成する。
自分側の部屋110の内面が相手側の部屋110の内面の大きさ及び形状に合わせて相手側の室内画像に合成されて、合成画像160が生成される。この合成画像160が画面112に表示されることにより、自分側の部屋110の室内と画面112に映る相手側の部屋110の室内とが空間的に連続しているかのような臨場感を得ることができる。
図12に基づいて、ビデオコミュニケーションシステム100の構成例を説明する。
各々の部屋110には、画像合成装置200の代わりにゲートウェイ装置115が設けられてもよい。
画像合成装置200は、ネットワーク101に接続し、ゲートウェイ装置115を介して、表示装置111、カメラ113および距離センサ114と通信を行う。
このような構成は、クラウドサービスの提供に適している。
実施の形態において、画像合成装置200の機能はハードウェアで実現してもよい。
また、画像合成装置200の機能は、ソフトウェアとハードウェアとの組み合わせで実現してもよい。つまり、「部」の一部をソフトウェアで実現し、「部」の残りをハードウェアで実現してもよい。
Claims (13)
- 第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部と
を備える画像合成装置。 - 前記第1の内面画像は、前記第1の部屋の壁面を示す第1の壁面画像と、前記第1の部屋の床面を示す第1の床面画像と、前記第1の部屋の天井面を示す第1の天井面画像とであり、
前記第2の内面領域は、前記第2の部屋の壁面に対応する第2の壁面領域と、前記第2の部屋の床面に対応する第2の床面領域と、前記第2の部屋の天井面に対応する第2の天井面領域とであり、
前記加工部は、前記第1の壁面画像を前記第2の壁面領域に合わせて変形し、前記第1の床面画像を前記第2の床面領域に合わせて変形し、前記第1の天井面画像を前記第2の天井面領域に合わせて変形する
請求項1に記載の画像合成装置。 - 第1の部品が、前記第1の部屋の内面に設けられ、
前記画像合成装置は、
前記第1の内面画像から、前記第1の部品を示す部分を第1の部品画像として抽出する抽出部を備え、
前記合成部は、前記第2の部屋の奥行距離に対応する個数の前記第1の部品画像を、変形後の第1の内面画像に対応する奥行の方向に並べて、変形後の第1の内面画像に合成し、合成後の第1の内面画像を前記第2の室内画像に合成する
請求項1に記載の画像合成装置。 - 前記加工部は、並べられた第1の部品画像の各々を、並べられた位置に対応する大きさに縮小し、
前記合成部は、縮小して並べられた第1の部品画像を、変形後の第1の内面画像に合成する
請求項3に記載の画像合成装置。 - 前記第1の部屋が、照明が設けられた天井面を内面として有し、
前記第1の部品が、前記第1の部屋の天井面に設けられた照明である
請求項3または請求項4に記載の画像合成装置。 - 前記加工部は、前記第2の室内画像の明度が前記第1の室内画像の明度より明るい場合、前記第1の部品画像を、点灯している照明を示す点灯画像に置き換え、前記第2の室内画像の明度が前記第1の室内画像の明度より暗い場合、前記第1の部品画像を、消灯している照明を示す消灯画像に置き換える
請求項5に記載の画像合成装置。 - 前記加工部は、前記第1の室内画像の明度と前記第2の室内画像の明度との明度差が明度閾値より大きい場合、前記第1の部品画像を前記点灯画像または前記消灯画像に置き換え、前記明度差が前記明度閾値より小さい場合、前記第2の室内画像の明度を前記第1の室内画像の明度に合わせて補正する
請求項6に記載の画像合成装置。 - 前記第1の部屋が、窓が設けられた壁面を内面として有し、
前記第1の部品が、前記第1の部屋の壁面に設けられた窓である
請求項3または請求項4に記載の画像合成装置。 - 前記加工部は、前記第2の室内画像の明度が前記第1の室内画像の明度より明るい場合、前記第1の部品画像を、覆いで覆われていない窓を示す採光画像に置き換えて、前記第2の室内画像の明度が前記第1の室内画像の明度より暗い場合、前記第1の部品画像を、覆いで覆われた窓を示す遮光画像に置き換える
請求項8に記載の画像合成装置。 - 前記加工部は、前記第1の室内画像の明度と前記第2の室内画像の明度との明度差が明度閾値より大きい場合、前記第1の部品画像を前記採光画像または前記遮光画像に置き換え、前記明度差が前記明度閾値より小さい場合、前記第2の室内画像の明度を前記第1の室内画像の明度に合わせて補正する
請求項9に記載の画像合成装置。 - 前記第1の部屋の内面に突起部分がある場合に、前記第1の室内画像から、前記突起部分を示す突起領域を検出する検出部を備え、
前記加工部は、前記突起領域を、平らな内面を示す画像に加工する
請求項1に記載の画像合成装置。 - 前記加工部は、前記第1の室内画像に対して視点変換を行う
請求項1に記載の画像合成装置。 - 第1の画面が設けられる第1の部屋の中を示す画像であって前記第1の画面が位置する方向から撮像された画像である第1の室内画像と、第2の画面が設けられる第2の部屋の中を示す画像であって前記第2の画面が位置する方向から撮像された画像である第2の室内画像とを受信する受信部と、
前記第1の室内画像から得られる画像であって前記第1の部屋の内面を示す画像である第1の内面画像を、前記第2の室内画像のうちの前記第2の部屋の内面に対応する第2の内面領域に合わせて、変形する加工部と、
変形後の第1の内面画像を前記第2の室内画像に合成して、前記第1の画面に表示される合成画像を生成する合成部として、
コンピュータを機能させるための画像合成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016022730A JP6552978B2 (ja) | 2016-02-09 | 2016-02-09 | 画像合成装置および画像合成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016022730A JP6552978B2 (ja) | 2016-02-09 | 2016-02-09 | 画像合成装置および画像合成プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017143376A true JP2017143376A (ja) | 2017-08-17 |
JP6552978B2 JP6552978B2 (ja) | 2019-07-31 |
Family
ID=59628767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016022730A Active JP6552978B2 (ja) | 2016-02-09 | 2016-02-09 | 画像合成装置および画像合成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6552978B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031742A1 (ja) * | 2018-08-10 | 2020-02-13 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318015A (ja) * | 2005-05-10 | 2006-11-24 | Sony Corp | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム |
JP2014175837A (ja) * | 2013-03-08 | 2014-09-22 | Kddi Corp | 被写体画像抽出および合成装置 |
JP2015162708A (ja) * | 2014-02-26 | 2015-09-07 | Kddi株式会社 | 空間共有装置、空間共有システム、空間共有方法、およびプログラム |
-
2016
- 2016-02-09 JP JP2016022730A patent/JP6552978B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318015A (ja) * | 2005-05-10 | 2006-11-24 | Sony Corp | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム |
JP2014175837A (ja) * | 2013-03-08 | 2014-09-22 | Kddi Corp | 被写体画像抽出および合成装置 |
JP2015162708A (ja) * | 2014-02-26 | 2015-09-07 | Kddi株式会社 | 空間共有装置、空間共有システム、空間共有方法、およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020031742A1 (ja) * | 2018-08-10 | 2020-02-13 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6552978B2 (ja) | 2019-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10834359B2 (en) | Information processing apparatus, information processing method, and program | |
US20200184653A1 (en) | Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects | |
US10148909B2 (en) | Immersive telepresence anywhere | |
EP3804301A1 (en) | Re-creation of virtual environment through a video call | |
US10659728B2 (en) | Information processing apparatus and information processing method | |
US10291848B2 (en) | Image display system and image display method | |
JP2017034502A (ja) | 通信装置、通信方法、プログラムおよび通信システム | |
US9900568B2 (en) | Remote communication system, method for controlling remote communication system, and storage medium | |
JP2017085372A (ja) | 通信システム、通信装置、通信方法およびプログラム | |
US10600218B2 (en) | Display control system, display control apparatus, display control method, and storage medium | |
JP7074056B2 (ja) | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム | |
JP6946684B2 (ja) | 電子情報ボードシステム、画像処理装置、及びプログラム | |
JP2011217350A (ja) | 描画画像共有装置、データ処理方法、プログラムおよび記録媒体 | |
JP2009071478A (ja) | 情報通信端末および情報通信システム | |
JP6090917B2 (ja) | 被写体画像抽出および合成装置、および方法 | |
KR20150066883A (ko) | 이미지 처리 방법 및 장치 | |
JP2011097447A (ja) | コミュニケーションシステム | |
JP6552978B2 (ja) | 画像合成装置および画像合成プログラム | |
US11695819B2 (en) | Securing image data from unintended disclosure at a videoconferencing endpoint | |
JP2016213675A (ja) | 遠隔コミュニケーションシステム、その制御方法、及びプログラム | |
US20230199380A1 (en) | Virtual space connection device | |
JP5924833B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置 | |
JP2003244669A (ja) | 視線検出機能を有するテレビ会議システム | |
US10986310B2 (en) | Information processing apparatus, information processing method, and program | |
US9560313B2 (en) | Dialogue system and dialogue method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181002 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6552978 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |