JP2017033256A - 画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラム - Google Patents

画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2017033256A
JP2017033256A JP2015152092A JP2015152092A JP2017033256A JP 2017033256 A JP2017033256 A JP 2017033256A JP 2015152092 A JP2015152092 A JP 2015152092A JP 2015152092 A JP2015152092 A JP 2015152092A JP 2017033256 A JP2017033256 A JP 2017033256A
Authority
JP
Japan
Prior art keywords
image
pixel
person
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015152092A
Other languages
English (en)
Inventor
裕介 村松
Yusuke Murakami
裕介 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015152092A priority Critical patent/JP2017033256A/ja
Publication of JP2017033256A publication Critical patent/JP2017033256A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 撮像画像から人物領域の画像の抽出を行う際の精度をより良くすることを目的とする。
【解決手段】 制御サーバ301には、画像を撮像する撮像センサと被写体までの距離を赤外線を用いて検出する距離センサとを含む前面カメラ103が配置されている。CPU302は、撮像センサによって取得された画像から人物領域の画像を抽出する際に、距離センサによって検出された距離を示すマスク画像(S602)と、撮像センサによって取得された画像の各画素の色情報を示すマスク画像(S702〜S704)とに基づいて、人物領域の画像を抽出する。
【選択図】 図6

Description

本発明は、撮像手段によって撮像された画像から人物領域の画像を抽出する画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラムに関する。
従来、離れた場所(遠隔地)に居る相手とコミュニケーションを取るためのシステムが知られている。例えば特許文献1には、離れた場所に居る相手と会議を行うための遠隔会議システムが開示されている。特許文献1に開示されたシステムには、人物を含むシーンを撮像するためのカメラと、画像を投影するためのプロジェクタと、プロジェクタによって投影された画像を映し出すスクリーンが含まれる。
特許文献1のシステムでは、ある会議室に備えられたカメラで撮像した人物を含む画像が相手側(遠隔地)のプロジェクタによってスクリーンに投影される。その一方で、相手側のカメラで撮像された人物を含む画像が会議室のプロジェクタによってスクリーンに投影される。
また、撮像画像から人物領域の画像を抽出する方法として、特許文献2の画像処理装置では、距離センサを用いて検出した距離に基づいて撮像画像に含まれる人物の領域と背景の領域を分離し、人物の領域のみを抽出する方法が開示されている。
特開2008−191613号公報 特開2001−167276号公報
距離センサによる距離の検出方式として、赤外線を用いる方式がある。例えば、赤外線の照射光と反射光の位相差から、赤外線が被写体により反射するまでの時間を算出し、被写体と距離を検出する方法がある。また、赤外線照射素子により赤外線のドットパターンを空間に投影し、当該投影されたドットパターンを赤外線カメラで読み取って、被写体に投影されたドットパターンを元に距離を検出する方法がある。
しかしながら、黒い服や黒髪などの表面反射率の低い領域に関しては、赤外線がうまく反射(又は投影)されず、距離を正しく検出できない場合がある。
従って、距離センサを用いて検出した距離に基づいて人物領域の画像を抽出する際に、距離が正しく検出できなかった一部の領域が欠けてしまうことがある。
本発明は、上記の課題に鑑みなされたものであり、撮像画像から人物領域の画像を抽出する場合に、人物領域の一部が欠けることを抑制する仕組みを提供することを目的とする。
上記の目的を達成するために本発明の画像処理装置は、撮像手段と、前記撮像手段によって取得される画像の各画素について、被写体までの距離を赤外線を用いて検出する検出手段と、前記検出手段によって検出された距離と前記撮像手段によって取得された画像の各画素の色情報とに基づいて、前記撮像手段によって取得された画像から人物領域の画像を抽出する抽出手段と、ことを特徴とする。
また、本発明のコミュニケーションシステムは、遠隔地から送信された画像を第1の投影面に投影する第1の投影手段と、撮像手段と、前記撮像手段によって取得される画像の各画素について、被写体までの距離を赤外線を用いて検出する検出手段と、前記検出手段によって検出された距離と前記撮像手段によって取得された画像の各画素の色情報とに基づいて、前記撮像手段によって取得された画像から人物領域の画像を抽出する抽出手段と、前記抽出手段による抽出がなされた人物領域の画像を、前記遠隔地に備えられた第2の投影面に投影する第2の投影手段と、を備えることを特徴とする。
本発明によれば、撮像画像から人物領域の画像を抽出する場合に、人物領域の一部が欠けないようにすることができる。
コミュニケーションシステムの構成を示す図である。 コミュニケーションシステムの構成を示す図である。 コミュニケーションシステムのハードウェア構成を示す図である。 距離画像のみに基づいた人物領域の画像の抽出を説明する図である。 コミュニケーションシステムの制御処理を示すフローチャートである。 人物領域の画像の抽出処理を示すフローチャートである。 頭部領域の補完処理を示すフローチャートである。 マスク画像の生成を説明する図である。 マスク画像に基づいた人物領域の画像の抽出を説明する図である。 コミュニケーションシステムの制御処理を示すフローチャートである。 画像処理装置の構成を示す図である。
以下、図面を参照して本発明の実施の形態を詳しく説明する。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。
図1は、本発明が適用されるコミュニケーションシステムの断面図である。このコミュニケーションシステムを用いることにより、本社内に設けられたオフィス1と支社Aに設けられたオフィス2の間でコミュニケーションを取ることが可能となっている。なお、ここでは2箇所のオフィスを例にしているが、3以上のオフィス間でコミュニケーションを取ることが可能な構成であってもよい。
また、ここで説明する各オフィスは、移動に数時間を要するほど離れたものであっても良いし、同一のビルに設けられた別の会議室であっても良い。即ち、「遠隔」という表現は、物理的な空間が別であることを示すものであり、物理的な距離や移動にかかる時間の長さを定義するものではない。
図1(a)に示すオフィス1には、プロジェクタ101、スクリーン102、前面カメラ103、背面カメラ104が備えられている。プロジェクタ101は、他のオフィスで撮像された画像をスクリーン102に投影する投影装置である。本実施形態の場合、前面カメラ103や背面カメラ104が撮像する画像、及び、スクリーン102に投影される画像は動画を想定しているが、静止画であってもよい。
また、本実施形態のプロジェクタ101は後述する会議資料もスクリーン102に投影するが、会議資料を投影するプロジェクタとして別のプロジェクタを用意してもよい。また、投影する画像から人物領域の画像を抽出し、抽出した人物領域の画像と背景画像を合成した合成画像をプロジェクタ101によってスクリーン102に投影してもよい。背景画像として、予め用意されている固定の背景画像を利用してもよいし、オフィス1の背景を撮像するための背景カメラを別途用意することでリアルタイムの背景画像を取得してもよい。
スクリーン102は、プロジェクタ101によって投影される画像を映し出す投影面である。なお、スクリーン102は、他のオフィスとのコミュニケーションを取るときに一時的に設置するものであっても良いし、オフィスの壁がスクリーン102の役割を兼ねても良い。また、本実施形態では画像を表示する手段としてプロジェクタとスクリーンを使用する例を示すが、大型の液晶ディスプレイを用いて画像を表示するようにしても良い。
前面カメラ103は、人物105を撮像するための撮像装置であり、スクリーン102に埋め込まれている。前面カメラ103は、スクリーン102の前に立つ人物105の前面を、投影面側であるスクリーン102側から撮像するためのカメラである。人物105がスクリーン102の方を向いている場合に人物105の前面を撮像できるように、前面カメラ103は図1(a)に示す位置に設置される。
背面カメラ104は、人物105を撮像するための撮像装置である。背面カメラ104は、スクリーン102の前に立つ人物105の背面や、スクリーン102に映し出された画像を撮像するためのカメラである。人物105がスクリーン102の方を向いている場合に人物105の背面(背中側)を撮像できるように、背面カメラ104は図1(a)に示す位置(人物105に対してスクリーン102の反対側)に設置される。
前面カメラ103には、カラー画像を撮像するための撮像センサと、赤外線を用いて被写体までの距離を検出するための距離センサが含まれる。前面カメラ103によって得られる画像には、RGBで8ビット3チャネルの情報からなるカラー画像と、8ビット1チャネルの情報からなる距離画像が含まれる。距離画像を用いることで、前面カメラ103は、スクリーン102と人物105との間の距離を検出することができる。前面カメラは例えば所定範囲d2内にある被写体までの距離を検出可能であり、所定範囲d2外にある被写体までの距離は検出できない。そのうち所定範囲d1(例えば前面カメラ103を基準として0.5メートル〜2.5メートルの範囲)の範囲内にある人物に相当する領域をカラー画像から抽出する。ここでの「人物に相当する領域」とは、人物のみならず、人物が手に持っている指示棒や、商品サンプルなども含まれる。
またカラー画像と距離画像は、それぞれを取得するセンサの物理的な位置が異なるため、同じ被写体を撮影しても画素のズレが生じる。この距離画像とカラー画像の画素のズレは距離センサと撮像センサの物理的な位置関係やセンサの特性などに基づいて予め計算された変換行列によって補正されるものとする。本実施形態では、距離センサにより得られた距離画像の座標(各ピクセル)をカラー画像の座標系に変換する。この処理により距離画像とカラー画像の位置合わせを行うことができる。
また、オフィス1にはコミュニケーションシステムを構成する各構成に加えて、オフィス1で使用するテーブル106やラック107などが配置されているものとする。テーブル106やラック107は、コミュニケーションシステム外に配置されたオブジェクトの一例を示している。
また、人物115が居るオフィス2(図1(b))にも、オフィス1と同様の設備(プロジェクタ111、スクリーン112、前面カメラ113、背面カメラ114)からなるコミュニケーションシステムが備えられている。
図2(a)は、コミュニケーションシステムの外観図であり、オフィス1の人物105がオフィス2の人物115とコミュニケーションを取っている様子を示している。スクリーン102には、オフィス2の前面カメラ113によって撮像された人物115(図2(a)の場合は人物115の前面)が投影されている。
オフィス1には、送信器201aと受信器201bから成るデジタイザが備えられている。デジタイザは、スクリーン102に対してなされるユーザの動作を検知するための検知装置である。デジタイザは、送信器201aが投射した赤外光が人物105の体の一部、或いは人物105が持っている指示棒等によって遮られた場合に、その位置を示す座標を出力する。なお、ここでは送信器201aと受信器201bをそれぞれスクリーン102の左右に配置する例を示したが、スクリーン102の上下に配置しても良い。また、ユーザの動作を検知する方法はデジタイザに限らず、スクリーン102にタッチパネル機能を備えるようにし、スクリーン102が押圧された位置を検知するようにしても良い。
また、図2(a)は、オフィス2の前面カメラ113によって撮像された人物115をスクリーン102に投影する例を示しているが、オフィス2の背面カメラ114によって撮像された人物115をスクリーン102に投影することもできる。
図2(b)は、オフィス2の様子を示している。オフィス2のスクリーン112には、オフィス1の前面カメラ103によって撮像された人物105(図2(b)の場合は人物105の前面)が投影されている。また、オフィス2も、オフィス1と同様に送信器211aと受信器211bから成るデジタイザが備えられている。また、オフィス2も、オフィス1の背面カメラ104によって撮像された人物105をスクリーン102に投影することもできる。
次に図3を用いて、コミュニケーションシステムのハードウェア構成を説明する。図1及び2には示していないが、オフィス1には制御サーバ301が備えられている。制御サーバ301に含まれるCPU(Central Processing Unit)302は、ROM(Read Only Memory)304に記憶された制御プログラムを読み出して、オフィス1内に備えられた各装置を制御する。RAM(Random Access Memory)303は、CPU302の主メモリ、ワークエリア等の一時記憶領域として用いられる。また、HDD(Hard Disk Drive)305は、各種データを記憶する記憶媒体として使用される。なお、オフィス1では、1つのCPU302が1つのメモリ(RAM303)を用いて後述するフローチャートに示す各処理を実行するものとするが、他の態様であっても構わない。例えば、各カメラやプロジェクタ、デジタイザのそれぞれに対して個別にCPUを備えるようにするなど、複数のCPUや複数のRAM、或いはHDDやSSD(Solid State Drive)を協働させて各処理を実行するようにすることもできる。また、後述する処理の一部をASIC(Application Specific integrated Circuit)やFPGA(Field−Programmable Gate Array)などのハードウェア回路を用いて実行するようにしてもよい。また、後述する画像処理の一部をDSP(Degital Signal Processor)を用いて実行するようにしてもよい。
ネットワーク300は、各オフィスを繋ぐネットワークである。ネットワーク300の種類は、有線、無線、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、専用回線など、環境に合わせて適宜選択すればよい。ネットワークインタフェース(I/F)310は、オフィス1をネットワーク300に接続するためのインターフェースである。
図1及び2には示していないが、各オフィスにはマイクとスピーカーが設置されている。オフィス内の人物が発する言葉はマイクによって音声信号に変換され、遠隔地のスピーカーから出力される。オフィス1には、マイク311とスピーカー312が備えられており、音声I/F307は、マイク311による音声の入力及びスピーカー312による音声の出力を制御するためのインターフェースである。
プロジェクタI/F308は、プロジェクタ101による画像の投影を制御するためのインターフェースである。本実施形態では、1つのプロジェクタを用いてスクリーンへの画像の投影を行っているが、スクリーンの幅が大きい場合等、複数のプロジェクタを用いてスクリーンへの投影を行ってもよい。
デジタイザI/F309は、送信器201aと受信器201bから成るデジタイザによるユーザの動作の検知を制御するためのインターフェースである。カメラI/F306は、前面カメラ103、背面カメラ104による撮像を制御するためのインターフェースである。
また、オフィス2には、オフィス1と同様に制御サーバ321が備えられている。制御サーバ321が備える各構成はオフィス1の制御サーバ301と同様であるため、詳細な説明は省略する。
また、図3で説明した各インターフェースには、USB(Universal Serial Bus)やHDMI(登録商標)(High Definition Multimedia Interface)、有線LAN、無線LANなどが適宜適用できる。
次に図4を用いて、距離画像のみに基づいて人物領域の画像を抽出する従来の方法について説明する。図4(a)は、前面カメラ103によって取得されたカラー画像を示す図である。カラー画像には、抽出したい人物105の画像の他に、コミュニケーションシステムを構成する背面カメラ104の画像が含まれている。また、オフィス1に配置されているテーブル106の画像やラック107の画像が含まれている。
また、図4(b)は、距離画像に基づいて生成される人物を抽出するためのマスク画像1を示す図である。本実施形態では、人物105は、スクリーン102(前面カメラ103)から0.5メートル以上且つ2.5メートル以内の距離に立つことを想定している。そこで、前面カメラ103から被写体までの距離の最小値を0.5メートルと設定し、最大値を2.5メートルとして所定範囲を設定する。そして、距離画像の各画素に対して、値が上記所定範囲内に含まれる画素の値を255に変更し、それ以外の画素の値を0に変更したマスク画像1を生成する。
領域410は、マスク画像1における人物の頭部領域を示している。また、図4(c)は領域410に示す画像を拡大した図である。図4(c)に示すように黒髪などの表面反射率の低い領域は、距離センサで距離を正しく検出できない場合がある。また、被写体のエッジ部分(例えば、頭部の曲線部分、洋服と背景との境界部分、洋服がしわになっている部分など)では、距離センサで距離を正しく検出できない場合がある。
従って、距離センサに基づいて人物の領域を抽出する場合に、被写体のエッジ部分且つ反射率の低い部分である黒髪の一部が欠けてしまう場合がある。図4(d)は、図4(a)のカラー画像から図4(b)のマスク画像1に基づいて抽出された人物領域の画像の一例を示している。図4(d)の領域420に示すように、距離画像のみに基づいて人物領域の画像を抽出する場合は、黒髪の一部分(特に頭部の曲線部分)が欠けてしまうことになる。髪の毛の形状(ヘアスタイル)は人物の特徴をよく表す部分である。従って、人物領域の画像から髪の毛の一部分が欠けてしまうと、コミュニケーションに違和感を与える恐れがある。また、人物が髪の毛を補う人工物を装着している場合も考えられる。この場合、人工物の素材の反射率によっては、人工物までの距離を正しく検出できるケースが考えられる。この場合、自毛と人工物の間の画像が欠けることにより人物の自毛と人工物の境界が強調されてしまうことが考えられる。人物領域の画像で自毛と人工物の境界が強調されてしまうと、コミュニケーションに違和感を与える恐れがある。
これを鑑みて、本実施形態では、撮像画像から人物領域の画像を抽出する際に、頭部領域の補完処理を行うことについて説明する。図5乃至図7は、オフィス1の制御サーバ301が実行する処理を示すフローチャートである。図5乃至図7のフローチャートに示す各動作(ステップ)は、オフィス1のCPU302がROM304又はHDD305に記憶された制御プログラムを実行することにより実現される。また、図8及び図9は、頭部領域の補完処理を説明するための図である。
ステップS501では、CPU302は、前面カメラ103に人物105を撮像させる。ステップS502では、前面カメラ103によって得られた撮像画像から人物領域の画像を抽出する。
図6は、ステップS502の処理を詳細に説明するフローチャートである。ステップS601では、CPU302は、前面カメラ103で得られた撮像画像に含まれる距離画像を前述の射影変換行列を用いて射影変換する。この処理は、距離画像とカラー画像の画素のズレを補正するための処理である。
ステップS602では、ステップS601で補正した距離画像を二値化し、人物領域をマスクするためのマスク画像1を生成する。本実施形態では、人物105は、スクリーン102(前面カメラ103)から0.5メートル以上且つ2.5メートル以内の距離に立つことを想定している。そこで、前面カメラ103から被写体までの距離の最小値を0.5メートルと設定し、最大値を2.5メートルとして所定範囲d1を設定する。そして、距離画像の各画素に対して、値が上記所定範囲d1内に含まれる画素の値を255に変更し、それ以外の画素の値を0に変更する。
S603では、CPU302は、S602で得られたマスク画像1の頭部領域を補完する補完処理を行う。
図7は、ステップS603の頭部領域の補完処理を詳細に説明するフローチャートである。ステップS701では、カラー画像と距離画像のどちらか、或いは両方を解析して、人物の頭部全体が含まれる領域(以下、頭部領域)を推定する。例えばパターンマッチングを用いて頭部領域を推定したり、パターンマッチングとトラッキングを組み合わせて、頭部領域を推定したりすることができる。また、人物のサンプルデータに基づいて、人体の骨格情報を推定し、当該推定された骨格情報から頭部領域を推定するようにしてもよい。
なお、サンプルデータに基づいて骨格情報を推定する場合は、予めサンプルデータに基づいて学習した決定木に基づいて各画素がどのパーツに属するかを識別し、識別した各パーツに基づいて骨格情報を推定するものとする。予め学習した決定木に基づいてパーツの識別を行うことにより、計算コストの低い骨格情報の推定を行うことができる。
ステップS702では、カラー画像から、輝度画像を生成する。輝度は物体の明るさを示すパラメータであり、0から255までの数値で表現される。値が小さいほどその物体は暗く、大きいほど明るいことを表している。
ステップS703では、ステップS702で生成した輝度画像を二値化し、マスク画像2を生成する。本実施形態では、画像中の暗い部分の輝度が小さくなることに着目する。輝度の値が所定の閾値以下の画素を255に変更し、所定の閾値より大きい画素を0に変更したマスク画像2を生成する。この処理により、輝度の小さい黒い髪の毛の領域が255となる。また、人物が髪の毛を補う人工物を装着している場合には、人物の自毛の部分と人工物の部分とを含む領域が255となる。
なお、本実施形態のコミュニケーションシステムでは、オフィスの床や壁は白を基調としており、図8(a)に示すマスク画像2において、背景部分(即ち、所定範囲d2内のオブジェクト以外)の大半の画素は0になることを想定している。しかしながら、想定外のノイズが髪の毛の領域として認識されることできるかぎり避けるため、S702で推定した頭部領域の部分に絞って補完処理を行うものとする(詳細は後述する。)
また、所定の閾値は、固定値(例えば40など)であってもよいし、コミュニケーションシステムが設置される環境によって適宜変更できるようにしてもよい。また、所定の閾値を変更する場合は、抽出した人物領域の画像をスクリーン112などに表示し、頭部領域の補完状況をリアルタイムで確認しながら調整できるようにしてもよい。図8(a)に示す画像はS703の処理によって得られた輝度画像を二値化したマスク画像2を例示するものである。また、領域801は、ステップS701の処理によって得られた頭部領域の範囲を示している。
なお、ステップS702乃至S703の処理では、カラー画像の色情報に応じた髪の毛領域の補完処理に輝度情報を用いる場合を例示したが、輝度情報以外の色情報を用いてもよい。例えば、輝度情報に加えて彩度(色のあざやかさ)に関する色情報を用いるようにしてもよい。
ステップS704では、マスク画像2の頭部領域801内の画像に対してノイズ除去を行う。注目画素の周辺に1画素でも値が255の画素があれば値を255に変更する膨張処理を複数回実行することで光の反射等で生じる明るい領域(値が255の画素の近辺に生じる値が0の孤立点)を除去する。
ところで、ステップS704で取得したマスク画像2は、図8(a)及び(b)に示すように黒髪を示す領域に対応する画素の値が255となっている。しかしながら、所定範囲d1の範囲外に配置された背面カメラ104、テーブル106、及びラック107などに基づく輝度の小さい領域(カラー画像中の暗い部分)に対応する画素の値も255となっている。これらの所定範囲d1の外にある輝度の低い画素を除去するために、ステップS705及びS706の処理を実行する。
ステップS705では、距離画像に基づいて、検出された距離が所定範囲d1に含まれないと判断できる画素を輝度の二値化画像から除去するために使用するマスク画像3を生成する。本実施形態では、人物105は、スクリーン102(前面カメラ103)から0.5メートル以上且つ2.5メートル以内の距離に立つことを想定している。従って、前面カメラ103から2.5メートルより離れている画素及び前面カメラから0.5メートル未満の画素の値を0に変更し、それ以外の画素の値を255に変更すればよい。なお、この処理では距離が検出できなかった領域(画素の値としてNULLを示す値(例えば−1など)が格納されている領域)の値は255に変更されるものとする。この処理により、0.5メートル以上且つ2.5メートル以内の領域と距離センサにより距離が取れなかった領域の値が255のマスク画像が得られる。従って、距離センサで距離が検出できなかった黒髪の領域の値は255となる。
図8(c)に示す画像は、S705の処理で得られた距離画像に基づくマスク画像3を例示するものである。また、図8(d)はマスク画像3における頭部領域801に対応する画素を拡大したものである。図8(d)において黒色の塗りつぶしで示している領域803a及び領域803bは、値が0の領域であり、マスク画像2から除去すべき領域を示している。
ステップS706では、ステップS703で得られたマスク画像2とステップS705の処理で得られたマスク画像3の各画素とのANDを取り、マスク画像4を生成する。この処理により、図8(c)及び図8(d)の両方で画素の値が255の領域が255となり、図8(c)及び図8(d)の少なくともいずれかの画素の値が0の領域が0となったマスク画像が得られる。図8(e)は、S706で生成される頭部領域801を補完するマスク画像4を示すものである。また、図8(f)はマスク画像4における頭部領域801に対応する画素を拡大したものである。
ステップS707では、CPU302は、ステップS602で生成されたマスク画像1(図4(b))に、ステップS705で得られたマスク画像4の頭部領域801内の各画素とのORで加えたマスク画像5を生成する。この処理により、髪の毛の領域を追加(補完)したマスク画像を生成することができる。図9(a)は、S707で得られた頭部領域を補完したマスク画像5の一例を示すものである。S707の処理では、頭部領域801の部分だけをマスク画像1に適用するため、図8(e)に示すような頭部領域801の外に現れる周囲のノイズの影響を抑えることができる。
なお、本実施形態では、マスク画像2〜4の生成(S703〜S706)を、カメラで取得した画像全体に対して行う場合に例示して説明したがこれに限定されるものではない。例えば、マスク画像2〜4の生成は、S701で推定した頭部領域内の各画素のみに対して行うようにすることもできる。この場合、計算量を少なくすることができる。
マスク画像5の生成が完了すると、頭部領域の補完処理を終了し、S604に進む。
図6の説明に戻り、ステップS604では、S603で生成したマスク画像5に対してノイズ除去の処理を行う。注目画素の周辺に1画素でも値が0の画素があれば周辺画素の値を0に変更する収縮処理、及び注目画素の周辺に1画素でも値が255の画素があれば周辺画素の値を255に変更する膨張処理を、複数回ずつ交互に実行することで孤立点ノイズを除去する。
ステップS605では、S604でノイズ除去がなされたマスク画像5に平滑化フィルタ(例えば、ガウシアンフィルタ)の処理を実行することにより、値が255となっている画素が連続している領域の輪郭を平滑化する。
ステップS606では、マスク画像5を用いたマスク処理を実行することにより、値が255であるマスク画像5の画素に対応するカラー画像の画素を非透明とし、値が0であるマスク画像5の画素に対応するカラー画像の画素を全透明とする。この処理により、前面カメラ103によって得られた撮像画像から人物領域の画像が抽出される。人物領域の画像の抽出が完了すると、S503の処理に進む。図9(b)は、S606で得られる人物領域の画像の一例を示している。領域920に示すように、従来の手法(図4(b))で欠けてしまっていた髪の毛の領域を補完した人物領域の画像を抽出することができる。
このように、距離画像に基づく人物領域の画像を抽出するマスクに加えて、頭部領域を補完するマスクを適用することで、人物領域の画像の抽出時に髪の毛の領域が欠けてしまうことを抑制できる。
図5の説明に戻り、ステップS503では、ステップS502の一連の処理で得られた人物領域の画像を接続先のオフィス2に送信する。ステップS504では、コミュニケーションの終了が指示されたか否かを判定し、終了が指示されたと判定すると処理を終了する。一方、終了が指示されなかったと判定するとステップS501に戻り、ステップS501以降の処理を再び実行する。
なお、ここではステップS502の人物領域の画像の抽出処理を撮像側(被写体である人物が居る方のオフィス1)で実行する例を示したが、投影側(撮像された画像を投影する方のオフィス)や中継サーバ(不図示)で実行するようにしても良い。更に、背面カメラ104によって得られた画像に対しても、図5乃至図7に示した処理と同様の人物領域の画像の抽出を行い、前面の人物領域の画像の送信と同期させて、又は非同期で接続先のオフィス2に送信するようにすることもできる。
次に、オフィス1において、送信された人物領域の画像を投影する処理について説明する。図10は、接続先のオフィス2から送信された画像を投影する処理を説明するフローチャートである。図10のフローチャートに示す各動作(ステップ)は、オフィス1のCPU302がROM304に記憶された制御プログラムを実行することにより実現される。なお、ここではオフィス2の制御サーバ301のCPU322によって図5乃至図7で説明した処理が同様に実行され、その結果としてオフィス2から送信されてきた人物領域の画像をオフィス1側で投影する処理について説明する。
ステップS1001では、CPU302はオフィス2の前面カメラ113によって得られた前面の人物領域の画像を受信する。ステップS1002では、オフィス2の背面カメラ114によって得られた人物領域の画像を受信する。
ステップS1003では、人物の前面を表示するか、人物の背面を表示するかを判定する。例えば、人物の前面と背面のいずれかを表示するかは、例えば、不図示のキーを押下することで切り替えることができるものとする。なお、前面と背面のいずれを表示するか判定はこれに限定されるものではない。例えば、スクリーン112とスクリーン102に同じ会議資料が提示されている場合には、資料の指差し位置が分かりやすいように人物の背面を表示すると判定するようにしてもよい。人物の前面を表示する場合は、ステップS1005に進み、人物の背面を表示する場合は、ステップS1006に進む。
ステップS1005では、プロジェクタ101を制御し受信した前面の人物領域の画像をスクリーン102のいずれかの位置に表示する。一方、ステップS1006では、プロジェクタ101を制御し背面の人物領域の画像をスクリーン102のいずれかの位置に表示する。
ステップS1007では、遠隔コミュニケーションの終了が指示されたか否かを判定し、終了が指示されたと判定すると処理を終了する。一方、終了が指示されなかったと判定するとステップS1001に戻り、ステップS1001以降の処理を再び実行する。なお、図4に示すフローチャートと図10に示すフローチャートは、遠隔コミュニケーションが行われている間、継続的に並行して実行されるものとする。
以上説明した通り、本実施形態のコミュニケーションシステムは、人物同士が近い距離で向かい合っているような感覚で遠隔地とコミュニケーションを取ることを可能としている。またこの際、人物領域の画像の作成にあたって、頭部領域の補完処理(S603)を行うことで髪の毛の領域が欠損することなく、人物の領域を抽出することができる。
なお、本実施形態では、人物の頭部領域の補完処理を行うことを例示したがこれに限定されるものではない。例えば、カメラで取得した画像全体や人物が含まれる領域全体に対して輝度情報に基づく補完処理を行うようにしてもよい。この場合、人物領域の画像を抽出する際に、人物領域の一部が欠けてしまうことを抑制することができる。
従って、コミュニケーションシステムにおいて抽出した人物領域の画像を投影する際に、人物領域の画像の抽出時に人物領域の一部が欠けることを抑制することができ、遠隔地の人物と違和感の少ないコミュニケーションを取ることを可能としている。
また、本実施形態では頭部領域を推定し、頭部領域に絞った補完処理を行うことができる。従って、補完処理によるノイズの影響を抑制することができる。
更に、S701〜S707に示す輝度画像の生成処理、二値化処理、及びマスク画像の生成処理は、画素ごとの単純な演算処理で実現できるため、処理時間を大幅に増やすことにはならない。従って、コミュニケーションシステムのリアルタイム性に大きく影響を与えることなく人物領域の画像中の黒い領域が欠けてしまうことを抑制することができる。
<変形例>
なお、第1の実施形態では遠隔コミュニケーションシステムにおいて相手先に表示する人物領域の画像の抽出を行う場合を例として説明したが、これに限定されるものではない。例えば、仮想空間などに抽出した人物領域の画像をオーバレイして表示する画像処理装置にも適用することができる。図11は、画像処理装置の構成の一例を示すものである。画像処理装置は制御部341と、ユーザに仮想空間などを提示するための表示部349と、カラー画像と距離画像を含む撮像画像を取得するカメラ347とを備えている。なお、制御部341は、CPU342、RAM343、ROM344、HDD345及び、表示部349やカメラ347と通信するためのI/Fを含むものとする。この場合、CPU342は、第1の実施形態で説明したS503の送信処理に代えて、仮想空間に人物領域の画像を重畳表示した画像を表示部349に表示する処理を行うようにすればよい。
このように、単体の画像処理装置に適用する場合は、仮想空間などに重畳表示する人物領域の画像の一部が欠けることを抑制することができる。従って、人物領域の画像を違和感なく仮想空間などに重畳することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 プロジェクタ
101 スクリーン
103 前面カメラ
104 背面カメラ
301 制御サーバ
302 CPU
341 制御部
347 カメラ

Claims (11)

  1. 撮像手段と、
    前記撮像手段によって取得される画像の各画素について、被写体までの距離を赤外線を用いて検出する検出手段と、
    前記検出手段によって検出された距離と前記撮像手段によって取得された画像の各画素の色情報とに基づいて、前記撮像手段によって取得された画像から人物領域の画像を抽出する抽出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記抽出手段は、前記検出手段によって検出された距離に基づいて決定した第1の領域と、前記撮像手段によって取得された画像の各画素の色情報に基づいて決定した第2の領域の少なくともいずれかに含まれる領域を前記人物領域として決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出手段は、前記検出手段によって検出された距離が所定の範囲内である画素に対応する領域を前記第1の領域として決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記色情報は、各画素の輝度を示す輝度情報を含み、
    前記抽出手段は、前記撮像手段によって取得された画像の各画素の輝度に基づいて前記第2の領域を決定することを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記抽出手段は、輝度の値が所定の閾値以下である画素に対応する領域を前記第2の領域として決定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記所定の閾値を変更する変更手段を更に備えることを特徴とする請求項5に記載の画像処理装置。
  7. 前記抽出手段は、輝度の値が前記所定の閾値以下であっても、前記検出手段により検出された距離に基づいて前記人物領域に含まれないと判断できた場合は、当該画素を前記第2の領域に加えないことを特徴とする請求項5又は6に記載の画像処理装置。
  8. 少なくとも前記検出手段によって検出された距離又は前記撮像手段によって撮像された画像に基づいて人物の頭部領域を推定する推定手段を更に備え、
    前記抽出手段は、輝度の値が前記所定の閾値以下であっても、前記推定手段によって推定された頭部領域に含まれない場合は、当該画素を前記第2の領域に加えないことを特徴とする請求項5乃至7のいずれか1項に記載の画像処理装置。
  9. 画像処理方法であって、
    撮像工程と、
    前記撮像工程で取得される画像の各画素について、被写体までの距離を赤外線を用いて検出する検出工程と、
    前記検出工程で検出された距離と前記撮像工程で取得された画像の各画素の色情報とに基づいて、前記撮像工程で取得された画像から人物領域の画像を抽出する抽出工程と、
    を備えることを特徴とする画像処理方法。
  10. 請求項9に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  11. 遠隔地から送信された画像を第1の投影面に投影する第1の投影手段と、
    撮像手段と、
    前記撮像手段によって取得される画像の各画素について、被写体までの距離を赤外線を用いて検出する検出手段と、
    前記検出手段によって検出された距離と前記撮像手段によって取得された画像の各画素の色情報とに基づいて、前記撮像手段によって取得された画像から人物領域の画像を抽出する抽出手段と、
    前記抽出手段による抽出がなされた人物領域の画像を、前記遠隔地に備えられた第2の投影面に投影する第2の投影手段と、
    を備えることを特徴とするコミュニケーションシステム。
JP2015152092A 2015-07-31 2015-07-31 画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラム Pending JP2017033256A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015152092A JP2017033256A (ja) 2015-07-31 2015-07-31 画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015152092A JP2017033256A (ja) 2015-07-31 2015-07-31 画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2017033256A true JP2017033256A (ja) 2017-02-09

Family

ID=57988154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015152092A Pending JP2017033256A (ja) 2015-07-31 2015-07-31 画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2017033256A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179361A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
WO2018179360A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
JP2020144465A (ja) * 2019-03-04 2020-09-10 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
WO2021192206A1 (ja) * 2020-03-27 2021-09-30 日本電気株式会社 画像認識システム、画像認識方法および非一時的なコンピュータ可読媒体
JP2022016328A (ja) * 2020-07-10 2022-01-21 学校法人五島育英会 落下物検知システム及び落下物検知方法
WO2023047643A1 (ja) * 2021-09-21 2023-03-30 ソニーグループ株式会社 情報処理装置、映像処理方法、プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179361A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
WO2018179360A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
JPWO2018179360A1 (ja) * 2017-03-31 2020-01-09 日本電気株式会社 画像処理装置、画像処理方法、およびプログラム
JPWO2018179361A1 (ja) * 2017-03-31 2020-01-09 日本電気株式会社 画像処理装置、画像処理方法、およびプログラム
US11250570B2 (en) 2017-03-31 2022-02-15 Nec Corporation Display rack image processing device, image processing method, and recording medium
US11430154B2 (en) 2017-03-31 2022-08-30 Nec Corporation Classification of change related to display rack
JP2020144465A (ja) * 2019-03-04 2020-09-10 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
WO2021192206A1 (ja) * 2020-03-27 2021-09-30 日本電気株式会社 画像認識システム、画像認識方法および非一時的なコンピュータ可読媒体
JP2022016328A (ja) * 2020-07-10 2022-01-21 学校法人五島育英会 落下物検知システム及び落下物検知方法
JP7362053B2 (ja) 2020-07-10 2023-10-17 学校法人五島育英会 落下物検知システム
WO2023047643A1 (ja) * 2021-09-21 2023-03-30 ソニーグループ株式会社 情報処理装置、映像処理方法、プログラム

Similar Documents

Publication Publication Date Title
JP2017033256A (ja) 画像処理装置、コミュニケーションシステム、画像処理方法、及びプログラム
WO2019228473A1 (zh) 人脸图像的美化方法和装置
US10559089B2 (en) Information processing apparatus and information processing method
US20190098277A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
US10706556B2 (en) Skeleton-based supplementation for foreground image segmentation
EP3135033B1 (en) Structured stereo
WO2017043332A1 (ja) 画像処理装置および方法
WO2010135809A9 (en) Real-time matting of foreground/background images.
KR20190112894A (ko) 3d 렌더링 방법 및 장치
EP3241151A1 (en) An image face processing method and apparatus
JP2012018673A (ja) 物体検知方法及び装置
US9900568B2 (en) Remote communication system, method for controlling remote communication system, and storage medium
US10600218B2 (en) Display control system, display control apparatus, display control method, and storage medium
JP2013135341A5 (ja)
US20210312647A1 (en) Detecting device, information processing device, detecting method, and information processing program
JP2014142737A (ja) 入力プログラム、入力装置および入力方法
US20230245396A1 (en) System and method for three-dimensional scene reconstruction and understanding in extended reality (xr) applications
CN111742352A (zh) 3d对象建模方法以及相关设备和计算机程序产品
JP2010237976A (ja) 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム
JP7067743B2 (ja) 口腔癌診断システム及び口腔癌診断プログラム
JP6541497B2 (ja) コミュニケーションシステム、その制御方法及びプログラム
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
CN107589834A (zh) 终端设备操作方法及装置、终端设备