JP2015195477A - プログラム、端末装置および方法 - Google Patents

プログラム、端末装置および方法 Download PDF

Info

Publication number
JP2015195477A
JP2015195477A JP2014072011A JP2014072011A JP2015195477A JP 2015195477 A JP2015195477 A JP 2015195477A JP 2014072011 A JP2014072011 A JP 2014072011A JP 2014072011 A JP2014072011 A JP 2014072011A JP 2015195477 A JP2015195477 A JP 2015195477A
Authority
JP
Japan
Prior art keywords
value
luminance
image data
cpu
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014072011A
Other languages
English (en)
Inventor
渡邉 光章
Mitsuaki Watanabe
光章 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2014072011A priority Critical patent/JP2015195477A/ja
Priority to US14/664,292 priority patent/US9531910B2/en
Publication of JP2015195477A publication Critical patent/JP2015195477A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/38Circuits or arrangements for blanking or otherwise eliminating unwanted parts of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

【課題】撮影画像から切り出した画像の輝度を補正して合成画像を生成し、且つ、輝度の補正値に応じた調整値を用いてカメラの露出を補正することができるプログラム、端末装置および方法を提供する。【解決手段】端末のCPUは、カメラが撮像した画像データに含まれる人物の顔を検出する(S22)。2人以上の顔を検出した場合(S23)、CPUは、顔を含む所定範囲の画像を切り出した抽出画像データをRAMに保存する(S25)。CPUは個々の抽出画像データの顔近傍輝度値を決定し(S26)、基準輝度値との差分値を求め、それぞれ補正する(S28)。また、CPUは差分値の平均値に基づき、カメラの露出を補正する露出補正値を決定し、カメラドライバに送信する(S30)。CPUは輝度値を補正した抽出画像データを合成し、合成画像データを生成する。【選択図】図4

Description

本発明は、ネットワークを介して各種データの送受信を行うことで遠隔会議を行うことができるプログラム、端末装置および方法に関する。
従来、ネットワークを介して携帯端末、パーソナルコンピュータ(PC)等、複数の端末装置を接続し、端末装置間で画像データを含む各種データを送受信して遠隔会議を行うことができる端末装置が知られている。例えば、特許文献1に記載の映像通信装置は、撮像装置(カメラ)で撮影した撮影画像の映像信号を他の映像通信装置に伝送する。映像通信装置は、他の映像通信装置から撮影画像内の一部の領域を指定する制御信号を受信した場合、撮影画像から指定された領域の画像を切り出す。映像通信装置は、切り出した画像の映像信号を指定元の映像通信装置に伝送する。また、特許文献1に記載の映像通信装置は、撮影画像内の複数の領域を指定する制御信号を受信した場合、指定された複数の領域の画像をそれぞれ切り出す。映像通信装置は、切り出した複数の画像を1枚の画像に合成した合成画像を生成する。映像通信装置は、合成画像の映像信号を指定元の映像通信装置に伝送する。
特開平5−328342号公報
ところで、カメラの撮影対象は、撮影範囲内における位置、向き、大きさ等、様々な要因によって、撮影範囲を照らす光源から光の影響を受ける。撮影対象が複数ある場合、個々の撮影対象が受ける光の影響は、撮影対象間でそれぞれ異なる場合がある。例えば、撮影対象が人の顔である場合、個々の顔が受ける光の影響が様々な要因によって異なるため、1つの撮影画像は、明るい顔画像と暗い顔画像を含む場合がある。もっとも光源は、撮影対象だけでなく背景、静物等、撮影対象外のものに対しても光の影響を与えるので、撮影範囲内のすべてのものに対する光源からの光の方向が一致する。故に、撮影画像は、明るい顔画像と暗い顔画像を含んでいても、画像内における輝度の変化が画像全体として光の方向に基づき連続的に変化する自然な画像になる。
しかしながら、撮影画像から個々の撮影対象をそれぞれ含む複数の領域を切り出した場合、個々の画像は、切り出された領域に含まれる撮影対象が受けた光の影響に応じ、輝度にばらつきを生ずる。故に、切り出した画像を単純に1枚の画像に合成した場合、合成画像は、切り出し元の個々の画像が占める領域ごとに輝度がばらつき、画像内における輝度の変化が画像全体として光の方向に基づかず不連続に変化する不自然な画像になる可能性があった。
また、1枚の合成画像に明るい顔画像と暗い顔画像が含まれる場合、顔の表情の判別が困難であるため、遠隔会議に利用しづらいという問題があった。もっとも、端末装置は、撮影画像から切り出した個々の画像に対して輝度補正を行えば、輝度のばらつきを軽減した合成画像を生成することが可能である。しかし、遠隔会議に用いる撮影画像は、映像として連続表示するフレーム画像である。故に、フレームごとに輝度補正を行うと、端末装置は、CPUの処理負荷が増大する可能性があった。
本発明は、撮影画像から切り出した画像の輝度を補正して合成画像を生成し、且つ、輝度の補正値に応じた調整値を用いてカメラの露出を補正することができるプログラム、端末装置および方法を提供することを目的とする。
本発明の第一態様によれば、端末装置のコンピュータが実行可能なプログラムであって、前記端末装置のコンピュータに、前記端末装置に接続されたカメラから取得された画像データに対し、前記画像データから抽出する対象の領域である複数の抽出領域を決定する第一決定ステップと、前記第一決定ステップにおいて決定された前記複数の抽出領域の輝度をそれぞれ代表する複数の代表輝度値を決定する第二決定ステップと、前記第二決定ステップにおいて決定された前記複数の代表輝度値と、輝度の基準値を表す基準輝度値とに基づいて、前記複数の抽出領域のそれぞれに対し、前記抽出領域の輝度をそれぞれ補正する複数の輝度補正値を決定する第三決定ステップと、前記第三決定ステップにおいて決定された前記複数の輝度補正値を前記端末装置が備える記憶部に保存する保存ステップと、前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値を、各々が対応する前記抽出領域に対してそれぞれ用い、それぞれの輝度が補正された前記複数の抽出領域を、1つの画像形成領域において互いに異なる位置に配置して1つの合成画像を生成する生成ステップと、前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値に基づいて、前記カメラの露出を補正する露出補正値を決定する第四決定ステップと、前記第四決定ステップにおいて決定された前記露出補正値に基づいて、前記カメラの露出を変更する変更指示を送信する第一送信ステップとを実行させることを特徴とするプログラムが提供される。
複数の代表輝度値と基準輝度値とに基づく複数の輝度補正値で、それぞれ対応する抽出領域の輝度を補正することで、端末装置は、合成画像を構成する複数の抽出領域の輝度差を小さくできる。故に、端末装置は、画像内の輝度の変化が光源からの光の方向に基づかなくとも、抽出領域間の輝度のばらつきが小さく、画像全体としての不自然さを抑制できる合成画像を提供できる。また、端末装置は、複数の輝度補正値に基づく露出補正値を決定することで、露出補正値に基づく変更指示に従ってカメラの露出を変更できる。具体的に、複数の輝度補正値の平均値を、露出変更前の平均値よりも小さい値、好ましくはゼロにすることができる露出補正値を決定する。言い換えると、露出変更後の複数の代表輝度値の平均値を、露出変更前よりも基準輝度値に近い値、好ましくは基準輝度値にすることができる露出補正値を決定する。なお、「複数の代表輝度値の平均値を露出変更前よりも基準輝度値に近い値にすることができる露出補正値」とは、露出変更前の平均値と基準輝度値との差分の絶対値よりも、露出変更後における平均値と基準輝度値との差分の絶対値を小さい値にすることができる露出補正値である。これにより、露出変更後のカメラの画像データにおいて決定される複数の抽出領域のそれぞれに対して決定される代表輝度値は、それぞれ露出変更前よりも基準輝度値に近づく。故に、端末装置は、複数の抽出領域のそれぞれの輝度を補正せずとも、合成画像において、それぞれの抽出領域の輝度差を小さくできるようになる。従って、端末装置は、露出補正値を決定するための演算にかかる負荷を低減できる。
第一態様において、前記第四決定ステップは、前記複数の輝度補正値の平均値を算出する第一算出ステップと、前記第一算出ステップにおいて算出された前記平均値と、前記基準輝度値とを加算して、第一加算値を算出する第二算出ステップとを含んでもよい。そして、前記第二算出ステップにおいて算出された前記第一加算値に基づいて、前記露出補正値を決定してもよい。端末装置は、露出補正値の決定に係る第一加算値を複数の輝度補正値の平均値に基づいて算出できる。故に、露出変更後のカメラから取得される画像データにおいて決定される複数の抽出領域の画像は、極端に明るい画像になったり極端に暗い画像になることがない。従って、端末装置は、画像内の輝度の変化が光源からの光の方向に基づかなくとも、抽出領域間の輝度のばらつきが小さく、画像全体としての不自然さを抑制できる合成画像を提供できる。
第一態様は、前記画像データに対して決定される前記複数の抽出領域のうち、少なくとも1つの前記抽出領域を選択領域として選択する選択ステップと、前記選択ステップにおいて選択された前記選択領域の輝度を代表する前記代表輝度値を、前記基準輝度値に設定する設定ステップとをさらに実行させてもよい。端末装置は、露出変更後のカメラから取得される画像データにおいて決定される複数の抽出領域の輝度を、選択領域の輝度に近づけることができる。故に、端末装置は、選択領域の輝度に近づけた合成画像を生成することができる。
第一態様では、前記選択ステップにおいて、前記選択領域は、前記端末装置が備える入力部が受け付けた操作の入力に基づいて、前記複数の抽出領域の中から選択されてもよい。端末装置は、露出変更後のカメラから取得される画像データにおいて決定される複数の抽出領域の輝度を、端末装置において選択された選択領域の輝度に近づけることができる。故に、端末装置は、端末装置の表示画面の特性に合わせて個々の抽出領域の画像を識別しやすい合成画像を生成することができる。
第一態様は、前記合成画像をネットワークを介して他の端末装置に送信する第二送信ステップをさらに実行させてもよい。この場合に、前記選択ステップにおいて、前記選択領域は、前記他の端末装置において前記合成画像に含まれる前記複数の抽出領域の中から選択された前記選択領域を指定する情報であり、前記他の端末装置から受信する指定情報に基づいて選択されてもよい。端末装置は、露出変更後のカメラから取得される画像データにおいて決定される複数の抽出領域の輝度を、他の端末装置において選択された選択領域の輝度に近づけることができる。故に、端末装置は、他の端末装置の表示画面の特性に合わせて個々の抽出領域の画像を識別しやすい合成画像を生成することができる。
第一態様において、前記第四決定ステップは、前記選択領域が選択されたか判断する第一判断ステップと、前記設定ステップにおいて設定された前記選択領域の輝度に基づく前記基準輝度値を基準として予め設定された所定範囲に、前記第二算出ステップにおいて算出された前記第一加算値が含まれるか判断する第二判断ステップとをさらに含んでもよい。この場合に、前記第一判断ステップにおいて前記選択領域が選択されたと判断され、且つ、前記第二判断ステップにおいて前記第一加算値が前記所定範囲に含まれないと判断された場合、前記基準輝度値と所定の第一許容値とを加算した第二加算値に基づいて、前記露出補正値を決定してもよい。端末装置は、選択領域が選択された場合には、選択領域の輝度に応じた露出補正値を決定することができる。また、第一加算値が基準輝度値の所定範囲外になった場合、端末装置は、第二加算値に基づいて露出補正値を決定することができる。故に、露出変更後のカメラから取得される画像データにおいて決定される複数の抽出領域の画像は、選択領域に対して極端に明るい画像になったり極端に暗い画像になったりしない。従って、端末装置は、画像内の輝度の変化が光源からの光の方向に基づかなくとも、抽出領域間の輝度のばらつきが小さく、画像全体としての不自然さを抑制できる合成画像を提供できる。
第一態様において、前記第三決定ステップは、前記代表輝度値と前記基準輝度値との差分の絶対値が所定の第二許容値以上か判断する第三判断ステップを含んでもよい。そして、前記第三判断ステップにおいて前記差分の絶対値が前記第二許容値以上と判断された場合に、前記抽出領域に対して前記輝度補正値を決定してもよい。端末装置は、差分の絶対値が第二許容値以上の場合、露出補正値を決定するための演算を行う。つまり、端末装置は、差分の絶対値が第二許容値未満の場合、露出補正値を決定する演算を行わなくてもよいので、演算にかかる負荷を低減できる。
第一態様において、前記第三決定ステップは、前記代表輝度値が前記基準輝度値に前記第二許容値を加算した輝度上限値以上の場合、前記輝度補正値を、前記輝度上限値に基づいて決定してもよい。また、前記代表輝度値が前記基準輝度値から前記第二許容値を減算した輝度下限値以下の場合、前記輝度補正値を、前記輝度下限値に基づいて決定してもよい。即ち、端末装置は、代表輝度値が輝度上限値以上の場合は輝度上限値に基づき補正し、同様に、輝度基準値以下の場合は輝度下限値に基づき補正する。故に、端末装置は、抽出領域の輝度を、補正前の輝度に対して大きく変更せず、許容範囲に含まれる最低限の大きさの変更で補正することができる。よって、端末装置は、合成画像における個々の抽出領域の画像として、もとの画像データにおいて対応する個々の抽出領域の画像のそれぞれの輝度を程よく反映させた画像を得ることができる。
第一態様は、前記画像データが表す画像を構成する画素に基づいて、前記画像データにおける顔の位置を特定する特定ステップをさらに実行してもよい。この場合に、前記第一決定ステップは、前記特定ステップにおいて特定された顔の位置を含む所定の領域を、前記抽出領域として決定してもよい。端末装置は、抽出領域として顔の位置を含む所定の領域を決定することができる。故に、露出変更後のカメラから取得される画像データにおいて決定される複数の抽出領域の画像を合成した合成画像は、顔画像が極端に明るい画像になったり極端に暗い画像になることがない。従って、端末装置は、顔を認識しやすい合成画像を生成することができる。
本発明の第二態様によれば、端末装置に接続されたカメラから取得された画像データに対し、前記画像データから抽出する対象の領域である複数の抽出領域を決定する第一決定手段と、前記第一決定手段が決定した前記複数の抽出領域の輝度をそれぞれ代表する複数の代表輝度値を決定する第二決定手段と、前記第二決定手段が決定した前記複数の代表輝度値と、輝度の基準値を表す基準輝度値とに基づいて、前記複数の抽出領域のそれぞれに対し、前記抽出領域の輝度をそれぞれ補正する複数の輝度補正値を決定する第三決定手段と、情報を記憶する記憶部と、前記第三決定手段が決定した前記複数の輝度補正値を前記記憶部に保存する保存手段と、前記保存手段が前記記憶部に保存した前記複数の輝度補正値を、各々が対応する前記抽出領域に対してそれぞれ用い、それぞれの輝度が補正された前記複数の抽出領域を、1つの画像形成領域において互いに異なる位置に配置して1つの合成画像を生成する生成手段と、前記保存手段が前記記憶部に保存した前記複数の輝度補正値に基づいて、前記カメラの露出を補正する露出補正値を決定する第四決定手段と、前記第四決定手段が決定した前記露出補正値に基づいて、前記カメラの露出を変更する変更指示を送信する送信手段とを備えたことを特徴とする端末装置が提供される。
第二態様に係る端末装置は、輝度補正値で抽出領域の輝度を補正し、且つ、露出補正値に基づく変更指示を送信してカメラの露出を変更することで、第一態様と同様の効果を得ることができる。
本発明の第三態様によれば、端末装置のコンピュータがプログラムに従って実行可能な方法であって、前記端末装置に接続されたカメラから取得された画像データに対し、前記画像データから抽出する対象の領域である複数の抽出領域を決定する第一決定ステップと、前記第一決定ステップにおいて決定された前記複数の抽出領域の輝度をそれぞれ代表する複数の代表輝度値を決定する第二決定ステップと、前記第二決定ステップにおいて決定された前記複数の代表輝度値と、輝度の基準値を表す基準輝度値とに基づいて、前記複数の抽出領域のそれぞれに対し、前記抽出領域の輝度をそれぞれ補正する複数の輝度補正値を決定する第三決定ステップと、前記第三決定ステップにおいて決定された前記複数の輝度補正値を前記端末装置が備える記憶部に保存する保存ステップと、前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値を、各々が対応する前記抽出領域に対してそれぞれ用い、それぞれの輝度が補正された前記複数の抽出領域を、1つの画像形成領域において互いに異なる位置に配置して1つの合成画像を生成する生成ステップと、前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値に基づいて、前記カメラの露出を補正する露出補正値を決定する第四決定ステップと、前記第四決定ステップにおいて決定された前記露出補正値に基づいて、前記カメラの露出を変更する変更指示を送信する第一送信ステップとを含むことを特徴とする方法が提供される。
端末装置のコンピュータがプログラムに従って第三態様に係る方法を実行することによって、輝度補正値で抽出領域の輝度が補正され、且つ、露出補正値に基づく変更指示が送信されてカメラの露出が変更されることで、第一態様と同様の効果を得ることができる。
遠隔会議システム100の全体構成図である。 端末3が実行する遠隔会議プログラムのフローチャートである。 遠隔会議プログラムにおける映像送受信処理のフローチャートである。 遠隔会議プログラムにおけるカメラ制御処理のフローチャートである。 遠隔会議プログラムにおける基準輝度値決定処理のフローチャートである。 遠隔会議プログラムにおける個別画像輝度調整処理のフローチャートである。 遠隔会議プログラムにおける撮像露出調整処理のフローチャートである。 遠隔会議においてカメラ44が撮像した画像50の例を示す図である。 抽出画像データ66〜69が示す画像の例を示す図である。 合成画像70の例を示す図である。
以下、本発明の一実施形態について、図面を参照して説明する。参照する図面は、本発明が採用し得る技術的特徴を説明するために用いられるものである。図面に記載されている装置の構成、各種処理のフローチャート等は、それのみに限定する趣旨ではなく、単なる説明例である。
図1を参照し、本実施形態に係る端末3を含む遠隔会議システム100について説明する。端末3は、本発明に係る「端末装置」の一例である。遠隔会議システム100は、会議サーバ1が仮想的に構築する会議室に複数の端末3がネットワーク8を介してそれぞれ仮想的に参加し、画像および音声を用いた遠隔会議(テレビ会議)を開催できるシステムである。会議サーバ1および複数の端末3は、ネットワーク8を介して互いに接続し、遠隔会議システム100を構成する。端末3は、遠隔会議に参加するユーザが使用する。会議サーバ1は、複数の端末3の間で実行される遠隔会議を制御する。
図1に示す遠隔会議システム100は、一例として、1つの会議サーバ1と3つの端末3が、それぞれネットワーク8に接続して構成するシステムである。会議サーバ1は、複数の端末3を用いて行われる遠隔会議の場として仮想的な会議室を構築し、各端末3の会議室への入退室を管理するサーバである。仮想的な会議室は、所定の会議室IDで識別される。複数の端末3は、所定の会議室IDで識別される同一の遠隔会議に参加する。また、複数の端末3は、それぞれ、ユーザIDによって識別される。例えば、会議サーバ1の記憶部(例えば、RAMやハードディスクドライブ(以下、「HDD」という。))には、所定の会議室IDに対して、同一の遠隔会議に参加する複数の端末3のユーザIDが関連付けて保存される。複数の端末3は、ネットワーク8を介して会議サーバ1に接続し、それぞれ、画像(映像)および音声のデータに会議室IDを含めて会議サーバ1に送信する。会議サーバ1は、受信した画像(映像)および音声のデータを、そのデータに含まれる会議室IDに関連付けられたユーザIDで識別される複数の端末3のそれぞれに対して送信する。この構成により、複数の端末3は、画像(映像)および音声のデータを互いに送受信し、リアルタイムな会話による遠隔会議を実行することができる。会議サーバ1は、記憶部に、複数の端末3が会議サーバ1に対して接続して遠隔会議を行うことを可能にする各処理のプログラムが記憶されている点を除いては、公知の構成のワークステーションやパーソナルコンピュータ(PC)と同様の構成である。よって、会議サーバ1の電気的構成の説明は省略する。
端末3は、モニタ41、マイク43、カメラ44、スピーカ45等が接続される端末装置であり、例えばPCが用いられる。端末3として、スマートフォン、タブレット端末等の携帯端末が用いられてもよい。1の端末3は、遠隔会議時に、カメラ44が撮像する画像データとマイク43が収音する音声データを、会議室IDとともに会議サーバ1に送信する。画像データと音声データは、会議サーバ1を介し、その会議室IDで識別される遠隔会議に参加する他の端末3に送信される。また、1の端末3は、他の端末3から会議サーバ1を介して受信する画像データに基づく画像をモニタ41に表示する。1の端末3は、他の端末3から受信する音声データに基づく音声をスピーカ45から出力する。その結果、遠隔会議システム100は、複数の端末3から送信された画像データおよび音声データを、複数の端末3間で共有する。遠隔会議システム100は、遠隔会議の参加者(端末3のユーザ)のすべてが同一の場所にいなくとも、参加者同士による円滑な会議の場を提供することができる。なお、遠隔会議システム100において会議サーバ1が行う遠隔会議の制御については従来と同様であるため、詳細な説明を省略する。また、本実施形態では、端末3間で送受信される画像データおよび音声データのうち、画像データの送受信における制御について説明を行い、音声データの送受信の制御については、説明を簡略化する。
端末3の電気的構成について説明する。端末3は、公知の構成のPCであり、端末3の制御を司るCPU31を備える。CPU31はチップセット35に接続し、チップセット35を介してROM32、RAM33、および表示制御部34と電気的に接続する。チップセット35はチップセット36と接続する。CPU31は、チップセット36を介し、HDD37、通信I/F38、USB I/F39と電気的に接続する。
チップセット35は、CPU31と、ROM32、RAM33、および表示制御部34との間でデータの送受信を管理する一連の回路群である。ROM32は、ブートプログラム、BIOS等を記憶する。RAM33は、種々の一時データを記憶する。表示制御部34は、モニタ41への画像の表示を制御する。チップセット36は、CPU31と、HDD37、通信I/F38およびUSB I/F39との間でデータの送受信を管理する一連の回路群である。HDD37は、OS、端末3をクライアントとして機能させるためのソフトウェア(後述する遠隔会議プログラム)、その他各種アプリケーション、データ等を記憶する。通信I/F38は、有線または無線によってネットワーク8に接続し、データ通信を行うためのインターフェイスである。
なお、後述する遠隔会議プログラムは、端末3に応じたコードにコンパイルされ、ファイルサーバ(図示略)、会議サーバ1等に設けられたコンピュータが読み取り可能な記憶装置に記憶されている。遠隔会議プログラムは、ファイルサーバ、会議サーバ1等から各端末3にネットワーク8等の電気通信回線を通じて一時的な伝送信号として送信されて提供される。あるいは、遠隔会議プログラムは、CD−ROM、DVD−ROM、フラッシュROM等の記録媒体(図示略)に記憶され、端末3のCPU31が、端末3に接続可能な読取装置(図示略)で記録媒体から読み取ることで提供されてもよい。CPU31は、端末3が備えるコンピュータで読み取り可能な記憶装置に、遠隔会議プログラムを記憶する。本実施形態における記憶装置はHDD37であるが、HDD37に限らず、例えば、SSD(Solid State Drive)、フラッシュROM等、データを記憶する時間の長さに関わらずにデータを保持できる不揮発性の記憶装置を用いることが好ましい。
USB I/F39は、USB規格に基づく通信を行うためのインターフェイスである。CPU31は、USB I/F39を介し、入力部42、マイク43、カメラ44、およびスピーカ45と電気的に接続する。入力部42は、キーボード、マウス等、端末3に対する操作の入力を行う装置である。マイク43は、端末3の周囲の音声を収音してA/D変換(サンプリング)した音声データを、USB I/F39を介してOSに送信する。カメラ44は、端末3の周囲の景色を撮像してA/D変換した画像データを、USB I/F39を介してOSに送信する。カメラ44は、例えばCCDやCMOSなどの撮像素子と、その撮像素子に対して外界光を結像させるレンズ系とを含む。カメラ44は、さらに、撮像素子から出力されるアナログデータを増幅し、A/D変換してデジタルデータである画像データを生成する変換回路を含む。スピーカ45は、USB I/F39を介してOSから受信する音声データをD/A変換し、音声を出力する。
遠隔会議システム100において、端末3のCPU31は、遠隔会議プログラムに従って、以下の各処理を行う。CPU31は、マイク43で収音した音声データを公知のエンコーダで、所定の音声パラメータに従って圧縮して圧縮音声データを生成する。所定の音声パラメータは、エンコード条件であり、例えば、「コーデックにHE−AAC v2を用い、ビットレートを48kbps(CBR)とし、サンプリングレートを24kHzとする」等である。CPU31は、生成した圧縮音声データを、会議サーバ1を介して他の端末3に送信する。他の端末3のCPU31は、圧縮音声データを受信した場合、圧縮音声データを公知のデコーダで伸張して音声データを生成し、スピーカ45から再生する。
同様に、CPU31は、カメラ44で撮像した画像データを公知のエンコーダで、所定の映像パラメータに従って圧縮し、圧縮画像データを生成する。所定の映像パラメータは、エンコード条件であり、例えば、「コーデックにH.265を用い、解像度1280×720p、30fps、ビットレートを1Mbps(VBR)とする」等である。CPU31は、生成した圧縮画像データを、会議サーバ1を介して他の端末3に送信する。他の端末3のCPU31は、圧縮画像データを受信した場合、圧縮画像データを公知のデコーダで伸張して画像データを生成し、モニタ41に表示する。
上記のエンコーダ、デコーダは、CPU31が、遠隔会議プログラムの実行において適宜呼び出して処理を行わせるプログラムモジュールの一つであり、遠隔会議プログラムに含めて予めインストールされている。PCの基本ソフトはマルチタスク型のOSであり、遠隔会議プログラム、エンコーダ、デコーダ等を、並列処理によって実行することができる。なお、基本ソフトがマルチタスク型のOSでない場合、各プログラムモジュールは、ハードウェアからのイベント割込み等を契機に起動してもよい。
また、PCの基本ソフトには、スピーカ45、カメラ44、マイク43および表示制御部34等、各種デバイスの動作をそれぞれ制御する各種ドライバ(ソフトウェア)がそれぞれ組み込まれている。各ドライバはHDD37に予めインストールされており、OSの起動時にRAM33に読み込まれ、並列処理によって常時実行される。CPU31は、OSを介し、各デバイスを駆動させる指示を、各デバイスに対応するドライバにそれぞれ送信する。各ドライバは、指示に応じた制御命令をそれぞれ対応するデバイスに出力し、各デバイスの動作を制御する。
各種ドライバのうち、カメラ44の動作を制御するカメラドライバは、CPU31がOSを介して送信する制御指示に応じた制御命令をカメラ44に出力し、カメラ44の動作を制御する。カメラドライバがカメラ44に対して出力する制御命令は、カメラ44が撮像する映像の露出を設定する露出設定命令を含む。露出とは、画像データを取得する際に、カメラ44が備えるCCD等の撮像素子(図示略)に曝す光の総量を意味する。そのため、露出は、撮像素子が撮像した映像(画像)の明るさにも対応している。露出は、レンズの絞り(F値)、露光時間、撮像素子の感度等の組み合わせによって決まる。
後述する遠隔会議プログラムの実行において、CPU31は、カメラドライバに、カメラ44の露出を変更させる変更指示を送信する。変更指示は、CPU31がカメラ44から取得する画像データの輝度値の変更量を示す露出補正値を含む指示である。なお、画像データを構成する個々の画素それぞれの輝度値を総称し、画像データの輝度値という。カメラドライバは、F値、露光時間、撮像素子の感度等、カメラ44の露出を設定するためのパラメータである露出パラメータを、露出設定命令としてカメラ44に出力する。カメラドライバは、CPU31から変更指示を受信した場合、露出補正値に応じて露出パラメータを変更し、変更後の露出パラメータを露出設定命令としてカメラ44に出力する。カメラ44は、露出設定命令に従って露出を変更し、撮像した画像データを出力する。なお、カメラドライバは、カメラ44の露出の補正を、露出パラメータの変更によるハードウェア的な補正で行うだけでなく、カメラ44が撮像した画像データに対して輝度値を変更する処理を施すソフトウェア的な補正を行ってもよい。
以下、端末3のCPU31が、図2〜図7に示す、遠隔会議プログラムの実行に従って行う処理の過程について、図8〜図10を適宜参照しながら説明する。端末3のCPU31は、入力部42に対して入力される操作に基づき、遠隔会議プログラムのメイン処理(図2参照)をHDD37から読み込んで実行する。CPU31は、遠隔会議プログラム実行時の初期設定で、送信バッファと受信バッファの記憶領域をRAM33にそれぞれ確保する。送信バッファは、CPU31が、会議サーバ1を介して他の端末3に送信する圧縮音声データおよび圧縮画像データを一時的に記憶する記憶領域である。受信バッファは、CPU31が会議サーバ1を介して他の端末3から受信する圧縮音声データおよび圧縮画像データを一時的に記憶する記憶領域である。
なお、本実施形態では、1の端末3のCPU31は、遠隔会議プログラムの実行に従って生成する圧縮音声データおよび圧縮画像データを送信バッファに記憶する。CPU31は、OSの処理に従って、送信バッファに記憶する圧縮音声データおよび圧縮画像データを会議サーバ1に送信する。会議サーバ1は、1の端末3から受信した圧縮音声データおよび圧縮画像データを、他の端末3に送信する。同様に、会議サーバ1は、他の端末3から受信した圧縮音声データおよび圧縮画像データを、1の端末3に送信する。1の端末3のCPU31は、OSの処理に従って、会議サーバ1から受信する圧縮音声データおよび圧縮画像データを受信バッファに記憶する。CPU31は、遠隔会議プログラムの実行に従って受信バッファから圧縮音声データおよび圧縮画像データを読み出し、音声データに基づく音声をスピーカ45に出力させ、画像データに基づく映像をモニタ41に表示させる。なお、1の端末3のCPU31は、圧縮音声データおよび圧縮画像データを、会議サーバ1を含め、個々の端末3に直接送信してもよい。
図2に示すように、CPU31は、入力部42に対して入力される操作に基づき、1の端末3を会議サーバ1に接続する指示の入力を受け付けたか否か判断する(S1)。具体的には、CPU31は、ユーザが参加を希望する仮想的な会議室のIDの入力を、入力部42を介して受け付ける。例えば、遠隔会議の開催予定日時以前に、遠隔会議に参加予定の端末3の各電子メールアドレスを宛先として、会議サーバ1から電子メールが送信される。この電子メールは、端末3による遠隔会議のためのURL(Uniform Resource Locator)を含む。このURLは、例えば、仮想的な会議室のIDをクエリパラメータとして含む。このURLを選択する操作が入力部42によって受け付けられることで、CPU31は、ユーザが入力した会議室IDを取得する。CPU31は、入力部42に対する操作に基づき、会議室IDを取得するまで待機する(S1:NO)。
CPU31は、入力部42に対する操作に基づき、会議室IDを取得したら(S1:YES)、ネットワーク8を介し、会議サーバ1との接続を試みる(S2)。CPU31は、会議サーバ1との接続が確立したら、会議サーバ1に対し、会議室IDとユーザIDを含む入室リクエストを送信する。会議サーバ1において、入室リクエストに含まれる会議室IDが会議サーバ1の記憶部に保存された所定の会議室IDと一致すれば、入室リクエストに含まれるユーザIDが所定の会議室IDに関連付けられ、会議サーバ1の記憶部(図示略)に保存される。そして、会議サーバ1において、所定の会議室IDによって識別される既存の会議室への参加を許可する通知が入室リクエストに基づいて生成される。また、会議サーバ1において、入室リクエストに含まれる会議室IDが会議サーバ1の記憶部に保存されていなければ、入室リクエストに含まれるユーザIDと会議室IDとが関連付けられ、記憶部に保存される。そして保存された会議室IDに基づき仮想的な会議室が作成され、その会議室への参加を許可する通知が入室リクエストに基づいて生成される。CPU31は、入室リクエストに対するレスポンスとして会議サーバ1から送信される、会議室への参加を許可する通知を受信する。CPU31は、遠隔会議に参加して、会議サーバ1が仮想的に作成した会議室にユーザを入室させる。
CPU31は、カメラ制御処理を開始する(S3)。カメラ制御処理は、CPU31が、カメラドライバにカメラ44を起動させ、カメラ44が撮像した画像データに基づく合成画像データ(後述)を生成する処理である。カメラ制御処理は、CPU31が遠隔会議に参加する間、継続して、遠隔会議プログラムのメイン処理と並列に実行される。カメラ制御処理の詳細については後述する。
CPU31は、映像送受信処理を開始する(S5)。映像送受信処理は、会議サーバ1を介して他の端末3との間で画像データを圧縮した圧縮画像データを送受信する処理である。映像送受信処理は、CPU31が遠隔会議に参加する間、継続して、遠隔会議プログラムのメイン処理と並列に実行される。映像送受信処理の詳細については後述する。
CPU31は、音声送受信処理を開始する(S6)。音声送受信処理は、会議サーバ1を介して他の端末3との間で音声データを圧縮した圧縮音声データを送受信する処理である。音声送受信処理は、CPU31が遠隔会議に参加する間、継続して、遠隔会議プログラムのメイン処理と並列に実行される。
前述したように、CPU31は、OSに従って、他の端末3が送信した圧縮音声データを、会議サーバ1を介して受信し、受信バッファに記憶する。CPU31は、音声送受信処理において、受信バッファから読み出した圧縮音声データを、音声用のデコーダに入力し、所定の音声パラメータに従って伸張された音声データを取得する。CPU31は、音声データをRAM33の所定の記憶領域に保存する。CPU31は、OSを介してスピーカ45のドライバに指示を送信し、音声データに基づく音声をスピーカ45から出力させる。また、CPU31は、OSを介してマイク43のドライバに指示を送信し、マイク43が収音した音声の音声データをRAM33の所定の記憶領域に保存させる。CPU31は、音声データを、音声用のエンコーダに入力し、所定の音声パラメータに従って圧縮された圧縮音声データを取得する。CPU31は、圧縮音声データを送信バッファに保存する。CPU31は、OSに従って、送信バッファに記憶する圧縮音声データを、会議サーバ1を介して他の端末3に送信する。CPU31は、以上の各処理を、遠隔会議に参加する間、継続して実行する。
次に、CPU31は、遠隔会議を終了する指示の入力があるか否か判断する(S7)。CPU31は、遠隔会議を終了する指示の入力がない場合(S7:NO)、処理を待機する。待機中、CPU31は、カメラ制御処理、映像送受信処理および音声送受信処理を、繰り返し継続して実行する。
例えば、他の端末3において遠隔会議を終了する操作の入力が受け付けられた場合、会議サーバ1は、遠隔会議を終了する通知を1の端末3に送信する。CPU31は、会議サーバ1から遠隔会議を終了する通知を受信した場合に、遠隔会議を終了する指示の入力がなされたと判断する(S7:YES)。また、1の端末3において遠隔会議を終了する操作の入力を入力部42が受け付けた場合にも、CPU31は、遠隔会議を終了する指示の入力がなされたと判断する。
CPU31は、会議終了処理を実行する(S8)。CPU31は、マイク43の動作を制御するドライバに、音声データをRAM33の所定の記憶領域に保存する処理を停止させる指示を送信する。CPU31は、スピーカ45の動作を制御するドライバに、音声データに基づく音声をスピーカ45から出力する処理を停止させる指示を送信する。CPU31は、カメラドライバに、カメラ44の駆動を停止させる指示を送信する。CPU31は、表示制御部34の動作を制御するドライバに、画像データに基づく画像をモニタ41に表示する処理を停止させる指示を送信する。CPU31は、会議終了を報せる通知イベントを発生させる。CPU31は、ネットワーク8を介し、会議サーバ1に対して仮想的な会議室からの退室を求める退室リクエストを送信する。退室リクエストは会議室IDとユーザIDを含む。会議サーバ1において、退室リクエストに含まれる会議室IDとユーザIDに基づき、仮想的な会議室からユーザIDによって識別される端末3を退室させる処理が行われる。会議サーバ1において、記憶部に保存された所定の会議室IDに対応付けられたユーザIDが削除される。そして会議サーバ1において、会議室からの退室完了を報せる通知が退室リクエストに基づいて生成される。なお、会議サーバ1において、所定の会議室IDに関連付けられたすべてのユーザIDが削除された場合、仮想的な会議室が消去され、記憶部から所定の会議室IDが削除される。CPU31は、会議室からの退室完了を報せる通知を、退室リクエストに対するレスポンスとして会議サーバ1から受信する。CPU31は、ネットワーク8を介した会議サーバ1との接続を終了し、遠隔会議プログラムの実行を終了する。
次に、CPU31が遠隔会議プログラムのメイン処理のS5で実行を開始する映像送受信処理について説明する。図3に示すように、映像送受信処理において、CPU31は、受信バッファに圧縮画像データが記憶されているか否か判断する(S11)。CPU31は、OSが会議サーバ1から受信した圧縮画像データが受信バッファに記憶されていなければ(S11:NO)、処理をS13に進める。CPU31は、圧縮画像データが受信バッファに記憶されている場合(S11:YES)、圧縮画像データを受信バッファから読み出す。CPU31は、圧縮画像データを画像用のデコーダに入力し、所定の映像パラメータに従って伸張された画像データを取得する。CPU31は、画像データを表示制御部34に送信し、モニタ41に表示させる(S12)。モニタ41には、他の端末3で撮像された画像データに基づく映像が表示される。また、CPU31は、後述するカメラ制御処理(図4参照)で1の端末3のカメラ44が撮像した画像データも表示制御部34に送信し、他の端末3の画像データに並べてモニタ41に表示させる。なお、後述するカメラ制御処理(図4参照)で、CPU31は、画像データに基づく合成画像データを条件に応じて生成する。合成画像データを生成した場合、CPU31は、1の端末3のカメラ44が撮像した画像データの代わりに合成画像データを表示制御部34に送信し、他の端末3の画像データに並べてモニタ41に表示させる。
なお、CPU31は、複数の端末3から会議サーバ1を介して受信するそれぞれの画像データを個々のウインドウ表示にしてモニタ41に並べて表示させてもよい。または、CPU31は、複数の画像データをタイル状に並べて1つの画像データに合成し、モニタ41に表示させてもよい。あるいは、会議サーバ1のCPU(図示略)が、複数の端末3それぞれの画像データをタイル状に並べた1つの画像データに合成する処理を行い、圧縮画像データに圧縮して1の端末3に送信してもよい。
CPU31は、処理をS13に進め、カメラ44が撮像した画像データを送信するタイミングであるか否か判断する(S13)。画像データのフレームレートは、例えば30fpsである。CPU31は、フレームレートに合わせて例えば1/30秒ごとに画像データを圧縮し、圧縮画像データを他の端末3に対して送信する。画像データを送信するタイミングでなければ(S13:NO)、CPU31は処理をS18に進める。CPU31は、メイン処理において遠隔会議を終了する処理がなされていなければ(S18:NO)、処理をS11に戻し、S11〜S18の処理を繰り返して実行する。
映像送受信処理を繰り返し実行するうちに、画像データを送信するタイミングになった場合(S13:YES)、CPU31は、RAM33に、合成画像データが記憶されているか否か判断する(S15)。合成画像データは、後述するカメラ制御処理(図4参照)において、条件に応じて画像データから抽出される複数の抽出画像データが1つに合成されることによって生成され、RAM33の所定の記憶領域に保存される。CPU31は、RAM33に合成画像データが記憶されていなければ(S15:NO)、カメラ44が撮像した画像データをそのまま他の端末3に送信する処理を行う。この場合、CPU31は、カメラバッファ(後述)に記憶されている画像データのうち、送信対象のフレームの画像データを読み出す。CPU31は、画像データを画像用のエンコーダに入力し、所定の映像パラメータに従って圧縮された圧縮画像データを取得する。CPU31は、圧縮画像データを送信バッファに保存する。前述したように、CPU31は、OSに従い、受信バッファに記憶した圧縮画像データを会議サーバ1に送信する(S16)。CPU31は、処理をS18に進め、遠隔会議に参加する間、継続して、映像送受信処理を実行する。
画像データを送信するタイミングにおいて、RAM33に合成画像データが記憶されている場合(S15:YES)、CPU31は、合成画像データを他の端末3に送信する処理を行う。CPU31は、RAM33から読み出した合成画像データを画像用のエンコーダに入力して、所定の映像パラメータに従って圧縮された圧縮画像データを取得する。CPU31は、圧縮画像データを送信バッファに保存する。上記同様、CPU31は、OSに従い、受信バッファに記憶した合成画像データの圧縮画像データを会議サーバ1に送信する(S17)。CPU31は、処理をS18に進め、遠隔会議に参加する間、継続して、映像送受信処理を実行する。
映像送受信処理を繰り返し実行するうちに、メイン処理において会議終了処理がなされ、会議終了の通知イベントが発生した場合(S18:YES)、CPU31は、映像送受信処理の実行を終了する。
次に、CPU31が遠隔会議プログラムのメイン処理のS3で実行を開始するカメラ制御処理について説明する。図4に示すように、カメラ制御処理において、CPU31は、カメラドライバに対してカメラ44を起動させる指示を送信する。カメラドライバはカメラ44に起動命令を出力し、カメラ44を起動する。起動命令には露出設定命令が含まれ、カメラ44は、露出パラメータに従って露出を設定して撮像を開始する(S21)。カメラドライバは、RAM33にカメラバッファの記憶領域を確保する。カメラバッファは、カメラ44が撮像した画像データを一時的に記憶する記憶領域である。カメラドライバは、USB I/F39を介してカメラ44から取得する画像データをカメラバッファに記憶する処理を開始する。
CPU31は、カメラバッファに記憶されている画像データのうち、処理対象のフレームの画像データを読み出す。CPU31は、公知のアルゴリズムを用いて画像データを解析し、顔検出処理を行う(S22)。顔検出処理は、例えば、所定のピクセルサイズの探索窓で画像データを走査しながら、予め人の顔の特徴量を学習させた識別器で探索窓内の画素の特徴量を比較し、探索窓内に人の顔が含まれるか否か判定する処理である。顔検出処理の詳細については公知であるので説明を省略する。CPU31は、画像データから顔を検出できた場合、検出した顔の位置を記録する。
CPU31は、画像データから2人以上の顔を検出できたか否か判断する(S23)。画像データから顔を検出できなかった場合、もしくは検出した顔が1人であった場合(S23:NO)、CPU31は、処理をS22に戻し、次のフレームの画像データに対する顔検出処理を行う。画像データから2人以上の顔を検出できた場合(S23:YES)、CPU31は、画像データにおいて、顔を検出した位置を含む所定範囲の画像を切り出した抽出画像データをRAM33に保存する(S25)。
例えば、図8に示すように、画像データが示す画像50に、4人の人物51〜54が含まれる場合を例に挙げる。人物51〜54は、それぞれ、画像50の正面側(図面表面側)に顔を向け、左右に2列でそれぞれ上下に並ぶものとする。人物51〜54は、画像50内の右上角部に写る窓55から差し込む光で照らされる。画像50内左列に並ぶ人物51,52の顔56,57は、窓55から差し込む光で照らされて、明るく表示される。人物52よりも窓55に近い場所に位置する人物51の顔56は、人物52の顔57よりも明るく表示される。画像50内右列に並ぶ人物53,54の顔58,59は、窓55から差し込む光が後頭部を照らし、正面側が影となって、人物51,52の顔56,57よりも暗く表示される。人物53よりも窓55から遠い場所に位置する人物54の顔59は、人物53の顔58よりも暗く表示される。
CPU31は、顔検出処理で、画像データの画像50から、4つの顔56〜59を検出する。CPU31は、画像50に、顔56〜59をそれぞれ含む領域である抽出領域61〜64を設定する。例えば、抽出領域61は、画像50と同じ縦横比で、顔56の面積の略10倍の面積を有する矩形の枠で囲う領域である。CPU31は、画像50内の位置で、領域内の左右方向の略中央で上下方向の上部に顔56を配置できる位置に、抽出領域61を設定する。CPU31は、抽出領域62〜64についても同様に設定する。
図9に示すように、CPU31は、画像50から抽出領域61〜64内の部分をそれぞれ切り出した抽出画像データ66〜69を、RAM33に保存する。個々の抽出画像データ66〜69が示す画像にそれぞれ含まれる人物51〜54の顔56〜59は、それぞれ、窓55から差し込む光に影響を受け、明るい顔、暗い顔、その中間の明るさの顔等、明るさ(輝度)の異なる顔として表示される。なお、上記の抽出領域61〜64の設定は一例であり、CPU31は、画像50に、例えば、抽出領域61〜64の大きさが顔56〜59の大きさより僅かに大きく、顔56〜59を中央に配置した抽出領域61〜64を設定してもよい。
図4に示すように、CPU31は、RAM33に保存した抽出画像データをそれぞれ解析し、抽出画像データの顔近傍輝度値を決定する(S26)。顔近傍輝度値は、抽出画像データの輝度値を代表する輝度値である。なお、抽出画像データを構成する個々の画素それぞれの輝度値を総称し、抽出画像データの輝度値という。また、本実施形態では、抽出画像データを構成する画素のうち、顔を表示する部分の画素の輝度値の平均値を、抽出画像データの輝度値を代表する顔近傍輝度値とする。CPU31は、顔検出処理において記録した顔の位置に基づき、抽出画像データから、顔を表示する部分の画素の輝度値を取得する。CPU31は、取得した輝度値の平均値を算出して顔近傍輝度値に決定し、抽出画像データに関連付けてRAM33に保存する。CPU31は、S25の処理で保存したすべての抽出画像データに対し、それぞれの顔近傍輝度値を決定する。なお、顔近傍輝度値に用いられる平均値は、必ずしも、顔を表示する部分の画素の輝度値の算術平均でなくてもよい。例えば、顔近傍輝度値は、顔を表示する部分の画素のうち、輝度分布の中心に位置する画素の輝度値(即ち、輝度の中央値)であってもよい。例えば、顔近傍輝度値は、顔を表示する部分の画素の輝度値のうち、最も頻度の高い輝度値(即ち、輝度の最頻値)であってもよい。即ち、平均値とは、算術平均、中央値、最頻値などを含む意味である。また、例えば、顔近傍輝度値は、顔を表示する部分の画素とその周囲の画素の輝度値の平均値であってもよい。例えば、顔近傍輝度値は、抽出画像データを構成する全画素の輝度値の平均値であってもよい。さらに、例えば、顔近傍輝度値として、計算された平均値でなく、顔を表示する部分の画素のうち、座標位置が中心の画素の輝度値を用いてもよい。
CPU31は、基準輝度値決定処理のサブルーチンを実行する(S27)。基準輝度値は、各抽出画像データの輝度値を顔近傍輝度値に基づいて調整する際の基準となる輝度値である。後述する個別画像輝度調整処理(図6参照)において、CPU31は、個々の抽出画像データの顔近傍輝度値を、基準輝度値を中心値とする輝度許容範囲内に収める補正を行う。輝度許容範囲は、基準輝度値を中心値とし、予め決められた第二許容値を基準輝度値に加算した輝度上限値と、第二許容値を基準輝度値から減算した輝度下限値との間の輝度値の範囲である。輝度基準輝度値決定処理において、CPU31は、モニタ41に表示する画像データを指定する操作の入力を受け付けた場合、指定された画像データまたは抽出画像データ(以下、「指定画像データ」ともいう。)の顔近傍輝度値に基づき、抽出画像データの輝度値を補正する際の基準となる基準輝度値を決定することができる。
図5に示すように、基準輝度値決定処理において、CPU31は、入力部42に対する操作に基づき、1つの画像を指定する入力が受け付けられたか否か判断する(S41)。CPU31は、入力部42を介し、モニタ41に表示する他の端末3の画像データと、1の端末3の画像データから、1つの画像データを指定する操作の入力を受け付ける。また、モニタ41に表示する画像データが合成画像データである場合、CPU31は、入力部42を介し、合成画像データを構成する複数の抽出画像データから、1つの抽出画像データを指定する操作の入力を受け付ける。1つの画像データまたは抽出画像データを指定する操作の入力を受け付けた場合(S41:YES)、CPU31は、指定画像データの顔近傍輝度値を取得する(S42)。指定画像データの顔近傍輝度値は、上記した抽出画像データの顔近傍輝度値を決定する場合と同様の処理で取得する。即ち、CPU31は、指定画像データに対して顔検出処理を行う。CPU31は、検出された顔を表示する部分の画素の輝度値を指定画像データから取得し、その平均値を算出する。CPU31は、求めた平均値を基準輝度値に設定し、RAM33に保存する(S43)。なお、指定画像データから顔を検出できなかった場合、CPU31は、画像データの全画素の輝度値の平均値を基準輝度値に設定してもよい。また、指定画像データから複数の顔を検出した場合、CPU31は、複数の顔それぞれの顔近傍輝度値の平均値を基準輝度値に設定してもよい。基準輝度値の設定後、CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS28に進める。
また、基準輝度値は、CPU31は、他の端末3において画像データまたは抽出画像データを指定する操作の入力が受け付けられた場合にも、指定画像データの顔近傍輝度値に基づき、抽出画像データの輝度値を補正する際の基準となる基準輝度値を決定することができる。CPU31は、画像データまたは抽出画像データを指定する操作の入力を1の端末3の入力部42が受け付けていない場合(S41:NO)、会議サーバ1を介して他の端末3から画像データまたは抽出画像データを指定する通知(以下、「指定情報」ともいう。)を受信したか否か判断する(S45)。なお、指定情報は、例えば、会議における特別な権限(例えば会議の議長等の権限)が与えられたユーザIDを用いて会議に参加する端末3が、会議サーバ1を介して他の端末3に送信することができる。1の端末3のCPU31は、指定情報を受信した場合に(S45:YES)、指定画像データの顔近傍輝度値をS42と同様に取得する(S46)。CPU31は、指定画像データの顔近傍輝度値を基準輝度値に設定し、RAM33に保存する(S47)。基準輝度値の設定後、CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS28に進める。
画像データまたは抽出画像データを指定する操作の入力がなく(S41:NO)、指定情報の受信もなければ(S45:NO)、CPU31は、基準輝度値が設定されているか否か判断する(S48)。基準輝度値決定処理の初回実行時は、基準輝度値が設定されていないので(S48:NO)、CPU31は、予め決められた標準輝度値を基準輝度値に設定してRAM33に保存する(S50)。CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS28に進める。また、基準輝度値決定処理の2回目以降の実行時は、基準輝度値が設定されているので(S48:YES)、CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS28に進める。
図4に示すように、CPU31は、基準輝度値決定処理からカメラ制御処理に処理を戻すと、個別画像輝度調整処理のサブルーチンを実行する(S28)。個別画像輝度調整処理は、個々の抽出画像データの顔近傍輝度値を、基準輝度値を中心値とする輝度許容範囲内に補正する処理である。図6に示すように、個別画像輝度調整処理において、CPU31は、S25の処理でRAM33に保存した複数の抽出画像データのうちの1つを選択し、輝度値の調整対象とする(S51)。CPU31は、選択した抽出画像データの顔近傍輝度値をRAM33から読み出し、輝度許容範囲の輝度上限値と比較する(S52)。前述したように、輝度許容範囲は、基準輝度値決定処理(図5参照)において決定された基準輝度値を中心値とし、基準輝度値に第二許容値を加算した輝度上限値と、基準輝度値から第二許容値を減算した輝度下限値との間の輝度値の範囲である。
顔近傍輝度値が輝度許容範囲の輝度上限値以上である場合(S52:YES)、CPU31は、顔近傍輝度値から輝度許容範囲の輝度上限値を減算した差分値を算出する(S53)。この場合、差分値は正の値をとる。CPU31は、RAM33に差分値を保存し(S57)、差分値に基づき、抽出画像データの輝度値を補正する(S58)。具体的に、CPU31は、抽出画像データを構成する全ての画素に対し、それぞれの輝度値を、もとの輝度値から差分値を減算した輝度値に変更する処理を行う。全ての画素の輝度値が差分値の絶対値分、小さい値に補正されるので、補正後の抽出画像データの顔近傍輝度値は輝度許容範囲の輝度上限値となり、輝度許容範囲内に収まる。CPU31は、RAM33に未選択の抽出画像データがあり、顔を検出した人数分の抽出画像データのそれぞれに対する補正が完了していなければ(S60:NO)、処理をS51に戻す。
CPU31は、選択した抽出画像データの顔近傍輝度値が、輝度許容範囲の輝度上限値未満であり(S52:NO)、且つ、輝度許容範囲の輝度下限値以下である場合(S55:YES)、顔近傍輝度値から輝度許容範囲の輝度下限値を減算した差分値を算出する(S56)。この場合、差分値は負の値をとる。CPU31は、RAM33に差分値を保存し(S57)、差分値に基づき、抽出画像データの輝度値を補正する(S58)。上記同様、CPU31は、抽出画像データを構成する全ての画素に対し、それぞれの輝度値を、もとの輝度値から差分値を減算した輝度値に変更する処理を行う。差分値が負の値であるので、全ての画素の輝度値は、差分値の絶対値分、大きい値に補正される。補正後の抽出画像データの顔近傍輝度値は輝度許容範囲の輝度下限値となり、輝度許容範囲内に収まる。CPU31は、輝度値を補正した抽出画像データをRAM33に保存する。上記同様、全ての抽出画像データに対する補正が完了していなければ(S60:NO)、CPU31は処理をS51に戻す。
CPU31が選択した抽出画像データの顔近傍輝度値が、輝度許容範囲の輝度上限値未満であり(S52:NO)、且つ、輝度許容範囲の輝度下限値より大きい場合(S55:NO)、顔近傍輝度値は輝度許容範囲内の値である。この場合、CPU31は、抽出画像データの輝度値に対する補正を行わずに処理をS60に進める。CPU31は、全ての抽出画像データに対する補正が完了したら(S60:YES)、CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS30に進める。
図4に示すように、CPU31は、個別画像輝度調整処理からカメラ制御処理に処理を戻すと、撮像露出調整処理のサブルーチンを実行する(S30)。撮像露出調整処理は、抽出画像データの顔近傍輝度値と基準輝度値との差分を小さくするため、カメラドライバにカメラ44の露出を変更させる変更指示を出力する処理である。図7に示すように、撮像露出調整処理において、CPU31は、S57の処理でRAM33に保存した複数の差分値の平均値を求める(S71)。顔近傍輝度値が輝度許容範囲に収まらなかった抽出画像データの顔近傍輝度値が、平均的に、基準輝度値に対してずれた大きさが、差分値の平均値として求まる。CPU31は、修正値を算出する(S72)。修正値は、基準輝度値を仮に平均値分ずらした値であり、露出基準値の修正を平均値に基づいて行うか否かの判断に用いられる。CPU31は、基準輝度値に平均値を加算し、修正値を算出する。
CPU31は、前記同様、画像データまたは抽出画像データを指定する操作の入力がなく、指定情報を受信していなければ(S73:NO)、露出補正値を修正値に応じて修正する(S80)。露出補正値には、修正値の算出元となった平均値が反映される。前述したように、露出補正値は、カメラ44が撮像した画像データの輝度値の変更量をCPU31が指示する値である。即ち、露出補正値は、露出変更後のカメラ44の画像データから抽出される複数の抽出画像データの顔近傍輝度値と、基準輝度値とのそれぞれの差分値の平均値が、露出変更前の平均値よりも小さい値、好ましくはゼロになるように、露出変更前の平均値に基づき輝度値の変更量を指示する値である。カメラ44に露出を補正させる制御は、カメラドライバが露出補正値に基づいて行う。CPU31は、カメラドライバに露出補正値を含む変更指示を送信する(S81)。上記したように、カメラドライバは、変更指示を受信したら、露出補正値に応じて露出パラメータを変更し、露出設定命令をカメラ44に出力する。カメラ44は、露出設定命令に従って露出を補正し、補正後の露出で撮像した画像データを出力する。CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS31に進める。
S73の処理において、画像データまたは抽出画像データを指定する操作の入力、もしくは指定情報の受信がある場合(S73:YES)、CPU31は、修正値を、指定画像データの顔近傍輝度値に基づく露出補正範囲と比較する(S75、S76)。露出補正範囲は、指定画像データの顔近傍輝度値を中心値とし、予め決められた第一許容値を加算した露出上限値と、第一許容値を減算した露出下限値との間の輝度値の範囲である。CPU31は、修正値が露出補正範囲の露出上限値より大きい場合(S75:YES)、露出補正値を露出上限値に応じて修正する(S77)。即ち、CPU31は、露出変更後の画像データの顔近傍輝度値が、指定画像データの顔近傍輝度値よりも第一許容値を超えて大きい値になる場合に、露出補正値を露出上限値に応じて修正する。露出上限値に応じた露出補正値の修正は、画像データの顔近傍輝度値が指定画像データの顔近傍輝度値に第一許容値を加算した値となるようにするための修正である。CPU31は、カメラドライバに露出補正値を含む変更指示を送信する(S81)。CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS31に進める。
また、CPU31は、修正値が露出補正範囲の露出下限値より小さい場合(S75:NO、S76:YES)、露出補正値を露出下限値に応じて修正する(S78)。即ち、CPU31は、露出変更後の画像データの顔近傍輝度値が、指定画像データの顔近傍輝度値よりも第一許容値を超えて小さい値になる場合に、露出補正値を露出下限値に応じて修正する。露出下限値に応じた露出補正値の修正は、画像データの顔近傍輝度値が指定画像データの顔近傍輝度値に第一許容値を減算した値となるようにするための修正である。CPU31は、カメラドライバに露出補正値を含む変更指示を送信する(S81)。CPU31は、遠隔会議プログラムのカメラ制御処理(図4参照)に処理を戻し、処理をS31に進める。
CPU31は、修正値が露出補正範囲内の値である場合(S75:NO、S76:NO)、S80に処理を進める。CPU31は、上記同様、露出補正値を修正値に応じて修正し(S80)、カメラドライバに露出補正値を含む変更指示を送信したら(S81)、処理をカメラ制御処理(図4参照)のS31に進める。
図4に示すように、CPU31は、撮像露出調整処理からカメラ制御処理に処理を戻すと、抽出画像データの合成を行う(S31)。CPU31は、S58の処理において輝度値を補正した複数の抽出画像データをRAM33から読み出し、各抽出画像データが示す画像を1つの画像形成領域に並べて配置した合成画像を表す合成画像データを作成する。CPU31は、合成画像データをRAM33に保存する。
図10に示すように、CPU31は、個々の抽出画像データ66〜69が示す画像を、例えば、タイル状に並べた1つの合成画像70を表す合成画像データを作成する。個々の抽出画像データ66〜69が示す画像にそれぞれ表示される人物51〜54の顔56〜59は、それぞれの輝度値が補正前のそれぞれの輝度値よりも基準輝度値に近づくように補正された明るさの顔となる。即ち、顔56〜59の互いの顔近傍輝度値の差が、輝度値補正前よりも小さくなる。故に、合成画像データが示す合成画像70は、個々の抽出画像データ66〜69の輝度値のばらつきが輝度値補正前よりも小さくなる。よって、合成画像70は、画像全体の輝度のばらつきが輝度値補正前よりも小さくなり、輝度補正を行わずに合成した場合と比べ、画像内における輝度の変化の不自然さが緩和された画像になる。
図4に示すように、CPU31は、メイン処理において遠隔会議を終了する処理がなされていなければ(S32:NO)、処理をS22に戻す。CPU31は、未処理の画像データから条件に応じて抽出画像データを抽出し、合成画像データを作成するS22〜S32の処理を繰り返し実行する。S22〜S32の処理を繰り返し実行するうちに、メイン処理において会議終了処理がなされ、会議終了の通知イベントが発生した場合(S32:YES)、CPU31は、カメラドライバに対してカメラ44の駆動を停止させる指示を送信する(S33)。カメラドライバはカメラ44に停止命令を出力し、カメラ44の駆動を停止する。CPU31は、カメラ制御処理の実行を終了する。
以上説明したように、複数の顔近傍輝度値と基準輝度値とに基づく複数の差分値で、それぞれ対応する抽出画像データの輝度値を補正することで、CPU31は、合成画像データを構成する複数の抽出画像データの輝度差を小さくできる。故に、CPU31は、画像内の輝度の変化が光源からの光の方向に基づかなくとも、抽出画像データ間の輝度のばらつきが小さく、画像全体としての不自然さを抑制できる合成画像を提供できる。また、CPU31は、複数の差分値に基づく露出補正値を決定することで、露出補正値に基づく変更指示に従ってカメラ44の露出を変更できる。具体的に、複数の差分値の平均値を、露出変更前の平均値よりも小さい値、好ましくはゼロにすることができる露出補正値を決定する。言い換えると、露出変更後の複数の顔近傍輝度値の平均値を、露出変更前よりも基準輝度値に近い値、好ましくは基準輝度値にすることができる露出補正値を決定する。これにより、露出変更後のカメラ44の画像データにおいて決定される複数の抽出画像データのそれぞれに対して決定される顔近傍輝度値は、それぞれ基準輝度値に近づく。故に、CPU31は、複数の抽出画像データのそれぞれの輝度値を補正せずとも、合成画像において、それぞれの抽出画像データの輝度差を小さくできるようになる。従って、CPU31は、露出補正値を決定するための演算にかかる負荷を低減できる。
CPU31は、露出補正値の決定に係る修正値を複数の差分値の平均値に基づいて算出できる。故に、露出変更後のカメラ44から取得される画像データにおいて決定される複数の抽出画像データの画像は、極端に明るい画像になったり極端に暗い画像になることがない。従って、CPU31は、画像内の輝度の変化が光源からの光の方向に基づかなくとも、抽出画像データ間の輝度のばらつきが小さく、画像全体としての不自然さを抑制できる合成画像を提供できる。
CPU31は、露出変更後のカメラ44から取得される画像データにおいて決定される複数の抽出画像データの顔近傍輝度値がそれぞれ指定画像データの顔近傍輝度値に近づくように、各抽出画像データの輝度値を補正することができる。故に、CPU31は、指定画像データの顔近傍輝度値に近づけた合成画像を生成することができる。入力部42に対する操作の入力に基づいて指定画像データが選択される場合、CPU31は、露出変更後のカメラ44から取得される画像データにおいて決定される複数の抽出画像データの顔近傍輝度値を、指定画像データの顔近傍輝度値に近づけることができる。故に、CPU31は、CPU31の表示画面の特性に合わせて個々の抽出画像データの画像を識別しやすい合成画像を生成することができる。また、他の端末3から受信する指定情報に基づいて指定画像データが選択される場合、CPU31は、露出変更後のカメラ44から取得される画像データにおいて決定される複数の抽出画像データの顔近傍輝度値を、他の端末3において選択された指定画像データの顔近傍輝度値に近づけることができる。故に、CPU31は、他の端末3の表示画面の特性に合わせて個々の抽出画像データの画像を識別しやすい合成画像を生成することができる。
CPU31は、指定画像データが選択された場合には、指定画像データの顔近傍輝度値に応じた露出補正値を決定することができる。また、修正値が基準輝度値の輝度許容範囲外になった場合、CPU31は、露出上限値または露出下限値に基づいて露出補正値を決定することができる。故に、露出変更後のカメラ44から取得される画像データにおいて決定される複数の抽出画像データの画像は、指定画像データに対して極端に明るい画像になったり極端に暗い画像になったりしない。従って、CPU31は、画像内の輝度の変化が光源からの光の方向に基づかなくとも、抽出画像データ間の輝度のばらつきが小さく、画像全体としての不自然さを抑制できる合成画像を提供できる。
CPU31は、差分値の絶対値が第二許容値以上の場合、露出補正値を決定するための演算を行う。つまり、CPU31は、差分値の絶対値が第二許容値未満(言い換えると、輝度許容範囲内、即ち顔近傍輝度値が輝度上限値未満且つ輝度下限値より大きい)の場合、抽出画像データに対する差分値を決定せず、ひいては露出補正値を決定する演算を行わなくてもよいので、演算にかかる負荷を低減できる。
CPU31は、顔近傍輝度値が輝度上限値以上の場合は輝度上限値に基づき補正し、同様に、輝度基準値以下の場合は輝度下限値に基づき補正する。故に、CPU31は、抽出画像データの輝度値を、補正前の輝度値に対して大きく変更せず、顔近傍輝度値が輝度許容範囲に含まれる最低限の大きさの変更で補正することができる。よって、CPU31は、合成画像データにおける個々の抽出画像データの画像として、もとの画像データにおいて対応する個々の抽画像データの画像のそれぞれの輝度を程よく反映させた画像を得ることができる。
CPU31は、抽出画像データとして顔の位置を含む所定の領域を決定することができる。故に、露出変更後のカメラ44から取得される画像データにおいて決定される複数の抽出画像データの画像を合成した合成画像は、顔画像が極端に明るい画像になったり極端に暗い画像になることがない。従って、CPU31は、顔を認識しやすい合成画像データを生成することができる。
なお本発明は上記実施形態に限定されず、種々の変更が可能である。例えば、端末3は、ラップトップ型、タワー型のPCに限らず、ノート型のPCであってもよいし、スマートフォン、タブレット型端末等であってもよい。即ち端末3は、遠隔会議プログラムを実行でき、且つネットワーク8に接続でき、カメラ44による撮像と、表示制御部34によるモニタ41への画像の表示ができる端末装置であればよい。また、端末3は、マイク43、スピーカ45、カメラ44、モニタ41のうちの少なくとも一つを内蔵してもよい。
CPU31は、画像データの明るさに対する変更を、輝度値の変更に限らず、明度、彩度、ガンマ値等、他のパラメータの変更により行ってもよい。また、CPU31は、抽出画像データとして、人物の顔の領域のみを切り出し、輝度値の補正後、元の画像データの抽出箇所に重ねて上書きすることで、合成画像データを作成してもよい。
本発明においては、RAM33が「記憶部」に相当する。端末3が「端末装置」に相当する。抽出画像データが「抽出領域」に相当する。S25の処理が、「第一決定ステップ」に相当する。顔近傍輝度値が「代表輝度値」に相当する。S26の処理が「第二決定ステップ」に相当する。S52〜S56の処理が「第三決定ステップ」に相当する。差分値が「輝度補正値」に相当する。S57の処理が「保存ステップ」に相当する。S31の処理が「生成ステップ」に相当する。S71〜S80の処理が「第四決定ステップ」に相当する。S81の処理が「第一送信ステップ」に相当する。
S71の処理が「第一算出ステップ」に相当する。修正値が「第一加算値」に相当する。S72の処理が「第二算出ステップ」に相当する。指定画像データが「選択領域」に相当する。S41、S45の処理が「選択ステップ」に相当する。S43、S47、S50の処理が「設定ステップ」に相当する。S16の処理が「第二送信ステップ」に相当する。S73の処理が「第一判断ステップ」に相当する。輝度許容範囲が「所定範囲」に相当する。S75、S76の処理が「第二判断ステップ」に相当する。露出上限値および露出下限値が「第二加算値」に相当する。S52、S55の処理が「第三判断ステップ」に相当する。S22の処理が「特定ステップ」に相当する。
3 端末
8 ネットワーク
31 CPU
33 RAM
42 入力部
44 カメラ

Claims (11)

  1. 端末装置のコンピュータが実行可能なプログラムであって、
    前記端末装置のコンピュータに、
    前記端末装置に接続されたカメラから取得された画像データに対し、前記画像データから抽出する対象の領域である複数の抽出領域を決定する第一決定ステップと、
    前記第一決定ステップにおいて決定された前記複数の抽出領域の輝度をそれぞれ代表する複数の代表輝度値を決定する第二決定ステップと、
    前記第二決定ステップにおいて決定された前記複数の代表輝度値と、輝度の基準値を表す基準輝度値とに基づいて、前記複数の抽出領域のそれぞれに対し、前記抽出領域の輝度をそれぞれ補正する複数の輝度補正値を決定する第三決定ステップと、
    前記第三決定ステップにおいて決定された前記複数の輝度補正値を前記端末装置が備える記憶部に保存する保存ステップと、
    前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値を、各々が対応する前記抽出領域に対してそれぞれ用い、それぞれの輝度が補正された前記複数の抽出領域を、1つの画像形成領域において互いに異なる位置に配置して1つの合成画像を生成する生成ステップと、
    前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値に基づいて、前記カメラの露出を補正する露出補正値を決定する第四決定ステップと、
    前記第四決定ステップにおいて決定された前記露出補正値に基づいて、前記カメラの露出を変更する変更指示を送信する第一送信ステップと
    を実行させることを特徴とするプログラム。
  2. 前記第四決定ステップは、
    前記複数の輝度補正値の平均値を算出する第一算出ステップと、
    前記第一算出ステップにおいて算出された前記平均値と、前記基準輝度値とを加算して、第一加算値を算出する第二算出ステップと
    を含み、
    前記第二算出ステップにおいて算出された前記第一加算値に基づいて、前記露出補正値を決定することを特徴とする請求項1に記載のプログラム。
  3. 前記画像データに対して決定される前記複数の抽出領域のうち、少なくとも1つの前記抽出領域を選択領域として選択する選択ステップと、
    前記選択ステップにおいて選択された前記選択領域の輝度を代表する前記代表輝度値を、前記基準輝度値に設定する設定ステップと
    をさらに実行させることを特徴とする請求項2に記載のプログラム。
  4. 前記選択ステップにおいて、前記選択領域は、前記端末装置が備える入力部が受け付けた操作の入力に基づいて、前記複数の抽出領域の中から選択されることを特徴とする請求項3に記載のプログラム。
  5. 前記合成画像をネットワークを介して他の端末装置に送信する第二送信ステップをさらに実行させ、
    前記選択ステップにおいて、前記選択領域は、前記他の端末装置において前記合成画像に含まれる前記複数の抽出領域の中から選択された前記選択領域を指定する情報であり、前記他の端末装置から受信する指定情報に基づいて選択されることを特徴とする請求項3に記載のプログラム。
  6. 前記第四決定ステップは、
    前記選択領域が選択されたか判断する第一判断ステップと、
    前記設定ステップにおいて設定された前記選択領域の輝度に基づく前記基準輝度値を基準として予め設定された所定範囲に、前記第二算出ステップにおいて算出された前記第一加算値が含まれるか判断する第二判断ステップと
    をさらに含み、
    前記第一判断ステップにおいて前記選択領域が選択されたと判断され、且つ、前記第二判断ステップにおいて前記第一加算値が前記所定範囲に含まれないと判断された場合、前記基準輝度値と所定の第一許容値とを加算した第二加算値に基づいて、前記露出補正値を決定することを特徴とする請求項3から5のいずれかに記載のプログラム。
  7. 前記第三決定ステップは、前記代表輝度値と前記基準輝度値との差分の絶対値が所定の第二許容値以上か判断する第三判断ステップを含み、
    前記第三判断ステップにおいて前記差分の絶対値が前記第二許容値以上と判断された場合に、前記抽出領域に対して前記輝度補正値を決定することを特徴とする請求項1から6のいずれかに記載のプログラム。
  8. 前記第三決定ステップは、
    前記代表輝度値が前記基準輝度値に前記第二許容値を加算した輝度上限値以上の場合、前記輝度補正値を、前記輝度上限値に基づいて決定し、
    前記代表輝度値が前記基準輝度値から前記第二許容値を減算した輝度下限値以下の場合、前記輝度補正値を、前記輝度下限値に基づいて決定すること
    を特徴とする請求項7に記載のプログラム。
  9. 前記画像データが表す画像を構成する画素に基づいて、前記画像データにおける顔の位置を特定する特定ステップをさらに実行し、
    前記第一決定ステップは、前記特定ステップにおいて特定された顔の位置を含む所定の領域を、前記抽出領域として決定することを特徴とする請求項1から8のいずれかに記載のプログラム。
  10. 端末装置に接続されたカメラから取得された画像データに対し、前記画像データから抽出する対象の領域である複数の抽出領域を決定する第一決定手段と、
    前記第一決定手段が決定した前記複数の抽出領域の輝度をそれぞれ代表する複数の代表輝度値を決定する第二決定手段と、
    前記第二決定手段が決定した前記複数の代表輝度値と、輝度の基準値を表す基準輝度値とに基づいて、前記複数の抽出領域のそれぞれに対し、前記抽出領域の輝度をそれぞれ補正する複数の輝度補正値を決定する第三決定手段と、
    情報を記憶する記憶部と、
    前記第三決定手段が決定した前記複数の輝度補正値を前記記憶部に保存する保存手段と、
    前記保存手段が前記記憶部に保存した前記複数の輝度補正値を、各々が対応する前記抽出領域に対してそれぞれ用い、それぞれの輝度が補正された前記複数の抽出領域を、1つの画像形成領域において互いに異なる位置に配置して1つの合成画像を生成する生成手段と、
    前記保存手段が前記記憶部に保存した前記複数の輝度補正値に基づいて、前記カメラの露出を補正する露出補正値を決定する第四決定手段と、
    前記第四決定手段が決定した前記露出補正値に基づいて、前記カメラの露出を変更する変更指示を送信する送信手段と
    を備えたことを特徴とする端末装置。
  11. 端末装置のコンピュータがプログラムに従って実行可能な方法であって、
    前記端末装置に接続されたカメラから取得された画像データに対し、前記画像データから抽出する対象の領域である複数の抽出領域を決定する第一決定ステップと、
    前記第一決定ステップにおいて決定された前記複数の抽出領域の輝度をそれぞれ代表する複数の代表輝度値を決定する第二決定ステップと、
    前記第二決定ステップにおいて決定された前記複数の代表輝度値と、輝度の基準値を表す基準輝度値とに基づいて、前記複数の抽出領域のそれぞれに対し、前記抽出領域の輝度をそれぞれ補正する複数の輝度補正値を決定する第三決定ステップと、
    前記第三決定ステップにおいて決定された前記複数の輝度補正値を前記端末装置が備える記憶部に保存する保存ステップと、
    前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値を、各々が対応する前記抽出領域に対してそれぞれ用い、それぞれの輝度が補正された前記複数の抽出領域を、1つの画像形成領域において互いに異なる位置に配置して1つの合成画像を生成する生成ステップと、
    前記保存ステップにおいて前記記憶部に保存された前記複数の輝度補正値に基づいて、前記カメラの露出を補正する露出補正値を決定する第四決定ステップと、
    前記第四決定ステップにおいて決定された前記露出補正値に基づいて、前記カメラの露出を変更する変更指示を送信する第一送信ステップと
    を含むことを特徴とする方法。
JP2014072011A 2014-03-31 2014-03-31 プログラム、端末装置および方法 Pending JP2015195477A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014072011A JP2015195477A (ja) 2014-03-31 2014-03-31 プログラム、端末装置および方法
US14/664,292 US9531910B2 (en) 2014-03-31 2015-03-20 Non-transitory computer-readable storage medium storing program, terminal device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014072011A JP2015195477A (ja) 2014-03-31 2014-03-31 プログラム、端末装置および方法

Publications (1)

Publication Number Publication Date
JP2015195477A true JP2015195477A (ja) 2015-11-05

Family

ID=54192124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014072011A Pending JP2015195477A (ja) 2014-03-31 2014-03-31 プログラム、端末装置および方法

Country Status (2)

Country Link
US (1) US9531910B2 (ja)
JP (1) JP2015195477A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017092850A (ja) * 2015-11-16 2017-05-25 株式会社リコー 撮像装置、撮像方法および会議端末装置
JP2020057875A (ja) * 2018-09-28 2020-04-09 株式会社リコー 通信端末、通信システム、撮像装置及び撮像方法
JP2021124881A (ja) * 2020-02-04 2021-08-30 ローランド株式会社 画像処理装置、画像処理プログラム及び画像処理方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339410B1 (en) 2016-01-13 2019-07-02 Snap Inc. Color extraction of a video stream
KR101771400B1 (ko) * 2017-03-24 2017-08-25 알서포트 주식회사 회의실객체를 이용한 화상회의 방법
JP7185556B2 (ja) * 2019-02-19 2022-12-07 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP7118911B2 (ja) * 2019-03-08 2022-08-16 株式会社東芝 画像処理装置
WO2020221840A1 (en) * 2019-04-30 2020-11-05 Signify Holding B.V. Camera-based lighting control
JP2022045567A (ja) * 2020-09-09 2022-03-22 キヤノン株式会社 撮像制御装置、撮像制御方法、及びプログラム
CN113593583B (zh) * 2021-08-17 2024-02-13 深圳云基智能科技有限公司 一种实现家电协同工作的智能手机

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328342A (ja) 1992-05-26 1993-12-10 Hitachi Ltd 映像信号処理装置および多地点間映像通信装置
JPH11289447A (ja) 1998-04-02 1999-10-19 Fuji Photo Film Co Ltd 画像処理方法および画像処理装置
JP2002171398A (ja) 2000-12-04 2002-06-14 Konica Corp 画像処理方法及び電子カメラ
US8874090B2 (en) * 2010-04-07 2014-10-28 Apple Inc. Remote control operations in a video conference

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017092850A (ja) * 2015-11-16 2017-05-25 株式会社リコー 撮像装置、撮像方法および会議端末装置
JP2020057875A (ja) * 2018-09-28 2020-04-09 株式会社リコー 通信端末、通信システム、撮像装置及び撮像方法
JP7167610B2 (ja) 2018-09-28 2022-11-09 株式会社リコー 通信端末、通信システム、撮像装置及び撮像方法
JP2021124881A (ja) * 2020-02-04 2021-08-30 ローランド株式会社 画像処理装置、画像処理プログラム及び画像処理方法
US11902693B2 (en) 2020-02-04 2024-02-13 Roland Corporation Image processing device and image processing method

Also Published As

Publication number Publication date
US9531910B2 (en) 2016-12-27
US20150281476A1 (en) 2015-10-01

Similar Documents

Publication Publication Date Title
JP2015195477A (ja) プログラム、端末装置および方法
JP6388673B2 (ja) 携帯端末及びその撮像方法
US11398041B2 (en) Image processing apparatus and method
KR101873668B1 (ko) 이동 단말의 촬영 방법 및 이동 단말
CN110944143B (zh) 视频会议装置以及视频会议方法
JP4970302B2 (ja) 画像処理装置,画像処理方法及び撮像装置
EP2525321A1 (en) Display image generating method
CN112019739A (zh) 一种拍摄控制方法、装置、电子设备及存储介质
KR102386385B1 (ko) 전자 장치 및 전자 장치의 이미지 압축 방법
US20200226824A1 (en) Systems and methods for 3d scanning of objects by providing real-time visual feedback
JP2007259330A (ja) 映像配信遠隔制御装置、映像配信システムおよび映像配信方法
US9014475B2 (en) Image pickup apparatus and photographing method of image pickup apparatus
JP7187154B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11057563B2 (en) Image pickup device and method for controlling same
JP6179226B2 (ja) 議事録生成装置、議事録生成方法、議事録生成プログラムおよび通信会議システム
US10468029B2 (en) Communication terminal, communication method, and computer program product
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
CN110267011B (zh) 图像处理方法、装置、服务器及存储介质
US20130308829A1 (en) Still image extraction apparatus
CN111182208A (zh) 拍照方法、装置、存储介质及电子设备
CN114531564A (zh) 处理方法及电子设备
KR20130096983A (ko) 얼굴을 포함하는 영상 처리 방법 및 장치
JP5272820B2 (ja) テレビ会議装置、テレビ会議システム、テレビ会議方法、及びテレビ会議プログラム
JP2009100193A (ja) 選択支援装置および選択支援システム
JP6544209B2 (ja) 情報処理装置、会議システム、情報処理方法およびプログラム