JP2017028633A - 映像配信端末、プログラム、及び、映像配信方法 - Google Patents

映像配信端末、プログラム、及び、映像配信方法 Download PDF

Info

Publication number
JP2017028633A
JP2017028633A JP2015148077A JP2015148077A JP2017028633A JP 2017028633 A JP2017028633 A JP 2017028633A JP 2015148077 A JP2015148077 A JP 2015148077A JP 2015148077 A JP2015148077 A JP 2015148077A JP 2017028633 A JP2017028633 A JP 2017028633A
Authority
JP
Japan
Prior art keywords
image
adjustment
unit
wide
video distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015148077A
Other languages
English (en)
Inventor
宣正 銀川
Nobumasa Gingawa
宣正 銀川
内山 裕章
Hiroaki Uchiyama
裕章 内山
耕司 桑田
Koji Kuwata
耕司 桑田
高橋 仁人
Masahito Takahashi
仁人 高橋
清人 五十嵐
Kiyoto Igarashi
清人 五十嵐
智幸 後藤
Tomoyuki Goto
智幸 後藤
和紀 北澤
Kazuki Kitazawa
和紀 北澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015148077A priority Critical patent/JP2017028633A/ja
Priority to US15/217,260 priority patent/US10255704B2/en
Publication of JP2017028633A publication Critical patent/JP2017028633A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】切出し画像を適切な設定で表示させることができる映像配信端末を提供する。
【解決手段】映像配信システムは、被写体を撮像して画像を生成する撮像部と、前記画像の一部の領域を切出して切出し画像を生成して、前記切出し画像の特徴に基づいて前記切出し画像に関する第1調整を実行して、前記第1調整された前記画像の特徴に基づいて前記画像の設定に関する第2調整を実行する現像処理部と、を備える。
【選択図】図3

Description

本発明は、映像配信端末、プログラム、及び、映像配信方法に関する。
遠隔地間で画像を転送して、遠隔地の画像を互いに表示するビデオ会議システム等の映像配信システムが知られている。このような映像配信システムでは、映像配信端末の広角カメラ等によって撮像した広角画像の一部を切り出した切出し画像を表示する場合がある。
しかしながら、広角画像から切り出された切出し画像の露出等の設定が、広角画像の他の領域の露出等の設定を基準に設定されているため、適切な設定でないといった課題がある。
本発明は、上記に鑑みてなされたものであって、切出し画像を適切な設定で表示させることができる映像配信端末、プログラム、及び、映像配信方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の映像配信端末は、被写体を撮像して画像を生成する撮像部と、前記画像の一部の領域を切出して切出し画像を生成して、前記切出し画像の特徴に基づいて前記切出し画像に関する第1調整を実行して、前記第1調整された前記画像の特徴に基づいて前記画像の設定に関する第2調整を実行する現像処理部と、を備える。
本発明にかかる映像配信端末は、切出し画像を適切な設定で表示させることができるという効果を奏する。
図1は、実施形態にかかる映像配信システムの全体構成図である。 図2は、端末の制御系を説明するブロック図である。 図3は、端末のカメラ及び画像データの処理を説明するブロック図である。 図4は、話者の切出し画像の測光評価値の算出処理のフローチャートである。 図5は、話者の切出し画像を説明する図である。 図6は、切出し画像のY信号に重み付けする重み付けテーブルを説明する図である。 図7は、話者の切出し画像の測光評価値に基づいた、切出し画像の露光制御処理のフローチャートである。 図8は、広角画像の測光評価値の算出処理のフローチャートである。 図9は、広角画像を説明する図である。 図10は、広角画像の測光評価値に基づいた、広角画像の露光制御処理のフローチャートである。 図11は、広角画像の露光制御の一例を説明するヒストグラムである。 図12は、広角画像の露光制御においてヒストグラムをY信号(輝度値)の低い領域へ伸長したヒストグラムである。 図13は、ヒストグラムを伸長させる方法の一例を示す図である。
以下の例示的な実施形態や変形例には、同様の構成要素が含まれている。よって、以下では、同様の構成要素には共通の符号が付されるとともに、重複する説明が部分的に省略される。実施形態や変形例に含まれる部分は、他の実施形態や変形例の対応する部分と置き換えて構成されることができる。また、実施形態や変形例に含まれる部分の構成や位置等は、特に言及しない限りは、他の実施形態や変形例と同様である。
<実施形態>
図1は、実施形態にかかる映像配信システム10の全体構成図である。実施形態にかかる映像配信システム10は、複数の遠隔地のユーザが互いの画像を見ながら会議するためのビデオ会議システムに適用している。図1に示すように、映像配信システム10は、サーバー12と、映像配信端末の一例である複数の端末14とを備える。以下の説明において、端末14a、14b、14c、14dをそれぞれ区別する必要がない場合、端末の符号を“14”と記載する。なお、映像配信端末は、専用の映像配信端末でも良いし、パーソナルコンピュータ、スマートフォン、タブレットなどの情報処理端末であっても良い。
サーバー12は、各端末14とインターネット等のネットワークによって各端末14と接続されている。サーバー12は、各端末14がサーバー12と接続されているか否かの状態をモニタするとともに、会議開始時に端末14の呼び出し制御、及び、会議時の種々の制御を実行する。
端末14は、サーバー12を介して、他の端末14とデータを送受信する。例えば、端末14は、自己が撮像した画像データ及び音声データをサーバー12に送信する。端末14は、他の端末14が送信した画像データ及び音声データをサーバー12から受信する。端末14は、他の端末14から取得した画像データに基づいて画像を表示するとともに、音声データに基づいて音声を出力する。
例えば、端末14a、14b、14cが会議に参加して、端末14dが会議に参加していない場合、端末14aが送信したデータは、サーバー12を介して、端末14b、14cに送信されるが、端末14dには送信されない。端末14b、14cが送信したデータは、サーバー12を介して、端末14a、14b、14cには送信されるが、端末14dには送信されない。これにより、映像配信システム10は、複数の端末14によるビデオ会議を実現している。
図2は、端末14の制御系を説明するブロック図である。図2に示すように、端末14は、撮像部の一例であるカメラ20と、表示部22と、マイクロホン24と、スピーカー26と、CPU(Central Processing Unit)28と、記憶装置30と、メモリ32と、LAN(Local Area Network)インターフェース部34と、操作部36とを備える。
カメラ20は、会議に参加している参加者等の被写体を撮像した画像の画像データを生成する。カメラ20は、広角(例えば、360°)の領域を撮像可能に構成されている。例えば、360°の超広角で撮影する場合、カメラ20は、複数のイメージセンサーを備えており、各イメージセンサーに対応してレンズが設けられている。カメラ20は、生成した広角画像の画像データをCPU28へ出力する。
表示部22は、例えば、液晶ディスプレイ、または、有機ELディスプレイ等の表示装置である。表示部22は、CPU28から取得した画像データに基づいて、画像を表示する。例えば、表示部22は、他の端末14からCPU28が取得した画像データに基づいて、他の端末14の近傍で会議に参加している参加者の画像を表示する。
マイクロホン24は、例えば、マイクアレイである。マイクロホン24は、取得した音声を電気的な音声データに変換して、CPU28へ出力する。マイクロホン24は、例えば、会議の参加者の音声を取得する。
スピーカー26は、CPU28から取得した音声データに基づいて、音声を出力する。スピーカー26は、例えば、他の端末14のマイクロホン24が取得した会議の参加者の音声を出力する。
CPU28は、端末14の制御全般を司る。CPU28は、例えば、ビデオ会議における画像データの送受信及び音声データの送受信等のビデオ会議に関する制御を実行する。
記憶装置30は、例えば、HDD(Hard Disk Drive)及び不揮発性のフラッシュメモリ等の記憶装置である。記憶装置30は、CPU28によってプログラム及びデータを読み出し及び書き込み可能に構成されている。記憶装置30は、CPU28が実行するプログラム、及び、プログラムの実行に必要なデータを記憶する。記憶装置30は、例えば、ビデオ会議用のプログラム、及び、ビデオ会議のプログラムの実行に必要な画像データ等を記憶する。
メモリ32は、例えば、RAM(Random Access Memory)である。メモリ32は、CPU28によってプログラム及びデータを読み出し及び書き込み可能に構成されている。メモリ32は、CPU28が実行するために展開されたプログラム、及び、演算データ等のデータを一時的に記憶する。
LANインターフェース部34は、例えば、10Base−T、100Base−TX、及び1000Base−Tに対応したEthernet(登録商標)に接続する有線LAN装置、または、802.11a/b/g/nに対応した無線LAN装置である。LANインターフェース部34は、ネットワーク及びサーバー12等を介して、他の端末14とデータを送受信可能に接続されている。これにより、LANインターフェース部34は、ビデオ会議に必要な画像データ及び音声データ等を他の端末14と送受信して、CPU28へ出力する。
操作部36は、例えば、キーボード、マウス及びボタン等の入力装置である。操作部36は、会議の参加者等のユーザが機器制御のために入力した指示等を取得して、CPU28へ出力する。
ビデオ会議中の端末14では、CPU28が、マイクロホン24から会議の参加者が話した音声データを取得すると、当該音声データに基づいて、話している参加者である話者の方向を検知する。CPU28は、カメラ20から取得した画像データの広角画像に含まれる複数の参加者から、当該音声データの話者を特定する。CPU28は、当該特定した話者をクローズアップした切出し画像の画像データを生成する。CPU28は、必要に応じて、複数の参加者を含む広角画像、及び、話者の切出し画像を補正する。
CPU28は、複数の参加者を含む広角画像の画像データ、話者をクローズアップした切出し画像の画像データ、及び、話者を含む参加者の音声データ等をLANインターフェース部34及びネットワークを介して、サーバー12へ送信する。
CPU28は、他の端末14が送信した画像データ及び音声データを、LANインターフェース部34及びネットワークを介して、サーバー12から受信する。CPU28は、受信した画像データを表示部22に出力して参加者及び話者の画像を表示させるとともに、音声データをスピーカー26に出力して話者の音声を再生させる。このようにして、各端末14は、ビデオ会議を実行する。
図3は、端末14のカメラ20及び画像データの処理を説明するブロック図である。図3に示すように、端末14のカメラ20は、レンズ40と、絞り42と、イメージセンサー44とを更に備える。また、端末14は、現像処理部46を更に備える。例えば、プログラムを読み込んだCPU28が、現像処理部46として機能する。
イメージセンサー44は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーまたはCCD(Charge-Coupled Device)イメージセンサーである。イメージセンサー44は、レンズ40で集光されて、絞り42によって光量が調整された光を受光する。イメージセンサー44は、受光した光を電気信号に光電変換する。イメージセンサー44は、電気信号を読み出して増幅した後、A/D変換して生成したRAW信号からなる画像データを現像処理部46へ出力する。例えば、イメージセンサー44は、会議の複数の参加者を含む広角画像の画像データを現像処理部46へ出力する。
現像処理部46は、広角画像等の画像の一部の領域を切出して切出し画像を生成する。現像処理部46は、切出し画像の特徴に基づいて切出し画像に関する第1調整を実行する。例えば、現像処理部46は、広角画像に含まれる話者の周囲の領域を切出して切出し画像を生成する。切出し画像の特徴の一例は、後述する切出し画像の測光評価値等である。第1調整は、例えば、カメラ20の露光時間の調整または自動調整、カメラ20の絞り42の調整または自動調整、ゲインの調整または自動調整、コントラストの調整または自動調整、ガンマ補正の調整または自動調整、ホワイトバランスの調整または自動調整等である。現像処理部46は、第1調整された広角画像等の画像の特徴に基づいて画像の設定に関する第2調整を実行する。広角画像等の画像の特徴の一例は、後述する広角画像等の画像の測光評価値等である。第2調整は、例えば、コントラストの調整または自動調整、ガンマ補正の調整または自動調整、ゲインの調整または自動調整、ホワイトバランスの調整または自動調整等である。第2調整は、第1調整とは異なる設定に対して調整を実行する。
現像処理部46は、前処理部50と、Gain調整部52と、WB部54と、デモザイキングYRGB分離部56と、AEプリプロセス部58と、AWBプリプロセス部60と、制御部62と、ガンマ変換部64と、色補正部66と、輪郭強調部68と、NR部70と、歪曲補正部74と、スケーラー部76と、記憶領域78と、WB部80と、ガンマ変換コントラスト調整部82と、画像合成部84と、I/Fユニット部86と、切出し制御部88とを備える。
前処理部50は、カメラ20のイメージセンサー44からRAW信号の画像データを取得する。前処理部50は、クランプ処理、欠陥画素補正、及び、レンズシェーディング補正等の前処理を、画像データに対して実行する。前処理部50は、前処理した画像データをGain調整部52へ出力する。
Gain調整部52は、前処理部50から取得した画像データのゲインを調整することにより、画像データの明るさを調整する。Gain調整部52は、ゲイン調整した画像データをWB部54へ出力する。
WB部54は、Gain調整部52から取得した画像データのR(Red)信号及びB(Blue)信号を増幅させることによって、画像データのホワイトバランスを調整する。WB部54は、ホワイトバランスを調整した画像データをデモザイキングYRGB分離部56へ出力する。
デモザイキングYRGB分離部56は、WB部54から取得した画像データにデモザイキング(補完処理)を実行して、画素毎にRGB信号を割り当てる。デモザイキングYRGB分離部56は、割り当てたRGB信号から輝度値であるY信号を算出する。デモザイキングYRGB分離部56は、Y信号をAEプリプロセス部58へ出力する。デモザイキングYRGB分離部56は、RGB信号をAWBプリプロセス部60へ出力する。デモザイキングYRGB分離部56は、RGB信号及びY信号をガンマ変換部64へ出力する。
AEプリプロセス部58は、話者の領域を広角画像から切出した切出し画像に関する情報である切出し制御情報を切出し制御部88から取得する。AEプリプロセス部58は、切出し制御情報に基づいて、画像データから話者近傍の領域を測光範囲として選択して測光する。AEプリプロセス部58は、測光結果から話者近傍の切出し領域のAE測光評価値を算出して、制御部62へ出力する。
AWBプリプロセス部60は、切出し制御部88から切出し制御情報を取得する。AWBプリプロセス部60は、切出し制御情報に基づいて、画像データから話者近傍の領域を測光範囲として選択してAWB測光する。AWBプリプロセス部60は、測光結果から話者近傍の切出し領域のAWB測光評価値を算出して、制御部62へ出力する。
制御部62は、AEプリプロセス部58から取得したAE測光評価値、及び、AWBプリプロセス部60から取得したAWB測光評価値に基づいて、露光時間制御、絞り制御、ゲイン制御、RB制御、ガンマ制御、及び、コントラスト制御等の信号を生成する。制御部62は、生成した露光時間制御の信号をイメージセンサー44へフィードバックして第1調整を実行する。制御部62は、生成した絞り制御の信号を絞り42へフィードバックする。制御部62は、生成したゲイン制御の信号をGain調整部52へフィードバックする。制御部62は、生成したRB制御の信号をWB部54へフィードバックする。制御部62は、生成したガンマ制御の信号をガンマ変換部64へフィードバックする。これにより、イメージセンサー44、絞り42、Gain調整部52、WB部54、ガンマ変換部64が、指定した話者の切出し範囲の明るさが好ましい状態になるように広角画像の画像データの明るさを調整する。
ガンマ変換部64は、制御部62から取得したガンマ制御の信号に基づいて、デモザイキングYRGB分離部56から取得したRGB信号をガンマ変換して、色補正部66へ出力する。ガンマ変換部64は、制御部62から取得したガンマ制御の信号に基づいて、デモザイキングYRGB分離部56から取得したY信号をガンマ変換して、輪郭強調部68へ出力する。
色補正部66は、ガンマ変換部64から取得したRGB信号に基づいて、画像データの色相及び色彩等を調整するとともに、赤外線カットフィルタの分光分布特性に基づいて画像データを補正する。色補正部66は、補正した画像データをNR部70へ出力する。
輪郭強調部68は、ガンマ変換部64から取得した輝度値であるY信号に基づいて、話者の輪郭部分を強調する処理を実行する。輪郭強調部68は、処理後の画像データをNR部70へ出力する。
NR部70は、輪郭強調部68から取得したY信号、及び、色補正部66から取得したRGB信号それぞれのノイズを抑制する。NR部70は、ノイズを抑制した画像データをメモリ72へ書き込む。
歪曲補正部74は、切出し制御部88から切出し制御情報を取得する。歪曲補正部74は、話者の切出し画像の画像データをメモリ72から読み出す。歪曲補正部74は、読み出した切出し画像の画像データの歪曲を、記憶領域78に記憶された歪曲補正マップに基づいて、補正する。歪曲補正部74は、補正した切出し画像の画像データをスケーラー部76へ出力する。
スケーラー部76は、歪曲補正部74から取得した切出し画像の画像データに拡大・縮小処理を実行する。スケーラー部76は、拡大・縮小処理を実行した切出し画像の画像データをメモリ72に書き込む。
AEプリプロセス部58は、第1調整された広角画像の画像データのY信号をメモリ72から読み出す。AEプリプロセス部58は、読み出したY信号にAE測光を実行して、AE測光評価値を算出する。
AWBプリプロセス部60は、第1調整された広角画像の画像データのRGB信号をメモリ72から読み出す。AWBプリプロセス部60は、読み出したRGB信号にAWB測光を実行して、AWB測光評価値を算出する。
制御部62は、広角画像の画像データのAE測光評価値及びAWB測光評価値に基づいて、RB制御、ゲイン制御、ガンマ制御、及び、コントラスト制御等の信号を生成して第2調整を実行する。制御部62は、RB制御の信号をWB部80に出力する。制御部62は、ガンマ制御及びコントラスト制御の信号をガンマ変換コントラスト調整部82へ出力する。
WB部80は、広角画像の画像データをメモリ72から読み出す。WB部80は、制御部62から取得したRB制御の信号に基づいて、広角画像の画像データのホワイトバランスを調整する。WB部80は、ホワイトバランスを調整した広角画像の画像データをガンマ変換コントラスト調整部82へ出力する。
ガンマ変換コントラスト調整部82は、制御部62から取得したガンマ制御及びコントラスト制御の信号に基づいて、WB部80から取得した広角画像の画像データに対して、ガンマ変換及びコントラスト調整を実行する。ガンマ変換コントラスト調整部82は、ガンマ変換及びコントラスト調整を実行した広角画像の画像データをメモリ72に書き込む。
歪曲補正部74は、ガンマ変換コントラスト調整部82が書き込んだ広角画像の画像データをメモリ72から読み出す。歪曲補正部74は、読み出した広角画像の画像データの歪みを歪曲補正マップに基づいて補正した後、スケーラー部76へ出力する。
スケーラー部76は、歪曲補正部74から取得した広角画像の画像データに対して、拡大・縮小処理を実行した後、メモリ72に書き込む。
画像合成部84は、上述した各画像処理が実行された後、メモリ72に書き込まれた切出し画像の画像データ及び広角画像の画像データを読み出す。画像合成部84は、切出し画像の画像データ及び広角画像の画像データを1つの画像データに合成した合成画像データを生成して、I/Fユニット部86へ出力する。
I/Fユニット部86は、合成画像データをシリアル化(例えば、V−by−One(登録商標)HSまたはHDMI(登録商標)等)した後、サーバー12へ送信する。
このように、現像処理部46は、切出し画像が好ましい明るさとなるように第1調整した後、広角画像を第2調整するので、切出された切出し画像の話者が適切な明るさの画像としつつ、広角画像を適切な明るさとすることができる。
図4は、話者の切出し画像の測光評価値の算出処理のフローチャートである。ここでいう測光評価値は、AE測光評価値及びAWB測光評価値の両方を含む。
図4に示すように、切出し画像の測光評価値の算出処理では、現像処理部46は、話者の切出し画像の画素ブロック毎に輝度値であるY信号を積算して、平均値を算出する(S110)。
図5は、話者の切出し画像TPを説明する図である。切出し画像TPは、話者P0の方向を検出して、当該方向の画像が広角画像から切出されて生成される。切出し画像TPでは、中央の話者P0がドットハッチングで示す窓WDの前に居る。話者P0の前には斜線ハッチングで示す机DSが配置されている。切出し画像TPは、窓WDから外光が射し込んだ逆光状態である。このため、窓WDは明るいが、話者P0は暗く見難い画像となっている。従って、本実施形態では話者P0に重きをおいた測光方法とする。当該測光方法として、例えば、画像の中央部分を重視した中央重点測光方式、または、画像の特定の一部を重視して測光するスポット方式等を挙げることができる。本実施形態では、中央重点測光方式の例で説明する。
切出し画像TPは、6×6の画素ブロックBLに分割されている。図5では、各画素ブロックBLを点線で囲っている。画素ブロックBLは、例えば、100×100の画素を有する。従って、現像処理部46は、画素ブロックBLに含まれる全ての画素のY信号を積算して、画素数で割ることによって、切出し画像TPのY信号の平均値を算出する。
図4に戻って、現像処理部46は、算出した画素ブロックBL毎のY信号の平均値と、重み付けテーブルWTを掛ける(S120)。図6は、切出し画像TPのY信号に重み付けする重み付けテーブルWTを説明する図である。重み付けテーブルWTは、切出し画像TPの画素ブロックBLと同様に分割された重み付けブロックWBLを有する。従って、本実施形態では、重み付けブロックWBLは、6×6に分割されている。重み付けブロックWBLには、重み付け係数が割り当てられている。本実施形態では、中央重点測光方式を採用しているので、中央の重み付けブロックWBLの重み付け係数が大きくなっている。現像処理部46は、各画素ブロックBLの平均値に、当該画素ブロックBLに対応する重み付けブロックWBLに割り当てられた重み付け係数を掛ける。
図4に戻って、現像処理部46は、切出し画像TPの測光評価値として、Y信号の平均値の加重平均値を算出する(S130)。具体的には、現像処理部46は、ステップS120において重み付け係数が掛けられたY信号の平均値を全て積算した積算値を、重み付け係数を全て積算した積算値で割ることによって、加重平均値を切出し画像TPの測光評価値として算出する。切出し画像TPの測光評価値は、切出し画像TPの特徴の一例である。これにより、現像処理部46は、測光評価値の算出処理を終了する。
図7は、話者の切出し画像TPの測光評価値に基づいた、切出し画像TPの露光制御処理のフローチャートである。
図7に示すように、露光制御処理では、現像処理部46は、広角画像のY信号をメモリ72から読み出す(S210)。現像処理部46は、切出し画像TPの座標情報に基づいて、測光領域を決定する(S220)。ここでいう測光領域は、広角画像内における図5に示すような切出し画像TPが切出された領域である。現像処理部46は、上述した切出し画像TPの測光評価値の算出処理に従って切出し画像TPの測光評価値を算出する(S230)。
現像処理部46は、切出し画像TPの測光評価値と、予め定められた目標値とを比較して、測光評価値と目標値との差分であるエラー値を算出する。目標値は、例えば、最も適切な露光の場合の測光評価値が適用される。現像処理部46は、当該エラー値が予め定められた許容範囲内か否かを判定する(S240)。換言すれば、現像処理部46は、切出し画像TPの露光が適切な範囲か否かを判定する。例えば、現像処理部46は、エラー値と予め定められた閾値とを比較して、当該エラー値が許容範囲内か否かを判定する。
現像処理部46は、エラー値が許容範囲内と判定すると(S240:Yes)、切出し画像TPの露光制御処理を終了する。尚、この後、現像処理部46は、切出し画像TPの露光制御処理を繰り返してもよい。
現像処理部46は、エラー値が許容範囲内でないと判定すると(S240:No)、エラー値がマイナスか否かを判定する(S250)。換言すれば、現像処理部46は、露光がアンダーか、オーバーかを判定する。
現像処理部46は、エラー値がマイナスと判定すると(S250:Yes)、これは露光がオーバーであることを意味するので、露光を下げる(S260)。例えば、現像処理部46は、ゲインを小さくする制御信号、露光時間を短縮する制御信号、絞り42を絞る制御信号を順に出力して、露光を下げる。ステップS260は、第1調整の一例である。この後、現像処理部46は、切出し画像TPの露光制御処理を繰り返してもよい。
現像処理部46は、エラー値がマイナスでないと判定すると(S250:No)、これは露光がアンダーであることを意味するので、露光を上げる(S270)。例えば、現像処理部46は、ゲインを大きくする制御信号、露光時間を延ばす制御信号、絞り42を開ける制御信号を順に出力して、露光を上げる。ステップS270は、第1調整の一例である。この後、現像処理部46は、切出し画像TPの露光制御処理を繰り返してもよい。
このように、現像処理部46は、画像の周辺部よりも話者P0のいる切出し画像TPの中央部に重きをおいて露光時間、絞り、ゲインを調整するので、話者P0の画像を最適な明るさとすることができる。
図8は、広角画像WPの測光評価値の算出処理のフローチャートである。図9は、広角画像WPを説明する図である。
図9に示す広角画像WPの露光は、全体に対する話者P0の位置、及び、全体の雰囲気を把握する目的がある。広角画像WPの露光は、広角画像WPの全体が好ましい状態となるような測光方式が好ましい。例えば、広角画像WPの測光方式として、広角画像WPの全体のY信号(即ち、輝度値)の平均値を測光評価値とする平均測光方式、及び、ヒストグラムを計算して当該ヒストグラムを分割して分割した画素ブロックBL毎に重み付けをして加重平均を測光評価値とするヒストグラム測光方式等を挙げることができる。図8に示すフローチャートにおける広角画像の測光評価値の算出処理では、平均測光方式を例に説明する。
図8に示すように、広角画像WPの測光評価値の算出処理では、現像処理部46は、広角画像WPの画素ブロックBL毎に輝度値であるY信号を積算した積算値を算出する(S310)。
図9に示す広角画像WPは、カメラ20によって撮像された広角領域(例えば、360°の領域)の画像である。広角画像WPは、複数の参加者P1、P2、P3、P4、P5を含む。参加者P1〜P4のうち参加者P2が話者P0である。話者P0はドットハッチングで示す窓WDの前に居る。参加者P1〜P4の前には斜線ハッチングで示す机DSが配置されている。尚、上述した切出し画像TPは、太点線で示す枠FRの内側の画像である。
広角画像WPは、8×4の画素ブロックBLに分割されている。図9では、各画素ブロックBLを点線で囲っている。画素ブロックBLは、例えば、100×100の画素を有する。現像処理部46は、各画素ブロックBLの100×100の画素のY信号を積算する。
現像処理部46は、各画素ブロックBLのY信号の平均値を、広角画像WPの測光評価値として算出する(S320)。具体的には、現像処理部46は、積算したY信号の積算値を、各画素ブロックBLの画素数で割ることによって、Y信号の平均値を算出する。広角画像WPの測光評価値は、広角画像WPの特徴の一例である。これにより、現像処理部46は、広角画像WPの測光評価値の算出制御処理を終了する。
図10は、広角画像WPの測光評価値に基づいた、広角画像WPの露光制御処理のフローチャートである。
図10に示すように、露光制御処理では、現像処理部46は、広角画像WPのY信号をメモリ72から読み出す(S410)。現像処理部46は、上述した広角画像WPの測光評価値の算出処理に従って広角画像WPの測光評価値を算出する(S420)。
現像処理部46は、広角画像WPの測光評価値と、予め定められた目標値とを比較して、測光評価値と目標値との差分であるエラー値を算出する。目標値は、例えば、最も適切な露光の場合の測光評価値が適用される。現像処理部46は、当該エラー値が予め定められた許容範囲内か否かを判定する(S430)。換言すれば、現像処理部46は、広角画像WPの露光が適切な範囲か否かを判定する。例えば、現像処理部46は、エラー値と予め定められた閾値とを比較して、当該エラー値が許容範囲内か否かを判定する。
現像処理部46は、エラー値が許容範囲内と判定すると(S430:Yes)、広角画像WPの露光制御処理を終了する。尚、この後、現像処理部46は、広角画像WPの露光制御処理を繰り返してもよい。
現像処理部46は、エラー値が許容範囲内でないと判定すると(S430:No)、エラー値がマイナスか否かを判定する(S440)。換言すれば、現像処理部46は、露光がアンダーか、オーバーかを判定する。
現像処理部46は、エラー値がマイナスと判定すると(S440:Yes)、これは露光がオーバーであることを意味するので、露光を下げる(S450)。例えば、現像処理部46は、コントラストを暗くする制御信号、ガンマ補正を1より小さい値に設定する制御信号を出力して、露光を下げる。ステップS450は、第2調整の一例である。この後、現像処理部46は、広角画像WPの露光制御処理を繰り返してもよい。
現像処理部46は、エラー値がマイナスでないと判定すると(S440:No)、これは露光がアンダーであることを意味するので、露光を上げる(S460)。例えば、現像処理部46は、コントラストを明るくする制御信号、ガンマ補正を1より大きい値に設定する制御信号を出力して、露光を上げる。ステップS460は、第2調整の一例である。この後、現像処理部46は、広角画像WPの露光制御処理を繰り返してもよい。
図11は、広角画像WPの露光制御の一例を説明するヒストグラムである。図12は、広角画像WPの露光制御においてヒストグラムをY信号(輝度値)の低い領域へ伸長したヒストグラムである。
図5に示すような話者P0が逆光状態で撮像された場合、図4及び図7に示した露光制御が実行されると、暗くなっている話者P0に対して露光が適切に設定されて、話者P0以外の領域の画像は適切な状態よりも明るい状態となる。この場合、図11に示すように、Y信号(輝度値)が低い領域(点線で示す領域)の頻度は低くなり、Y信号が高い領域に頻度が集中する。ここで、図11に示すヒストグラムをY信号が低い領域へ伸長させることによって、図12に示すように、Y信号が低い領域にも頻度が分布するヒストグラムとなる。このヒストグラムに基づいて広角画像WPの露光制御を実行することによって、適切な露光の広角画像WPを生成できる。尚、ヒストグラムを伸長させる方法としては、コントラスト調整、ガンマ補正、ビットシフト等を上げることができる。
図13は、ヒストグラムを伸長させる方法の一例を示す図である。例えば、図13に示すように、矢印AR1に示すように、コントラストを暗い方へ広げるとともに、矢印AR2に示すようにガンマ補正を1より小さい値に動かすことによって、ヒストグラムをY信号が低い領域へも広げることができる。これにより、広角画像WPにおいても、適切な露光とすることができる。
上述の実施形態における各構成の機能、接続関係等は適宜変更してよい。
上述の実施形態にかかる映像配信システム10は、ビデオ会議用のシステムに適応した例を説明したが、遠隔監視システム等の他の映像配信システムに実施形態を適用してもよい。
上述の実施形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施形態および実施形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…映像配信システム、14、14a〜14d…端末、20…カメラ、22…表示部、28…CPU、46…現像処理部、TP…切出し画像、WP…広角画像。
特開2006−222816号公報

Claims (7)

  1. 被写体を撮像して画像を生成する撮像部と、
    前記画像の一部の領域を切出して切出し画像を生成して、前記切出し画像の特徴に基づいて前記切出し画像に関する第1調整を実行して、前記第1調整された前記画像の特徴に基づいて前記画像の設定に関する第2調整を実行する現像処理部と、
    を備える映像配信端末。
  2. 前記第1調整は、前記撮像部の露光時間及び絞りの少なくとも一方を調整する
    請求項1に記載の映像配信端末。
  3. 前記第1調整及び前記第2調整は、ゲインの調整、ガンマ補正の調整、及び、コントラストの調整の少なくとも1つを含む
    請求項1または2に記載の映像配信端末。
  4. 前記第1調整及び前記第2調整は、ホワイトバランスの調整を含む
    請求項1から3のいずれか1項に記載の映像配信端末。
  5. 前記第2調整は、前記第1調整と異なる設定に対して調整を実行する
    請求項1から4のいずれか1項に記載の映像配信端末。
  6. コンピュータを、
    被写体を撮像して画像を生成する撮像部と、
    前記画像の一部の領域を切出して切出し画像を生成して、前記切出し画像の特徴に基づいて前記切出し画像に関する第1調整を実行して、前記第1調整された前記画像の特徴に基づいて前記画像の設定に関する第2調整を実行する現像処理部と、
    して機能させるプログラム。
  7. 被写体を撮像して画像を生成する撮像段階と、
    前記画像の一部の領域を切出して切出し画像を生成して、前記切出し画像の特徴に基づいて前記切出し画像に関する第1調整を実行して、前記第1調整された前記画像の特徴に基づいて前記画像の設定に関する第2調整を実行する現像処理段階と、
    を備える映像配信方法。
JP2015148077A 2015-07-27 2015-07-27 映像配信端末、プログラム、及び、映像配信方法 Pending JP2017028633A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015148077A JP2017028633A (ja) 2015-07-27 2015-07-27 映像配信端末、プログラム、及び、映像配信方法
US15/217,260 US10255704B2 (en) 2015-07-27 2016-07-22 Video delivery terminal, non-transitory computer-readable medium, and video delivery method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015148077A JP2017028633A (ja) 2015-07-27 2015-07-27 映像配信端末、プログラム、及び、映像配信方法

Publications (1)

Publication Number Publication Date
JP2017028633A true JP2017028633A (ja) 2017-02-02

Family

ID=57882840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015148077A Pending JP2017028633A (ja) 2015-07-27 2015-07-27 映像配信端末、プログラム、及び、映像配信方法

Country Status (2)

Country Link
US (1) US10255704B2 (ja)
JP (1) JP2017028633A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142939A (ja) * 2017-02-28 2018-09-13 キヤノン株式会社 撮像装置、撮像システム、その制御方法およびプログラム
US10609302B2 (en) 2017-08-30 2020-03-31 Ricoh Company, Ltd. Imaging device, information processing system, program, image processing method
JP2023513318A (ja) * 2020-02-14 2023-03-30 ノキア テクノロジーズ オサケユイチア マルチメディアコンテンツ
US11902693B2 (en) 2020-02-04 2024-02-13 Roland Corporation Image processing device and image processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010439A (ja) 2016-07-13 2018-01-18 株式会社リコー 座標検出装置
CN110324528A (zh) * 2018-03-28 2019-10-11 富泰华工业(深圳)有限公司 摄像装置、影像处理系统及方法
CN111866306B (zh) * 2019-04-24 2023-04-18 瑞昱半导体股份有限公司 对比调整系统及对比调整方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959667A (en) 1996-05-09 1999-09-28 Vtel Corporation Voice activated camera preset selection system and method of operation
US6618073B1 (en) 1998-11-06 2003-09-09 Vtel Corporation Apparatus and method for avoiding invalid camera positioning in a video conference
US7117157B1 (en) 1999-03-26 2006-10-03 Canon Kabushiki Kaisha Processing apparatus for determining which person in a group is speaking
GB9908545D0 (en) 1999-04-14 1999-06-09 Canon Kk Image processing apparatus
JP4373645B2 (ja) 2002-05-31 2009-11-25 株式会社リコー 映像配信システム、プログラム及び記録媒体
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7428000B2 (en) 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
JP4770178B2 (ja) 2005-01-17 2011-09-14 ソニー株式会社 カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
JP2006222816A (ja) 2005-02-10 2006-08-24 Canon Inc 撮像装置及び撮像システム
JP4356663B2 (ja) 2005-08-17 2009-11-04 ソニー株式会社 カメラ制御装置および電子会議システム
JP2008011497A (ja) * 2006-06-01 2008-01-17 Canon Inc カメラ装置
US8024189B2 (en) 2006-06-22 2011-09-20 Microsoft Corporation Identification of people using multiple types of input
JP2008259000A (ja) 2007-04-06 2008-10-23 Sony Corp テレビ会議装置、制御方法、およびプログラム
US8330787B2 (en) 2007-06-29 2012-12-11 Microsoft Corporation Capture device movement compensation for speaker indexing
US8433061B2 (en) 2007-12-10 2013-04-30 Microsoft Corporation Reducing echo
JP4582212B2 (ja) * 2008-06-24 2010-11-17 カシオ計算機株式会社 撮像装置及びプログラム
US8314829B2 (en) 2008-08-12 2012-11-20 Microsoft Corporation Satellite microphones for improved speaker detection and zoom
US8358328B2 (en) 2008-11-20 2013-01-22 Cisco Technology, Inc. Multiple video camera processing for teleconferencing
US8395653B2 (en) 2010-05-18 2013-03-12 Polycom, Inc. Videoconferencing endpoint having multiple voice-tracking cameras
US9723260B2 (en) 2010-05-18 2017-08-01 Polycom, Inc. Voice tracking camera with speaker identification
US8248448B2 (en) 2010-05-18 2012-08-21 Polycom, Inc. Automatic camera framing for videoconferencing
JP5765893B2 (ja) * 2010-06-16 2015-08-19 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
US9084068B2 (en) 2011-05-30 2015-07-14 Sony Corporation Sensor-based placement of sound in video recording
US9030520B2 (en) 2011-06-20 2015-05-12 Polycom, Inc. Automatic camera selection for videoconferencing
JP5958833B2 (ja) 2013-06-24 2016-08-02 パナソニックIpマネジメント株式会社 指向性制御システム
JP5958717B2 (ja) 2013-07-19 2016-08-02 パナソニックIpマネジメント株式会社 指向性制御システム、指向性制御方法、収音システム及び収音制御方法
JP6303324B2 (ja) 2013-08-09 2018-04-04 株式会社リコー 通信システム、管理装置、通信方法およびプログラム
JP6221489B2 (ja) 2013-08-09 2017-11-01 株式会社リコー 通信システム、管理装置、通信方法およびプログラム
JP6326750B2 (ja) 2013-09-11 2018-05-23 株式会社リコー 通信端末、通信管理システム、通信システム、発信履歴の管理方法、及びプログラム
JP2015082149A (ja) 2013-10-21 2015-04-27 株式会社リコー 通信システム、通信方法及び通信プログラム
JP6432127B2 (ja) 2013-11-12 2018-12-05 株式会社リコー 通信装置、通信システム、通信方法及び通信プログラム
JP2015103105A (ja) 2013-11-26 2015-06-04 株式会社リコー 通信装置、通信システム、及び通信プログラム
JP2015103106A (ja) 2013-11-26 2015-06-04 株式会社リコー 通信装置、及び通信プログラム
US20150146078A1 (en) 2013-11-27 2015-05-28 Cisco Technology, Inc. Shift camera focus based on speaker position
JP6385154B2 (ja) * 2014-06-19 2018-09-05 オリンパス株式会社 撮像設定装置、撮像装置、撮像システム、撮像設定方法、およびプログラム
US9684987B1 (en) * 2015-02-26 2017-06-20 A9.Com, Inc. Image manipulation for electronic display

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142939A (ja) * 2017-02-28 2018-09-13 キヤノン株式会社 撮像装置、撮像システム、その制御方法およびプログラム
US10609302B2 (en) 2017-08-30 2020-03-31 Ricoh Company, Ltd. Imaging device, information processing system, program, image processing method
US11258960B2 (en) 2017-08-30 2022-02-22 Ricoh Company, Ltd. Imaging device, information processing system, program, image processing method
US11902693B2 (en) 2020-02-04 2024-02-13 Roland Corporation Image processing device and image processing method
JP2023513318A (ja) * 2020-02-14 2023-03-30 ノキア テクノロジーズ オサケユイチア マルチメディアコンテンツ

Also Published As

Publication number Publication date
US10255704B2 (en) 2019-04-09
US20170032555A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
US10397486B2 (en) Image capture apparatus and method executed by image capture apparatus
JP2017028633A (ja) 映像配信端末、プログラム、及び、映像配信方法
US10021313B1 (en) Image adjustment techniques for multiple-frame images
US9646397B2 (en) Image processing apparatus and image processing method
CN107635103B (zh) 一种图像处理方法及移动终端和介质产品
US8797427B2 (en) Image processing apparatus
JP6720881B2 (ja) 画像処理装置及び画像処理方法
CN105960658B (zh) 图像处理装置、摄像装置、图像处理方法以及可通过计算机处理的非暂时性的存储介质
US20150341537A1 (en) Local enhancement apparatus and method
EP4340383A1 (en) Image processing method and related device thereof
US20190082092A1 (en) Imaging apparatus, image processing apparatus, imaging method, image processing method, and storage medium
WO2022151852A1 (zh) 图像处理方法、装置、系统、电子设备以及存储介质
US20180288336A1 (en) Image processing apparatus
JP6376934B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6543787B2 (ja) 画像処理装置および画像処理方法
CN110278386B (zh) 图像处理方法、装置、存储介质及电子设备
JP6324235B2 (ja) 画像処理装置および画像処理方法
KR101337667B1 (ko) 휘도 정보에 기초하여 보정된 값들을 이용한 렌즈 롤 오프 보정 동작
JP2008305122A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2015080157A (ja) 画像処理装置、画像処理方法及びプログラム
JP6563646B2 (ja) 画像処理装置および画像処理方法
US10742862B2 (en) Information processing device, information processing method, and information processing system
JP2018186363A (ja) 撮像装置
JP5848580B2 (ja) 撮像装置及びその制御方法
JP2020182067A (ja) 画像処理装置、画像処理方法、及びプログラム