JP2017092850A - 撮像装置、撮像方法および会議端末装置 - Google Patents

撮像装置、撮像方法および会議端末装置 Download PDF

Info

Publication number
JP2017092850A
JP2017092850A JP2015223814A JP2015223814A JP2017092850A JP 2017092850 A JP2017092850 A JP 2017092850A JP 2015223814 A JP2015223814 A JP 2015223814A JP 2015223814 A JP2015223814 A JP 2015223814A JP 2017092850 A JP2017092850 A JP 2017092850A
Authority
JP
Japan
Prior art keywords
unit
imaging
data
image
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015223814A
Other languages
English (en)
Inventor
宣正 銀川
Nobumasa Gingawa
宣正 銀川
高橋 仁人
Masahito Takahashi
仁人 高橋
耕司 桑田
Koji Kuwata
耕司 桑田
清人 五十嵐
Kiyoto Igarashi
清人 五十嵐
智幸 後藤
Tomoyuki Goto
智幸 後藤
和紀 北澤
Kazuki Kitazawa
和紀 北澤
未来 袴谷
Miku Hakamatani
未来 袴谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015223814A priority Critical patent/JP2017092850A/ja
Publication of JP2017092850A publication Critical patent/JP2017092850A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】1つの撮像部により異なる2つのパラメータで被写体を撮像した2つの画像を生成する。
【解決手段】本発明に撮像装置は、第1タイミングにおいて第1センサパラメータにより被写体を撮像して撮像データを生成し、第2タイミングにおいて第2センサパラメータにより被写体を撮像して撮像データを生成する撮像部と、第1タイミングにおいて撮像された撮像データに基づく第1画像データを生成する第1画像生成部と、第2タイミングにおいて撮像された撮像データに基づく第2画像データを生成する第2画像生成部と、第1画像データと第2画像データとを1つのフレームに合成した合成画像データを生成する合成部と、を備える。
【選択図】図9

Description

本発明は、撮像装置、撮像方法および会議端末装置に関する。
複数の会議室を用いて会議を行う遠隔会議システムが普及している。この会議システムは、一方の参加者がいる会議室において、会議端末装置を用いて参加者の画像および音声を収集して、これらのデジタルデータを他方の参加者がいる会議室の会議端末装置にネットワークを介して送信する。そして、他方の参加者がいる会議室の会議端末装置が、ディスプレイに画像を表示したり、スピーカで音声を出力したりする。会議システムでは、このような処理を複数の会議室の間で相互に行う。
特許文献1には、複数の目的画像を1つの広角画像から切り出して時分割多重処理をする撮像装置が記載されている。特許文献2には、複数の参加者を撮像した広範囲の画像と、広範囲の画像の一部分をクローズアップした狭範囲の画像とを配信する映像配信システムが記載されている。
会議システムでは、例えば360°の画角範囲を撮像可能なパノラマカメラを用いて、複数の参加者を撮像した広角画像を配信することができる。また、会議システムでは、複数の参加者のうちの発言をしている参加者(発言者)を検出し、その発言者をクローズアップした話者画像を配信することができる。これにより、会議システムでは、他の会議室の参加者に対して、広角画像により参加者全員を認識させることができるとともに、話者画像により何れの参加者が発言しているのかを認識させることができる。
また、このような会議システムでは、広角画像データの一部分を繰り出して、話者画像を生成する場合がある。これにより、会議システムでは、話者画像を生成するための専用のカメラを備えなくてよいので、構成を簡易にすることができる。
ところで、従来の会議システムでは、広角画像の露出が適切となるように露光時間が制御される。しかし、例えば会議室の一部の壁に窓があり、その窓の外から強い光が入射している場合、窓の手前の参加者は逆光状態となる。このため、従来の会議システムは、窓の手前の参加者が発言者となった場合、発言者が黒潰れした話者画像を生成してしまっていた。従って、従来の会議システムでは、広角画像と話者画像との両者をそれぞれ適切な露出で撮像することができなかった。
本発明は、上記に鑑みてなされたものであって、1つの撮像部により異なる2つのパラメータで被写体を撮像した2つの画像を生成する撮像装置、撮像方法および会議端末装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に撮像装置は、第1タイミングにおいて第1センサパラメータにより被写体を撮像して撮像データを生成し、第2タイミングにおいて第2センサパラメータにより前記被写体を撮像して前記撮像データを生成する撮像部と、前記第1タイミングにおいて撮像された前記撮像データに基づく第1画像データを生成する第1画像生成部と、前記第2タイミングにおいて撮像された前記撮像データに基づく第2画像データを生成する第2画像生成部と、前記第1画像データと前記第2画像データとを1つのフレームに合成した合成画像データを生成する合成部と、を備える。
本発明によれば、1つの撮像部により異なる2つのパラメータで被写体を撮像した2つの画像を生成することができる。
図1は、実施形態に係る会議システムを示す図である。 図2は、会議端末装置の使用例を示す図である。 図3は、会議端末装置のハードウェア構成を示す図である。 図4は、会議端末装置の機能構成を示す図である。 図5は、撮像装置および複数のマイクロホンの配置の一例を示す図である。 図6は、集音部の機能構成を示す図である。 図7は、撮像装置により生成される出力画像の一例を示す図である。 図8は、撮像装置のハードウェア構成を示す図である。 図9は、撮像装置の機能構成を示す図である。 図10は、現像処理部の機能構成を示す図である。 図11は、測定部の機能構成を示す図である。 図12は、パラメータの設定の流れを示す図である。 図13は、第1画像生成部および第2画像生成部の機能構成を示す図である。 図14は、逆光の参加者を含む部分領域を切り出して話者画像を生成した場合の出力画像の一例を示す図である。
図1は、実施形態に係る会議システム10を示す図である。会議システム10は、互いに離れた位置の参加者に、会議等のコミュニケーションをさせるためのシステムである。
会議システム10は、複数の会議端末装置20と、中継装置22とを備える。複数の会議端末装置20および中継装置22は、ネットワークを介して相互に接続して、データを送受信する。ネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよいし、WANに公衆回線が含まれていてもよいし、どのようなネットワークであってもよい。
複数の会議端末装置20のそれぞれは、同一の機能および構成を有する。複数の会議端末装置20のそれぞれは、異なる場所(本実施形態においては異なる会議室)に配置される。それぞれの会議室には、少なくとも一人の参加者が存在する。
会議システム10は、一方の会議端末装置20から他の会議端末装置20へと、一方の会議端末装置20が設置された会議室内の参加者を撮像した映像データ、および、参加者の音声を表す音声データをリアルタイムで送信する。なお、会議システム10は、一方の会議端末装置20から他の会議端末装置20へと一方向に情報を伝達してもよいし、双方向に情報を送信してもよい。また、会議システム10は、1つの会議端末装置20から複数の他の会議端末装置20へと同時に情報を送信してもよい。
中継装置22は、例えばサーバまたはコンピュータ等の情報処理装置である。中継装置22は、会議端末装置20と他の会議端末装置20との間の中継装置22を介した通信を確立する。そして、中継装置22は、会議端末装置20から受信したデータを他の会議端末装置20へと転送する。
図2は、会議端末装置20の使用例を示す図である。会議端末装置20は、会議室内の参加者を撮像する。また、会議端末装置20は、会議室内の参加者の音声を集音する。会議端末装置20は、会議室内の参加者を撮像した映像データおよび参加者の音声を集音した音声データを他の会議端末装置20へと送信する。
また、会議端末装置20は、表示装置と接続され、他の会議端末装置20から受信した映像データを表示装置に表示させる。また、会議端末装置20は、スピーカと接続され、他の会議端末装置20から受信した音声データをスピーカから出力させる。会議端末装置20は、表示装置およびスピーカを内蔵していてもよい。本実施形態においては、会議端末装置20は、電子黒板23と接続され、電子黒板23に映像データを表示させ、電子黒板23から音声データに応じた音声を出力させる。
また、会議端末装置20は、会議室内の複数の参加者をフレーム内に撮像可能な位置に配置される。例えば、会議端末装置20は、360°の全周を撮像可能なカメラを有する場合には、図2に示すように、テーブル上に配置されてもよい。また、会議端末装置20は、天井に配置されてもよいし、会議室の一方の壁側に配置されてもよいし、電子黒板23と一体とされていてもよい。
図3は、会議端末装置20のハードウェア構成を示す図である。会議端末装置20は、CPU(Central Processing Unit)24と、ROM(Read Only Memory)25と、RAM(Random Access Memory)26と、記憶装置27と、マイクロホンアレイ28と、撮像装置30と、操作部31と、音声出力IF部32と、表示IF部33と、外部機器接続IF部34とを有する。
CPU24は、会議端末装置20の全体の動作を制御する。また、CPU24は、プログラムを実行する。ROM25は、起動時においてCPU24が実行するプログラム等を記憶する。RAM26は、CPU24が実行するデータを記憶し、CPU24のワークエリアとして機能する。記憶装置27は、会議端末装置20用の転送制御プログラム、アプリケーションプログラム、画像データおよび音声データ等を記憶する。記憶装置27は、例えば、ハードディスクまたはフラッシュメモリ等である。
マイクロホンアレイ28は、それぞれが指向性を有する複数のマイクロホン36を含む。それぞれのマイクロホン36は、設定された方向から発せられた音を集音して音声信号を生成する。
撮像装置30は、CPU24の制御に従って被写体を撮像して画像データを生成する。撮像装置30については詳細を後述する。マイクロホンアレイ28および撮像装置30は、会議端末装置の本体を構成する筐体とは別体に設けられてもよい。
操作部31は、ユーザの操作情報を入力するためのキーボードおよびボタン等である。音声出力IF部32は、CPU24の制御に従って、音声信号をスピーカに与えて音声を出力させる。表示IF部33は、映像データを表示装置に与えて、映像データに応じた画像を表示装置に表示させる。外部機器接続IF部34は、外部機器に接続するためのインターフェース回路である。外部機器接続IF部34は、例えば、USB(Universal Serial Bus)ケーブル等を介して、外部のコンピュータまたは電子黒板23等と接続する。
図4は、会議端末装置20の機能構成を示す図である。会議端末装置20は、集音部41と、撮像装置30と、通信部42と、音声出力部43と、表示制御部44とを有する。
集音部41は、周囲の音を集音して第1音声データを生成する。より具体的には、集音部41は、会議室内における参加者の音声を集音し、第1音声データを生成する。また、集音部41は、複数の参加者のうち発話中の参加者を検出し、検出した参加者の方向を表す方向情報を生成する。集音部41は、生成した方向情報を撮像装置30に与える。
撮像装置30は、周囲の被写体を撮像して第1映像データを生成する。より具体的には、撮像装置30は、会議室内の複数の参加者を1つのフレーム内に収まるように撮像した第1画像データと、発話中の参加者を撮像した第2画像データとを生成する。撮像装置30は、第1画像データと第2画像データとを1つのフレーム内に合成した合成画像データを生成する。そして、撮像装置30は、合成画像データを含む第1映像データを出力する。
通信部42は、撮像装置30により出力された第1映像データおよび集音部41により出力された第1音声データを、他の会議端末装置20(他の装置)にネットワークを介して送信する。また、通信部42は、他の会議端末装置20から、第2映像データおよび第2音声データを受信する。
音声出力部43は、通信部42が受信した第2音声データに応じた音声をスピーカから出力させる。表示制御部44は、通信部42が受信した第2映像データを表示装置に表示させる。
図5は、撮像装置30および複数のマイクロホン36の配置の一例を示す図である。複数のマイクロホン36のそれぞれは、指向性を有する。複数のマイクロホン36は、撮像装置30の画角の範囲内における異なる方向の音を検出できるように、それぞれが画角の内において分散して配置される。例えば、撮像装置30が360°の範囲を撮像可能な場合には、複数のマイクロホン36は、図5に示されるように、会議端末装置20の筐体の周囲に放射状に配置される。
また、複数のマイクロホン36のそれぞれの指向性の方向と、撮像装置30により撮像される画角の基準方向(例えば、画角の中心方向、または、画角の左端または右端の方向)との対応関係は、会議端末装置20に予め設定されている。撮像装置30は、この対応関係を予め取得して記憶する。これにより、撮像装置30は、複数のマイクロホン36により検出された音声の発生方向と、予め登録された対応関係とに基づき、音声発生方向が、撮像された画像内における何れの位置であるかを算出することができる。従って、撮像装置30は、集音部41から受け取った方向情報に基づき、フレーム内における発話中の参加者を含む部分領域を特定することができる。
図6は、集音部41の機能構成を示す図である。集音部41は、CPU24がプログラムを実行することにより実現される。
集音部41は、音声取得部46と、方向検出部47と、音声生成部48とを有する。音声取得部46は、マイクロホンアレイ28を構成する複数のマイクロホン36のそれぞれから音声信号を取得する。
方向検出部47は、複数のマイクロホン36から取得した複数の音声信号から、音声が発せられた方向を検出する。例えば、方向検出部47は、複数のマイクロホン36に到達した音の遅延量等に基づき方向を検出する。そして、方向検出部47は、検出した方向を示す方向情報を撮像装置30に与える。
音声生成部48は、複数のマイクロホン36から取得した複数の音声信号から第1音声データを生成する。音声生成部48は、例えば、有効な方向の音声信号の選択および有効な複数の音声信号の積算等をして、第1音声データを生成する。音声生成部48は、生成した第1音声データを通信部42に与える。
図7は、撮像装置30により生成される出力画像50の一例を示す図である。撮像装置30は、会議室内の複数の参加者を1つのフレーム内に収まるように撮像した広角画像52を表す第1画像データを生成する。例えば、撮像装置30は、360°の画角を有するレンズ等を用いて撮像したRAW画像データに対して所定の歪補正処理等を行うことにより第1画像データを生成する。
また、撮像装置30は、集音部41から受け取った方向情報に基づき、第1画像データにおける発話中の参加者が含まれる部分領域56を検出する。撮像装置30は、第1画像データから、部分領域56に対応する画像を抽出する。そして、撮像装置30は、抽出した部分画像を拡大または縮小して、話者画像54を表す第2画像データを生成する。
そして、撮像装置30は、広角画像52を表す第1画像データと、話者画像54を表す第2画像データとを1つのフレーム内に合成して出力画像50を生成する。そして、撮像装置30は、出力画像50を表す合成画像データを含む第1映像データを出力する。
図8は、撮像装置30のハードウェア構成を示す図である。撮像装置30は、レンズ光学系60と、イメージセンサ62と、現像処理回路64と、画像処理回路66と、合成回路68と、出力回路70と、制御回路72と、メモリ74と、補正値記憶部76とを有する。
レンズ光学系60は、被写体からの反射光をイメージセンサ62上に集光する。イメージセンサ62は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)等の固体撮像装置を含む。イメージセンサ62は、光電変換、電荷読み出し、信号増幅、アナログ/デジタル変換を行って、被写体を表す撮像データ(RAW画像データ)を出力する。
現像処理回路64は、イメージセンサ62から出力された撮像データに対して現像処理等を行って、予め定められた形式の中間画像データを生成する。また、現像処理回路64は、イメージセンサ62を制御するためのセンサパラメータおよび現像処理のための現像パラメータの生成元となる測定値を、撮像データから算出する。例えば、現像処理回路64は、イメージセンサ62の自動露出制御をするためのAE測光値および現像処理回路64のオートホワイトバランス制御をするためのAWB測光値を算出する。
画像処理回路66は、中間画像データから広角画像52を表す第1画像データを生成する処理、および、中間画像データから話者画像54を表す第2画像データを生成する処理を実行する。具体的には、画像処理回路66は、中間画像データに対する歪補正処理をする。また、画像処理回路66は、歪補正がされた中間画像データから、所定のフレーム番号のフレームの取得、画像抽出および拡大縮小処理をして、第1画像データおよび第2画像データを生成する。
合成回路68は、第1画像データと第2画像データとを合成して合成画像データを生成する。出力回路70は、合成回路68により生成された合成画像データを含む映像データを出力する。例えば、出力回路70は、所定のビデオデータ用のシリアルI/Fを介して映像データを出力する。
制御回路72は、例えば、MPU(Micro-Processing Unit)等であって装置全体の制御をする。さらに、制御回路72は、現像処理回路64により算出された測定値に基づき、イメージセンサ62の動作を制御するためのセンサパラメータを生成する。そして、制御回路72は、生成したセンサパラメータをイメージセンサ62に設定する。また、制御回路72は、現像処理回路64により算出された測定値に基づき、現像処理回路64の動作を制御するための現像パラメータを生成する。そして、制御回路72は、生成した現像パラメータを現像処理回路64に設定する。
メモリ74は、例えば、RAM等であり、撮像データ、中間画像データ、第1画像データ、第2画像データおよび合成画像データを記憶する。メモリ74は、現像処理回路64、画像処理回路66および合成回路68が処理を行うためにデータを記憶するワーキングエリアとして機能する。補正値記憶部76は、例えば、フラッシュメモリ等の不揮発メモリである。補正値記憶部76は、例えば、360°の広角画像の歪を補正すための補正値データを記憶する。補正値記憶部76は、例えば、工場出荷時またはキャリブレーション時等に生成された補正値データを予め記憶する。補正値記憶部76に記憶された補正値は、例えば、画像処理回路66の動作に先だって、メモリ74に転送される。
図9は、撮像装置30の機能構成を示す図である。撮像装置30は、図8に示したハードウェアがソフトウェアと協働することにより、図9に示すような機能ブロックを実現する。すなわち、撮像装置30は、撮像部80と、現像処理部82と、領域指定部84と、測定部86と、パラメータ生成部88と、設定部90と、歪補正部92と、第1画像生成部94と、第2画像生成部96と、合成部98とを有する。
撮像部80は、被写体を撮像して撮像データを生成する。撮像部80は、イメージセンサ62により実現される。撮像部80は、複数の参加者を1つのフレーム内に含む広角の撮像データを生成する。例えば、撮像部80は、360°の画角の撮像データを生成する。
撮像部80は、設定部90から第1センサパラメータと第2センサパラメータとが設定される。第1センサパラメータおよび第2センサパラメータは、例えば、シャッタースピードおよび露光時間等のイメージセンサ62を制御するために必要なパラメータである。
撮像部80は、第1タイミングにおいて第1センサパラメータにより被写体を撮像して撮像データを生成する。また、撮像部80は、第1タイミングとは異なる第2タイミングにおいて、第2センサパラメータにより被写体を撮像して撮像データを生成する。
例えば、撮像部80は、フレームタイミング毎に、第1タイミングと第2タイミングとを切り替える。撮像部80は、例えば、奇数番号のフレーム(奇数フレーム)のタイミング(第1タイミング)において、第1センサパラメータにより被写体を撮像し、偶数番号のフレーム(偶数フレーム)のタイミング(第2タイミング)において、第2センサパラメータにより被写体を撮像する。なお、奇数フレームが第2タイミング、偶数フレームが第1タイミングであってもよい。
現像処理部82は、撮像部80により生成された撮像データに対して現像処理を実行し、予め定められた形式の中間画像データを生成する。例えば、現像処理部82は、黒レベル補正、欠陥画素補正、シェーディング補正、ホワイトバランス調整、ゲイン調整、WB(ホワイトバランス)調整、デモザイキング、輪郭強調、色補正、NR(ノイズリダクション)、ガンマ調整、トーンカーブ調整等の現像処理を行う。さらに、現像処理部82は、RAW画像データからRGBデまたはYCbCr等の色差信号データへの変換を行う。また、現像処理部82は、予め定められた画像フォーマットの中間画像データへの変換処理およびタイミング調整を行う。現像処理部82は、現像処理回路64により実現される。
現像処理部82は、設定部90から第1現像パラメータと第2現像パラメータとが設定される。第1現像パラメータおよび第2現像パラメータは、例えば、ホワイトバランス調整のための色毎のゲイン等を含む現像処理に必要なパラメータである。
現像処理部82は、第1タイミングにおいて撮像された撮像データに対して第1現像パラメータに基づき現像処理を実行する。また、現像処理部82は、第2タイミングにおいて撮像された撮像データに対して第2現像パラメータに基づき現像処理を実行する。
例えば、現像処理部82は、例えば奇数フレームの撮像データに対して第1現像パラメータにより現像処理を実行し、偶数フレームの撮像データに対して第2現像パラメータにより現像処理を実行する。なお、奇数フレームが第2タイミング、偶数フレームが第1タイミングである場合には、現像処理部82は、奇数フレームの撮像データに対して第2現像パラメータにより現像処理を実行し、偶数フレームの撮像データに対して第1現像パラメータにより現像処理を実行する。
領域指定部84は、方向情報を外部の集音部41から受け取る。方向情報には、撮像部80の画角内における何れかの方向が示される。領域指定部84は、方向情報に基づき、撮像部80により生成される撮像データのフレーム内における一部の領域を示す部分領域を指定する。部分領域は、撮像データのフレーム内において、例えば、一人の参加者を含む程度の画角の範囲の領域である。例えば、撮像データが360°の画角のフレームを有する場合には、領域指定部84は、30°程度の画角の範囲の領域を、部分領域として指定してよい。領域指定部84は、指定した部分領域を特定する情報を、測定部86および第2画像生成部96に与える。領域指定部84は、制御回路72により実現される。
測定部86は、撮像データのフレーム内の所定領域から第1測定値を算出する。また、測定部86は、撮像データのフレーム内の部分領域から第2測定値を算出する。ここで、所定領域は、広角画像52を生成するための画像範囲である。所定領域は、撮像データの有効範囲の全体であってもよいし、有効範囲から数パーセント小さい範囲であってもよい。また、部分領域は、所定領域内に含まれる範囲である。
また、第1測定値は、第1センサパラメータおよび第1現像パラメータの生成の元となる情報である。第2測定値は、第2センサパラメータおよび第2現像パラメータの生成の元となる情報である。
測定部86は、例えば、撮像データのフレーム内の所定領域の光量を表す第1測定値(第1AE測光値)を算出し、撮像データにおける部分領域の光量を表す第2測定値(第2AE測光値)を算出する。また、測定部86は、例えば、撮像データにおける所定領域の色毎の光量差を表す第1測定値(第1AWB測光値)を算出し、撮像データにおける部分領域の色毎の光量差を表す第2測定値(第2AWB測光値)を算出する。
さらに、測定部86は、第1タイミングに撮像された撮像データに基づき第1測定値を算出する。また、測定部86は、第2タイミングに撮像された撮像データに基づき第2測定値を算出する。例えば、測定部86は、奇数フレームの撮像データから第1測定値を算出し、偶数フレームの撮像データから第2測定値を算出する。なお、奇数フレームが第2タイミング、偶数フレームが第1タイミングである場合には、測定部86は、奇数フレームの撮像データから第2測定値を算出し、偶数フレームの撮像データから第1測定値を算出する。測定部86は、現像処理回路64により実現される。
パラメータ生成部88は、測定部86から第1測定値および第2測定値を受け取る。パラメータ生成部88は、第1測定値に基づき第1センサパラメータを生成し、第2測定値に基づき第2センサパラメータを生成する。例えば、パラメータ生成部88は、第1AE測光値に基づきイメージセンサ62の露光時間を算出し、算出した露光時間を含む第1センサパラメータを生成する。また、パラメータ生成部88は、第2AE測光値に基づきイメージセンサ62の露光時間を算出し、算出した露光時間を含む第2センサパラメータを生成する。
また、パラメータ生成部88は、第1測定値に基づき第1現像パラメータを生成し、第2測定値に基づき第2現像パラメータを生成する。例えば、パラメータ生成部88は、第1AWB測光値に基づき色毎のゲインを算出し、算出した色毎のゲインを含む第1現像パラメータを生成する。また、パラメータ生成部88は、第2AWB測光値に基づき色毎のゲインを算出し、算出した色毎のゲインを含む第2現像パラメータを生成する。
パラメータ生成部88は、第1測定値を受け取る毎に、第1センサパラメータおよび第1現像パラメータを生成する。また、パラメータ生成部88は、第2測定値を受け取る毎に、第2センサパラメータおよび第2現像パラメータを生成する。例えば、パラメータ生成部88は、フレームタイミング毎に、第1センサパラメータおよび第1現像パラメータ、または、第2センサパラメータおよび第2現像パラメータを生成する。パラメータ生成部88は、制御回路72により実現される。
設定部90は、第1センサパラメータおよび第2センサパラメータを撮像部80に設定する。また、設定部90は、第1現像パラメータおよび第2現像パラメータを現像処理部82に設定する。
設定部90は、例えば、フレームタイミング毎に、第1センサパラメータまたは第2センサパラメータを切り替えて設定する。また、設定部90は、例えば、フレームタイミング毎に、第1現像パラメータおよび第2現像パラメータを切り替えて設定する。設定部90は、制御回路72により実現される。
歪補正部92は、現像処理部82から中間画像データを受け取る。歪補正部92は、中間画像データに対して、予め登録された歪補正値に基づき広角のレンズにより撮像したことにより生じる画像の歪を補正する。歪補正部92は、画像処理回路66により実現される。
第1画像生成部94は、第1タイミングにおいて撮像された撮像データに基づく第1画像データを生成する。例えば、奇数フレームが第1タイミングである場合、第1画像生成部94は、歪補正がされた中間画像データの奇数フレームを抽出して第1画像データを生成する。なお、偶数フレームが第1タイミングである場合には、第1画像生成部94は、歪補正がされた中間画像データの偶数フレームを抽出して第1画像データを生成する。
さらに、第1画像生成部94は、歪補正がされた中間画像データのフレーム内の所定領域の画像を抽出して、第1画像データを生成する。所定領域は、測定部86が第1測定値を算出する範囲と同一である。従って、所定領域は、撮像データの有効範囲の全体であってもよいし、有効範囲から数パーセント小さい範囲であってもよい。第1画像生成部94は、画像処理回路66により実現される。
第2画像生成部96は、第2タイミングにおいて撮像された撮像データに基づく第2画像データを生成する。例えば、偶数フレームが第2タイミングである場合、第2画像生成部96は、歪補正がされた中間画像データの偶数フレームを抽出して第2画像データを生成する。なお、奇数フレームが第2タイミングである場合には、第2画像生成部96は、歪補正がされた中間画像データの奇数フレームを抽出して第2画像データを生成する。
さらに、第2画像生成部96は、領域指定部84から部分領域を特定する情報を受け取る。そして、第2画像生成部96は、歪補正がされた中間画像データのフレーム内の部分領域の画像を抽出して、第2画像データを生成する。
部分領域は、測定部86が第2測定値を算出する範囲と同一である。従って、部分領域は、所定領域内に含まれる範囲である。また、第2画像生成部96は、例えば、フレームタイミング毎に異なる部分領域を受け取ってもよい。従って、部分領域は、フレームタイミング毎に、フレーム内の抽出位置が異なる場合もある。第1画像生成部94は、画像処理回路66により実現される。
合成部98は、第1画像生成部94により生成された第1画像データと、第2画像生成部96により生成された第2画像データとを取得する。そして、合成部98は、第1画像データと第2画像データとを1つのフレームに合成した合成画像データを生成する。合成部98は、合成回路68により実現される。
図10は、現像処理部82の機能構成を示す図である。現像処理部82は、黒レベル補正部112と、欠陥画素補正部114と、シェーディング補正部116と、ゲイン調整部118と、WB調整部120と、デモザイキング部122と、YRGB分離部124と、輪郭強調部126と、色補正部128と、NR部130と、加算部132と、ガンマ調整部134と、トーンカーブ調整部136と、フォーマット変換部138と、タイミング調整部140とを含む。
黒レベル補正部112は、撮像部80から撮像データを受け取り、イメージセンサ62の暗電流ノイズの影響を抑制する。黒レベル補正部112は、設定部90から現像パラメータに含まれる抑制量に応じてノイズを抑制する。設定部90は、露光時間または周囲温度に応じてノイズの抑制量をフレーム毎に更新する。
欠陥画素補正部114は、黒レベル補正部112から撮像データを受け取る。欠陥画素補正部114は、イメージセンサ62の画素欠陥を補正する。
シェーディング補正部116は、欠陥画素補正部114から撮像データを受け取る。シェーディング補正部116は、レンズによる周辺減光を補正する。
ゲイン調整部118は、シェーディング補正部116から撮像データを受け取る。ゲイン調整部118は、撮像データのそれぞれのピクセル値にゲインを乗じて明るさを調整する。ゲイン調整部118は、設定部90から現像パラメータに含まれるゲインを受け取る。設定部90は、AE測光値を元に最適なゲインを算出してフレーム毎に更新する。
WB調整部120は、ゲイン調整部118から撮像データを受け取る。WB調整部120は、例えばRのピクセル値およびBのピクセル値にゲインを乗じて、照明色等の違いを吸収して、色毎のバランスを調整する。これにより、WB調整部120は、白い部分を白画像とすることができる。WB調整部120は、設定部90から現像パラメータに含まれる色毎のゲインを受け取る。設定部90は、AWB測光値を元に最適な色毎のゲインを算出してフレーム毎に更新する。
デモザイキング部122は、WB調整部120から撮像データを受け取る。デモザイキング部122は、カラーフィルタで格子状となっているR、G、Bの情報を色補間する。
YRGB分離部124は、デモザイキング部122から撮像データを受け取る。YRGB分離部124は、RGBの画像データから、輝度(Y)データと色(RGB)画像データとを算出する。YRGB分離部124は、輝度(Y)データおよび色(RGB)画像データを測定部86に与える。
輪郭強調部126は、YRGB分離部124から輝度(Y)データを受け取る。輪郭強調部126は、被写体の輪郭部分を強調する強調データを生成する。輪郭強調部126は、設定部90から現像パラメータに含まれる強調量を受け取る。設定部90は、露光時間に応じて強調量をフレーム毎に更新する。
色補正部128は、YRGB分離部124から色(RGB)画像データを受け取る。色補正部128は、色相および彩度を調整する。
NR部130は、色補正部128から色(RGB)画像データを受け取る。NR部130は、画像中のランダムノイズおよび色ノイズの影響を抑制する。NR部130は、設定部90から現像パラメータに含まれる抑制量に応じてノイズを抑制する。設定部90は、露光時間または周囲温度に応じてノイズの抑制量をフレーム毎に更新する。
加算部132は、NR部130から色(RGB)画像データを受け取り、輪郭強調部126から強調データを受け取る。加算部132は、色(RGB)画像データに強調データを加算して、輪郭強調をする。
ガンマ調整部134は、加算部132から色画像(RGB)データを受け取る。ガンマ調整部134は、出力機器のガンマ特性に合わせて入出力特性を調整する。
トーンカーブ調整部136は、ガンマ調整部134から色(RGB)画像データを受け取る。トーンカーブ調整部136は、入出力特性を調整して、コントラストを調整する。
フォーマット変換部138は、トーンカーブ調整部136から色(RGB)画像データを受け取る。フォーマット変換部138は、色(RGB)画像データをYCbCr等の色差信号へ変換して、所定のフォーマットの中間画像データを生成する。
タイミング調整部140は、フォーマット変換部138から所定のフォーマットの中間画像データを受け取る。タイミング調整部140は、所定の映像信号フォーマットの規格に準拠したタイミングで中間画像データを出力する。
なお、現像処理部82では、各機能ブロックの処理順番が入れ替わっていてもよい。つまり、現像処理部82は、上述した順序以外で処理を実行してもよい。また、黒レベル補正部112は、撮像部80(イメージセンサ62)が含んでいてもよい。
図11は、測定部86の機能構成を示す図である。測定部86は、例えば、第1選択部150と、第1AE測光部152と、第2AE測光部154と、第2選択部156と、第1AWB測光部158と、第2AWB測光部160とを含む。
第1選択部150は、現像処理部82のYRGB分離部124から、輝度(Y)データを受け取る。第1選択部150は、フレーム番号に応じて、輝度(Y)データを第1AE測光部152または第2AE測光部154に与える。例えば、第1タイミングが奇数フレーム、第2タイミングが偶数フレームの場合、第1選択部150は、奇数フレームの輝度(Y)データを第1AE測光部152に与え、偶数フレームの輝度(Y)データを第2AE測光部154に与える。また、例えば、第1タイミングが偶数フレーム、第2タイミングが奇数フレームの場合、第1選択部150は、偶数フレームの輝度(Y)データを第1AE測光部152に与え、奇数フレームの輝度(Y)データを第2AE測光部154に与える。
第1AE測光部152は、受け取った第1タイミングの輝度(Y)データにおける所定領域のデータに基づき、所定領域の光量を表す第1AE測光値を算出する。所定領域は、フレーム内における例えば有効画像範囲である。従って、第1AE測光値は、フレーム全体の光量を表す。第1AE測光部152は、第1AE測光値を第1測定値としてパラメータ生成部88に与える。
第2AE測光部154は、領域指定部84から部分領域を特定する情報を受け取る。第2AE測光部154は、受け取った第2タイミングの輝度(Y)データにおける部分領域のデータに基づき、部分領域の光量を表す第2AE測光値を算出する。部分領域は、フレーム内における第2測定値を算出する範囲である。従って、第2AE測光値は、発話中の参加者を含む画像領域における光量を表す。第2AE測光部154は、第2AE測光値を第2測定値としてパラメータ生成部88に与える。
第2選択部156は、現像処理部82のYRGB分離部124から、色(RGB)画像データを受け取る。第2選択部156は、フレーム番号に応じて、色(RGB)画像データを第1AWB測光部158または第2AWB測光部160に与える。例えば、第1タイミングが奇数フレーム、第2タイミングが偶数フレームの場合、第2選択部156は、奇数フレームの色(RGB)画像データを第1AWB測光部158に与え、偶数フレームの色(RGB)画像データを第2AWB測光部160に与える。また、例えば、第1タイミングが偶数フレーム、第2タイミングが奇数フレームの場合、第2選択部156は、偶数フレームの色(RGB)画像データを第1AWB測光部158に与え、奇数フレームの色(RGB)画像データを第2AWB測光部160に与える。
第1AWB測光部158は、受け取った第1タイミングの色(RGB)画像データにおける所定領域のデータに基づき、所定領域の色毎の光量差を表す第1AWB測光値を算出する。第1AWB測光値は、フレーム全体の色毎の光量差を表す。第1AWB測光部158は、第1AWB測光値を第1測定値としてパラメータ生成部88に与える。
第2AWB測光部160は、領域指定部84から部分領域を特定する情報を受け取る。第2AWB測光部160は、受け取った第2タイミングの色(RGB)画像データにおける部分領域のデータに基づき、部分領域の色毎の光量差を表す第2AWB測光値を算出する。第2AWB測光値は、発話中の参加者を含む画像領域における色毎の光量差を表す。第2AWB測光部160は、第2AWB測光値を第2測定値としてパラメータ生成部88に与える。
以上の構成により、測定部86は、撮像データのフレーム内の所定領域から第1測定値を算出し、撮像データのフレーム内の部分領域から第2測定値を算出することができる。さらに、測定部86は、第1タイミングに撮像された撮像データに基づき第1測定値を算出し、第2タイミングに撮像された撮像データに基づき第2測定値を算出することができる。
図12は、パラメータの設定の流れを示す図である。まず、ステップS11において、撮像部80は、第1タイミング(ここでは奇数フレーム)において被写体を撮像する。続いて、ステップS12において、現像処理部82は、奇数フレームの撮像データに対して現像処理を実行する。続いて、ステップS13において、測定部86は、現像処理中において生成されたデータ(例えば、輝度(Y)データおよび色(RGB)画像データ)を取得し、取得したデータのうちの所定領域(例えばフレーム全体)のデータに基づき第1測定値(例えば、第1AE測光値および第1AWB測光値)を生成する。続いて、ステップS14において、パラメータ生成部88は、第1測定値を取得して、パラメータ(第1センサパラメータおよび第1現像パラメータ)を生成する。
続いて、ステップS15において、設定部90は、奇数フレームの撮像データに基づき生成されたパラメータを、1フレーム期間保持する。続いて、ステップS16において、設定部90は、次の奇数フレームに対する撮像処理のために、撮像部80に対して第1センサパラメータを設定する。これと並行して、ステップS17において、設定部90は、次の奇数フレームに対する現像処理のために、現像処理部82に対して第1現像パラメータを設定する。
そして、次の奇数フレームにおいて、撮像部80は、直前の奇数フレームの撮像データに基づき生成された第1センサパラメータに基づき被写体を撮像する(S18)。さらに、現像処理部82は、奇数フレームの撮像データに対して、直前の奇数フレームの撮像データに基づき生成された第1現像パラメータに基づき現像処理を実行する(S19)。以後、撮像装置30は、奇数フレーム毎に同様の処理を実行する。
一方、ステップS20において、領域指定部84は、集音部41から取得した方向情報に算出した部分領域を特定する情報を、測定部86に与える。続いて、ステップS21において、撮像部80は、第2タイミング(ここでは偶数フレーム)において被写体を撮像する。続いて、ステップS22において、現像処理部82は、偶数フレームの撮像データに対して現像処理を実行する。
続いて、ステップS23において、測定部86は、現像処理中において生成されたデータ(例えば、輝度(Y)データおよび色(RGB)画像データ)を取得し、取得したデータのうちの部分領域(発話中の参加者を含む領域)のデータに基づき第2測定値(例えば、第2AE測光値および第2AWB測光値)を生成する。続いて、ステップS24において、パラメータ生成部88は、第2測定値を取得して、パラメータ(第2センサパラメータおよび第2現像パラメータ)を生成する。
続いて、ステップS25において、設定部90は、偶数フレームの撮像データに基づき生成されたパラメータを、1フレーム期間保持する。続いて、ステップS26において、設定部90は、次の偶数フレームに対する撮像処理のために、撮像部80に対して第2センサパラメータを設定する。これと並行して、ステップS27において、設定部90は、次の偶数フレームに対する現像処理のために、現像処理部82に対して第2現像パラメータを設定する。
そして、次の偶数フレームにおいて、撮像部80は、直前の偶数フレームの撮像データに基づき生成された第2センサパラメータに基づき被写体を撮像する(S28)。さらに、現像処理部82は、偶数フレームの撮像データに対して、直前の偶数フレームの撮像データに基づき生成された第2現像パラメータに基づき現像処理を実行する(S29)。以後、撮像装置30は、偶数フレーム毎に同様の処理を実行する。
このようなフローにより処理することにより、撮像装置30は、第1タイミング(奇数フレーム)の撮像処理および現像処理を、1つ前の第1タイミング(奇数フレーム)の撮像データに基づき生成されたパラメータにより実行させることができる。また、撮像装置30は、第2タイミング(偶数フレーム)の撮像処理および現像処理を、1つ前の第2タイミング(偶数フレーム)の撮像データに基づき生成されたパラメータにより実行させることができる。
これにより、撮像装置30は、第1タイミングおよび第2タイミングのそれぞれにおいて、他方のタイミングで撮像された画像の影響を受けることなく、撮像処理および現像処理のためのパラメータを設定することができる。
図13は、第1画像生成部94および第2画像生成部96の機能構成を示す図である。第1画像生成部94は、第1取得部170と、第1抽出部172と、第1スケーリング部174とを含む。
第1取得部170は、歪補正部92により歪補正がされた中間画像データにおける、第1タイミングにおいて撮像された画像データのフレームを取得する。例えば、奇数フレームが第1タイミングである場合、第1取得部170は、中間画像データの奇数フレームを取得する。
第1抽出部172は、第1取得部170が取得した中間画像データのフレーム内における所定領域を切り出す。第1抽出部172は、中間画像データの全体をそのまま出力してもよいし、フレーム全体から数パーセント分をカットした領域を切り出してもよい。
第1スケーリング部174は、第1抽出部172が切り出した所定領域の画像データを予め設定された大きさの画像に拡大または縮小する。拡大または縮小率は予め設定されていてもよいし、制御回路72等から設定されてもよい。そして、第1スケーリング部174は、拡大または縮小した所定領域の画像データを、第1画像データとして後段の合成部98へ出力する。
第2画像生成部96は、第2取得部176と、第2抽出部178と、第2スケーリング部180とを含む。第2取得部176は、歪補正部92により歪補正がされた中間画像データにおける、第2タイミングにおいて撮像された画像データのフレームを取得する。例えば、偶数フレームが第2タイミングである場合、第2取得部176は、中間画像データの偶数フレームを取得する。
第2抽出部178は、領域指定部84から部分領域を特定する情報を取得する。第2抽出部178は、第2取得部176が取得した中間画像データのフレーム内における部分領域を抽出する。
第2スケーリング部180は、第2抽出部178が切り出した部分領域の画像データを予め設定された大きさの画像に拡大または縮小する。拡大または縮小率は予め設定されていてもよいし、制御回路72等から設定されてもよい。そして、第2スケーリング部180は、拡大または縮小した部分領域の画像データを、第2画像データとして後段の合成部98へ出力する。
図14は、逆光の参加者を含む部分領域56を切り出して話者画像54を生成した場合の出力画像50の一例を示す図である。合成部98は、一例として、フレームの下側に、広角画像52(第1画像データ)を配置し、フレームの上側に話者画像54(第2画像データ)を配置した出力画像50(合成画像データ)を生成する。合成部98は、このような配置に限らず、他の配置により広角画像52と話者画像54とを合成した出力画像50を生成してもよい。
ここで、話者画像54の切り出し元の部分領域56が、窓の手前に位置する逆光の参加者(Dの参加者)を含む領域であったとする。このような場合、広角画像52は、フレーム全体の光量に基づき露光時間を制御して撮像されているので、逆光の参加者(Dの参加者)が黒潰れしている。
これに対して、話者画像54は、部分領域56内の光量に基づき露光時間を制御して撮像さているので、逆光の参加者(Dの参加者)が黒潰れせずに鮮明に表示される。
このように撮像装置30は、例えば360°の広角画像を撮像および現像処理するためのパラメータと、発話中の参加者をクローズアップした話者画像を撮像および現像処理するためのパラメータとをそれぞれ適切に設定することができる。これにより、撮像装置30は、広角画像52と話者画像54とをともに鮮明に表示した合成画像を生成することができる。
以上、本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能である。
10 会議システム
20 会議端末装置
22 中継装置
23 電子黒板
24 CPU
25 ROM
26 RAM
27 記憶装置
28 マイクロホンアレイ
30 撮像装置
31 操作部
32 音声出力IF部
33 表示IF部
34 外部機器接続IF部
36 マイクロホン
41 集音部
42 通信部
43 音声出力部
44 表示制御部
46 音声取得部
47 方向検出部
48 音声生成部
50 出力画像
52 広角画像
54 話者画像
56 部分領域
60 レンズ光学系
62 イメージセンサ
64 現像処理回路
66 画像処理回路
68 合成回路
70 出力回路
72 制御回路
74 メモリ
76 補正値記憶部
80 撮像部
82 現像処理部
84 領域指定部
86 測定部
88 パラメータ生成部
90 設定部
92 歪補正部
94 第1画像生成部
96 第2画像生成部
98 合成部
112 黒レベル補正部
114 欠陥画素補正部
116 シェーディング補正部
118 ゲイン調整部
120 WB調整部
122 デモザイキング部
124 YRGB分離部
126 輪郭強調部
128 色補正部
130 NR部
132 加算部
134 ガンマ調整部
136 トーンカーブ調整部
138 フォーマット変換部
140 タイミング調整部
150 第1選択部
152 第1AE測光部
154 第2AE測光部
156 第2選択部
158 第1AWB測光部
160 第2AWB測光部
170 第1取得部
172 第1抽出部
174 第1スケーリング部
176 第2取得部
178 第2抽出部
180 第2スケーリング部
特開2006−222816号公報 特許第4373645号公報

Claims (12)

  1. 第1タイミングにおいて第1センサパラメータにより被写体を撮像して撮像データを生成し、第2タイミングにおいて第2センサパラメータにより前記被写体を撮像して前記撮像データを生成する撮像部と、
    前記第1タイミングにおいて撮像された前記撮像データに基づく第1画像データを生成する第1画像生成部と、
    前記第2タイミングにおいて撮像された前記撮像データに基づく第2画像データを生成する第2画像生成部と、
    前記第1画像データと前記第2画像データとを1つのフレームに合成した合成画像データを生成する合成部と、
    を備える撮像装置。
  2. 前記第1画像生成部は、フレーム内の所定領域の画像を表す前記第1画像データを生成し、
    前記第2画像生成部は、前記所定領域内の部分領域の画像を表す前記第2画像データを生成する
    請求項1に記載の撮像装置。
  3. 前記部分領域を指定する領域指定部と、
    前記撮像データのフレーム内の前記所定領域から第1測定値を算出し、前記撮像データのフレーム内の前記部分領域から第2測定値を算出する測定部と、
    前記第1測定値に基づき前記第1センサパラメータを生成し、前記第2測定値に基づき前記第2センサパラメータを生成するパラメータ生成部と、
    前記第1センサパラメータおよび前記第2センサパラメータを前記撮像部に設定する設定部と、
    をさらに備える請求項2に記載の撮像装置。
  4. 前記領域指定部は、前記撮像部の画角内における何れかの方向を示す方向情報を受け取り、前記方向情報に位置の前記部分領域を指定する
    請求項3に記載の撮像装置。
  5. 前記測定部は、前記撮像データのフレーム内の前記所定領域の光量を表す前記第1測定値を算出し、前記撮像データにおける前記部分領域の光量を表す前記第2測定値を算出し、
    前記パラメータ生成部は、前記第1測定値に基づく露光時間を含む前記第1センサパラメータを生成し、前記第2測定値に基づく露光時間を含む前記第2センサパラメータを生成する
    請求項3または4に記載の撮像装置。
  6. 前記撮像部により生成された前記撮像データに対して現像処理を実行し、予め定められた形式の中間画像データを生成する現像処理部をさらに備え、
    前記第1画像生成部は、前記中間画像データのフレーム内の前記所定領域を抽出して前記第1画像データを生成し、
    前記第2画像生成部は、前記中間画像データのフレーム内の前記部分領域の画像を抽出して前記第2画像データを生成する
    請求項3から5の何れか1項に記載の撮像装置。
  7. 前記設定部は、第1現像パラメータおよび第2現像パラメータを前記現像処理部に設定し、
    前記現像処理部は、前記第1タイミングにおいて撮像された前記撮像データに対して前記第1現像パラメータに基づき現像処理を実行し、前記第2タイミングにおいて撮像された前記撮像データに対して前記第2現像パラメータに基づき現像処理を実行する
    請求項6に記載の撮像装置。
  8. 前記測定部は、前記撮像データのフレーム内の前記所定領域の色毎の光量差を表す前記第1測定値を算出し、前記撮像データにおける前記部分領域の色毎の光量差を表す前記第2測定値を算出し、
    前記パラメータ生成部は、前記第1測定値に基づく色毎のゲインを含む前記第1現像パラメータを生成し、前記第2測定値に基づく色毎のゲインを含む前記第2現像パラメータを生成する
    請求項7に記載の撮像装置。
  9. 前記測定部は、前記第1タイミングに撮像された前記撮像データに基づき前記第1測定値を算出し、前記第2タイミングに撮像された前記撮像データに基づき前記第2測定値を算出する
    請求項3から8の何れか1項に記載の撮像装置。
  10. 前記撮像部は、フレームタイミング毎に、前記第1センサパラメータにより前記被写体を撮像する前記第1タイミングと、前記第2センサパラメータにより前記被写体を撮像する前記第2タイミングとを切り替える
    請求項9に記載の撮像装置。
  11. 撮像装置において実行される撮像方法であって、
    撮像部が、第1タイミングにおいて第1センサパラメータにより被写体を撮像して撮像データを生成し、第2タイミングにおいて第2センサパラメータにより前記被写体を撮像して前記撮像データを生成し、
    第1画像生成部が、前記第1タイミングにおいて撮像された前記撮像データに基づく第1画像データを生成し、
    第2画像生成部が、前記第2タイミングにおいて撮像された前記撮像データに基づく第2画像データを生成し、
    合成部が、前記第1画像データと前記第2画像データとを1つのフレームに合成した合成画像データを生成する
    撮像方法。
  12. 周囲の音を集音して第1音声データを生成する集音部と、
    周囲の被写体を撮像して第1映像データを生成する撮像装置と、
    前記第1映像データおよび前記第1音声データを他の装置にネットワークを介して送信し、前記他の装置から第2映像データおよび第2音声データを受信する通信部と、
    前記第2音声データに応じた音声をスピーカから出力させる音声出力部と、
    前記第2映像データを表示装置に表示させる表示制御部と、
    を備え、
    前記撮像装置は、
    第1タイミングにおいて第1センサパラメータにより被写体を撮像して撮像データを生成し、第2タイミングにおいて第2センサパラメータにより前記被写体を撮像して前記撮像データを生成する撮像部と、
    前記第1タイミングにおいて撮像された前記撮像データに基づく第1画像データを生成する第1画像生成部と、
    前記第2タイミングにおいて撮像された前記撮像データに基づく第2画像データを生成する第2画像生成部と、
    前記第1画像データと前記第2画像データとを1つのフレームに合成した合成画像データを生成する合成部と、
    を有する会議端末装置。
JP2015223814A 2015-11-16 2015-11-16 撮像装置、撮像方法および会議端末装置 Pending JP2017092850A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015223814A JP2017092850A (ja) 2015-11-16 2015-11-16 撮像装置、撮像方法および会議端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015223814A JP2017092850A (ja) 2015-11-16 2015-11-16 撮像装置、撮像方法および会議端末装置

Publications (1)

Publication Number Publication Date
JP2017092850A true JP2017092850A (ja) 2017-05-25

Family

ID=58768427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015223814A Pending JP2017092850A (ja) 2015-11-16 2015-11-16 撮像装置、撮像方法および会議端末装置

Country Status (1)

Country Link
JP (1) JP2017092850A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019017876A (ja) * 2017-07-20 2019-02-07 株式会社リコー 情報処理装置、情報処理方法、情報処理プログラム、テレビ会議システム、及び生体情報取得システム
JP2020057875A (ja) * 2018-09-28 2020-04-09 株式会社リコー 通信端末、通信システム、撮像装置及び撮像方法
WO2023026407A1 (ja) * 2021-08-25 2023-03-02 株式会社ソシオネクスト 画像処理装置、画像処理方法および画像処理プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04263580A (ja) * 1991-02-19 1992-09-18 Fuji Photo Film Co Ltd テレ・ワイド画面分割型ビデオカメラ
JPH06178295A (ja) * 1992-12-09 1994-06-24 Matsushita Electric Ind Co Ltd テレビ会議用画像信号処理装置及び発言者画面拡大合成装置
JP2001275096A (ja) * 2000-03-24 2001-10-05 Sony Corp 撮像および表示装置並びにテレビ会議装置
JP2003125279A (ja) * 2001-10-16 2003-04-25 Olympus Optical Co Ltd 撮像装置
JP2005142680A (ja) * 2003-11-04 2005-06-02 Olympus Corp 画像処理装置
JP2008135863A (ja) * 2006-11-27 2008-06-12 Matsushita Electric Works Ltd 画像処理システム
JP2010028319A (ja) * 2008-07-16 2010-02-04 Canon Inc 撮像装置、その撮像方法及びプログラム
JP2014016507A (ja) * 2012-07-10 2014-01-30 Panasonic Corp 表示制御装置
JP2015195477A (ja) * 2014-03-31 2015-11-05 ブラザー工業株式会社 プログラム、端末装置および方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04263580A (ja) * 1991-02-19 1992-09-18 Fuji Photo Film Co Ltd テレ・ワイド画面分割型ビデオカメラ
JPH06178295A (ja) * 1992-12-09 1994-06-24 Matsushita Electric Ind Co Ltd テレビ会議用画像信号処理装置及び発言者画面拡大合成装置
JP2001275096A (ja) * 2000-03-24 2001-10-05 Sony Corp 撮像および表示装置並びにテレビ会議装置
JP2003125279A (ja) * 2001-10-16 2003-04-25 Olympus Optical Co Ltd 撮像装置
JP2005142680A (ja) * 2003-11-04 2005-06-02 Olympus Corp 画像処理装置
JP2008135863A (ja) * 2006-11-27 2008-06-12 Matsushita Electric Works Ltd 画像処理システム
JP2010028319A (ja) * 2008-07-16 2010-02-04 Canon Inc 撮像装置、その撮像方法及びプログラム
JP2014016507A (ja) * 2012-07-10 2014-01-30 Panasonic Corp 表示制御装置
JP2015195477A (ja) * 2014-03-31 2015-11-05 ブラザー工業株式会社 プログラム、端末装置および方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019017876A (ja) * 2017-07-20 2019-02-07 株式会社リコー 情報処理装置、情報処理方法、情報処理プログラム、テレビ会議システム、及び生体情報取得システム
JP2020057875A (ja) * 2018-09-28 2020-04-09 株式会社リコー 通信端末、通信システム、撮像装置及び撮像方法
JP7167610B2 (ja) 2018-09-28 2022-11-09 株式会社リコー 通信端末、通信システム、撮像装置及び撮像方法
WO2023026407A1 (ja) * 2021-08-25 2023-03-02 株式会社ソシオネクスト 画像処理装置、画像処理方法および画像処理プログラム

Similar Documents

Publication Publication Date Title
JP4535114B2 (ja) 撮像装置および撮像方法、表示制御装置および表示制御方法、並びに、プログラム
JP6732726B2 (ja) 撮像装置、撮像方法、およびプログラム
CN110166705B (zh) 高动态范围hdr图像生成方法和装置、电子设备、计算机可读存储介质
JP2011254170A (ja) 撮像装置および撮像方法
JP6361931B2 (ja) 画像処理装置及びこれを備えた撮像システムならびに画像処理方法
CN110430370B (zh) 图像处理方法、装置、存储介质及电子设备
US10255704B2 (en) Video delivery terminal, non-transitory computer-readable medium, and video delivery method
JP2009253579A (ja) 撮像装置、画像処理装置及び画像処理方法並びに画像処理プログラム
JP4606486B2 (ja) 画像処理装置および撮影装置
CN104853066A (zh) 摄像装置、摄像方法
WO2015146006A1 (ja) 撮像装置及び撮像制御方法
JP2018186514A (ja) 画像処理装置及びこれを備えた撮像システムならびに画像処理方法
JP2017092850A (ja) 撮像装置、撮像方法および会議端末装置
JP2013029995A (ja) 撮像システム
KR101753261B1 (ko) 촬영 시스템 및 그 영상품질 동기화 방법
JP2012222469A (ja) 撮像装置及びその制御方法
CN110266965B (zh) 图像处理方法、装置、存储介质及电子设备
JP6379812B2 (ja) 画像処理システム
WO2015129479A1 (ja) 撮像装置および方法、並びにプログラム
CN116266877A (zh) 图像处理设备和方法、摄像设备和计算机可读介质
JP2019140468A (ja) 画像処理装置、及びその制御方法
JP7224826B2 (ja) 撮像制御装置、撮像制御方法、およびプログラム
JP2015070451A (ja) 撮像装置
JP2005142953A (ja) デジタル画像撮像装置
JP2012186776A (ja) 撮像装置および撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200218