JP6946684B2 - 電子情報ボードシステム、画像処理装置、及びプログラム - Google Patents

電子情報ボードシステム、画像処理装置、及びプログラム Download PDF

Info

Publication number
JP6946684B2
JP6946684B2 JP2017052342A JP2017052342A JP6946684B2 JP 6946684 B2 JP6946684 B2 JP 6946684B2 JP 2017052342 A JP2017052342 A JP 2017052342A JP 2017052342 A JP2017052342 A JP 2017052342A JP 6946684 B2 JP6946684 B2 JP 6946684B2
Authority
JP
Japan
Prior art keywords
image
user
camera
face
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017052342A
Other languages
English (en)
Other versions
JP2018156368A (ja
Inventor
能勢 将樹
将樹 能勢
耕司 桑田
耕司 桑田
宣正 銀川
宣正 銀川
石川 雅朗
雅朗 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017052342A priority Critical patent/JP6946684B2/ja
Priority to US15/911,295 priority patent/US20180270428A1/en
Publication of JP2018156368A publication Critical patent/JP2018156368A/ja
Application granted granted Critical
Publication of JP6946684B2 publication Critical patent/JP6946684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

本発明は、電子情報ボードシステム、画像処理装置、及びプログラムに関する。
従来、企業、教育機関、行政機関等において、ディスプレイ(ボード)上での入力操作(インタラクティブ操作)により、ユーザが文字等を入力できる電子情報ボードシステムが知られている(例えば、特許文献1を参照)。電子情報ボードシステムは、インタラクティブ・ホワイトボード(IWB、Interactive Whiteboard)、または電子黒板等とも称されている。
近年、電子情報ボードシステムにおいて、ボードの上部等にカメラを設け、当該カメラにより撮影された画像を、他の電子情報ボードシステムとの間で相互に送受信することにより、遠隔地とのテレビ会議を行える技術の普及が進んでいる。
しかしながら、従来技術では、例えば、電子情報ボードシステムから見て比較的広い視野角に会議の参加者が位置する場合等において、テレビ会議の相手先にとって、会議の参加者の様子が分かりにくいという問題がある。
そこで、会議の参加者の様子を、より分かり易く伝えることができる技術を提供することを目的とする。
画像処理装置は、第1の画像と、前記第1の画像とは異なる視点から撮影された第2の
画像とを取得する取得部と、前記第1の画像と前記第2の画像とから各ユーザの顔の領域
を検出する検出部と、前記検出部により検出された各ユーザの顔の領域の間を区切りの位
置とし、前記第1の画像と前記第2の画像とを前記区切りの位置で繋ぎ合わせる合成部と
、を有し、前記合成部は、前記第1の画像及び前記第2の画像に含まれる各ユーザの顔の領域が重ならないように前記第1の画像と前記第2の画像とを繋ぎ合わせる
開示の技術によれば、会議の参加者の様子を、より分かり易く伝えることができる。
実施形態に係る情報処理システムのシステム構成の一例を示す図である。 第1の実施形態に係るIWBのハードウェア構成の一例を示す図である。 第1の実施形態に係るIWBの画像処理装置の機能ブロックの一例を示す図である。 実施形態に係る情報処理システムの処理の一例を示すシーケンス図である。 第1の実施形態に係る画像の合成処理について説明する図である。 画像を合成する処理の一例を示すフローチャートである。 射影変換処理について説明する図である。 各画像の継ぎ目を決定する処理について説明する図である。 各画像を横に並べて合成した画像の例を説明する図である。 射影変換及び高さ調整をしない場合の、各画像を横に並べて合成した画像の例を説明する図である。 第2の実施形態に係る画像の合成処理について説明する図である。 第3の実施形態に係る画像の合成処理について説明する図である。 第4の実施形態に係るIWBのハードウェア構成の一例を示す図である。 第4の実施形態に係るIWBの機能ブロックの一例を示す図である。 第4の実施形態に係る発話者をズーム表示する処理の一例を示すフローチャート図である。 発話者の方向を推定する処理について説明する図である。 発話者をズーム表示する画面の例を示す図である。 第5の実施形態に係るIWBのハードウェア構成の一例を示す図である。 第5の実施形態に係る画像を切り替える処理の一例を示すフローチャート図である。 送信する画像を切り替える処理について説明する図である。 3つのカメラの画像を合成する例を説明する図である。 検出された顔の領域に、所定の画像等を合成する例について説明する図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
<システム構成>
まず、本実施形態に係る通信システム1のシステム構成について、図1を用いて説明する。図1は、実施形態に係る通信システム1のシステム構成の一例を示す図である。
図1に示すように、本実施形態に係る通信システム1は、複数のインタラクティブ・ホワイトボード(IWB)10−1、10−2、・・・(以下で、それぞれを区別する必要がない場合は、単に「IWB10」と称する。)を有する。各IWB10の間は、インターネット、LAN(Local Area Network)、無線LAN等のネットワークを介して互いに通信可能に接続されている。
IWB10は、カメラ101A、カメラ101B、パネル部20、スタンド30、及び画像処理装置40を有する。
カメラ101A、カメラ101Bは、パネル部20の左右にそれぞれ設置される。なお、カメラ101A、カメラ101Bは、いずれの高さで設置されてもよい。また、カメラ101A、カメラ101Bは、IWB10の正面に設置された机におけるユーザが着席する位置のうち、IWB10から最も遠い位置のユーザを撮影可能な向きで設置される。カメラ101A、カメラ101Bは、当該最も遠い位置のユーザのみが重複して撮影されるような向きで設置されてもよい。
パネル部20は、液晶方式、有機EL方式、またはプラズマ方式等のフラットパネルディスプレイであり、パネル部20の筐体前面には、画像を表示するタッチパネル102が設置されている。
スタンド30は、パネル部20や画像処理装置40を支持する。なお、IWB10は、スタンド30を有しない構成としてもよい。
画像処理装置40は、パネル部20により検知された座標位置に書き込まれた文字や図形等を、パネル部20に表示する。また、画像処理装置40は、カメラ101A、カメラ101Bで撮影された画像を合成し、他のIWB10に送信する。また、画像処理装置40は、他のIWB10から受信した画像を、パネル部20に表示する。
IWB10−1は、他のIWB10−2、・・・と、カメラ101A、カメラ101Bの画像(動画)、音声、パネル部20上の描画等を送受信し、テレビ会議を行う。
なお、IWB10は、公知の画像表示システムであるプロジェクタと比較すると、明るい部屋でも画質と視認性が落ちないこと、ペン入力等のインタラクティブ機能が容易であること、プロジェクタのように人が表示画面の前に立っても影にならないこと等の利点を有する。
[第1の実施形態]
<ハードウェア構成>
次に、第1の実施形態に係るIWB10のハードウェア構成について、図2を用いて説明する。図2は、第1の実施形態に係るIWB10のハードウェア構成の一例を示す図である。
IWB10は、カメラ101A、カメラ101B、タッチパネル102、マイク103、スピーカ104等を有する。
また、IWB10の画像処理装置40は、CPU105、記憶装置106、メモリ107、外部I/F108、及び入力装置109等を有する。
カメラ101A、カメラ101Bは、画像(動画)を撮影し、CPU105に送信する。カメラ101A、カメラ101Bは、例えば、タッチパネル102の左右にそれぞれ設置されており、それぞれのカメラは互いに光軸が異なるような位置関係で配置されている(視点が異なる向きで配置されている)。
タッチパネル102は、ホバリング検知機能を有するディスプレイ一体型の静電容量方式タッチパネル等であり、ユーザが指もしくはペンでタッチパネルに触れた座標をCPU105に送信する。また、タッチパネル102は、CPU105から受信した、他の場所の会議の画像(動画)データを表示する。
マイク103は、会議参加者の音声を取得し、CPU105に送信する。
スピーカ104は、CPU105から受信した、他の場所の会議の音声データを出力する。
CPU105は、IWB10全体の機器制御を行う。また、CPU105は、ビデオ会議の制御を行う。具体的には、CPU105は、カメラ101、マイク103、及びタッチパネル102からそれぞれ取得した画像(動画)を合成した画像(動画)データ、音声データ、及び描画データをエンコードし、外部I/F108から、他のIWB10に送信する。
また、CPU105は、外部I/F108から受信した画像(動画)データ、音声データ、及び描画データをデコードし、画像(動画)データ、及び描画データをタッチパネル102に表示させ、音声データをスピーカ104に出力させる。なお、CPU105は、H.264/AVC、H.264/SVC、H.265等の規格に準拠して、上述のエンコード、デコードを行う。なお、上述のエンコード、デコードは、CPU105、記憶装置106、メモリ107を用いて実行する代わりに、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)でのソフトウェア処理か、あるいはASICやFPGAによるハードウェア処理を行うことにより、より高速に実行できる。
記憶装置106は、例としてフラッシュメモリやHDD(Hard Disk Drive)といった不揮発性の記憶媒体であり、プログラム等の記憶を行う。
メモリ107は、DDRメモリのような揮発性のメモリであり、CPU105が使用するプログラムの展開、および演算データの一時保存を行う。
外部I/F108は、インターネット等を経由して他のIWB10と接続し、画像データ等の送受信を行う。外部I/F108は、例えば、10Base−T、100Base−TX、1000Base−Tに準拠した有線LAN、802.11a/b/g/nに準拠した無線LANによる通信を行う。
また、外部I/F108は、外部装置とのインタフェースである。外部装置には、記録媒体103a等がある。IWB10は、外部I/F108を介して記録媒体108aの読み取りや書き込みを行うことができる。記録媒体108aには、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリ等がある。
入力装置109は、キーボードやボタン等を有し、ユーザからIWB10の機器制御等の操作を受け付ける。
<機能構成>
次に、図3を参照し、第1の実施形態に係るIWB10の画像処理装置40の機能構成について説明する。図3は、第1の実施形態に係るIWB10の画像処理装置40の機能ブロックの一例を示す図である。
IWB10の画像処理装置40は、取得部41、検出部42、合成部43、表示制御部44、通信部45、及び制御部46を有する。これら各部は、IWB10の画像処理装置40にインストールされた1以上のプログラムが、IWB10の画像処理装置40のCPUに実行させる処理により実現される。
取得部41は、カメラ101A、カメラ101Bによりそれぞれ異なる視点から連続的に撮影された各画像(動画)を取得する。
検出部42は、取得部41により取得された各画像から、ユーザの顔の領域を検出する。
合成部43は、検出部42により検出された、カメラ101Aの画像における各ユーザの顔の領域の間を区切りの位置とし、カメラ101Aの画像の一部と、カメラ101Bの画像の少なくとも一部とを、当該区切りの位置で繋ぎ合わせ、各画像に含まれる各ユーザの顔の領域が重複せずに含まれる画像を合成する。
制御部46は、画像、音声、描画等のデータのエンコード及びデコード、他のIWB10とのビデオ会議のセッション等の制御を行う。
表示制御部44は、制御部46に指示に従い、画像、音声、描画等のデータを、IWB10のタッチパネル102に表示させる。
通信部45は、他のIWB10との通信を行う。通信部45は、例えば、合成部43により合成され、制御部46にエンコードされた画像データ等を、他のIWB10に送信する。
<処理>
次に、図4を参照し、実施形態に係る通信システム1の処理について説明する。図4は、実施形態に係る通信システム1の処理の一例を示すシーケンス図である。
ステップS1において、IWB10−1、IWB10−2、・・・の各制御部46は、例えば、ユーザによる操作に応じて、IWB10−1、IWB10−2、・・・の間で、セッションを確立する。これにより、IWB10−1、IWB10−2、・・・の間で、画像(動画)、音声、描画等を送受信する通信が開始される。
続いて、IWB10−1の合成部43は、カメラ101A、カメラ101Bにより撮影された画像を合成する(ステップS2)。図5は、第1の実施形態に係る画像の合成処理について説明する図である。図5(A)は、IWB10が設置された会議スペースを真上から見た場合の配置の例を示す図である。図5(A)の例では、IWB10の正面に机501が設置され、ユーザA乃至ユーザCが、IWB10から見て机501の左側の手前から順に着席しており、ユーザD乃至ユーザFが、IWB10から見て机501の右側の手前から順に着席しており、ユーザXが、IWB10から見て机501の奥の正面に着席している。
また、IWB10のパネル部20の右側と左側に、カメラ101A、カメラ101Bがそれぞれ設置されている。カメラ101A、カメラ101Bは、各レンズ面に直行する直線502A、502Bが、IWB10の前方の所定の位置で交差するように設置されている。
図5(B)に示すように、カメラ101Aにより、ユーザA乃至ユーザC、及びユーザXの顔が、略正面から重ならずに撮影され、ユーザD乃至ユーザFの顔が、斜めから重なって撮影される。
また、図5(C)に示すように、カメラ101Bにより、ユーザD乃至ユーザF、及びユーザXの顔が、略正面から重ならずに撮影され、ユーザA乃至ユーザCの顔が、斜めから重なって撮影される。
ステップS2の処理により、図5(D)に示すように、カメラ101A、カメラ101Bにより撮影された画像が合成され、ユーザA乃至ユーザC、ユーザD乃至ユーザF、及びユーザXの顔が、略正面から重ならずに撮影された画像が生成される。
続いて、IWB10−1の制御部46は、合成した画像、音声、描画をエンコードする(ステップS3)。
続いて、IWB10−1の通信部45は、エンコードされた画像データ、音声データ、描画データを送信する(ステップS4)。
続いて、IWB10−2の制御部46は、受信した画像データ、音声データ、描画データをデコードする(ステップS5)。
続いて、IWB10−2の制御部46は、デコードした画像データ、音声データ、描画データを出力する(ステップS6)。
なお、ステップS2乃至ステップS5の処理は、IWB10−1、IWB10−2、・・・の間において、双方向で行われる。
≪合成処理≫
続いて、ステップS2の、カメラ101A、カメラ101Bにより撮影された画像を合成する処理について、より詳細に説明する。図6は、画像を合成する処理の一例を示すフローチャートである。
ステップS101において、取得部41は、カメラ101A、カメラ101Bにより撮影された各画像を取得する。
続いて、合成部43は、取得した各画像が水平になるように射影変換する(ステップS102)。ここで、合成部43は、例えば、ハフ変換(Hough変換)を用いて、各画像中の各直線を検出し、当該各直線が略水平になるよう、各画像に射影変換を施す。または、合成部43は、後述するステップS103で検出されたユーザの顔の大きさに基づいて、当該ユーザまでの距離を推定し、推定した距離に応じた角度で各画像に射影変換を施してもよい。
図7は、射影変換処理について説明する図である。ステップS102において、合成部43は、カメラ101A、カメラ101Bにより撮影された各画像から、部屋の壁と天井との境界線や、壁とドアの上部との境界線等を検出する。そして、検出した境界線が略水平になるよう、各画像に射影変換を施し、台形状の画像とする。図7(A)は、図5(A)に示す位置に配置されたカメラ101Aによる撮影画像の例である。図7(B)は、図5(A)に示す位置に配置されたカメラ101Bによる撮影画像の例である。図7(A)において、部屋の壁と天井との境界線551や、壁とドアの上部との境界線552が、水平になるように射影変換されている。また、図7(B)において、壁とドアの上部との境界線553が、水平になるように射影変換されている。これにより、カメラ101A、カメラ101Bにより撮影された各画像を合成した場合の違和感を低減できる。
続いて、検出部42は、各画像から、各ユーザの顔を検出する(ステップS103)。なお、各ユーザの顔を検出する処理は、例えば、Haar-like特徴等を用いる公知技術を用いて行うようにしてもよい。
続いて、検出部42は、各画像から検出した各ユーザの顔を認識する(ステップS104)。なお、各ユーザの顔を認識する処理は、公知技術を用いて行うようにしてもよい。例えば、検出部42は、各ユーザの顔のパーツの相対的な位置や大きさ、目や鼻やほお骨やあごの形を特徴として検出し、各ユーザを識別可能とする。
続いて、合成部43は、検出部42により検出されたユーザの顔の位置、及び特徴に基づいて、各画像に同一のユーザの顔が含まれているか否かを判定する(ステップS105)。ここで、合成部43は、例えば、カメラ101Aにより撮影された画像から検出された各ユーザの顔の特徴と、カメラ101Bにより撮影された画像から検出された各ユーザの顔の特徴とを比較し、特徴の類似度が所定の閾値以上の場合に、同一のユーザの顔が含まれていると判定してもよい。
この場合、合成部43は、例えば、まず、各画像における最も大きさが小さい顔同士の特徴の類似度を判定し、類似度が所定の閾値以上でない場合、各画像における顔の大きさが比較的小さい順に、特徴の類似度を判定するようにしてもよい。これにより、各画像に同一のユーザの顔が含まれている場合、比較的高速に、各画像に同一のユーザの顔が含まれていることを判定できる。
各画像に同一のユーザの顔が含まれていない場合(ステップS105でNO)、合成部43は、各画像を横に並べて合成し(ステップS106)、処理を終了する。これにより、例えば、カメラ101A、及びカメラ101Bの視野角が比較的狭い場合等において、図5(A)に示すユーザX等の顔が、カメラ101Aの画像、及びカメラ101Bの画像のうちの少なくとも一方に、顔の検出や顔の認識が可能な程度に写っていない場合は、合成を行わないようにすることができる。
各画像に同一のユーザの顔が含まれている場合(ステップS105でYES)、合成部43は、検出部42により検出された各ユーザの顔の位置、及び特徴に基づいて、各画像の継ぎ目(「区切りの位置」の一例。)を決定する(ステップS107)。ここで、合成部43は、各画像を横に並べて合成した際に、合成後の画像において、同一のユーザの顔が重複しない位置を、各画像の継ぎ目として決定する。
図8は、各画像の継ぎ目を決定する処理について説明する図である。図8に示すように、図7の画像において、顔として検出された領域601乃至609が検出されたとする。この場合、合成部43は、各領域601乃至609の中間に垂線611乃至617を算出し、継ぎ目の候補とする。なお、継ぎ目の候補は、各領域における隣接する各端間の中間でもよいし、各領域の中心間の中間でもよい。あるいは、中間に限らず、各領域の間の任意の位置でもよい。この場合、例えば、合成される際の各画像の幅ができるだけ均等になるような位置でもよい。
なお、領域601、及び領域605は、壁や腕等が、顔であると誤検出された領域である。合成部43は、複数のフレーム(例えば毎秒30フレームの動画における5フレーム)の顔検出結果を平均化し、誤検出の影響を低減(S/N比の向上)させる。例えば、所定数のフレームにおいて、所定回数以上検出されない領域を、誤検出(ノイズ)である判定し、ステップS107の各画像の継ぎ目を決定する処理に用いないようする。
合成部43は、各ユーザの顔の位置、及び特徴に基づいて、継ぎ目の候補のうち、継ぎ目を決定する。
合成部43は、図8の例では、図8(A)の最も面積が小さい領域604のユーザの顔と、図8(B)の最も面積が小さい領域607のユーザの顔とが、顔認識による特徴の類似度が所定の閾値以上であるため、同一のユーザの顔であると判定する。そのため、合成部43は、当該ユーザが重複しないよう、図8(A)の右端の位置と図8(B)の垂線616の位置とを継ぎ目にすると決定する。または、合成部43は、図8(A)の垂線613の位置と、図8(B)の垂線615の位置とを継ぎ目にすると決定してもよい。この場合、合成部43は、同一のユーザの顔であると判定された図8(A)の領域604と、図8(B)の領域607のうち、面積が大きい方の領域が合成後の画像に含まれるよう、継ぎ目を決定してもよい。これにより、テレビ会議の相手先において、当該ユーザの顔が比較的大きく表示される。
なお、図8(A)の右端は、カメラ101Aで撮影された画像において予め右端として設定された位置でもよい。この場合、画像における当該右端よりも右側の部分はカットされる。
これにより、ユーザの顔を検出せずにカメラ101A、カメラ101Bの画像を所定の位置を継ぎ目として合成する場合と比較すると、ユーザの顔が、異なる視点からの各画像を合成したものになる可能性がなくなるため、より自然な、違和感の少ない画像を生成することができる。
続いて、合成部43は、検出したユーザの顔の位置に基づいて、各画像の高さを調整する(ステップS108)。ここで、合成部43は、カメラ101A、カメラ101Bにより撮影された各画像から検出された顔の領域のうち、同一ユーザの顔の領域であると見なした最も面積が小さい領域の高さが略同じになるように、各画像の高さを調整する。図8の例では、図8(A)の領域604の高さ621と、図8(B)の領域607の高さ622とが同じになるように、各画像の高さを揃える。
続いて、合成部43は、決定した各画像の継ぎ目の位置で、各画像を横に並べて繋ぎ合わせる(ステップS109)。
図9は、各画像を横に並べて合成した画像の例を説明する図である。図9では、図8(A)の右端の位置と図8(B)の垂線616の位置とが継ぎ目として、横に並べられている。ここで、合成部43は、図8(B)における継ぎ目よりも左側の画像はカットする。なお、図8(A)の垂線613の位置と、図8(B)の垂線615の位置とを継ぎ目にする場合は、図8(A)における継ぎ目よりも右側の画像はカットされ、図8(B)における継ぎ目よりも左側の画像はカットされる。
また、合成部43は、ステップS102の射影変換によって生じた、高さ方向の空白部分が表示されないよう、画像の上下をカットする。
また、合成部43は、各画像において、継ぎ目と対抗する側の領域で、顔の領域が検出されていない部分はカットする。図9では、図8(A)の領域602よりも所定座標以上左側の部分と、図8(B)の領域609よりも所定座標以上右側の部分がカットされている。
図10は、射影変換及び高さ調整をしない場合の、各画像を横に並べて合成した画像の例を説明する図である。
図10に示すように、ステップS102の射影変換、及びステップS108の各画像の高さ調整をしない場合と、図9に示すように射影変換及び高さ調整をした場合とを比較すると、図9の方が、一の会議室の風景としてより自然な画像となる。
なお、上述した図6のステップS103乃至ステップS107の各画像の継ぎ目を決定する処理は、動画のフレーム毎に行うと処理の負荷が大きくなるうえに、ユーザのわずかな動作に応じて継ぎ目が変化するため、視聴者にとって快適な画像(動画)ではなくなる可能性がある。そのため、図6のステップS103乃至ステップS107の処理は、所定の時間間隔(例えば、約10〜30秒に一度などの時間単位間隔、または、数百フレームに1回などのフレーム間隔)等の頻度で行う。またはカメラ101A、カメラ101Bの撮影可能な範囲にユーザが入った際や、当該範囲からユーザが出た際に行ってもよい。
一方、図6のステップS101、ステップS102、ステップS108、ステップS109処理は、カメラ101A、カメラ101Bにより各々撮影された各動画中の各フレームについて実行される。この場合、合成部43は、前回にステップS103乃至ステップS107の処理を行った際に決定した継ぎ目の位置等の算出結果を用いて、ステップS102、ステップS108、ステップS109処理を行う。
なお、カメラ101A、カメラ101Bにより撮影された各画像において、部屋の照明や外光の影響により明るさに相違がある場合、明るさ補正等の光学補正を行い、各画像における明るさの相違を小さくしてもよい。
また、継ぎ目の位置が変更された場合、離散的に変更する代わりに、前回の継ぎ目の位置から今回の継ぎ目の位置まで連続的に(スムーズに)移動させるようにしてもよい。
<変形例>
≪同一ユーザ判定の変形例≫
ステップS107において、検出部42による顔認識を行わずに、合成部43は、各画像において顔として検出された各領域の大きさ(面積)が最も小さい領域の顔を、同一ユーザの顔であると見なすようにしてもよい。
例えば、図8(A)の例では、検出した顔の各領域のうち誤検出ではない各領域602乃至604のうち、一番左側に位置する領域602の面積が一番大きく、領域603、領域604と、位置が右側になるに連れて面積が小さくなっている。
図8(B)の例では、検出した顔の各領域606乃至609のうち、一番右側に位置する領域609の面積が一番大きく、領域608、領域607と、位置が左側になるに連れて面積が小さくなり、一番左側の領域606の面積は大きくなっている。
この場合、合成部43は、カメラ101A、カメラ101Bにより撮影された各画像から検出された顔の領域のうち、最も面積が小さい領域の顔を、同一ユーザの顔であると見なし、当該ユーザが重複しないよう、当該ユーザの顔の領域を含まない位置で、各画像を横に並べる際の継ぎ目を決定する。
図8の例では、図8(A)の領域604と、図8(B)の領域607の面積が一番小さい。このため、合成部43は、同一ユーザの顔の領域と推定し、図8(A)の右端の位置と図8(B)の垂線616の位置とを継ぎ目にすると決定する。または、図8(A)の垂線613の位置と、図8(B)の垂線615の位置とを継ぎ目にすると決定してもよい。
また、合成部43は、顔認識結果や、顔の大きさを用いる代わりに、継ぎ目の候補の間の長さが最も短い区間の継ぎ目の候補を、継ぎ目と決定してもよい。例えば、図8(B)の例では、各継ぎ目の候補の間の長さが最も短い、垂線615及び垂線616の区間の継ぎ目の候補である垂線616を、継ぎ目と決定してもよい。
≪一方の画像のみを使用する変形例≫
合成部43は、カメラ101A、カメラ101Bにより撮影された各画像において、いずれか一方の画像においてのみ、検出部42によりユーザの顔が検出された場合、各画像を合成せずに、ユーザの顔が検出された一方の画像のみを、テレビ会議の相手先に送信してもよい。この場合、他方の画像においてユーザの顔が検出された際に、上述した図6の処理による合成を行うようにしてもよい。
≪3つ以上のカメラの画像を並べる変形例≫
2つのカメラの画像を横に並べる代わりに、3つ以上のカメラの画像を横に並べるようにしてもよい。この場合、上述した例と同様に、他の画像と繋ぎ合わせる際の継ぎ目を、各ユーザの顔の間の位置とすればよい。
[第2の実施形態]
第1の実施形態では、IWB10の正面に、IWB10に平行な線を短辺とする矩形の机が設置されている場合の例について説明した。第2の実施形態では、IWB10の正面に、略円形の机が設置されている場合の例について説明する。第2の実施形態によれば、会議の参加者が略円形の机を囲んで着席している場合でも、第1の実施形態と同様に、各画像を合成することができる。なお、第2の実施形態は一部を除いて第1の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。
図11は、第2の実施形態に係る画像の合成処理について説明する図である。図11(A)は、IWB10が設置された会議スペースを真上から見た場合の配置の例を示す図である。図11(A)の例では、IWB10の正面に略円形の机501Aが設置され、ユーザA乃至ユーザCが、IWB10から見て机501Aの左側の手前から順に着席しており、ユーザD乃至ユーザFが、IWB10から見て机501Aの右側の手前から順に着席しており、ユーザXが、IWB10から見て机501Aの奥の正面に着席している。
図11(B)に示すように、カメラ101Aにより、ユーザA乃至ユーザC、及びユーザXの顔が重ならずに撮影される。
また、図11(C)に示すように、カメラ101Bにより、ユーザD乃至ユーザF、及びユーザXの顔が重ならずに撮影される。
この場合、図5に示す第1の実施形態の場合と異なり、カメラ101A及びカメラ101Bから見て、位置が一番遠いユーザはユーザXではない。図11(A)の例では、カメラ101Aから見て、位置が一番遠いユーザはユーザBまたはユーザCである。また、カメラ101Bから見て、位置が一番遠いユーザはユーザEまたはユーザFである。
そこで、第2の実施形態に係る合成部43は、最も大きさが小さい顔同士の特徴の類似度を最初に判定する代わりに、前回の図6のステップS107の処理において、各画像において同一のユーザの顔であると判定した各領域の位置を記憶しておく。
そして、第2の実施形態に係る合成部43は、今回の図6のステップS107の処理において、今回のステップS103の処理により検出部42に検出された各画像における各ユーザの顔の領域のうち、当該記憶していた位置に最も近い顔同士の特徴の類似度を最初に判定する。
なお、当該記憶していた位置に最も近い顔同士の特徴の類似度が所定の閾値以上でない場合、任意の順で、一方の画像における各ユーザの顔と、他方の画像における各ユーザの顔との特徴の類似度が所定の閾値以上であるか否かを判定する。これにより、各画像に同一のユーザの顔が含まれている場合、比較的高速に、各画像に同一のユーザの顔が含まれていることを判定できる。
[第3の実施形態]
第1の実施形態では、IWB10の正面に、IWB10に平行な線を短辺とする矩形の机が設置されている場合の例について説明した。第3の実施形態では、IWB10の正面に、IWB10に平行な線を長辺とする矩形の机が設置されている場合の例について説明する。第3の実施形態によれば、会議の参加者が、IWB10と正対する矩形の机を囲んで着席している場合でも、第1の実施形態と同様に、各画像を合成することができる。なお、第3の実施形態は一部を除いて第1の実施形態または第2の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態または第2の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。
図12は、第3の実施形態に係る画像の合成処理について説明する図である。図12(A)は、IWB10が設置された会議スペースを真上から見た場合の配置の例を示す図である。図12(A)の例では、IWB10の正面に、IWB10に平行な線を長辺とする矩形の机501Bが設置され、ユーザA乃至ユーザEが、IWB10から見て机501Bの左側から順に着席している。
図12(B)に示すように、カメラ101Aにより、ユーザA乃至ユーザDの顔が重ならずに撮影される。
また、図12(C)に示すように、カメラ101Bにより、ユーザB乃至ユーザE、及びユーザXの顔が重ならずに撮影される。
図12(A)の例では、カメラ101Aから見て、位置が一番遠いユーザはユーザAである。また、カメラ101Bから見て、位置が一番遠いユーザはユーザEである。また、各画像において、ユーザB乃至ユーザDの顔の領域が含まれる。
そこで、第3の実施形態に係る合成部43は、各画像に複数の同一ユーザが含まれる場合、当該複数の同一ユーザにおける中央部に位置するユーザと、当該ユーザの隣のユーザとの間を、継ぎ目と決定する。
図12の例では、合成部43は、図12(B)の継ぎ目の候補571乃至候補573のうち、複数の同一ユーザB乃至ユーザDにおける中央部に位置するユーザCに近い候補572または候補573を継ぎ目と決定する。
また、合成部43は、図12(C)の継ぎ目の候補574乃至候補576において、複数の同一ユーザB乃至ユーザDにおける中央部に位置するユーザCに近い候補574または候補575のうち、各画像を横に並べて合成した際に、合成後の画像において、同一のユーザの顔が重複しない方を、各画像の継ぎ目として決定する。すなわち、例えば、一方の画像において図12(B)の候補572が継ぎ目とされた場合は、他方の画像において図12(C)の継ぎ目の候補574が継ぎ目とされる。
この場合、合成部43は、複数の同一ユーザにおける中央部に位置するユーザの顔であると判定された一方の画像における領域と、他方の画像における領域のうち、面積が大きい方の領域が合成後の画像に含まれるよう、継ぎ目を決定してもよい。これにより、テレビ会議の相手先において、当該ユーザの顔が比較的大きく表示される。
[第4の実施形態]
第4の実施形態では、第1の実施形態乃至第3の実施形態の機能に加え、複数のマイクを用いて話者を検出し、話者の顔をズーム表示する例について説明する。なお、第4の実施形態は一部を除いて第1の実施形態乃至第3の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態乃至第3の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。
<ハードウェア構成>
図13は、第4の実施形態に係るIWB10のハードウェア構成の一例を示す図である。
第4の実施形態に係るIWB10は、第1の実施形態に係るマイク103に代えて、マイク103A、及びマイク103Bを有する。
マイク103A、及びマイク103Bは、それぞれ、例えば、カメラ101A、及びカメラ101Bの近傍に設置される。
<機能構成>
図14は、第4の実施形態に係るIWB10の機能ブロックの一例を示す図である。
第4の実施形態に係るIWB10は、推定部47をさらに有する。推定部47は、IWB10にインストールされた1以上のプログラムが、IWB10のCPUに実行させる処理により実現される。
推定部47は、発話者の方向を推定する。
また、第4の実施形態に係る取得部41は、さらに、マイク103A、及びマイク103Bにより集音された各音声を取得する。
また、第4の実施形態に係る合成部43は、さらに、推定部47に推定された発話者の方向に応じた領域を拡大し、中央下部に重ねて合成する。
<処理>
図15は、第4の実施形態に係る発話者をズーム表示する処理の一例を示すフローチャート図である。
ステップS201において、取得部41は、マイク103A、及びマイク103Bが検出した音声を取得する。
続いて、推定部47は、マイク103A、及びマイク103Bが検出した各音声の音量の差に基づいて、発話者の方向を推定する(ステップS202)。
図16は、発話者の方向を推定する処理について説明する図である。図16に示すように、発話者(ユーザD)からの音量は距離(651A、651B)に応じて減衰するため、マイク103A、及びマイク103Bが検出する音量には差が生じる。推定部47は、この音量の差から、音源である発話者の方向を推測する。
続いて、合成部43は、カメラ101A、及びカメラ101Bから検出した顔のうち、推定した方向に位置するユーザの顔を選択する(ステップS203)。ここで、発話者の方向と、カメラ101A、及びカメラ101Bから検出した顔の方向を照合することで、発話者の顔の領域を特定する。なお、顔の方向は、例えば、検出された顔の領域の大きさと、当該顔の領域の画像上の座標とに基づいて算出してもよい。
続いて、合成部43は、選択したユーザの顔をズーム表示する(ステップS204)。
図17は、発話者をズーム表示する画面の例を示す図である。合成部43は、カメラ101A、及びカメラ101Bの画像を、第1の実施形態乃至第3の実施形態と同様に合成した後、例えば、合成した画像の中央下部に、発話者の顔の領域661を含む領域662を拡大して表示する。これにより、カメラ101A、及びカメラ101Bの画像を合成した画像において、机501が分離されたように表示されている部分に、発話者をズーム表示することができる。
なお、会議の参加者が互いに近くに存在する場合等、発話者を特定しにくい場合、マイク103A、及びマイク103Bにより検出した音源の方向にいる数人の顔を含む領域をズームアップ表示してもよい。
[第5の実施形態]
第1の実施形態では、IWB10の左右に設置された2つのカメラの画像を並べて合成する例について説明した。第5の実施形態では、第1の実施形態乃至第3の実施形態の機能に加え、IWB10の上にもカメラを設け、当該カメラの画像と、左右に設置された2つのカメラの画像を並べて合成した画像とを切り替える例について説明する。なお、第3の実施形態は一部を除いて第1の実施形態乃至第3の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態乃至第3の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。
<ハードウェア構成>
図18は、第5の実施形態に係るIWB10のハードウェア構成の一例を示す図である。
第5の実施形態に係るIWB10は、さらに、カメラ101Cを有する。
カメラ101Cは、例えば、タッチパネル102の上の位置に設置される。
<処理>
図19は、第5の実施形態に係る画像を切り替える処理の一例を示すフローチャート図である。
ステップS301において、合成部43は、カメラ101Cの視野を、IWB10への手書き入力操作を行う等のため、ユーザが塞いでいるか否かを判定する。ここで、例えば、カメラ101Cの画像における全画素の輝度の総和が所定の閾値以下の場合に、カメラ101Cの視野をユーザが塞いでいると判定してもよい。
カメラ101Cの視野をユーザが塞いでいない場合(ステップS301でNO)、制御部46は、カメラ101Cの画像をエンコードし、他のIWB10に送信し(ステップS302)、処理を終了する。
図20は、送信する画像を切り替える処理について説明する図である。図20(A)のように、カメラ101A、カメラ101B、及びカメラ101Cの視野が塞がれていない場合、カメラ101Cの画像を利用する。
カメラ101Cの視野をユーザが塞いでいる場合(ステップS301でYES)、合成部43は、カメラ101B及びカメラ101Cの画像を合成する(ステップS303)。なお、ステップS303の画像を合成する処理は、第1の実施形態乃至第3の実施形態の図6に示す画像合成処理と同様である。
図20(B)のように、カメラ101Cの視野が塞がれている場合、合成部43は、カメラ101A及びカメラ101Bの画像を利用する。なお、例えば、カメラ101Aの視野が塞がれている場合、合成部43は、カメラ101B及びカメラ101Cの画像を合成して利用してもよい。
続いて、制御部46は、合成した画像をエンコードし、他のIWB10に送信し(ステップS304)、処理を終了する。
<第5の実施形態の変形例>
合成部43は、カメラ101A、カメラ101B、及びカメラ101Cのうちのいずれかの視野を、ユーザが塞いでいない場合、カメラ101A、カメラ101B、及びカメラ101Cの各画像を合成してもよい。
図21は、3つのカメラ101の画像を合成する例を説明する図である。図21に示すように、合成部43は、例えば、カメラ101A、及びカメラ101Bの画像を合成した画像の中央下部に、カメラ101Cの画像における中央下部の領域700を重ねるように合成してもよい。これにより、カメラ101A、及びカメラ101Bの画像を合成した画像において、机501が分離されたように表示されている部分に、カメラ101Cの画像における机501の画像を表示することができる。
また、カメラ101Cとして、例えばキネクト(Kinect)のように、赤外線センサー等で取得した、ユーザまでの距離を示す深度情報や、発話者の方向を示す音声方向を検出するような多機能カメラを用いてもよい。この場合、合成部43は、多機能カメラ101Cから取得した音声方向を用いて、第2実施形態と同様に、発話者のズーム表示を行ってもよい。また、この場合、合成部43は、多機能カメラ101Cから取得した深度情報も用いて、ステップS105の各画像の高さ調整をしてもよい。これにより、より正確に、高さを調整できる。
<第1の実施形態乃至第5の実施形態の変形例>
合成部43は、検出された顔の領域に、所定の画像等を合成してもよい。図22は、検出された顔の領域に、所定の画像等を合成する例について説明する図である。図22に示すように、合成部43は、会議の参加者が顔の非表示にしたい場合、検出された顔の領域に、予め設定されたアイコン(アニメ顔)をはめ込むようにしてもよい。または、合成部43は、検出された顔の領域を黒く塗り潰してもよい。また、合成部43は、検出された顔の領域に、予め登録された名前の文字情報をはめ込むようにしてもよい。
<効果>
上述した各実施形態によれば、それぞれ異なる視点から撮影された複数の画像中のユーザの顔を検出し、少なくとも一方の画像において検出された複数のユーザの顔と顔の間の領域をつなぎ目として、各画像を横に並べた画像を合成する。
これにより、例えば、電子情報ボードシステムから見て比較的広い視野角に会議の参加者が位置する場合等においても、1つのカメラで撮影された画像のように、違和感なく会議の様子を相手先に伝えることができる。
また、例えば、複数のカメラで、それぞれ異なる視点(位置及び角度)から会議の参加者を撮影できるため、1つのカメラで撮影する場合と比べて、当該参加者を正面から撮影できる。
さらに、例えば、複数のカメラで、それぞれ異なる視点(位置及び角度)から会議の参加者を撮影できるため、電子情報ボードシステムのボードの中央上部に設置された1つのカメラで撮影する場合と比べて、ユーザがボード上で描画等を行う際に、当該ユーザの体によりカメラの視野が塞がれてしまうことを防止できる。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
例えば、IWB10の画像処理装置40の、例えば、検出部42、合成部43等の各機能部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
また、上述した各実施の形態に示す構成や処理を適宜組み合わせることとしてもよい。
1 通信システム
10 IWB(「電子情報ボードシステム」の一例)
101A カメラ(「第1のカメラ」の一例)
101B カメラ(「第2のカメラ」の一例)
101C カメラ
20 パネル部(「ボード」の一例)
40 画像処理装置
41 取得部
42 検出部
43 合成部
44 表示制御部
45 通信部(「送信部」の一例)
46 制御部
47 推定部
特開2014−150497号公報

Claims (9)

  1. 第1の画像と、前記第1の画像とは異なる視点から撮影された第2の画像とを取得する取得部と、
    前記第1の画像と前記第2の画像とから各ユーザの顔の領域を検出する検出部と、
    前記検出部により検出された各ユーザの顔の領域の間を区切りの位置とし、前記第1の画像と前記第2の画像とを前記区切りの位置で繋ぎ合わせる合成部と、
    を有し、
    前記合成部は、前記第1の画像及び前記第2の画像に含まれる各ユーザの顔の領域が重ならないように前記第1の画像と前記第2の画像とを繋ぎ合わせる、
    画像処理装置。
  2. 前記検出部は、各ユーザの顔を認識し、
    前記合成部は、前記検出部により認識された各ユーザの顔に基づいて、前記第1の画像及び前記第2の画像に含まれる各ユーザの顔の領域が重複せずに含まれる画像を合成する、
    請求項記載の画像処理装置。
  3. 第1の画像と、前記第1の画像とは異なる視点から撮影された第2の画像とを取得する取得部と、
    前記第1の画像と前記第2の画像とから各ユーザの顔の領域を検出する検出部と、
    前記検出部により検出された各ユーザの顔の領域の間を区切りの位置とし、前記第1の画像と前記第2の画像とを前記区切りの位置で繋ぎ合わせる合成部と、
    を有し、
    前記合成部は、前記第1の画像及び前記第2の画像に、同一のユーザの顔が含まれない場合、前記第1の画像と、前記第2の画像とを並べて繋ぎ合わせる、
    画像処理装置。
  4. 第1の画像と、前記第1の画像とは異なる視点から撮影された第2の画像とを取得する取得部と、
    前記第1の画像と前記第2の画像とから各ユーザの顔の領域を検出する検出部と、
    前記検出部により検出された各ユーザの顔の領域の間を区切りの位置とし、前記第1の画像と前記第2の画像とを前記区切りの位置で繋ぎ合わせる合成部と、
    を有し、
    前記合成部は、前記第1の画像における各ユーザの顔の領域のうち最も小さい領域と、
    前記最も小さい領域に隣接する顔の領域との間を区切りの位置とする、
    画像処理装置。
  5. 前記取得部は、前記第1の画像と前記第2の画像とを動画像として取得し、
    前記合成部は、前記動画像のフレーム画像に対して、所定の間隔で合成する、
    請求項1乃至のいずれか一項に記載の画像処理装置。
  6. 第1の画像と、前記第1の画像とは異なる視点から撮影された第2の画像とを取得する取得部と、
    前記第1の画像と前記第2の画像とから各ユーザの顔の領域を検出する検出部と、
    前記検出部により検出された各ユーザの顔の領域の間を区切りの位置とし、前記第1の画像と前記第2の画像とを前記区切りの位置で繋ぎ合わせる合成部と、
    を有し、
    前記合成部は、前記第1の画像の少なくとも一部の高さ、及び前記第2の画像の少なくとも一部の高さのうち少なくとも一方を、前記第1の画像及び前記第2の画像における同一のユーザの顔の各領域の高さが揃うように調整して合成する、
    画像処理装置。
  7. 前記合成部は、前記第1の画像の背景と、前記第2の画像の背景の傾きの差が縮小するよう、前記第1の画像、及び前記第2の画像を補正する、
    請求項1乃至のいずれか一項に記載の画像処理装置。
  8. 第1のカメラ、第2のカメラ、ボード、及び画像処理装置を有する電子情報ボードシステムであって、
    前記第1のカメラ、及び前記第2のカメラは、それぞれ異なる視点から、前記ボードの前方を撮影し、
    前記画像処理装置は、
    前記第1のカメラで撮影された第1の画像と、前記第2のカメラで撮影された第2の画像とを取得する取得部と、
    前記第1の画像と前記第2の画像とから各ユーザの顔の領域を検出する検出部と、
    前記検出部により検出された各ユーザの顔の領域の間を区切りの位置とし、前記第1の画像と前記第2の画像とを前記区切りの位置で繋ぎ合わせる合成部と、
    を有する電子情報ボードシステム。
  9. コンピュータに、
    第1の画像と、前記第1の画像とは異なる視点から撮影された第2の画像とを取得する処理と、
    前記第1の画像と前記第2の画像とから各ユーザの顔の領域を検出する処理と、
    前記検出する処理により検出された各ユーザの顔の領域の間を区切りの位置とし、前記第1の画像と前記第2の画像とを前記区切りの位置で繋ぎ合わせ合成する処理と、
    前記合成する処理では、前記第1の画像及び前記第2の画像に含まれる各ユーザの顔の領域が重ならないように前記第1の画像と前記第2の画像とを繋ぎ合わせる処理
    を実行させるプログラム。
JP2017052342A 2017-03-17 2017-03-17 電子情報ボードシステム、画像処理装置、及びプログラム Active JP6946684B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017052342A JP6946684B2 (ja) 2017-03-17 2017-03-17 電子情報ボードシステム、画像処理装置、及びプログラム
US15/911,295 US20180270428A1 (en) 2017-03-17 2018-03-05 Electronic information board system, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017052342A JP6946684B2 (ja) 2017-03-17 2017-03-17 電子情報ボードシステム、画像処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018156368A JP2018156368A (ja) 2018-10-04
JP6946684B2 true JP6946684B2 (ja) 2021-10-06

Family

ID=63519772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017052342A Active JP6946684B2 (ja) 2017-03-17 2017-03-17 電子情報ボードシステム、画像処理装置、及びプログラム

Country Status (2)

Country Link
US (1) US20180270428A1 (ja)
JP (1) JP6946684B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10498968B1 (en) * 2017-03-01 2019-12-03 Altia Systems, Inc. Intelligent zoom method and video system implementing same
JP7006302B2 (ja) 2018-01-23 2022-01-24 株式会社リコー 画像処理装置、画像処理システム、及びビデオ会議システム
US11636708B2 (en) * 2019-01-04 2023-04-25 Gopro, Inc. Face detection in spherical images
US20210303824A1 (en) * 2020-03-31 2021-09-30 Gopro, Inc. Face detection in spherical images using overcapture
US20230403367A1 (en) * 2022-06-08 2023-12-14 Microsoft Technology Licensing, Llc Customization of a user interface displaying a rendering of multiple participants of a hybrid communication session

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US7259784B2 (en) * 2002-06-21 2007-08-21 Microsoft Corporation System and method for camera color calibration and image stitching
JP4611231B2 (ja) * 2006-03-28 2011-01-12 富士通株式会社 パノラマ画像作成装置、方法およびプログラム
WO2009135078A2 (en) * 2008-04-30 2009-11-05 The Regents Of The University Of California Method and apparatus for fabricating optoelectromechanical devices by structural transfer using re-usable substrate
US8957940B2 (en) * 2013-03-11 2015-02-17 Cisco Technology, Inc. Utilizing a smart camera system for immersive telepresence
US10257494B2 (en) * 2014-09-22 2019-04-09 Samsung Electronics Co., Ltd. Reconstruction of three-dimensional video

Also Published As

Publication number Publication date
US20180270428A1 (en) 2018-09-20
JP2018156368A (ja) 2018-10-04

Similar Documents

Publication Publication Date Title
JP6946684B2 (ja) 電子情報ボードシステム、画像処理装置、及びプログラム
US10554921B1 (en) Gaze-correct video conferencing systems and methods
US10114458B2 (en) Apparatus and method of controlling mobile terminal based on analysis of user's face
US11729342B2 (en) Designated view within a multi-view composited webcam signal
US11736801B2 (en) Merging webcam signals from multiple cameras
US8908008B2 (en) Methods and systems for establishing eye contact and accurate gaze in remote collaboration
CN109739361B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
JP6229314B2 (ja) 情報処理装置、表示制御方法及びプログラム
WO2017215295A1 (zh) 一种摄像机参数调整方法、导播摄像机及系统
JP2018521593A (ja) 角度分離されたサブシーンの合成およびスケーリング
US20130314489A1 (en) Information processing apparatus, information processing system and information processing method
US10600218B2 (en) Display control system, display control apparatus, display control method, and storage medium
JP6157077B2 (ja) カメラ付き表示装置
CN110168630B (zh) 增强视频现实
JP2011097447A (ja) コミュニケーションシステム
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
JP2005117285A (ja) 情報入力装置、通信端末及び通信方法
US20200342229A1 (en) Information processing device, information processing method, and program
US11972505B2 (en) Augmented image overlay on external panel
JP6700672B2 (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
US10754444B2 (en) Electronic apparatus and control method therefor
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP4586447B2 (ja) 画像処理装置及び方法、プログラム
WO2022130798A1 (ja) 表示装置、表示制御方法、およびプログラム
JP7427739B2 (ja) 表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R151 Written notification of patent or utility model registration

Ref document number: 6946684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151