JP2016213674A - 表示制御システム、表示制御装置、表示制御方法、及びプログラム - Google Patents
表示制御システム、表示制御装置、表示制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2016213674A JP2016213674A JP2015095883A JP2015095883A JP2016213674A JP 2016213674 A JP2016213674 A JP 2016213674A JP 2015095883 A JP2015095883 A JP 2015095883A JP 2015095883 A JP2015095883 A JP 2015095883A JP 2016213674 A JP2016213674 A JP 2016213674A
- Authority
- JP
- Japan
- Prior art keywords
- image
- screen
- display control
- subject
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2624—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
【課題】ユーザにとってより利便性の高い表示制御システム、表示制御装置、表示制御方法及びプログラムを提供する。
【解決手段】第1の拠点には、第1の撮像部115と第2の撮像部114が設置される。第2の拠点に設置されたスクリーン103には、第1の撮像部が撮像した撮像画像と第2の撮像部が撮像した撮像画像とが切り替えて表示される。第1の撮像部が撮像した撮像画像に基づいて生成される第1の画像をスクリーン103に表示させる場合には第1の画像における所定の被写体の位置に関わらず第1の画像をスクリーン113に表示させる。第2の撮像部が撮像した撮像画像に基づいて生成される第2の画像をスクリーン113に表示させる場合には第2の画像に含まれる所定の被写体の画像がスクリーン103における所定の位置に表示されるように制御する。
【選択図】図12
【解決手段】第1の拠点には、第1の撮像部115と第2の撮像部114が設置される。第2の拠点に設置されたスクリーン103には、第1の撮像部が撮像した撮像画像と第2の撮像部が撮像した撮像画像とが切り替えて表示される。第1の撮像部が撮像した撮像画像に基づいて生成される第1の画像をスクリーン103に表示させる場合には第1の画像における所定の被写体の位置に関わらず第1の画像をスクリーン113に表示させる。第2の撮像部が撮像した撮像画像に基づいて生成される第2の画像をスクリーン113に表示させる場合には第2の画像に含まれる所定の被写体の画像がスクリーン103における所定の位置に表示されるように制御する。
【選択図】図12
Description
本発明は、表示制御システム、表示制御装置、表示制御方法、及びプログラムに関する。
従来、離れた場所(遠隔地)にいる相手とコミュニケーションを取るためのシステムが知られている。たとえば特許文献1には、離れた場所にいる相手と会議を行うための遠隔会議システムが開示されている。特許文献1に開示されたシステムには、人物を撮像するためのカメラと、画像を投影するためのプロジェクタと、プロジェクタによって投影された画像を映し出すスクリーンが含まれる。
特許文献1に開示されたシステムでは、ある会議室に備えられたカメラで撮像した人物画像が相手側(遠隔地)のプロジェクタによってスクリーンに投影される一方で、相手側のカメラで撮像された人物が会議室のプロジェクタによってスクリーンに投影される。また、特許文献1には、人物を等身大のサイズで映し出すことによって会議の臨場感を高めることが示されている。
また特許文献2には、対話者同士の視線を合わせるための通信システムが開示されている。特許文献2に開示されたシステムでは、ユーザを撮影するためのカメラの設置位置と相手画像の表示位置との相対位置が所定の位置関係になるように、相手画像の表示位置をスクリーン上で移動させることにより、対話者同士の視線を一致させる。
特許文献2に記載のシステムは、例えばカウンセリング等、対話者同士が常に相手の顔を見ながら対話する状態の再現を目的としている。特許文献2に記載のシステムは、対話者の互いの視線を一致させるため、相手の画像が常にスクリーンの中央(カメラ設置位置)に表示されるように制御する。
しかし、例えば会議等においては、人物の画像よりも会議資料の画像をスクリーンの中央に表示させた方が会議を円滑に進めることができる場合がある。このような場合には、対話者同士の視線の一致よりも、ユーザの任意のレイアウトで会議資料の画像を表示することを優先した方がユーザにとって利便性が高い。
従来のシステムでは、ユーザが相手の画像に注目しているか否かに関わらず、相手画像の表示位置の補正を行うため、ユーザの利便性を低減させる場合があった。
そこで本発明は、ユーザにとって利便性のより高い表示制御システムを提供することを目的とする。
上記の目的を達成するために本発明の表示制御システムは、以下の構成を備える。すなわち、第1の拠点に設置され、第1の地点から第1のスクリーンに向かって被写体を撮影する第1の撮像手段と、前記第1の拠点に設置され、前記被写体に対して前記第1のスクリーンの方向にある第2の地点から前記被写体の少なくとも一部を撮影する第2の撮像手段と、前記第1の撮像手段が撮影した画像に基づいて生成される第1の画像と前記第2の撮像手段が撮影した画像に基づいて生成される第2の画像とを、第2の拠点に設置された第2のスクリーンに切り替えて表示させる表示制御手段とを有し、前記表示制御手段は、前記第2のスクリーンに前記第1の画像を表示させる場合には、前記第1の画像における前記被写体の画像の位置に関わらず、前記第1の画像を前記第2のスクリーンに表示させる制御をし、前記第2の画像を前記スクリーンに表示させる場合には前記第2の画像に含まれる前記被写体の画像が前記第2のスクリーンにおける所定の位置に表示されるように制御する。
本発明によれば、相手と視線を合わせるための処理を行うか否かを、スクリーンに表示される画像に応じて切り替えることができる。このようにして、本発明によれば、ユーザにとってより利便性の高い表示制御システムを提供することができる。
以下、図面を参照して本発明の実施の形態を詳しく説明する。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。
図1は、本発明が適用される遠隔コミュニケーションシステム(表示制御システム)の断面図である。この遠隔コミュニケーションシステムにより、本社内に設けられたオフィス1(第1の拠点)と支社Aに設けられたオフィス2(第2の拠点)の間、或いはオフィス1と支社Bに設けられたオフィス3の間でコミュニケーションを取ることが可能となっている。なお、ここでは3箇所のオフィスを例にしているが、オフィス1とオフィス2の2箇所のみであっても良い。また、複数のオフィスの全体を遠隔コミュニケーションシステムと称しても良いし、1つのオフィスに含まれる構成のみを遠隔コミュニケーションシステムと称しても良い。
また、ここで説明する各オフィスは、移動に数時間を要するほど離れたものであっても良いし、同一のビルに設けられた別の会議室であっても良い。即ち、「遠隔」という表現は、物理的な空間が別であることを示すものであり、物理的な距離や移動にかかる時間の長さを定義するものではない。
図1(a)に示すオフィス1には、プロジェクタ101、背景カメラ102、スクリーン103、前面カメラ104、背面カメラ105が備えられている。プロジェクタ101は、他のオフィスで撮像された画像をスクリーン103に投影する投影装置である。本実施例では、プロジェクタ101は複数の静止画(フレーム画像)によって構成される動画像をスクリーン103に投影する場合について説明する。スクリーン103は、プロジェクタ101によって投影される画像を映し出す投影面である。なお、スクリーン103は、他のオフィスとのコミュニケーションを取るときに一時的に設置するものであっても良いし、オフィスの壁がスクリーン103の役割を兼ねても良い。また、本実施形態では画像を表示する手段としてプロジェクタとスクリーンを使用する例を示すが、大型の液晶ディスプレイを用いて画像を表示するようにしても良い。
前面カメラ104は、人物106を撮像するための撮像装置である。前面カメラ104は、被写体に対してスクリーンがある方向にある第2の地点から、被写体の少なくとも一部を撮影する。ここでは人物106の全身を撮像するために3つ(a、b、c)の前面カメラ104を用いる例を示すが、前面カメラの数は2つまたは4つ以上であっても良い。前面カメラ104による人物106の撮像に関する処理の詳細については後述する。
背景カメラ102は、人物106の背景(即ち、図1(a)の右方向)を撮像するための撮像装置である。オフィス1は、遠隔コミュニケーションを行うための専用の部屋ではなく、日常の業務を行う一般的な事務室であるものとする。背景カメラ102によって撮像される背景には、社員の座席やキャビネット、他の業務を行っている人物などが含まれる。このような背景を、前面カメラ104で撮像した人物とともに投影することによって、あたかもオフィスの片隅で立ち話をしているような雰囲気を作り出すことができる。なお、背景カメラ102は、被写体である背景が人物106によって遮られないようにするために、鉛直方向の上方(天井付近)に配置されることが望ましい。
背面カメラ105は、人物106或いはスクリーン103(第2のスクリーン)に映し出された画像を、図1(a)の右から左に向かって撮像するための撮像装置である。背面カメラ105は、第1の地点から第1のスクリーン103に向かって被写体(例えば、人物)を撮影する。
なお、前面カメラ104と人物106の間の距離に比べて、背面カメラ105と人物106の間の距離は長いため、1つの背面カメラ105で人物106の全身を撮像することが可能となっている。
前面カメラ104には、被写体までの距離を検知するための距離センサが含まれる。前面カメラ104によって得られる画像には、RGBで8ビット3チャネルの情報からなるカラー画像と、8ビット1チャネルの情報からなる距離画像が含まれる。一方、背景カメラ102及び背面カメラ105には距離センサは含まれない。従って、背景カメラ102及び背面カメラ105によって得られる画像には、RGBで8ビット3チャネルの情報からなるカラー画像は含まれるが、距離画像は含まれない。
人物116が居るオフィス2(図1(b))にも、オフィス1と同様の設備(プロジェクタ111、背景カメラ112、スクリーン113(第1のスクリーン)、前面カメラ114(第2の撮像手段)、背面カメラ115(第1の撮像手段))が備えられている。また、人物126が居るオフィス3(図1(c))にも、オフィス1または2と同様の設備(プロジェクタ121、背景カメラ122、スクリーン123、前面カメラ124、背面カメラ125)が備えられている。但し、スクリーン103及び113は、縦2.3メートル、横4メートルのサイズであるのに対し、スクリーン123は、縦1メートル、横2メートルの比較的小さいサイズとなっている。互いの全身が投影された状態でコミュニケーションを取りたい場合は大きなスクリーンが備えられたオフィス1及びオフィス2を使用する必要があるが、スペースに限りがある場合にはオフィス3のように小さなサイズのスクリーンを使用しても良い。但し、スクリーン123には遠隔地の人物の全身を映し出すことはできず、例えば人物の上半身のみの投影となる。
図2は、遠隔コミュニケーションシステムの外観図であり、オフィス1の人物106がオフィス2の人物116とコミュニケーションを取っている様子を、図1(a)の右から左に向かって見た様子を示している。上述したようにスクリーン103は横に長いため、プロジェクタ101は2つ(a、b)備えられているが、1つのプロジェクタで投影するようにしても良い。背景カメラ102は、スクリーン103の中央上部に備えられている。前面カメラ104a、b、cは、スクリーン103に埋め込まれており、スクリーン103の中央部において鉛直方向に一列に並べて配置されている。
デジタイザ201は、スクリーン103に対してなされるユーザの動作を検知するための検知装置である。デジタイザ201は、送信器201aと受信器201bを含み、送信器201aが投射した赤外光が人物106の体の一部、或いは人物106が持っている指示棒等によって遮られた場合に、その位置を示す座標を出力する。なお、ここでは送信器201aと受信器201bをそれぞれスクリーン103の左右に配置する例を示したが、スクリーン103の上下に配置しても良い。また、ユーザの動作を検知する方法はデジタイザに限らず、スクリーン103にタッチパネル機能を備えるようにし、スクリーン103が押圧された位置を検知するようにしても良い。
スクリーン103には、オフィス2の前面カメラ114(第2の撮像手段)によって得られた人物116の人物画像が投影されている。また、図2では、人物116の背景として、後述する文書管理サーバ340に格納されている文書(例えば、会議資料)が映し出されている。文書管理サーバ340に格納されている文書等の画像は、ネットワークI/F311によって制御装置310に入力される。人物116の背景として、文書管理サーバ340に格納されている文書を投影するか、背景カメラ112によって得られたオフィス2の背景画像を投影するかは、デジタイザ201が検知する人物116の動作に応じて切り替え可能である。
図3は、遠隔コミュニケーションシステムのハードウェア構成図である。制御装置310に含まれるCPU316は、ROM318に記憶された制御プログラムを読み出して、オフィス1内に備えられた各装置を制御する。RAM317は、CPU316の主メモリ、ワークエリア等の一時記憶領域として用いられる。なお、オフィス1では、1つのCPU316が1つのメモリ(RAM317)を用いて後述するフローチャートに示す各処理を実行するものとするが、他の態様であっても構わない。例えば、各カメラやプロジェクタ、デジタイザのそれぞれに対して個別に制御装置310を備えるようにするなど、複数のCPUや複数のRAM、或いはHDDやSSDを協働させて各処理を実行するようにすることもできる。また、後述する処理の一部をASIC(Application Specific integrated Cirsuit)等のハードウェア回路を用いて実行するようにしても良い。
ネットワーク300は、各オフィスを繋ぐネットワークである。ネットワーク300の種類は、有線、無線、WAN、LAN、公衆回線、専用回線など、環境に合わせて適宜選択すれば良い。ネットワークI/F311は、オフィス1をネットワーク300に接続するためのインターフェースである。
図1及び2には示していないが、各オフィスにはマイクとスピーカーが設置されている。オフィス内の人物が発する言葉はマイクによって音声信号に変換され、遠隔地のスピーカーから出力される。オフィス1には、マイク319とスピーカー320が備えられており、音声I/F312は、マイク319による音声の入力及びスピーカー320による音声の出力を制御するためのインターフェースである。
プロジェクタI/F313は、プロジェクタ101による画像の投影を制御するためのインターフェースである。デジタイザI/F314は、デジタイザ201によるユーザの動作の検知を制御するためのインターフェースである。カメラI/F315は、前面カメラ104、背面カメラ105、背景カメラ102による撮像を制御するためのインターフェースである。
プロジェクタI/F313は、プロジェクタ101を制御して、カメラ115が撮影した画像に基づいて生成される第1の画像をスクリーン103に表示させる。第1の画像の詳細は図12(b)を用いて後述する。
またプロジェクタI/F313は、プロジェクタ101を制御して、カメラ114が撮影した画像に基づいて生成される第2の画像をスクリーン103に表示させる。第2の画像の詳細は、図6及び図12(a)を用いて後述する。
プロジェクタI/F313は、プロジェクタ101を制御して、第1の画像と第2の画像とを切り替えてスクリーン103に表示させる。
さらにプロジェクタI/F313は、スクリーン103に第1の画像を表示させる場合には、第1の画像における被写体の画像の位置に関わらず、第1の画像をスクリーン103に表示させる制御を行う。またプロジェクタI/F313は、第2の画像をスクリーン103に表示させる場合には、第2の画像に含まれる被写体の画像が第2のスクリーンにおける所定の位置に表示されるように制御する。
なお、ここでは図示しないが、オフィス2及び3には、オフィス1と同様の構成が備えられている。また、上述した各インターフェースには、USB(Universal Serial Bus)やHDMI(登録商標)(High Definition Multimedia Interface)、有線LAN、無線LANなどが適宜採用される。
中継サーバ350は、各オフィスで撮像された画像や入力された音声が他のオフィスに送信される場合に、その画像を中継する役割を担う。文書管理サーバ340は、各オフィスのプロジェクタによってスクリーンに投影される文書(例えば、会議資料)を記憶する。図2に示すように、人物とともに文書を投影させることが指示されると、CPU316は文書管理サーバ340から文書を取得し、プロジェクタ101に投影させる。なお、文書の投影は、遠隔コミュニケーションを行っているオフィスのどちらからでも指示することができる。
オブジェクト管理サーバ330は、遠隔コミュニケーションシステムの操作部としてスクリーン103を使用する場合にプロジェクタ101によってスクリーン103に投影させるオブジェクトを記憶する。オブジェクトの例としては、例えば接続先のオフィスを選択するための操作ボタンが挙げられる。オフィス1において遠隔コミュニケーションシステムが起動されると、CPU316は、オブジェクト管理サーバ330から各オフィスに対応する選択ボタンを取得し、スクリーン103に投影させる。人物106がスクリーン103にタッチすると、タッチされた座標をデジタイザ201が検知し、検知された座標に対応する選択ボタンをCPU316が特定する。そして、CPU316は、特定した選択ボタンに対応するオフィスとの間で遠隔コミュニケーションを開始する。
図4は、前面カメラ104撮像範囲を説明する図である。前面カメラ104a、104b、104cは、それぞれ床面から高さa(1800mm)、高さb(1300mm)、高さc(500mm)の位置に設置されている。即ち、前面カメラ104aと前面カメラ104bの配置間隔(500mm)は、前面カメラ104bと前面カメラ104cの配置間隔(800mm)よりも小さくなっている。また、前面カメラ104bと前面カメラ104cの配置間隔(800mm)は、前面カメラ104cから床面までの距離よりも大きくなっている。このように配置しているのは、後述する人物画像の合成(図5、図6)を行うときに、画像間の境界が人物の目立たない位置(胸のあたりと腰のあたり)になるようにするためである。
前面カメラ104a、b、cは、それぞれ鉛直方向の画角がθ(シータ)a、θb、θcとなっている。前面カメラ104から人物106までの距離dは、前面カメラ104によって得られる距離画像に基づいて算出される。高さh1は、前面カメラ104bと前面カメラ104cの中間に位置する高さであり、前面カメラ104bと前面カメラ104cの高さの差を2で割ることによって得られる長さfに、前面カメラ104cの高さcを加えることによって算出される。同様に、高さh2は、前面カメラ104aと前面カメラ104bの中間に位置する高さであり、前面カメラ104aと前面カメラ104bの高さの差を2で割ることによって得られる長さに、前面カメラ104bの高さbを加えることによって算出される。
長さeは、前面カメラ104cによって撮像される人物106の最も上部の高さと前面カメラcの高さcの差に相当する長さである。長さeは、θcを2で割ることによって得られる角度と、前面カメラ104から人物106までの距離dに基づいて得られる。
本実施形態では、カメラ104a、b、cは人物106の像の水平方向の幅が所定のサイズになるように撮像するものとする。あるいはカメラ104a、b、c撮像する人物106の像の水平方向の幅が異なることとしてもよい。この場合、後述の合成処理において、各カメラが撮像した画像における人物106の水平方向の幅を一致させた後に、変換後の画像を合成することにより、人物106の全身画像を生成することができる。
次に、図5及び図6を用いて、前面カメラ104によって撮像された画像の合成について説明する。図5の長さ501、502、503は、前面カメラ104a、b、cによって撮像される人物106の範囲を示す。図示するように、前面カメラ104aによって撮像される範囲501と前面カメラ104bによって撮像される範囲502は一部が重複している。また、前面カメラ104bによって撮像される範囲502と前面カメラ104cによって撮像される範囲503は一部が重複している。
本実施形態においては、各前面カメラ104によって得られた画像を合成するにあたって重複部分を削除する処理を行うが、その際に高さh1及び高さh2が画像の境界となるように処理する。この結果、504の範囲は前面カメラ104aによって得られた画像を使用し、505の範囲は前面カメラ104bによって得られた画像を使用し、506の範囲は前面カメラ104cによって得られた画像を使用することになる。
図6(a)(b)(c)は、前面カメラ104a、b、cによって得られる画像を示す。図6(a)(b)(c)は、被写体に対してスクリーン103が存在する方向に位置する複数のカメラ104が撮像した複数の撮像画像である。図5を参照すると、図6(a)の画像は501の範囲に対応しているが、遠隔地での投影に使用されるのは504で示す範囲であるため、範囲501と範囲504の差分に相当する範囲が除去されて、図6(d)に示す画像となる。同様に、図6(b)の画像は502の範囲に対応しているが、遠隔地での投影に使用されるのは505で示す範囲であるため、範囲502と範囲505の差分に相当する範囲が除去されて、図6(e)に示す画像となる。同様に、図6(c)の画像は503の範囲に対応しているが、遠隔地での投影に使用されるのは506で示す範囲であるため、範囲503と範囲506の差分に相当する範囲が除去されて、図6(f)に示す画像となる。このような処理を経て得られる図6(d)(e)(f)の画像を合成する(結合する)と、人物106の全身画像が得られる。このようにして、カメラ104が撮像した複数の撮像画像から抽出した画像を合成して、人物部分の画像(第2の画像)を生成する。
ここで、図6(c)の画像から図6(f)の画像を生成する処理について更に詳しく説明する。図6(c)における画像の中心位置が、前面カメラ104cが設置されている高さcに相当する。そして、中心位置よりも上側に含まれる画像は、図4の長さeの範囲に対応する。この長さeの範囲の画像のうち、長さgの範囲に対応する画像を除去し、長さfの範囲に対応する画像を残すために、前面カメラ104cの縦の画素数(1080画素)の半分のうち、長さeに占める長さgの割合に相当する画素数を除去対象として決定する。図6(a)及び図6(b)の画像についても、同様の方法で除去対象が決定される。
次に、図7及び8は、前面カメラ104による人物106の撮像と、前面カメラ104によって得られる人物画像の合成の処理を説明するフローチャートである。図7及び8のフローチャートに示す各動作(ステップ)は、オフィス1のCPU316がROM318に記憶された制御プログラムを実行することにより実現される。
ステップS701では、変数Nの値を1に初期化する。ステップS702では、CPU316が、前面カメラ104a、b、cのうち変数Nに対応する前面カメラ104に人物106を撮像させる。ステップS703では、前面カメラ104によって得られた撮像画像から人物画像を生成する。
図8は、ステップS703の処理を詳細に説明するフローチャートである。ステップS801では、ステップS702で得られた撮像画像に含まれる距離画像を二値化する。本実施形態では、人物106は、スクリーン103(前面カメラ104)から1メートル以上且つ2メートル以内の距離に立つことを想定している。そこで、前面カメラ104から被写体までの距離の最小値を1メートルと設定し、最大値を2メートルと設定する。そして、距離画像の各画素に対して、値が上記範囲内に含まれる画素の値を255に変更し、それ以外の画素の値を0に変更する。
ステップS802では、注目画素の周辺に1画素でも値が0の画素があれば値を0に変更する収縮処理、または、注目画素の周辺に1画素でも値が255の画素があれば値を255に変更する膨張処理を実行する。これにより、孤立点ノイズが除去される。ステップS803では、平滑化フィルタ(例えば、ガウシアンフィルタ)の処理を実行することにより、値が255となっている画素が連続している領域の輪郭を平滑化する。
ステップS804では、マスク処理を実行することにより、値が255である距離画像の画素に対応するカラー画像の画素を非透明とし、値が0である距離画像の画素に対応するカラー画像の画素を全透明とする。この処理により、前面カメラ104によって得られた撮像画像から人物部分が抽出される。なお、ここでの「人物部分」とは、人物のみならず、人物が手に持っている指示棒や、商品サンプルなども含まれる。このようにして、被写体に対してスクリーン103が存在する方向に位置する複数のカメラ104が撮像した複数の撮像画像から、被写体の少なくとも一部の画像を抽出する。
ステップS805では、図5及び図6を用いて既述したように、図6(a)(b)(c)の人物画像に対して上端または下端のトリミング処理を行い、図6(d)(e)(f)の人物画像を生成する。図6(a)(b)(c)の人物画像に対して行われるトリミング処理は、図(a)(b)(c)の人物画像のそれぞれを撮影した撮像装置に応じて異なる。
図7の説明に戻り、ステップS704では、変数Nの値が前面カメラ104の数(本実施形態では3)よりも小さいか否かを判定する。変数Nの値が前面カメラ104の数よりも小さい場合はステップS705に進み、変数Nに1を加えてステップS701に戻る。変数Nの値が前面カメラ104の数よりも小さくない場合(変数Nの値が前面カメラ104の数と等しい場合)はステップS706に進む。
ステップS706では、図6(d)(e)(f)の人物画像を合成する。具体的には、図6(d)の画像の下に図6(e)の画像を結合し、更にその下に図6(f)の画像を結合する。また更に、結合後の画像には周囲(頭の上側、右手の左側、左手の右側、足の下側)に余白が残っているため、値が255である画素を全て含む矩形でトリミング処理を行う。
ステップS707では、ステップS706の処理で得られた画像を接続先のオフィス2に送信する。ステップS708では、遠隔コミュニケーションの終了が指示されたか否かを判定し、終了が指示されたと判定すると処理を終了する。一方、終了が指示されなかったと判定するとステップS701に戻り、ステップS701以降の処理を再び実行する。
なお、ここではステップS703やステップS706の処理を撮像側(被写体である人物が居る方のオフィス)で実行する例を示したが、投影側(撮像された画像を投影する方のオフィス)で実行するようにしても良い。また、ステップS703で説明した人物部分の抽出処理を、ステップ706で説明した合成処理の後に実行しても良い。更に、ここでは説明を省略したが、背景カメラ102によって得られた画像や背面カメラ105によって得られた画像も、ステップS707における画像の送信と同期させて、または非同期で接続先のオフィス2に送信される。
図9は、接続先のオフィスから送信された画像を投影する処理を説明するフローチャートである。図9のフローチャートに示す各動作(ステップ)は、オフィス1のCPU316がROM318に記憶された制御プログラムを実行することにより実現される。なお、ここではオフィス2に備えられたCPU等によって図7及び図8で説明した処理がオフィス2側でも同様に実行され、その結果としてオフィス2から送信されてきた画像をオフィス1側で投影する処理について説明する。
ステップS901では、前面カメラ114によって得られた前面の人物画像を受信する。ステップS902では、背面カメラ115によって得られた背面画像を受信する。ステップS903では、背景カメラ112によって得られた背景画像を受信する。
ステップS904では、人物の前面を表示させることが指示されているか、人物の背面を表示させることが指示されているかを判定する。これらの指示は、デジタイザ201が検知する人物106の動作に応じて受け付けられる。人物の前面を表示させることが指示されていると判定すると、ステップS905に進み、ステップS901で受信した前面の人物画像とステップS903で受信した背景画像とをスクリーン103に投影させる。一方、人物の背面を表示させることが指示されていると判定すると、ステップS906に進み、ステップS902で受信した背面画像をスクリーン103に投影させる。
ステップS905の表示制御処理の詳細については、図10及び図11を用いて詳細を後述する。また、ステップS906の表示制御処理の詳細については、図12を用いて詳細を後述する。
ステップS907では、遠隔コミュニケーションの終了が指示されたか否かを判定し、終了が指示されたと判定すると処理を終了する。一方、終了が指示されなかったと判定するとステップS901に戻り、ステップS901以降の処理を再び実行する。なお、図7に示したフローチャートと図9に示したフローチャートは、遠隔コミュニケーションが行われている間、継続的に並行して実行される。
以上説明した通り、本実施形態の遠隔コミュニケーションシステムは、遠隔地であるオフィス2から送信された画像をスクリーン103に投影するプロジェクタ101を備える。また、スクリーン103には、複数の前面カメラ104が配置される。CPU316は、複数の前面カメラ104によって得られた各画像から人物部分を抽出する抽出処理(S703)と、複数の前面カメラ104によって得られた複数の画像を合成する合成処理(S706)を実行する。更に、抽出処理及び合成処理がなされた画像を、オフィス2に備えられたスクリーン113に投影するプロジェクタ111を備える。
このような構成を備えることにより、近い距離で向かい合っているような感覚で遠隔地とコミュニケーションを取ることを可能としている。
次にステップS905における、前面画像の表示制御処理の詳細について図10及び11を用いて説明する。図10のフローチャートに示す各動作(ステップ)は、オフィス1のCPU316がROM318に記憶された制御プログラムを実行することにより実現される。図10に示したフローは、所定時間ごとに繰り返し実行される。あるいは、前面カメラ114から所定数のフレーム画像を受信する度に図10に示したフローを実行することとしてもよい。ここでフレーム画像とは、前面カメラ114から受信される映像に含まれるフレーム画像を示す。
前面画像の表示処理においては、CPU316は、前面画像(第2の画像)に含まれる被写体(人物)の画像がスクリーン103における所定の位置に表示されるように制御する。
まず、ステップS703において生成した人物部分の画像(以下、人物画像)から顔画像を検出する(S1001)。図11(A)は、ステップS703において生成した人物画像し、外接矩形1102は顔の外接矩形を表す。
人物画像の中から顔画像を検出する技術としては、例えばViola−Jonesの手法を用いることができる。この手法によれば、画像から顔部分の外接矩形1102を得ることができる。顔画像の検出はこれに限られない。画像から所定の特徴量(形状、大きさ、位置の値など)を有する画像を検出する方法で有ればよい。例えば、人物の顔画像を表すパターン画像と人物画像とを比較して、パターン画像に対応する特徴を有する部分を抽出するパターンマッチング法により顔画像を検出することとしてもよい。これらの方法によれば、画像から所定の形状を有する部分の画像を検出することができる。
本実施形態では人物画像から顔画像を検出する場合について説明するが、これに限らない。人物画像の基準となる位置を特定することができればよく、目、眉間、鼻、口、肩、又は、手足等を検出してしてもよい。
つぎに、顔画像において基準となる点の座標を取得する(S1102)。本実施形態では、顔画像の外接矩形1102の中心1103を基準点として特定する。外接矩形1102の中心とは、例えば、外接矩形1102の対角線の交点とすることができる。あるいは、外接矩形1102の中心とは、外接矩形1102の長辺の垂直二等分線と外接矩形1102の短辺の垂直二等分線との交点としてもよい。
基準点は外接矩形1102の中心に限定しない。例えば、右目と左目の間としたり、両肩や両手足の中間としたり、鼻や口の位置としたりするなど、適宜設定することができる。あるいはユーザが人物画像の基準点を指定することとしてもよい。スクリーンの103の任意の位置に表示された人物画像の一部をユーザがタッチ操作等により指示することにより、指示された位置が基準点として決定されることとしてもよい。基準点は人物画像の外部に設定されることとしてもよい。
本実施形態では、人物画像の外接矩形1101の左上の頂点を原点として、顔画像の外接矩形902の中心の座標(X1、Y1)を取得する。原点の位置はこれに限られず、任意の位置に設定することができる。このようにして、検出結果に基づいて人物画像における基準位置を特定することができる。
次に、人物画像をスクリーン103の所定の位置に表示させる(S1103)。本実施形態では、ステップS1102において取得した基準点が、スクリーン上の所定の位置に対応するようにして人物画像を表示させる制御を行う。
図11(b)に示すように、プロジェクタ101が画像を投影することができる領域1110の左上を原点とし、前面カメラ104aまでのオフセット座標を(X2、Y2)とする。図11(C)は、スクリーン103におけるカメラ104aの位置に顔画像の中心1103が来るように、前面人物画像を表示した様子である。このようにして、特定した基準位置とスクリーン103における所定の位置とが対応するようにして、人物画像を表示させることができる。人物画像の表示座標(X3、Y3)は、以下のようにして計算することができる。
(X3、Y3)=(X2―X1、Y2―Y1)
以上の処理により、スクリーン103の所定位置に顔画像の中心を表示することが可能になる。このようにして、スクリーン103に投影された相手の顔画像を見ることで、ユーザは意識しなくてもカメラを見るようになる。その結果、カメラ104aに対して視線を合わせた画像が撮影できるようになり、これを他拠点で投影することで通信相手と目線を合わせることが可能になる。
(X3、Y3)=(X2―X1、Y2―Y1)
以上の処理により、スクリーン103の所定位置に顔画像の中心を表示することが可能になる。このようにして、スクリーン103に投影された相手の顔画像を見ることで、ユーザは意識しなくてもカメラを見るようになる。その結果、カメラ104aに対して視線を合わせた画像が撮影できるようになり、これを他拠点で投影することで通信相手と目線を合わせることが可能になる。
上記の例では、受信した人物画像の顔の中心とカメラ104aが一致するようにして、人物画像をスクリーン103に表示させる場合について説明したがこれに限られない。カメラ104aと人物画像の基準点との相対位置は任意の位置関係とすることができる。なお、顔画像の検出はオフィス1の制御装置310が行ってもよいし、オフィス2に設置された制御装置が、人物画像から顔画像を検出することとしてもよい。同様に、人物画像の基準点(例えば、顔の中心)がカメラ104aの位置と対応するように人物画像の表示位置を移動させる処理は、オフィス1の制御装置310が行ってもよいし、オフィス2に設置された制御装置が行うこととしてもよい。
このようにして、前面カメラ114が撮影した撮像画像に基づいて生成される画像(人物画像)をスクリーン103表示させる場合には、図12(a)に示すように、人物画像がカメラ104の位置と対応する位置に表示される。このようにしてユーザは互いに視線を一致させて対話を行うことができる。
一方、背面カメラ115が撮影した撮像画像に基づいて生成される画像をスクリーン103に表示させる場合には、図12(b)に示すように、画像中の人物画像の位置に関わらず、撮像画像を表示させる。例えばプロジェクタI/F313は、カメラ115の撮像画像から生成した画像(第1の画像)をスクリーン103に表示させる場合には、第1の画像に含まれる人物部分の画像及びスクリーン113に表示された画像をスクリーン103に表示させる。
このようにして、オフィス2の人物、及び、スクリーンに表示された画像1201を含む全体像を表示させる場合には、視線を一致させるための処理を行わないようにすることができる。このようにして、背面カメラ115が撮影した画像の人物画像の位置がカメラ104aの位置に一致するように制御して表示した場合よりも、ユーザにとって見やすい表示態様で画像を表示させることができる。
このように、プロジェクタI/F313は、スクリーン103にカメラ115の撮像画像から生成した画像(第1の画像)を表示させる場合には、第1の画像における被写体の画像の位置に関わらず、第1の画像をスクリーン103に表示させる制御を行う。またプロジェクタI/F313は、カメラ114の撮像画像から生成した画像(第2の画像)をスクリーン103に表示させる場合には、第2の画像に含まれる被写体の画像が第2のスクリーンにおける所定の位置に表示されるように制御する。
このようにして、本実施形態によれば、相手と視線を合わせるための処理を行うか否かを、スクリーンに表示される画像に応じて切り替えることができる。したがって、ユーザにとってより利便性の高い表示制御システムを提供することができる。
なお、背面カメラ115が撮影した画像をオフィス1のスクリーン103に表示させている間は、オフィス2では、スクリーン113の所定の位置(例えば、中央)に会議資料などの画像を投影させるようにプロジェクタ111を制御することとしてもよい。
オフィス2に設置された制御装置は、オフィス1のスクリーン103に、カメラ114の撮像画像に基づく画像が表示されるか、カメラ115の撮像画像に基づく画像が表示されるかを判定する。たとえばオフィス1の制御装置310からオフィス2の制御装置に対して、スクリーン103に表示する画像を示す情報を送信する。そしてオフィス2の制御装置は、オフィス1の制御装置310から受信した情報に基づいて上記の判定を行うことができる。
オフィス2の制御装置は、オフィス1のスクリーン103にカメラ115の撮像画像に基づく画像が表示されると判定した場合に、スクリーン103における所定の位置に対応するスクリーン113における位置に、会議資料などの画像を表示させる制御を行う。
オフィス1では図11(b)に示すように、カメラ104の設置位置に対応する位置に会議資料が表示されるように、スクリーン113における会議資料の画像の表示位置を制御する。このようにすれば、オフィス1にいるユーザは会議資料に注目することにより、自然とカメラ104に視線を向けることとなる。従って、カメラ104はオフィス1にいる人物がカメラの方向を向いた画像を撮影して、オフィス2に送信することができる。従って、オフィス2では、オフィス1の人物が視線を向けた画像を表示させることができる。
このようにして、オフィス2においてカメラ104が撮影した画像を見ているユーザにとって、オフィス1にいる人物の表情等が確認し易い態様で、オフィス1にいる人物の画像を表示させることができる。以上のようにして、ユーザにとってより利便性の高い表示制御システムを提供することができる。
<他の実施形態>
本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。
本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
102 スクリーン
113 スクリーン
111 プロジェクタ
114aからc 前面カメラ
115 背面カメラ
310 制御装置
313 プロジェクタI/F
316 CPU
113 スクリーン
111 プロジェクタ
114aからc 前面カメラ
115 背面カメラ
310 制御装置
313 プロジェクタI/F
316 CPU
Claims (15)
- 第1の拠点に設置され、第1の地点から第1のスクリーンに向かって被写体を撮影する第1の撮像手段と、
前記第1の拠点に設置され、前記被写体に対して前記第1のスクリーンの方向にある第2の地点から前記被写体の少なくとも一部を撮影する第2の撮像手段と、
前記第1の撮像手段が撮影した画像に基づいて生成される第1の画像と前記第2の撮像手段が撮影した画像に基づいて生成される第2の画像とを、第2の拠点に設置された第2のスクリーンに切り替えて表示させる表示制御手段とを有し、
前記表示制御手段は、前記第2のスクリーンに前記第1の画像を表示させる場合には、前記第1の画像における前記被写体の画像の位置に関わらず、前記第1の画像を前記第2のスクリーンに表示させる制御をし、前記第2の画像を前記スクリーンに表示させる場合には前記第2の画像に含まれる前記被写体の画像が前記第2のスクリーンにおける所定の位置に表示されるように制御することを特徴とする表示制御システム。 - 前記被写体に対して前記第1のスクリーンが存在する方向に位置する複数の撮像手段が撮像した複数の撮像画像から前記被写体の少なくとも一部の画像を抽出する抽出手段と、
前記抽出手段が切り出した画像を合成して、前記第2の画像を生成する生成手段とを有することを特徴とする請求項1に記載の表示制御システム。 - 前記表示制御手段は、前記第1の画像を前記第2のスクリーンに表示させる場合には、前記第1の画像に含まれる前記被写体の画像及び前記第1のスクリーンに表示された画像を前記第2のスクリーンに表示させる制御を行うことを特徴とする請求項1に記載の表示制御システム。
- 前記第1の画像から所定の形状を有する部分を検出する検出手段と、
前記検出手段の検出結果に基づいて、前記第1の画像における基準位置を特定する特定手段とを有し、
前記表示制御手段は、前記特定手段が特定した前記基準位置と前記第2のスクリーンにおける前記所定の位置とが対応するようにして、前記第2のスクリーン上に前記第1の画像を表示させることを特徴とする請求項1に記載の表示制御システム。 - 画像を入力する入力手段と、
前記第2のスクリーンに前記第1の画像が表示されるか、前記第2の画像が表示されるかを判定する判定手段と、
前記判定手段が前記第2のスクリーンに前記第1の画像が表示されると判定した場合に、前記第2のスクリーンにおける前記所定の位置に対応する前記第1のスクリーンにおける位置に前記入力手段が入力した画像を表示させる制御を行う第2の表示制御手段を有することを特徴とする請求項1に記載の表示制御システム。 - 第1の拠点に設置され、第1の地点から第1のスクリーンに向かって被写体を撮影する第1の撮像手段と、前記第1の拠点に設置され、前記被写体に対して前記第1のスクリーンの方向にある第2の地点から前記被写体の少なくとも一部を撮影する第2の撮像手段とから撮像画像を受信する受信手段と、
前記第1の撮像手段が撮影した画像に基づいて生成される第1の画像と前記第2の撮像手段が撮影した画像に基づいて生成される第2の画像とを、第2の拠点に設置された第2のスクリーンに切り替えて表示させる表示制御手段とを有し、
前記表示制御手段は、前記第2のスクリーンに前記第1の画像を表示させる場合には、前記第1の画像における前記被写体の画像の位置に関わらず、前記第1の画像を前記第2のスクリーンに表示させる制御をし、前記第2の画像を前記スクリーンに表示させる場合には前記第2の画像に含まれる前記被写体の画像が前記第2のスクリーンにおける所定の位置に表示されるように制御することを特徴とする表示制御装置。 - 前記被写体に対して前記第1のスクリーンが存在する方向に位置する複数の撮像手段が撮像した複数の撮像画像から前記被写体の少なくとも一部の画像を抽出する抽出手段と、
前記抽出手段が切り出した画像を合成して、前記第2の画像を生成する生成手段とを有することを特徴とする請求項6に記載の表示制御装置。 - 第1の拠点に設置された第1の撮像手段が、第1の地点から第1のスクリーンに向かって被写体を撮影する第1の撮像ステップと、
前記第1の拠点に設置された第2の撮像手段が、前記被写体に対して前記第1のスクリーンの方向にある第2の地点から前記被写体の少なくとも一部を撮影する第2の撮像ステップと、
表示制御手段が、前記第1の撮像手段が撮影した画像に基づいて生成される第1の画像と前記第2の撮像手段が撮影した画像に基づいて生成される第2の画像とを、第2の拠点に設置された第2のスクリーンに切り替えて表示させる表示制御ステップとを有し、
前記表示制御ステップにおいて、前記第2のスクリーンに前記第1の画像を表示させる場合には、前記第1の画像における前記被写体の画像の位置に関わらず、前記第1の画像を前記第2のスクリーンに表示させる制御をし、前記第2の画像を前記スクリーンに表示させる場合には前記第2の画像に含まれる前記被写体の画像が前記第2のスクリーンにおける所定の位置に表示されるように制御することを特徴とする表示制御方法。 - 抽出手段が、前記所定の被写体に対して前記第1のスクリーンが存在する方向に位置する複数の撮像手段が撮像した複数の撮像画像から前記被写体の少なくとも一部の画像を抽出する抽出ステップと、
生成手段が、前記抽出手段が切り出した画像を合成して、前記第2の画像を生成する生成ステップとを有することを特徴とする請求項8に記載の表示制御方法。 - 前記表示制御ステップにおいて、前記第1の画像を前記第2のスクリーンに表示させる場合には、前記第1の画像に含まれる前記被写体の画像及び前記第1のスクリーンに表示された画像を前記第2のスクリーンに表示させる制御を行うことを特徴とする請求項8に記載の表示制御方法。
- 検出手段が、前記第1の画像から所定の形状を有する部分を検出する検出ステップと、
特定手段が、前記検出ステップにおける検出結果に基づいて、前記第1の画像における基準位置を特定する特定ステップとを有し、
前記表示制御ステップにおいて、前記特定手段が特定した前記基準位置と前記第2のスクリーンにおける前記所定の位置とが対応するようにして、前記第2のスクリーン上に前記第1の画像を表示させることを特徴とする請求項8に記載の表示制御方法。 - 入力手段が、画像を入力する入力ステップと、
判定手段が、前記第2のスクリーンに前記第1の画像が表示されるか、前記第2の画像が表示されるかを判定する判定ステップと、
前記判定ステップにおいて前記第2のスクリーンに前記第1の画像が表示されると判定した場合に、前記第2のスクリーンにおける前記所定の位置に対応する前記第1のスクリーンにおける位置に前記入力手段が入力した画像を表示させる制御を行う第2の表示制御ステップを有することを特徴とする請求項8に記載の表示制御方法。 - コンピュータに、
第1の拠点に設置され、第1の地点から第1のスクリーンに向かって被写体を撮影する第1の撮像手段と、前記第1の拠点に設置され、前記被写体に対して前記第1のスクリーンの方向にある第2の地点から前記被写体の少なくとも一部を撮影する第2の撮像手段とから撮像画像を取得する取得手順と、
前記第1の撮像手段が撮影した画像に基づいて生成される第1の画像と前記第2の撮像手段が撮影した画像に基づいて生成される第2の画像とを、第2の拠点に設置された第2のスクリーンに切り替えて表示させる表示制御手順とを実行させ、
前記表示制御手順において、前記第2のスクリーンに前記第1の画像を表示させる場合には、前記第1の画像における前記被写体の画像の位置に関わらず、前記第1の画像を前記第2のスクリーンに表示させる制御をし、前記第2の画像を前記スクリーンに表示させる場合には前記第2の画像に含まれる前記被写体の画像が前記第2のスクリーンにおける所定の位置に表示されるように制御する処理を前記コンピュータに実行させるためのプログラム。 - 前記コンピュータに、
前記被写体に対して前記第1のスクリーンが存在する方向に位置する複数の撮像手段が撮像した複数の撮像画像から前記被写体の少なくとも一部の画像を抽出する抽出手順と、
前記抽出手順において切り出した画像を合成して、前記第2の画像を生成する生成手順と実行させるための請求項13に記載のプログラム。 - 前記コンピュータに、
前記表示制御手順において、前記第1の画像を前記第2のスクリーンに表示させる場合には、前記第1の画像に含まれる前記被写体の画像及び前記第1のスクリーンに表示された画像を前記第2のスクリーンに表示させる制御を実行させるための請求項13に記載のプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015095883A JP2016213674A (ja) | 2015-05-08 | 2015-05-08 | 表示制御システム、表示制御装置、表示制御方法、及びプログラム |
US15/141,023 US10600218B2 (en) | 2015-05-08 | 2016-04-28 | Display control system, display control apparatus, display control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015095883A JP2016213674A (ja) | 2015-05-08 | 2015-05-08 | 表示制御システム、表示制御装置、表示制御方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016213674A true JP2016213674A (ja) | 2016-12-15 |
Family
ID=57222806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015095883A Pending JP2016213674A (ja) | 2015-05-08 | 2015-05-08 | 表示制御システム、表示制御装置、表示制御方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10600218B2 (ja) |
JP (1) | JP2016213674A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112017005508T5 (de) | 2016-10-31 | 2019-09-12 | Thk Co., Ltd. | Linsenbewegungsmechanismus |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6594025B2 (ja) | 2015-05-08 | 2019-10-23 | キヤノン株式会社 | コミュニケーションシステム、その制御方法及びプログラム |
JP2016213677A (ja) | 2015-05-08 | 2016-12-15 | キヤノン株式会社 | 遠隔コミュニケーションシステム、その制御方法、及びプログラム |
US11082660B2 (en) * | 2016-08-01 | 2021-08-03 | Sony Corporation | Information processing device and information processing method |
JP6997514B2 (ja) * | 2016-11-21 | 2022-01-17 | 東芝テック株式会社 | パーティションシステム |
SG10201809572RA (en) * | 2018-10-29 | 2020-05-28 | Nec Asia Pacific Pte Ltd | Methods and apparatus to cluster and collect head-toe lines for automatic camera calibration |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2970661B2 (ja) | 1995-02-16 | 1999-11-02 | 住友電気工業株式会社 | モニタ像の表示方法 |
US6281930B1 (en) * | 1995-10-20 | 2001-08-28 | Parkervision, Inc. | System and method for controlling the field of view of a camera |
US5757424A (en) * | 1995-12-19 | 1998-05-26 | Xerox Corporation | High-resolution video conferencing system |
US6922494B1 (en) | 1999-09-24 | 2005-07-26 | Eye Web, Inc. | Automated image scaling |
JP2001339672A (ja) | 2000-03-24 | 2001-12-07 | Olympus Optical Co Ltd | マルチビジョン装置 |
JP2008191613A (ja) | 2007-02-08 | 2008-08-21 | Dainippon Printing Co Ltd | 遠隔会議システム |
US9813671B2 (en) | 2008-02-04 | 2017-11-07 | Unify Gmbh & Co. Kg | Method and apparatus for enhanced video mixing |
US8300081B1 (en) | 2008-12-11 | 2012-10-30 | Adobe Systems Incorporated | Blending video feeds for visual collaboration |
US8451312B2 (en) | 2010-01-06 | 2013-05-28 | Apple Inc. | Automatic video stream selection |
US10788976B2 (en) * | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US20120293606A1 (en) | 2011-05-20 | 2012-11-22 | Microsoft Corporation | Techniques and system for automatic video conference camera feed selection based on room events |
US8970704B2 (en) * | 2011-06-07 | 2015-03-03 | Verizon Patent And Licensing Inc. | Network synchronized camera settings |
US9030520B2 (en) | 2011-06-20 | 2015-05-12 | Polycom, Inc. | Automatic camera selection for videoconferencing |
NO333184B1 (no) | 2011-08-31 | 2013-03-25 | Cisco Tech Inc | Metode og anordning for samarbeidende representasjon i videokonferanser |
JP5884421B2 (ja) * | 2011-11-14 | 2016-03-15 | ソニー株式会社 | 画像処理装置、画像処理装置の制御方法およびプログラム |
US9001183B2 (en) | 2012-06-15 | 2015-04-07 | Cisco Technology, Inc. | Adaptive switching of views for a video conference that involves a presentation apparatus |
US9088688B2 (en) | 2012-09-05 | 2015-07-21 | Cisco Technology, Inc. | System and method for collaboration revelation and participant stacking in a network environment |
EP2979445A4 (en) * | 2013-03-27 | 2016-08-10 | Bae Sys Inf & Elect Sys Integ | ELECTROOPTICAL FUSION ZOOM CAMERA WITH SEVERAL VIEW FIELDS AND MULTIPLE SENSORS |
US9232183B2 (en) * | 2013-04-19 | 2016-01-05 | At&T Intellectual Property I, Lp | System and method for providing separate communication zones in a large format videoconference |
US8982177B2 (en) * | 2013-07-08 | 2015-03-17 | Avaya Inc. | System and method for whiteboard collaboration |
US9363476B2 (en) | 2013-09-20 | 2016-06-07 | Microsoft Technology Licensing, Llc | Configuration of a touch screen display with conferencing |
US9154697B2 (en) | 2013-12-06 | 2015-10-06 | Google Inc. | Camera selection based on occlusion of field of view |
US10911645B2 (en) * | 2014-09-19 | 2021-02-02 | Nec Corporation | Image processing device, image processing method, and recording medium |
US9449414B1 (en) | 2015-03-05 | 2016-09-20 | Microsoft Technology Licensing, Llc | Collaborative presentation system |
JP2016213677A (ja) | 2015-05-08 | 2016-12-15 | キヤノン株式会社 | 遠隔コミュニケーションシステム、その制御方法、及びプログラム |
JP6594025B2 (ja) | 2015-05-08 | 2019-10-23 | キヤノン株式会社 | コミュニケーションシステム、その制御方法及びプログラム |
-
2015
- 2015-05-08 JP JP2015095883A patent/JP2016213674A/ja active Pending
-
2016
- 2016-04-28 US US15/141,023 patent/US10600218B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112017005508T5 (de) | 2016-10-31 | 2019-09-12 | Thk Co., Ltd. | Linsenbewegungsmechanismus |
Also Published As
Publication number | Publication date |
---|---|
US20160328201A1 (en) | 2016-11-10 |
US10600218B2 (en) | 2020-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016213674A (ja) | 表示制御システム、表示制御装置、表示制御方法、及びプログラム | |
US9900568B2 (en) | Remote communication system, method for controlling remote communication system, and storage medium | |
JP5598232B2 (ja) | 情報処理装置、情報処理システムおよび情報処理方法 | |
JP6946684B2 (ja) | 電子情報ボードシステム、画像処理装置、及びプログラム | |
JP7074056B2 (ja) | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム | |
JP5963006B2 (ja) | 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体 | |
JP2010244322A (ja) | コミュニケーションキャラクター装置、及びそのプログラム | |
US11589001B2 (en) | Information processing apparatus, information processing method, and program | |
JP4960270B2 (ja) | インターホン装置 | |
JP2005117285A (ja) | 情報入力装置、通信端末及び通信方法 | |
JP6090917B2 (ja) | 被写体画像抽出および合成装置、および方法 | |
JP6700672B2 (ja) | 遠隔コミュニケーションシステム、その制御方法、及びプログラム | |
JP6594025B2 (ja) | コミュニケーションシステム、その制御方法及びプログラム | |
JP6541497B2 (ja) | コミュニケーションシステム、その制御方法及びプログラム | |
WO2019138682A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN113170075B (zh) | 信息处理装置、信息处理方法和程序 | |
JP6552978B2 (ja) | 画像合成装置および画像合成プログラム | |
WO2017098999A1 (ja) | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム | |
WO2023080099A1 (ja) | 会議システムの処理方法および会議システムの制御装置 | |
JP2017032757A (ja) | 表示制御装置、表示制御方法、表示制御システム、及び、プログラム | |
JP2010213155A (ja) | ビデオ会議システムおよび方法 | |
JP6170457B2 (ja) | プレゼンテーション管理装置およびプレゼンテーション管理プログラム | |
CN117115400A (zh) | 实时显示全身人体动作的方法、装置、计算机设备及存储介质 | |
JP2009261007A (ja) | インターホンシステム | |
JP2005252913A (ja) | 映像コミュニケーションシステム |