JP6558933B2 - コミュニケーション支援システム、情報処理装置およびその制御方法 - Google Patents

コミュニケーション支援システム、情報処理装置およびその制御方法 Download PDF

Info

Publication number
JP6558933B2
JP6558933B2 JP2015083323A JP2015083323A JP6558933B2 JP 6558933 B2 JP6558933 B2 JP 6558933B2 JP 2015083323 A JP2015083323 A JP 2015083323A JP 2015083323 A JP2015083323 A JP 2015083323A JP 6558933 B2 JP6558933 B2 JP 6558933B2
Authority
JP
Japan
Prior art keywords
image
person
captured
captured image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015083323A
Other languages
English (en)
Other versions
JP2016208079A (ja
JP2016208079A5 (ja
Inventor
央周 佐藤
央周 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015083323A priority Critical patent/JP6558933B2/ja
Priority to US15/096,424 priority patent/US10057315B2/en
Publication of JP2016208079A publication Critical patent/JP2016208079A/ja
Publication of JP2016208079A5 publication Critical patent/JP2016208079A5/ja
Application granted granted Critical
Publication of JP6558933B2 publication Critical patent/JP6558933B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Description

本発明は、地理的に異なる拠点に設置されたコミュニケーション端末が、各拠点で撮像された撮像画像と、ユーザが参照する参照画像とを、ネットワークを介して共有し、ユーザ間のコミュニケーションを支援するシステムに関する。
従来、地理的に異なる拠点に居るユーザが、あたかもガラス越しに対面しているかのような仮想環境を提供するコミュニケーション支援システムがある。
コミュニケーション支援システムには、特許文献1に開示されているものが知られている。特許文献1に記載のコミュニケーション支援システムは、他拠点のコミュニケーション端末と相互に通信を行うコミュニケーション端末と、半透明スクリーンの前に居る操作者を、半透明スクリーンの奥から撮像するカメラとを備える。コミュニケーション端末は、カメラによって撮像された撮像画像を、他拠点のコミュニケーション端末に送信するとともに、他拠点のコミュニケーション端末から撮像画像を受信する。コミュニケーション端末は、受信した撮像画像に対して鏡像化処理を施し、プロジェクタを介して半透明スクリーンに投影する。
各拠点のコミュニケーション端末は、各拠点の操作者が参照する参照画像を共有し、他拠点から受信した撮像画像と参照画像とを重畳表示することにより、各拠点の操作者がコミュニケーションを行うことができる。また、半透明スクリーンの近傍には検出装置が配置され、操作者が半透明スクリーンに対してタッチ操作などを行った場合、コミュニケーション端末は、検出された位置情報に基づいて軌跡画像を生成する。各拠点のコミュニケーション端末は、さらに軌跡画像を共有することにより、各拠点の操作者がお互いに参照画像への文字の書き込みや、参照画像の特定箇所への指示を参照しながらコミュニケーションを行うことができる。
このようなコミュニケーション支援システムにおいて、撮像画像に含まれる操作者の動作と、参照画像に含まれるコンテンツの視認性とを確保する必要がある。なぜなら、動作の視認性とコンテンツの視認性とが両立しない場合、各拠点の操作者同士が正確なコミュニケーションを行えない可能性が生じるからである。
図1(A)は、従来技術におけるコミュニケーション支援システムにおいて、動作の視認性が損なわれている表示例である。図1(A)の表示例において、操作者OPは、参照画像REFに含まれるコンテンツを指示する動作を行っている。このとき、参照画像REFによって操作者OPの指や手が隠れてしまい、操作者OPがどのコンテンツを指示しているかが視認できない。
図1(B)は、従来技術におけるコミュニケーション支援システムにおいて、コンテンツの視認性が損なわれている表示例である。図1(B)の表示例において、操作者OPは、参照画像REFに含まれるコンテンツを指示する動作を行っている。このとき、動作の視認性を確保するために参照画像を半透明にすると、背景や操作者OPの服色などによってコンテンツの視認性が損なわれてしまう。図1(B)の例では、参照画像REFのコンテンツとして折れ線グラフが示されている。参照画像REFは半透明なので、背景の一部である窓Wが透過表示される。その結果、背景の一部である窓Wと、折れ線グラフとが重なって表示されてしまうため、折れ線グラフの視認性が損なわれてしまっている。
スペイン国発明特許第2399263号細書
上記の通り、従来技術におけるコミュニケーション支援システムでは、コンテンツの視認性または操作者の動作の視認性が損なわれてしまい、各拠点の操作者同士が正確なコミュニケーションを行うことが難しかった。
本発明に係るコミュニケーション支援システムは、コミュニケーション支援システムであって、他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、前記受信手段が受信した前記撮像画像を表示する表示手段と、前記表示手段が前記撮像画像の上位レイヤに参照画像を重畳して表示する場合に、前記撮像画像から、前記参照画像が配置される領域の画像をトリミングするトリミング手段と、前記トリミング手段によってトリミングされたトリミング画像の中から、人物に対応する人物部位領域を特定する特定手段と、前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域とは異なる領域を全透明化する処理手段とを備え、前記表示手段は、前記撮像画像の上位レイヤに前記参照画像を重畳し、更に前記処理手段によって処理された前記トリミング画像を前記参照画像の上位レイヤに重畳した出力画像を表示することを特徴とする
本発明によれば、コミュニケーション支援システムにでは、コンテンツの視認性を損なうことなく、操作者の動作の視認性を向上させることができ、各拠点の操作者同士が正確なコミュニケーションを行うことができる。
従来技術のコミュニケーション支援システムにおいて、視認性が損なわれている表示例を示す図である。 実施形態におけるコミュニケーション支援システムの全体構成例を示す図である。 実施形態におけるコミュニケーション端末のハードウェア構成例を示す図である。 実施形態における周辺装置の構成例を示す図である。 実施形態におけるコミュニケーション端末のソフトウェア機能構成を示すブロック図である。 実施形態において、コミュニケーション端末が制御する各種画像の例を示した図である。 実施形態における人体部位可視化処理の内容を示すフローチャートである。 実施形態における人体部位可視化処理の内容を示すフローチャートである。 実施形態における出力画像のレイヤ構成例を示す図である。 実施形態2における人体部位可視化処理の内容を示すフローチャートである。 実施形態2における出力画像のレイヤ構成例を示す図である。
以下、本発明を実施するための形態について図面を用いて説明する。ただし、これらの実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。
[実施形態1]
図2は、本実施形態における、コミュニケーション支援システム1の全体構成例を示す図である。コミュニケーション支援システム1は、各拠点に設置されるコミュニケーション端末と周辺装置とによって構成され、各拠点のコミュニケーション端末はネットワークを介して相互に通信可能に接続される。例えば、拠点Aに設置されるコミュニケーション端末100は、周辺装置である半透明スクリーン111と、カメラ112と、プロジェクタ113と、マイクスピーカ114とインターフェース(以下「I/F」と記す)を介して相互に通信可能に接続される。
拠点Bにおいても、コミュニケーション端末200および周辺装置は同様に構成され、本明細書においては特段の説明がない限り、コミュニケーション端末200および周辺装置は拠点Aのものと同じ構成であるものとして説明する。なお、本実施形態においては、コミュニケーション端末100と周辺装置とがI/Fを介して接続される態様について説明するが、実施形態はこれに限られない。コミュニケーション端末100が周辺装置を含む構成であってもよい。この場合、コミュニケーション端末100は、例えばタブレットなどの一体型ハードウェアとして実現することができる。このようなコミュニケーション端末100は、いわばコミュニケーション支援システム1を構成する情報処理装置といえる。
図3は、本実施形態における、コミュニケーション端末100のハードウェア構成例を示すブロック図である。図3のコミュニケーション端末100は、CPU101、RAM102、ROM103、HDD(ハードディスクドライブ)104、外部接続I/F105、ネットワークI/F106とを含んで構成される。さらに、各構成部はバス107を介して通信可能に接続されている。
CPU101は演算回路からなり、コミュニケーション端末100を統括制御する。CPU101はROM103に記憶されたプログラムコードをRAM102に読み出し、種々の処理を実行する。ROM103は記憶領域としての機能を有し、種々のプログラムが記憶される。HDD104は、補助記憶領域としての機能を有し、種々のデータが記憶される。
外部接続I/F105は、コミュニケーション端末100に種々の機器を接続するためのものである。本実施形態では、コミュニケーション端末100は、外部接続I/F105を介して、周辺装置と接続することができる。ネットワークI/F106は、CPU101の制御に基づいてネットワークNWとコミュニケーション端末100とのデータの入出力を制御する。なお、ネットワークI/F106とネットワークNWとの接続においては、有線による接続または無線による接続のいずれの形態であってもよい。
図4は、本実施形態における、周辺装置の構成例を示す図である。前述の通り、本実施形態における周辺装置には、半透明スクリーン111と、カメラ112と、プロジェクタ113とが含まれる。さらに、本実施形態における周辺装置は、半透明スクリーン111の近傍に、デジタイザ115が配置される。なお、本実施形態では、半透明スクリーン111の前に居る人物として、操作者OP1が半透明スクリーン111前に立ち、コミュニケーション支援システム1に対する各種操作を行う態様について説明する。
カメラ112は、操作者OP1から視て半透明スクリーン111の奥に設置される。カメラ112は、半透明スクリーン111の前に立つ操作者OP1を撮像した撮像画像を、コミュニケーション端末100に送信する。本実施形態では、カメラ112は複数で構成され、複数配置されたカメラ112がステレオ視を行うことにより、カメラ112から操作者OP1までの距離の値を含む距離画像を取得する。カメラ112は、撮像した距離画像を、撮像画像と同様にコミュニケーション端末100に送信する。コミュニケーション端末100は、カメラ112から撮像画像と距離画像とを取得する。変形例においては、周辺機器に距離センサを設け、距離センサから取得した距離情報と、カメラ112が撮像した撮像画像との座標系を幾何変換して対応付けられるように構成してもよい。
交点Oは、カメラ112から半透明スクリーン111への法線が半透明スクリーン111と交わる点を示している。カメラ112は、半透明スクリーン111と、操作者OP1と、操作者OP1が半透明スクリーン111をタッチした指先などの人体部位を撮像可能に配置される。
プロジェクタ113は、コミュニケーション端末100から出力画像を受信して半透明スクリーン111に投影する。このようなプロジェクタ113は、いわばコミュニケーション端末100から出力される画像を表示する表示装置であるといえる。また、コミュニケーション端末100からの出力画像を表示するための装置は、例えばタッチスクリーンディスプレイなどでもよい。
デジタイザ115は、半透明スクリーン111の近傍に配置され、赤外光の送信器と受信器とを有する。デジタイザ115は、例えば、操作者OP1が半透明スクリーン111を指でタッチした際に、送信器から投射した赤外光が指で反射して再び受信器に到達するまでの時間に基づいて、タッチ位置の位置情報を検出する。本実施形態において、位置情報は、半透明スクリーン111の座標系において原点からの相対的な位置を示す座標情報として検出される。デジタイザ115は、検出された座標情報をコミュニケーション端末100に送信する。
次に、コミュニケーション端末100の起動から、各拠点のコミュニケーション端末が相互に通信可能になるまでの状態遷移について説明する。操作者OP1から電源投入指示を受け付けたコミュニケーション端末100は、あらかじめHDD104に格納されたプログラムをRAM102に読み出して実行する。コミュニケーション端末100は、あらかじめHDD104に格納されたコミュニケーション相手の接続先の候補を読み出し、接続先候補画面を作成してプロジェクタ113に送信する。プロジェクタ113は、受信した接続先候補画面を半透明スクリーン111に投影する。操作者OP1は、半透明スクリーン111に投影された接続先候補画面を見て、半透明スクリーン111に対してタッチ操作を行うことにより、コミュニケーション相手の接続先を指定することができる。なお、本実施形態において、接続先とは接続先候補のコミュニケーション端末を識別可能な文字列やアイコンであり、コミュニケーション端末と対応付けられたIPアドレスなどのネットワーク識別子が相当する。
デジタイザ115は、操作者OP1が半透明スクリーン111をタッチしたことを検出し、検出された座標情報をコミュニケーション端末100へ送信する。コミュニケーション端末100は受信した座標情報を元に、接続先候補画面のなかから操作者OP1が指定した接続先を決定する。コミュニケーション端末100は決定した接続先のIPアドレスを参照し、ネットワークI/F106を介してコミュニケーション端末200に接続する。以上により、拠点Aと拠点Bとが相互に通信可能となり、操作者OP1が拠点Bの操作者OP2とあたかもガラス越しに対面しているかのような仮想環境下でコミュニケーションを行うことができる。
図5は、本実施形態における、コミュニケーション支援システム1のソフトウェア機能構成例を示すブロック図である。また、図6は、本実施形態における、コミュニケーション端末100が制御する各種画像の例を示した図である。以下、図5および図6を用いてコミュニケーション支援システム1の処理の遷移について説明する。
図5に示される通り、本実施形態におけるコミュニケーション端末100は、撮像部121と、検出部122と、送信画像生成部123と、送信部124と、受信部125と、出力画像生成部126と、出力部127と、表示部128とを備える。
撮像部121は、撮像画像と距離画像とを取得可能なカメラ112で実現される。検出部122は、半透明スクリーン111の近傍に配置され、半透明スクリーン111への操作に応じて座標情報を検出可能な、デジタイザ115で実現される。さらに、送信画像生成部123は、撮像部121が撮像した撮像画像および距離画像に対して鏡像化処理を施し、鏡像化された撮像画像および距離画像を取得する。送信画像生成部123が鏡像化処理を施す理由は以下の通りである。拠点Bの操作者OP2は、鏡像化された画像を見ることになるが、拠点Aの操作者OP1が透明スクリーン111に対して「ABC」などの文字を描く操作を行った場合、プロジェクタ213から反転された文字が表示されないようにするためである。
次に、送信画像生成部123は、取得した距離画像から、操作者OP1が撮像された人物領域とその他の領域とを区画する輪郭情報を導出する。具体的には、送信画像生成部123は、鏡像化された距離画像に対して所定の閾値を用いて二値化した二値画像を導出する。送信画像生成部123は、二値画像内の所定の閾値以下の領域から、人物領域とその他の領域とを区画する輪郭情報を導出する。ここで、例えば操作者OP1が指示棒のような物体を把持しており、カメラ112から当該物体までの距離の値が所定の閾値内である場合には、送信画像生成部123は、当該指示棒が撮像されている領域も人物領域に含まれるように輪郭情報を導出する。
送信部124は、ネットワークI/F106で実現され、ネットワークNWを介して通信可能に接続される他のコミュニケーション端末に対して、鏡像化された撮像画像、輪郭情報、および座標情報などを送信する。
受信部125は、ネットワークI/F106で実現され、ネットワークNWを介して通信可能に接続される他のコミュニケーション端末から、鏡像化された撮像画像、輪郭情報、および座標情報などを受信する。
図6(B)は、本実施形態において、コミュニケーション端末200から受信した、鏡像化された撮像画像620の例を示す図である。図6(B)に示される通り、撮像画像620には、拠点Bにおける操作者OP2と、拠点Bの背景の一部である窓Wとが含まれる。なお、本実施形態では、コミュニケーション端末100は鏡像化された撮像画像620を受信する態様について説明するが、実施形態はこれに限られない。別実施形態では、コミュニケーション端末100は鏡像化されていない撮像画像と、鏡像化されていない距離画像とを受信し、受信した各画像に対して鏡像化処理を施す態様であってもよい。
操作者OP1は、半透明スクリーン111に表示される、グラフィカルユーザインターフェース(以下「GUI」と記す)の参照画像選択画面(不図示)から、参照画像を選択することができる。操作者OP1からのタッチ操作を受け付けると、出力画像生成部126は、検出部122によって検出された座標情報に応じた参照画像を選択する。出力画像生成部126は、選択された参照画像をHDD104から読み出すとともに、参照画像を表示する参照画像表示位置を決定する。参照画像表示位置は、デスクトップ画像610の座標系における原点からのオフセット値によって特定される。参照画像を拠点Bの表示部でも表示するために、送信部124は、出力画像生成部126によって生成されたものと同じ参照画像と参照画像表示位置とをコミュニケーション端末200に送信する。
図6(C)は、本実施形態において、出力画像生成部126がHDD104から読み出した参照画像630の例を示す図である。本例では、電子資料の画像である複数の折れ線グラフを含む参照画像630を例示したが、実施形態はこれに限られない。例えば文章からなる文書画像や、写真からなる写真画像など、種々の画像を参照画像630として用いることができる。
次に、出力画像生成部126は、検出部122によって検出された座標情報と、コミュニケーション端末200から受信した座標情報とに基づいて、操作者OP1およびOP2による操作の内容を表現する軌跡画像を生成する。
図6(D)は、本実施形態において、出力画像生成部126が生成した軌跡画像640の例を示す図である。本例では、操作者OP2が、参照画像内の折れ線グラフの特定の箇所を指示するために、半透明スクリーン211に描いた「矢印」の軌跡が、軌跡画像640に含まれている。本実施形態では、出力画像生成部126は、軌跡箇所を不透明とし、軌跡箇所以外の領域は透明とするように軌跡画像640を生成する。
次に、出力画像生成部126は、デスクトップ画像610と、撮像画像620と、参照画像620と、軌跡画像640とを重畳した出力画像を生成する。図6(E)は、本実施形態において、出力画像生成部126が生成した出力画像650の例を示す図である。本実施形態では、デスクトップ画像610、撮像画像620、参照画像630、および軌跡画像640はそれぞれレイヤ画像として操作することができる。また、デスクトップ画像610、撮像画像620、軌跡画像640の縦横の画素数は同じに構成される。本実施形態では、出力画像生成部126は、撮像画像620の上位レイヤに参照画像630を配置し、参照画像630の上位レイヤに軌跡画像640を配置する。
ここで、撮像画像620の上位レイヤに参照画像630を配置する際、参照画像630の表示領域内において操作者OP2の人物領域と重なる領域が存在する場合がある。例えば、操作者OP2が、指や手などの人体部位で参照画像に含まれる特定のコンテンツを指示する場合、参照画像630は撮像画像620の上位レイヤに配置されるため、指や手などの人体部位領域が、参照画像630の背後に隠れてしまう。そのため、本実施形態において、出力画像生成部126は、参照画像630の表示領域内において人物領域と重なる人体部位領域651に対して可視化処理を行う。具体的には、先ず出力画像生成部126は、輪郭情報に基づいて、撮像画像における操作者OP2が撮像されている人物領域を特定する。次に、出力画像生成部126は、参照画像630の表示領域内において人物領域を含む人体部位領域に対して可視化処理を施す。このとき、参照画像630の表示領域内における背景の窓Wについては、視認性を確保する必要が無いため、人体部位領域外に対して全透明化処理を施すなどの不可視化処理を行う。
可視化処理の結果、図6(E)に示される通り、参照画像630の表示領域内における人体部位領域651は半透明で出力され、窓Wは参照画像630の背後に隠れるように、出力画像650が生成される。
表示部128は、プロジェクタ113で実現される。プロジェクタ113は、出力部127を介して出力画像650を取得し、取得した出力画像650を半透明スクリーン111に投影する。
図6(E)に示される通り、出力画像650は、参照画像630のコンテンツの視認性を損なうことなく、操作者OP2の動作の視認性が向上している。そのため、拠点Aの操作者OP1は、操作者OP2の動作と、参照画像630のコンテンツを参照して、拠点Bの操作者OP2と正確なコミュニケーションを行うことができる。
図7は、本実施形態における、人体部位可視化処理の内容を示すフローチャートである。なお、図7に示されるフローチャートによる処理は、HDD104に格納されたプログラムコードがRAM102に展開され、CPU101によって実行される。
S10において、出力画像生成部126は、撮像画像を更新するか否かを判定する。出力画像生成部126は、コミュニケーション端末200から撮像画像と輪郭情報とを受信したときに撮像画像を更新すると判定し(S10:Yes)、受信した撮像画像と輪郭情報とをRAM102に格納し、S100に移行する。一方、出力画像生成部126は、コミュニケーション端末200から撮像画像と輪郭情報とを受信していない場合は撮像画像を更新しないと判定し(S10:No)、S20に移行する。
S20において、出力画像生成部126は、参照画像を更新するか否かを判定する。出力画像生成部126は、透明スクリーン111に表示される各種GUIへのタッチ操作が検出され、参照画像の読み出し、表示、非表示、移動、拡大縮小、ページめくり等の指示を受け付けたときに参照画像を更新すると判定する。また、コミュニケーション端末200から参照画像または参照画像表示位置を受信したときも参照画像を更新すると判定する。参照画像を更新すると判定した場合(S20:Yes)、出力画像生成部126は参照画像と参照画像表示位置とを更新するとともに、それらをRAM102に格納する。送信部124は更新した参照画像と参照画像表示位置とをコミュニケーション端末200に送信する。送信した後、S100に移行する。参照画像を更新しないと判定した場合(S20:No)、図7のフローチャートの処理を終了する。
S100において、出力画像生成部126は、RAM102から撮像画像と、輪郭情報と、参照画像と、参照画像表示位置とを読み出して人体部位可視化処理を行う。S100の詳細な処理内容については後述する。
図8は、本実施形態における、出力画像生成部126の人体部位可視化処理(S100)の内容を説明するフローチャートである。以下、図8を用いて人体部位可視化処理(S100)の処理内容を説明する。なお、図8に示されるフローチャートによる処理は、HDD104に格納されたプログラムコードがRAM102に展開され、CPU101によって実行される。
S101において、出力画像生成部126は、コミュニケーション端末200から受信した撮像画像620と輪郭情報とをRAM102から読み出す。
S102において、出力画像生成部126は、輪郭情報を用いて、撮像画像620内において操作者OP2が撮像されている人物領域を特定する。
S103において、出力画像生成部126は、撮像画像620を参照画像630の表示領域でトリミングしたトリミング画像900を取得する。
S104において、出力画像生成部126は、トリミング画像900における人体部位領域901に対して所定の透明度で透明化処理する。前述の通り、人体部位領域901とは、参照画像630の表示領域内において、操作者OP2の人物領域と重なる領域をいう。出力画像生成部126は、処理対象である人体部位領域901に対して透明化処理を施す。
S105において、出力画像生成部126は、トリミング画像900における人体部位領域外902を全透明化処理する。
S106において、出力画像生成部126は、透明化処理された人体部位領域901を含むトリミング画像900を、参照画像630の上位レイヤに配置する。
図9は、本実施形態における、出力画像650のレイヤ構成例を示す図である。デスクトップ画像610は、撮像画像620の縦横と同じ画素数によって構成され、出力画像650の最も下位のレイヤに配置される。デスクトップ画像610の上位レイヤには、撮像画像620が配置される。
参照画像630は、撮像画像620の上位レイヤに配置される。本実施形態において、参照画像630は、撮像画像620の縦横よりも少ない画素数によって構成され、撮像画像620の表示領域内における任意の位置に配置される。
トリミング画像900は、透明化処理された人体部位領域901と、全透明化処理された人体部位領域外902とを含み、参照画像630の縦横と同じ画素数によって構成される。人体部位領域901に対して透明化処理が施されたトリミング画像900は、参照画像630の上位レイヤに重合するように配置される。軌跡画像640は、デスクトップ画像610および撮像画像620の縦横と同じ画素数によって構成され、出力画像650のレイヤ構成の中で最も上位に配置される。
以上説明した通り、出力画像生部126は、図9に示される通りにレイヤ画像を配置することにより、出力画像650を生成する。出力画像生成部126は、生成した出力画像650を、出力部127を介して表示部128に表示することができる。かかる構成により、本実施形態におけるコミュニケーション端末100は、参照画像630のコンテンツの視認性を損なうことなく、操作者OP2の動作の視認性を向上させることができ、各拠点の操作者同士が正確なコミュニケーションを行うことができる。
[実施形態2]
図10は、本実施形態における、出力画像生成部126の人体部位可視化処理(S100)の内容を説明するフローチャートである。以下、図10を用いて人体部位可視化処理(S100)の処理内容を説明する。なお、図10に示されるフローチャートによる処理は、HDD104に格納されたプログラムコードがRAM102に展開され、CPU101によって実行される。
S101において、出力画像生成部126は、コミュニケーション端末200から受信した撮像画像620と輪郭情報とをRAM102から読み出す。
S1002において、出力画像生成部126は、参照画像1110をRAM102から読み出す。次いで、出力画像生成部126は、参照画像1100における操作者OP2の人体部位領域1101に対応する領域に対して、所定の透明度で透明化処理を行う。前述の通り、人体部位領域1101とは、参照画像1100の表示領域内において、操作者OP2の人物領域と重なる領域をいう。本実施形態では、人体部位領域1101に対して透明化処理を行うものではなく、参照画像1100における人体部位領域1101に対応する領域を処理対象とし、当該領域に対して透明化処理を行う。
S1003において、出力画像生成部126は、参照画像1100における操作者OP2の人体部位領域外1102に対応する領域を不透明化処理する。S1003においても同様に、人体部位領域外1102に対して不透明化処理を行うものではなく、参照画像1100における人体部位領域外1102に対応する領域を特定し、当該領域に対して不透明化処理を行う。
図11は、本実施形態における、出力画像650のレイヤ構成例を示す図である。デスクトップ画像610は、撮像画像620の縦横と同じ画素数によって構成され、出力画像650の最も下位のレイヤに配置される。デスクトップ画像610の上位レイヤには、撮像画像620が配置される。
参照画像1100は、撮像画像620の上位レイヤに配置される。本実施形態において、参照画像1100は、撮像画像620の縦横よりも少ない画素数によって構成され、撮像画像620の表示領域内における任意の位置に配置される。軌跡画像640は、デスクトップ画像610および撮像画像620の縦横と同じ画素数によって構成され、出力画像650のレイヤ構成の中で最も上位に配置される。
以上説明した通り、出力画像生部126は、図11に示される通りにレイヤ画像を配置することにより、出力画像650を生成する。このように、本実施形態では、実施形態1におけるトリミング画像900を生成することなく、可視化処理を施した人体部位領域1101を含む出力画像650を生成することができる。かかる構成により、本実施形態におけるコミュニケーション端末100は、参照画像630のコンテンツの視認性を損なうことなく、操作者OP2の動作の視認性を向上させることができ、各拠点の操作者同士が正確なコミュニケーションを行うことができる。
[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (18)

  1. コミュニケーション支援システムであって、
    他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、
    前記受信手段が受信した前記撮像画像を表示する表示手段と、
    前記表示手段が前記撮像画像の上位レイヤに参照画像を重畳して表示する場合に、前記撮像画像から、前記参照画像が配置される領域の画像をトリミングするトリミング手段と、
    前記トリミング手段によってトリミングされたトリミング画像の中から、人物に対応する人物部位領域を特定する特定手段と、
    前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域とは異なる領域を全透明化する処理手段とを備え、
    前記表示手段は、前記撮像画像の上位レイヤに前記参照画像を重畳し、更に前記処理手段によって処理された前記トリミング画像を前記参照画像の上位レイヤに重畳した出力画像を表示することを特徴とするコミュニケーション支援システム。
  2. 前記処理手段は、前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域を半透明化することを特徴とする請求項1に記載のコミュニケーション支援システム。
  3. 前記特定手段は、前記撮像画像から人物に対応する人物領域を特定し、前記撮像画像から特定した人物領域のうち前記参照画像が配置される領域と重なる領域を、前記人物部位領域として特定することを特徴とする請求項1または2に記載のコミュニケーション支援システム。
  4. 前記特定手段は、前記撮像画像において人物が把持している物体に対応する領域も、前記人物に対応する人物領域として特定することを特徴とする請求項3に記載のコミュニケーション支援システム。
  5. 前記特定手段は、前記トリミング手段によってトリミングされたトリミング画像の中から、前記人物が把持している物体に対応する領域も前記人物部位領域として特定することを特徴とする請求項1乃至4のいずれか1項に記載のコミュニケーション支援システム。
  6. 前記撮像画像は、被写体を撮像するカメラから当該被写体までの距離の値を含む距離画像であり、
    前記特定手段は、前記距離画像の距離の値に基づいて、前記人物部位領域を特定することを特徴とする請求項1乃至5のいずれか1項に記載のコミュニケーション支援システム。
  7. 前記受信手段が受信した、他拠点で検出された位置情報に基づいて、前記人物による操作の内容を表現する軌跡画像を生成する画像生成手段をさらに備え、
    前記表示手段は、前記軌跡画像を前記トリミング画像の上位レイヤに重畳した前記出力画像を表示することを特徴とする請求項1乃至6のいずれか1項に記載のコミュニケーション支援システム。
  8. 前記表示手段は、スクリーンに画像を投影するプロジェクタであることを特徴とする請求項1乃至7のいずれか1項に記載のコミュニケーション支援システム。
  9. 前記参照画像は、電子資料、文書画像、写真画像のいずれかであることを特徴とする請求項1乃至8のいずれか1項に記載のコミュニケーション支援システム。
  10. コミュニケーション支援システムであって、
    他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、
    前記受信手段が受信した前記撮像画像を表示する表示手段と、
    前記表示手段が前記撮像画像の上位レイヤに参照画像を重畳して表示する場合に、前記参照画像の中から、人物に対応する人物領域を特定する特定手段と、
    前記参照画像のうち、前記特定手段によって特定された前記人物領域を半透明化する処理手段と、を備え、
    前記表示手段は、前記撮像画像の上位レイヤに前記参照画像を重畳した出力画像を表示することを特徴とするコミュニケーション支援システム。
  11. コミュニケーション支援システムを構成する情報処理装置であって、
    他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、
    前記受信手段が受信した前記撮像画像から、参照画像が配置される領域の画像をトリミングするトリミング手段と、
    前記トリミング手段によってトリミングされたトリミング画像の中から、人物に対応する人物部位領域を特定する特定手段と、
    前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域とは異なる領域を全透明化する処理手段と、
    前記撮像画像の上位レイヤに前記参照画像を重畳し、更に前記処理手段によって処理された前記トリミング画像を前記参照画像の上位レイヤに重畳した、出力用の出力画像を生成する画像生成手段と、を備えることを特徴とする情報処理装置。
  12. 前記処理手段は、前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域を半透明化することを特徴とする請求項11に記載の情報処理装置。
  13. 前記特定手段は、前記撮像画像から人物に対応する人物領域を特定し、前記撮像画像から特定した人物領域のうち前記参照画像と重なる領域を、前記人物部位領域として特定することを特徴とする請求項11または12に記載の情報処理装置。
  14. 前記特定手段は、前記撮像画像において人物が把持している物体に対応する領域も、前記人物に対応する人物領域として特定することを特徴とする請求項13に記載の情報処理装置。
  15. 前記特定手段は、前記トリミング手段によってトリミングされたトリミング画像の中から、前記人物が把持している物体に対応する領域も前記人物部位領域として特定することを特徴とする請求項11乃至14のいずれか1項に記載の情報処理装置。
  16. 前記撮像画像は、被写体を撮像するカメラから当該被写体までの距離の値を含む距離画像であり、
    前記特定手段は、前記距離画像の距離の値に基づいて、前記人物部位領域を特定することを特徴とする請求項11乃至15のいずれか1項に記載の情報処理装置。
  17. 前記参照画像は、電子資料、文書画像、写真画像のいずれかであることを特徴とする請求項11乃至16のいずれか1項に記載の情報処理装置。
  18. コミュニケーション支援システムを構成する情報処理装置の制御方法であって、
    他拠点で撮像された撮像画像を、ネットワークを介して受信する受信ステップと、
    前記受信ステップによって受信された前記撮像画像を表示する表示ステップと、
    前記表示ステップによって前記撮像画像の上位レイヤに参照画像が重畳して表示される場合に、前記撮像画像から、前記参照画像が配置される領域の画像をトリミングするトリミングステップと、
    前記トリミングステップによってトリミングされたトリミング画像の中から、人物に対応する人物領域を特定する特定ステップと、
    前記トリミング画像のうち、前記特定ステップによって特定された前記人物領域とは異なる領域を全透明化する処理ステップとを備え、
    前記表示ステップにおいて、前記撮像画像の上位レイヤに前記参照画像が重畳され、更に前記処理ステップによって処理された前記トリミング画像が前記参照画像の上位レイヤに重畳される出力画像が表示される
    ことを特徴とする情報処理装置の制御方法。
JP2015083323A 2015-04-15 2015-04-15 コミュニケーション支援システム、情報処理装置およびその制御方法 Expired - Fee Related JP6558933B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015083323A JP6558933B2 (ja) 2015-04-15 2015-04-15 コミュニケーション支援システム、情報処理装置およびその制御方法
US15/096,424 US10057315B2 (en) 2015-04-15 2016-04-12 Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015083323A JP6558933B2 (ja) 2015-04-15 2015-04-15 コミュニケーション支援システム、情報処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2016208079A JP2016208079A (ja) 2016-12-08
JP2016208079A5 JP2016208079A5 (ja) 2018-05-17
JP6558933B2 true JP6558933B2 (ja) 2019-08-14

Family

ID=57128920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015083323A Expired - Fee Related JP6558933B2 (ja) 2015-04-15 2015-04-15 コミュニケーション支援システム、情報処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US10057315B2 (ja)
JP (1) JP6558933B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI615596B (zh) * 2016-08-05 2018-02-21 致伸科技股份有限公司 車用投射系統
JP7371369B2 (ja) 2018-07-31 2023-10-31 株式会社リコー 通信端末および画像通信システム
US20220116552A1 (en) * 2020-10-08 2022-04-14 Vidiplus, Ltd System and/or Method for Enhancing Content in Live Streaming Video

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353450B1 (en) * 1999-02-16 2002-03-05 Intel Corporation Placing and monitoring transparent user interface elements in a live video stream as a method for user input
JP2005117285A (ja) * 2003-10-07 2005-04-28 Hitachi Ltd 情報入力装置、通信端末及び通信方法
US7492386B2 (en) * 2004-11-05 2009-02-17 Sony Ericsson Mobile Communications Ab Display management during a multi-party conversation
EP1681656A1 (en) * 2005-01-18 2006-07-19 Oculus Info Inc. System and method for processing map data
US8294823B2 (en) * 2006-08-04 2012-10-23 Apple Inc. Video communication systems and methods
JP2009071478A (ja) * 2007-09-12 2009-04-02 Sharp Corp 情報通信端末および情報通信システム
US8390718B2 (en) * 2009-01-28 2013-03-05 Hewlett-Packard Development Company, L.P. Methods and systems for performing visual collaboration between remotely situated participants
IT1393271B1 (it) * 2009-02-18 2012-04-12 Univ Roma Batteria litio-ione con elevato grado di sicurezza
US9628722B2 (en) * 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
US8749704B2 (en) * 2010-05-18 2014-06-10 Panasonic Corporation Video terminal and method for forming display images
US9183560B2 (en) * 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
ES2399263B1 (es) * 2010-10-22 2014-01-30 Ignacio Mondine Natucci Sistema de videoconferencia para colaboración remota bidireccional sobre una pantalla de ordenador.
US9055186B2 (en) * 2013-07-23 2015-06-09 Personify, Inc Systems and methods for integrating user personas with content during video conferencing
KR102135367B1 (ko) * 2014-01-23 2020-07-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9460340B2 (en) * 2014-01-31 2016-10-04 Google Inc. Self-initiated change of appearance for subjects in video and images

Also Published As

Publication number Publication date
US20160307349A1 (en) 2016-10-20
JP2016208079A (ja) 2016-12-08
US10057315B2 (en) 2018-08-21

Similar Documents

Publication Publication Date Title
US9965039B2 (en) Device and method for displaying user interface of virtual input device based on motion recognition
US20170255450A1 (en) Spatial cooperative programming language
US11090555B2 (en) Information processing method and apparatus, storage medium and electronic device
CN105302784B (zh) 复制/剪切和粘贴数据的方法和系统
US20160292922A1 (en) Display control device, display control method, and recording medium
US20180013957A1 (en) Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program
US20160291687A1 (en) Display control device, display control method, and recording medium
KR20150094481A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US10810801B2 (en) Method of displaying at least one virtual object in mixed reality, and an associated terminal and system
CN106993091B (zh) 一种图像虚化方法及移动终端
JP7033218B2 (ja) 仮想オブジェクトとしての物理入力デバイスの表示
JP2018005477A (ja) 表示制御プログラム、表示制御方法および表示制御装置
US10416783B2 (en) Causing specific location of an object provided to a device
WO2022048373A1 (zh) 图像处理方法、移动终端及存储介质
JP6558933B2 (ja) コミュニケーション支援システム、情報処理装置およびその制御方法
JP2015069365A (ja) 情報処理装置、および制御プログラム
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
US20160321968A1 (en) Information processing method and electronic device
CN111010528A (zh) 视频通话方法、移动终端及计算机可读存储介质
JP2013152529A (ja) 情報処理装置及びその制御方法
WO2021225044A1 (ja) 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
CN107025051B (zh) 信息嵌入方法、装置和客户端设备
JP6999822B2 (ja) 端末装置および端末装置の制御方法
KR102320203B1 (ko) 3차원 가상 공간을 표시하는 전자 장치 및 그 제어 방법
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190716

R151 Written notification of patent or utility model registration

Ref document number: 6558933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees