JP6558933B2 - Communication support system, information processing apparatus and control method thereof - Google Patents
Communication support system, information processing apparatus and control method thereof Download PDFInfo
- Publication number
- JP6558933B2 JP6558933B2 JP2015083323A JP2015083323A JP6558933B2 JP 6558933 B2 JP6558933 B2 JP 6558933B2 JP 2015083323 A JP2015083323 A JP 2015083323A JP 2015083323 A JP2015083323 A JP 2015083323A JP 6558933 B2 JP6558933 B2 JP 6558933B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- captured
- captured image
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004891 communication Methods 0.000 title claims description 99
- 238000000034 method Methods 0.000 title claims description 37
- 230000010365 information processing Effects 0.000 title claims description 12
- 238000012545 processing Methods 0.000 claims description 21
- 238000009966 trimming Methods 0.000 claims description 18
- 239000012776 electronic material Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 description 31
- 210000000746 body region Anatomy 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000012800 visualization Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 12
- 230000001771 impaired effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/026—Control of mixing and/or overlay of colours in general
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/764—Media network packet handling at the destination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Processing (AREA)
- Telephone Function (AREA)
Description
本発明は、地理的に異なる拠点に設置されたコミュニケーション端末が、各拠点で撮像された撮像画像と、ユーザが参照する参照画像とを、ネットワークを介して共有し、ユーザ間のコミュニケーションを支援するシステムに関する。 In the present invention, communication terminals installed at geographically different locations share a captured image captured at each location and a reference image referred to by a user via a network to support communication between users. About the system.
従来、地理的に異なる拠点に居るユーザが、あたかもガラス越しに対面しているかのような仮想環境を提供するコミュニケーション支援システムがある。 2. Description of the Related Art Conventionally, there is a communication support system that provides a virtual environment as if users at geographically different locations face each other through glass.
コミュニケーション支援システムには、特許文献1に開示されているものが知られている。特許文献1に記載のコミュニケーション支援システムは、他拠点のコミュニケーション端末と相互に通信を行うコミュニケーション端末と、半透明スクリーンの前に居る操作者を、半透明スクリーンの奥から撮像するカメラとを備える。コミュニケーション端末は、カメラによって撮像された撮像画像を、他拠点のコミュニケーション端末に送信するとともに、他拠点のコミュニケーション端末から撮像画像を受信する。コミュニケーション端末は、受信した撮像画像に対して鏡像化処理を施し、プロジェクタを介して半透明スクリーンに投影する。 A communication support system disclosed in Patent Document 1 is known. The communication support system described in Patent Document 1 includes a communication terminal that communicates with a communication terminal at another base, and a camera that captures an operator in front of the translucent screen from the back of the translucent screen. The communication terminal transmits the captured image captured by the camera to the communication terminal at the other base and receives the captured image from the communication terminal at the other base. The communication terminal performs a mirroring process on the received captured image and projects it on a translucent screen via a projector.
各拠点のコミュニケーション端末は、各拠点の操作者が参照する参照画像を共有し、他拠点から受信した撮像画像と参照画像とを重畳表示することにより、各拠点の操作者がコミュニケーションを行うことができる。また、半透明スクリーンの近傍には検出装置が配置され、操作者が半透明スクリーンに対してタッチ操作などを行った場合、コミュニケーション端末は、検出された位置情報に基づいて軌跡画像を生成する。各拠点のコミュニケーション端末は、さらに軌跡画像を共有することにより、各拠点の操作者がお互いに参照画像への文字の書き込みや、参照画像の特定箇所への指示を参照しながらコミュニケーションを行うことができる。 The communication terminal at each site shares the reference image referred to by the operator at each site, and the operator at each site can communicate by superimposing the captured image and the reference image received from other sites. it can. In addition, a detection device is disposed in the vicinity of the translucent screen, and when the operator performs a touch operation or the like on the translucent screen, the communication terminal generates a trajectory image based on the detected position information. The communication terminal at each site can further share the trajectory image so that operators at each site can communicate with each other while referring to the writing of characters on the reference image and instructions to a specific location on the reference image. it can.
このようなコミュニケーション支援システムにおいて、撮像画像に含まれる操作者の動作と、参照画像に含まれるコンテンツの視認性とを確保する必要がある。なぜなら、動作の視認性とコンテンツの視認性とが両立しない場合、各拠点の操作者同士が正確なコミュニケーションを行えない可能性が生じるからである。 In such a communication support system, it is necessary to ensure the operation of the operator included in the captured image and the visibility of the content included in the reference image. This is because if the visibility of the operation and the visibility of the content are not compatible, there is a possibility that operators at each base cannot communicate accurately.
図1(A)は、従来技術におけるコミュニケーション支援システムにおいて、動作の視認性が損なわれている表示例である。図1(A)の表示例において、操作者OPは、参照画像REFに含まれるコンテンツを指示する動作を行っている。このとき、参照画像REFによって操作者OPの指や手が隠れてしまい、操作者OPがどのコンテンツを指示しているかが視認できない。 FIG. 1A is a display example in which the visibility of the operation is impaired in the communication support system in the prior art. In the display example of FIG. 1A, the operator OP performs an operation of instructing the content included in the reference image REF. At this time, the finger or hand of the operator OP is hidden by the reference image REF, and it is impossible to visually recognize which content the operator OP indicates.
図1(B)は、従来技術におけるコミュニケーション支援システムにおいて、コンテンツの視認性が損なわれている表示例である。図1(B)の表示例において、操作者OPは、参照画像REFに含まれるコンテンツを指示する動作を行っている。このとき、動作の視認性を確保するために参照画像を半透明にすると、背景や操作者OPの服色などによってコンテンツの視認性が損なわれてしまう。図1(B)の例では、参照画像REFのコンテンツとして折れ線グラフが示されている。参照画像REFは半透明なので、背景の一部である窓Wが透過表示される。その結果、背景の一部である窓Wと、折れ線グラフとが重なって表示されてしまうため、折れ線グラフの視認性が損なわれてしまっている。 FIG. 1B is a display example in which the visibility of content is impaired in the communication support system in the prior art. In the display example of FIG. 1B, the operator OP performs an operation of instructing the content included in the reference image REF. At this time, if the reference image is made semi-transparent in order to ensure the visibility of the operation, the visibility of the content is impaired due to the background, the clothes color of the operator OP, and the like. In the example of FIG. 1B, a line graph is shown as the content of the reference image REF. Since the reference image REF is translucent, the window W which is a part of the background is transparently displayed. As a result, the window W, which is a part of the background, and the line graph are displayed in an overlapping manner, and the visibility of the line graph is impaired.
上記の通り、従来技術におけるコミュニケーション支援システムでは、コンテンツの視認性または操作者の動作の視認性が損なわれてしまい、各拠点の操作者同士が正確なコミュニケーションを行うことが難しかった。 As described above, in the communication support system in the prior art, the visibility of content or the visibility of the operation of the operator is impaired, and it is difficult for operators at each base to communicate accurately.
本発明に係るコミュニケーション支援システムは、コミュニケーション支援システムであって、他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、前記受信手段が受信した前記撮像画像を表示する表示手段と、前記表示手段が前記撮像画像の上位レイヤに参照画像を重畳して表示する場合に、前記撮像画像から、前記参照画像が配置される領域の画像をトリミングするトリミング手段と、前記トリミング手段によってトリミングされたトリミング画像の中から、人物に対応する人物部位領域を特定する特定手段と、前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域とは異なる領域を全透明化する処理手段とを備え、前記表示手段は、前記撮像画像の上位レイヤに前記参照画像を重畳し、更に前記処理手段によって処理された前記トリミング画像を前記参照画像の上位レイヤに重畳した出力画像を表示することを特徴とする。 The communication support system according to the present invention is a communication support system, and includes a receiving unit that receives a captured image captured at another site via a network, and a display unit that displays the captured image received by the receiving unit. And, when the display means displays a reference image superimposed on an upper layer of the captured image, the trimming means for trimming an image of a region where the reference image is arranged from the captured image, and the trimming means A specifying unit that specifies a person part region corresponding to a person from the trimmed trimmed image, and a process of making the region different from the person part region specified by the specifying unit out of the trimmed image completely transparent And the display means superimposes the reference image on an upper layer of the captured image. Further characterized in that to display the output image obtained by superimposing the trimming image processed by said processing means to the upper layer of the reference image.
本発明によれば、コミュニケーション支援システムにでは、コンテンツの視認性を損なうことなく、操作者の動作の視認性を向上させることができ、各拠点の操作者同士が正確なコミュニケーションを行うことができる。 According to the present invention, in the communication support system, the visibility of the operation of the operator can be improved without impairing the visibility of the content, and the operators at each base can communicate accurately. .
以下、本発明を実施するための形態について図面を用いて説明する。ただし、これらの実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. However, the components described in these embodiments are merely examples, and are not intended to limit the scope of the present invention.
[実施形態1]
図2は、本実施形態における、コミュニケーション支援システム1の全体構成例を示す図である。コミュニケーション支援システム1は、各拠点に設置されるコミュニケーション端末と周辺装置とによって構成され、各拠点のコミュニケーション端末はネットワークを介して相互に通信可能に接続される。例えば、拠点Aに設置されるコミュニケーション端末100は、周辺装置である半透明スクリーン111と、カメラ112と、プロジェクタ113と、マイクスピーカ114とインターフェース(以下「I/F」と記す)を介して相互に通信可能に接続される。
[Embodiment 1]
FIG. 2 is a diagram illustrating an example of the overall configuration of the communication support system 1 in the present embodiment. The communication support system 1 includes a communication terminal and peripheral devices installed at each base, and the communication terminals at each base are connected to each other via a network so that they can communicate with each other. For example, the communication terminal 100 installed at the site A is mutually connected via a translucent screen 111, which is a peripheral device, a camera 112, a projector 113, a microphone speaker 114, and an interface (hereinafter referred to as “I / F”). To be communicable.
拠点Bにおいても、コミュニケーション端末200および周辺装置は同様に構成され、本明細書においては特段の説明がない限り、コミュニケーション端末200および周辺装置は拠点Aのものと同じ構成であるものとして説明する。なお、本実施形態においては、コミュニケーション端末100と周辺装置とがI/Fを介して接続される態様について説明するが、実施形態はこれに限られない。コミュニケーション端末100が周辺装置を含む構成であってもよい。この場合、コミュニケーション端末100は、例えばタブレットなどの一体型ハードウェアとして実現することができる。このようなコミュニケーション端末100は、いわばコミュニケーション支援システム1を構成する情報処理装置といえる。 In the base B, the communication terminal 200 and peripheral devices are configured in the same manner. In the present specification, the communication terminal 200 and the peripheral devices are assumed to have the same configuration as that of the base A unless otherwise specified. In addition, although this embodiment demonstrates the aspect in which the communication terminal 100 and a peripheral device are connected via I / F, embodiment is not restricted to this. The communication terminal 100 may include a peripheral device. In this case, the communication terminal 100 can be realized as integrated hardware such as a tablet. Such a communication terminal 100 can be said to be an information processing apparatus constituting the communication support system 1.
図3は、本実施形態における、コミュニケーション端末100のハードウェア構成例を示すブロック図である。図3のコミュニケーション端末100は、CPU101、RAM102、ROM103、HDD(ハードディスクドライブ)104、外部接続I/F105、ネットワークI/F106とを含んで構成される。さらに、各構成部はバス107を介して通信可能に接続されている。 FIG. 3 is a block diagram illustrating a hardware configuration example of the communication terminal 100 in the present embodiment. The communication terminal 100 in FIG. 3 includes a CPU 101, a RAM 102, a ROM 103, an HDD (hard disk drive) 104, an external connection I / F 105, and a network I / F 106. Furthermore, each component is connected to be communicable via a bus 107.
CPU101は演算回路からなり、コミュニケーション端末100を統括制御する。CPU101はROM103に記憶されたプログラムコードをRAM102に読み出し、種々の処理を実行する。ROM103は記憶領域としての機能を有し、種々のプログラムが記憶される。HDD104は、補助記憶領域としての機能を有し、種々のデータが記憶される。 The CPU 101 includes an arithmetic circuit and controls the communication terminal 100 as a whole. The CPU 101 reads the program code stored in the ROM 103 into the RAM 102 and executes various processes. The ROM 103 has a function as a storage area and stores various programs. The HDD 104 has a function as an auxiliary storage area and stores various data.
外部接続I/F105は、コミュニケーション端末100に種々の機器を接続するためのものである。本実施形態では、コミュニケーション端末100は、外部接続I/F105を介して、周辺装置と接続することができる。ネットワークI/F106は、CPU101の制御に基づいてネットワークNWとコミュニケーション端末100とのデータの入出力を制御する。なお、ネットワークI/F106とネットワークNWとの接続においては、有線による接続または無線による接続のいずれの形態であってもよい。 The external connection I / F 105 is for connecting various devices to the communication terminal 100. In the present embodiment, the communication terminal 100 can be connected to a peripheral device via the external connection I / F 105. The network I / F 106 controls data input / output between the network NW and the communication terminal 100 based on the control of the CPU 101. Note that the connection between the network I / F 106 and the network NW may be either a wired connection or a wireless connection.
図4は、本実施形態における、周辺装置の構成例を示す図である。前述の通り、本実施形態における周辺装置には、半透明スクリーン111と、カメラ112と、プロジェクタ113とが含まれる。さらに、本実施形態における周辺装置は、半透明スクリーン111の近傍に、デジタイザ115が配置される。なお、本実施形態では、半透明スクリーン111の前に居る人物として、操作者OP1が半透明スクリーン111前に立ち、コミュニケーション支援システム1に対する各種操作を行う態様について説明する。 FIG. 4 is a diagram illustrating a configuration example of the peripheral device in the present embodiment. As described above, the peripheral devices in the present embodiment include the translucent screen 111, the camera 112, and the projector 113. Further, in the peripheral device according to the present embodiment, a digitizer 115 is disposed in the vicinity of the translucent screen 111. In the present embodiment, a mode in which the operator OP1 stands in front of the translucent screen 111 and performs various operations on the communication support system 1 as a person in front of the translucent screen 111 will be described.
カメラ112は、操作者OP1から視て半透明スクリーン111の奥に設置される。カメラ112は、半透明スクリーン111の前に立つ操作者OP1を撮像した撮像画像を、コミュニケーション端末100に送信する。本実施形態では、カメラ112は複数で構成され、複数配置されたカメラ112がステレオ視を行うことにより、カメラ112から操作者OP1までの距離の値を含む距離画像を取得する。カメラ112は、撮像した距離画像を、撮像画像と同様にコミュニケーション端末100に送信する。コミュニケーション端末100は、カメラ112から撮像画像と距離画像とを取得する。変形例においては、周辺機器に距離センサを設け、距離センサから取得した距離情報と、カメラ112が撮像した撮像画像との座標系を幾何変換して対応付けられるように構成してもよい。 The camera 112 is installed behind the translucent screen 111 as viewed from the operator OP1. The camera 112 transmits a captured image obtained by capturing the operator OP1 standing in front of the translucent screen 111 to the communication terminal 100. In the present embodiment, the camera 112 includes a plurality of cameras, and the plurality of cameras 112 arranged to perform stereo viewing acquire a distance image including a distance value from the camera 112 to the operator OP1. The camera 112 transmits the captured distance image to the communication terminal 100 in the same manner as the captured image. The communication terminal 100 acquires a captured image and a distance image from the camera 112. In the modification, a distance sensor may be provided in the peripheral device, and the coordinate system between the distance information acquired from the distance sensor and the captured image captured by the camera 112 may be associated by geometric transformation.
交点Oは、カメラ112から半透明スクリーン111への法線が半透明スクリーン111と交わる点を示している。カメラ112は、半透明スクリーン111と、操作者OP1と、操作者OP1が半透明スクリーン111をタッチした指先などの人体部位を撮像可能に配置される。 An intersection point O indicates a point where a normal line from the camera 112 to the semitransparent screen 111 intersects the semitransparent screen 111. The camera 112 is arranged so as to be able to image a translucent screen 111, an operator OP1, and a human body part such as a fingertip where the operator OP1 touches the translucent screen 111.
プロジェクタ113は、コミュニケーション端末100から出力画像を受信して半透明スクリーン111に投影する。このようなプロジェクタ113は、いわばコミュニケーション端末100から出力される画像を表示する表示装置であるといえる。また、コミュニケーション端末100からの出力画像を表示するための装置は、例えばタッチスクリーンディスプレイなどでもよい。 The projector 113 receives the output image from the communication terminal 100 and projects it on the translucent screen 111. It can be said that such a projector 113 is a display device that displays an image output from the communication terminal 100. Further, the device for displaying the output image from the communication terminal 100 may be, for example, a touch screen display.
デジタイザ115は、半透明スクリーン111の近傍に配置され、赤外光の送信器と受信器とを有する。デジタイザ115は、例えば、操作者OP1が半透明スクリーン111を指でタッチした際に、送信器から投射した赤外光が指で反射して再び受信器に到達するまでの時間に基づいて、タッチ位置の位置情報を検出する。本実施形態において、位置情報は、半透明スクリーン111の座標系において原点からの相対的な位置を示す座標情報として検出される。デジタイザ115は、検出された座標情報をコミュニケーション端末100に送信する。 The digitizer 115 is disposed in the vicinity of the translucent screen 111 and has an infrared light transmitter and receiver. For example, when the operator OP1 touches the translucent screen 111 with a finger, the digitizer 115 is touched based on the time until the infrared light projected from the transmitter is reflected by the finger and reaches the receiver again. The position information of the position is detected. In the present embodiment, the position information is detected as coordinate information indicating a relative position from the origin in the coordinate system of the translucent screen 111. The digitizer 115 transmits the detected coordinate information to the communication terminal 100.
次に、コミュニケーション端末100の起動から、各拠点のコミュニケーション端末が相互に通信可能になるまでの状態遷移について説明する。操作者OP1から電源投入指示を受け付けたコミュニケーション端末100は、あらかじめHDD104に格納されたプログラムをRAM102に読み出して実行する。コミュニケーション端末100は、あらかじめHDD104に格納されたコミュニケーション相手の接続先の候補を読み出し、接続先候補画面を作成してプロジェクタ113に送信する。プロジェクタ113は、受信した接続先候補画面を半透明スクリーン111に投影する。操作者OP1は、半透明スクリーン111に投影された接続先候補画面を見て、半透明スクリーン111に対してタッチ操作を行うことにより、コミュニケーション相手の接続先を指定することができる。なお、本実施形態において、接続先とは接続先候補のコミュニケーション端末を識別可能な文字列やアイコンであり、コミュニケーション端末と対応付けられたIPアドレスなどのネットワーク識別子が相当する。 Next, the state transition from the activation of the communication terminal 100 until the communication terminals at each base can communicate with each other will be described. Upon receiving a power-on instruction from the operator OP1, the communication terminal 100 reads a program stored in advance in the HDD 104 into the RAM 102 and executes it. The communication terminal 100 reads connection destination candidates of communication partners stored in advance in the HDD 104, creates a connection destination candidate screen, and transmits it to the projector 113. The projector 113 projects the received connection destination candidate screen on the translucent screen 111. The operator OP1 can designate the connection destination of the communication partner by looking at the connection destination candidate screen projected on the semi-transparent screen 111 and performing a touch operation on the semi-transparent screen 111. In this embodiment, the connection destination is a character string or icon that can identify a communication terminal that is a connection destination candidate, and corresponds to a network identifier such as an IP address associated with the communication terminal.
デジタイザ115は、操作者OP1が半透明スクリーン111をタッチしたことを検出し、検出された座標情報をコミュニケーション端末100へ送信する。コミュニケーション端末100は受信した座標情報を元に、接続先候補画面のなかから操作者OP1が指定した接続先を決定する。コミュニケーション端末100は決定した接続先のIPアドレスを参照し、ネットワークI/F106を介してコミュニケーション端末200に接続する。以上により、拠点Aと拠点Bとが相互に通信可能となり、操作者OP1が拠点Bの操作者OP2とあたかもガラス越しに対面しているかのような仮想環境下でコミュニケーションを行うことができる。 The digitizer 115 detects that the operator OP1 has touched the translucent screen 111, and transmits the detected coordinate information to the communication terminal 100. Based on the received coordinate information, the communication terminal 100 determines the connection destination designated by the operator OP1 from the connection destination candidate screen. The communication terminal 100 refers to the determined connection destination IP address and connects to the communication terminal 200 via the network I / F 106. As described above, the site A and the site B can communicate with each other, and communication can be performed in a virtual environment as if the operator OP1 is facing the operator OP2 of the site B through the glass.
図5は、本実施形態における、コミュニケーション支援システム1のソフトウェア機能構成例を示すブロック図である。また、図6は、本実施形態における、コミュニケーション端末100が制御する各種画像の例を示した図である。以下、図5および図6を用いてコミュニケーション支援システム1の処理の遷移について説明する。 FIG. 5 is a block diagram illustrating a software function configuration example of the communication support system 1 in the present embodiment. FIG. 6 is a diagram showing examples of various images controlled by the communication terminal 100 in the present embodiment. Hereinafter, the transition of processing of the communication support system 1 will be described with reference to FIGS. 5 and 6.
図5に示される通り、本実施形態におけるコミュニケーション端末100は、撮像部121と、検出部122と、送信画像生成部123と、送信部124と、受信部125と、出力画像生成部126と、出力部127と、表示部128とを備える。 As illustrated in FIG. 5, the communication terminal 100 according to the present embodiment includes an imaging unit 121, a detection unit 122, a transmission image generation unit 123, a transmission unit 124, a reception unit 125, an output image generation unit 126, An output unit 127 and a display unit 128 are provided.
撮像部121は、撮像画像と距離画像とを取得可能なカメラ112で実現される。検出部122は、半透明スクリーン111の近傍に配置され、半透明スクリーン111への操作に応じて座標情報を検出可能な、デジタイザ115で実現される。さらに、送信画像生成部123は、撮像部121が撮像した撮像画像および距離画像に対して鏡像化処理を施し、鏡像化された撮像画像および距離画像を取得する。送信画像生成部123が鏡像化処理を施す理由は以下の通りである。拠点Bの操作者OP2は、鏡像化された画像を見ることになるが、拠点Aの操作者OP1が透明スクリーン111に対して「ABC」などの文字を描く操作を行った場合、プロジェクタ213から反転された文字が表示されないようにするためである。 The imaging unit 121 is realized by a camera 112 that can acquire a captured image and a distance image. The detection unit 122 is realized by a digitizer 115 that is disposed in the vicinity of the translucent screen 111 and can detect coordinate information in accordance with an operation on the translucent screen 111. Furthermore, the transmission image generation unit 123 performs a mirroring process on the captured image and the distance image captured by the imaging unit 121, and acquires the captured image and the distance image that are mirrored. The reason why the transmission image generation unit 123 performs the mirroring process is as follows. The operator OP2 at the site B sees a mirrored image, but when the operator OP1 at the site A performs an operation such as “ABC” on the transparent screen 111, the projector 213 This is to prevent the reversed characters from being displayed.
次に、送信画像生成部123は、取得した距離画像から、操作者OP1が撮像された人物領域とその他の領域とを区画する輪郭情報を導出する。具体的には、送信画像生成部123は、鏡像化された距離画像に対して所定の閾値を用いて二値化した二値画像を導出する。送信画像生成部123は、二値画像内の所定の閾値以下の領域から、人物領域とその他の領域とを区画する輪郭情報を導出する。ここで、例えば操作者OP1が指示棒のような物体を把持しており、カメラ112から当該物体までの距離の値が所定の閾値内である場合には、送信画像生成部123は、当該指示棒が撮像されている領域も人物領域に含まれるように輪郭情報を導出する。 Next, the transmission image generation unit 123 derives contour information that divides the person region in which the operator OP1 is imaged and other regions from the acquired distance image. Specifically, the transmission image generation unit 123 derives a binary image binarized using a predetermined threshold with respect to the mirrored distance image. The transmission image generation unit 123 derives contour information that divides a person area and other areas from an area that is equal to or less than a predetermined threshold in the binary image. Here, for example, when the operator OP1 is holding an object such as a pointing stick and the value of the distance from the camera 112 to the object is within a predetermined threshold, the transmission image generating unit 123 The contour information is derived so that the area where the stick is imaged is also included in the person area.
送信部124は、ネットワークI/F106で実現され、ネットワークNWを介して通信可能に接続される他のコミュニケーション端末に対して、鏡像化された撮像画像、輪郭情報、および座標情報などを送信する。 The transmission unit 124 is realized by the network I / F 106, and transmits a mirrored captured image, contour information, coordinate information, and the like to another communication terminal that is communicably connected via the network NW.
受信部125は、ネットワークI/F106で実現され、ネットワークNWを介して通信可能に接続される他のコミュニケーション端末から、鏡像化された撮像画像、輪郭情報、および座標情報などを受信する。 The receiving unit 125 is realized by the network I / F 106, and receives a mirrored captured image, contour information, coordinate information, and the like from another communication terminal that is communicably connected via the network NW.
図6(B)は、本実施形態において、コミュニケーション端末200から受信した、鏡像化された撮像画像620の例を示す図である。図6(B)に示される通り、撮像画像620には、拠点Bにおける操作者OP2と、拠点Bの背景の一部である窓Wとが含まれる。なお、本実施形態では、コミュニケーション端末100は鏡像化された撮像画像620を受信する態様について説明するが、実施形態はこれに限られない。別実施形態では、コミュニケーション端末100は鏡像化されていない撮像画像と、鏡像化されていない距離画像とを受信し、受信した各画像に対して鏡像化処理を施す態様であってもよい。 FIG. 6B is a diagram illustrating an example of the mirrored captured image 620 received from the communication terminal 200 in the present embodiment. As shown in FIG. 6B, the captured image 620 includes an operator OP2 at the site B and a window W that is a part of the background of the site B. In addition, although this embodiment demonstrates the aspect in which the communication terminal 100 receives the mirrored captured image 620, embodiment is not restricted to this. In another embodiment, the communication terminal 100 may be configured to receive a captured image that is not mirrored and a distance image that is not mirrored, and to perform a mirroring process on each received image.
操作者OP1は、半透明スクリーン111に表示される、グラフィカルユーザインターフェース(以下「GUI」と記す)の参照画像選択画面(不図示)から、参照画像を選択することができる。操作者OP1からのタッチ操作を受け付けると、出力画像生成部126は、検出部122によって検出された座標情報に応じた参照画像を選択する。出力画像生成部126は、選択された参照画像をHDD104から読み出すとともに、参照画像を表示する参照画像表示位置を決定する。参照画像表示位置は、デスクトップ画像610の座標系における原点からのオフセット値によって特定される。参照画像を拠点Bの表示部でも表示するために、送信部124は、出力画像生成部126によって生成されたものと同じ参照画像と参照画像表示位置とをコミュニケーション端末200に送信する。 The operator OP1 can select a reference image from a reference image selection screen (not shown) of a graphical user interface (hereinafter referred to as “GUI”) displayed on the translucent screen 111. When receiving a touch operation from the operator OP1, the output image generation unit 126 selects a reference image corresponding to the coordinate information detected by the detection unit 122. The output image generation unit 126 reads the selected reference image from the HDD 104 and determines a reference image display position for displaying the reference image. The reference image display position is specified by an offset value from the origin in the coordinate system of the desktop image 610. In order to display the reference image on the display unit at the base B, the transmission unit 124 transmits the same reference image and the reference image display position generated by the output image generation unit 126 to the communication terminal 200.
図6(C)は、本実施形態において、出力画像生成部126がHDD104から読み出した参照画像630の例を示す図である。本例では、電子資料の画像である複数の折れ線グラフを含む参照画像630を例示したが、実施形態はこれに限られない。例えば文章からなる文書画像や、写真からなる写真画像など、種々の画像を参照画像630として用いることができる。 FIG. 6C is a diagram illustrating an example of the reference image 630 read from the HDD 104 by the output image generation unit 126 in the present embodiment. In this example, the reference image 630 including a plurality of line graphs that are images of electronic materials is illustrated, but the embodiment is not limited thereto. For example, various images such as a document image composed of text and a photographic image composed of a photograph can be used as the reference image 630.
次に、出力画像生成部126は、検出部122によって検出された座標情報と、コミュニケーション端末200から受信した座標情報とに基づいて、操作者OP1およびOP2による操作の内容を表現する軌跡画像を生成する。 Next, based on the coordinate information detected by the detection unit 122 and the coordinate information received from the communication terminal 200, the output image generation unit 126 generates a trajectory image that represents the content of the operation by the operators OP1 and OP2. To do.
図6(D)は、本実施形態において、出力画像生成部126が生成した軌跡画像640の例を示す図である。本例では、操作者OP2が、参照画像内の折れ線グラフの特定の箇所を指示するために、半透明スクリーン211に描いた「矢印」の軌跡が、軌跡画像640に含まれている。本実施形態では、出力画像生成部126は、軌跡箇所を不透明とし、軌跡箇所以外の領域は透明とするように軌跡画像640を生成する。 FIG. 6D is a diagram illustrating an example of the trajectory image 640 generated by the output image generation unit 126 in the present embodiment. In this example, the trajectory image 640 includes an “arrow” trajectory drawn on the translucent screen 211 in order for the operator OP2 to indicate a specific part of the line graph in the reference image. In the present embodiment, the output image generation unit 126 generates the trajectory image 640 so that the trajectory location is opaque and the area other than the trajectory location is transparent.
次に、出力画像生成部126は、デスクトップ画像610と、撮像画像620と、参照画像620と、軌跡画像640とを重畳した出力画像を生成する。図6(E)は、本実施形態において、出力画像生成部126が生成した出力画像650の例を示す図である。本実施形態では、デスクトップ画像610、撮像画像620、参照画像630、および軌跡画像640はそれぞれレイヤ画像として操作することができる。また、デスクトップ画像610、撮像画像620、軌跡画像640の縦横の画素数は同じに構成される。本実施形態では、出力画像生成部126は、撮像画像620の上位レイヤに参照画像630を配置し、参照画像630の上位レイヤに軌跡画像640を配置する。 Next, the output image generation unit 126 generates an output image in which the desktop image 610, the captured image 620, the reference image 620, and the trajectory image 640 are superimposed. FIG. 6E is a diagram illustrating an example of the output image 650 generated by the output image generation unit 126 in the present embodiment. In the present embodiment, the desktop image 610, the captured image 620, the reference image 630, and the trajectory image 640 can be manipulated as layer images. Further, the desktop image 610, the captured image 620, and the trajectory image 640 are configured to have the same number of vertical and horizontal pixels. In the present embodiment, the output image generation unit 126 arranges the reference image 630 in the upper layer of the captured image 620 and arranges the trajectory image 640 in the upper layer of the reference image 630.
ここで、撮像画像620の上位レイヤに参照画像630を配置する際、参照画像630の表示領域内において操作者OP2の人物領域と重なる領域が存在する場合がある。例えば、操作者OP2が、指や手などの人体部位で参照画像に含まれる特定のコンテンツを指示する場合、参照画像630は撮像画像620の上位レイヤに配置されるため、指や手などの人体部位領域が、参照画像630の背後に隠れてしまう。そのため、本実施形態において、出力画像生成部126は、参照画像630の表示領域内において人物領域と重なる人体部位領域651に対して可視化処理を行う。具体的には、先ず出力画像生成部126は、輪郭情報に基づいて、撮像画像における操作者OP2が撮像されている人物領域を特定する。次に、出力画像生成部126は、参照画像630の表示領域内において人物領域を含む人体部位領域に対して可視化処理を施す。このとき、参照画像630の表示領域内における背景の窓Wについては、視認性を確保する必要が無いため、人体部位領域外に対して全透明化処理を施すなどの不可視化処理を行う。 Here, when the reference image 630 is arranged in the upper layer of the captured image 620, there may be a region that overlaps the person region of the operator OP2 in the display region of the reference image 630. For example, when the operator OP2 indicates a specific content included in the reference image with a human body part such as a finger or a hand, the reference image 630 is arranged in an upper layer of the captured image 620, and thus the human body such as a finger or a hand. The part region is hidden behind the reference image 630. Therefore, in the present embodiment, the output image generation unit 126 performs a visualization process on the human body part region 651 that overlaps the person region in the display region of the reference image 630. Specifically, first, the output image generation unit 126 specifies a person region in which the operator OP2 is captured in the captured image based on the contour information. Next, the output image generation unit 126 performs a visualization process on the human body region including the human region within the display region of the reference image 630. At this time, for the background window W in the display area of the reference image 630, since it is not necessary to ensure visibility, an invisibility process such as a total transparency process is performed outside the human body region.
可視化処理の結果、図6(E)に示される通り、参照画像630の表示領域内における人体部位領域651は半透明で出力され、窓Wは参照画像630の背後に隠れるように、出力画像650が生成される。 As a result of the visualization processing, as shown in FIG. 6E, the human body region 651 in the display area of the reference image 630 is output in a translucent manner, and the output image 650 is hidden so that the window W is hidden behind the reference image 630. Is generated.
表示部128は、プロジェクタ113で実現される。プロジェクタ113は、出力部127を介して出力画像650を取得し、取得した出力画像650を半透明スクリーン111に投影する。 The display unit 128 is realized by the projector 113. The projector 113 acquires the output image 650 via the output unit 127 and projects the acquired output image 650 on the translucent screen 111.
図6(E)に示される通り、出力画像650は、参照画像630のコンテンツの視認性を損なうことなく、操作者OP2の動作の視認性が向上している。そのため、拠点Aの操作者OP1は、操作者OP2の動作と、参照画像630のコンテンツを参照して、拠点Bの操作者OP2と正確なコミュニケーションを行うことができる。 As shown in FIG. 6E, the output image 650 has improved visibility of the operation of the operator OP2 without impairing the visibility of the content of the reference image 630. Therefore, the operator OP1 at the site A can accurately communicate with the operator OP2 at the site B with reference to the operation of the operator OP2 and the content of the reference image 630.
図7は、本実施形態における、人体部位可視化処理の内容を示すフローチャートである。なお、図7に示されるフローチャートによる処理は、HDD104に格納されたプログラムコードがRAM102に展開され、CPU101によって実行される。 FIG. 7 is a flowchart showing the contents of the human body part visualization process in the present embodiment. 7 is executed by the CPU 101 after the program code stored in the HDD 104 is expanded in the RAM 102.
S10において、出力画像生成部126は、撮像画像を更新するか否かを判定する。出力画像生成部126は、コミュニケーション端末200から撮像画像と輪郭情報とを受信したときに撮像画像を更新すると判定し(S10:Yes)、受信した撮像画像と輪郭情報とをRAM102に格納し、S100に移行する。一方、出力画像生成部126は、コミュニケーション端末200から撮像画像と輪郭情報とを受信していない場合は撮像画像を更新しないと判定し(S10:No)、S20に移行する。 In S10, the output image generation unit 126 determines whether or not to update the captured image. The output image generation unit 126 determines to update the captured image when the captured image and the contour information are received from the communication terminal 200 (S10: Yes), stores the received captured image and the contour information in the RAM 102, and S100. Migrate to On the other hand, when the captured image and the contour information are not received from the communication terminal 200, the output image generation unit 126 determines not to update the captured image (S10: No), and proceeds to S20.
S20において、出力画像生成部126は、参照画像を更新するか否かを判定する。出力画像生成部126は、透明スクリーン111に表示される各種GUIへのタッチ操作が検出され、参照画像の読み出し、表示、非表示、移動、拡大縮小、ページめくり等の指示を受け付けたときに参照画像を更新すると判定する。また、コミュニケーション端末200から参照画像または参照画像表示位置を受信したときも参照画像を更新すると判定する。参照画像を更新すると判定した場合(S20:Yes)、出力画像生成部126は参照画像と参照画像表示位置とを更新するとともに、それらをRAM102に格納する。送信部124は更新した参照画像と参照画像表示位置とをコミュニケーション端末200に送信する。送信した後、S100に移行する。参照画像を更新しないと判定した場合(S20:No)、図7のフローチャートの処理を終了する。 In S20, the output image generation unit 126 determines whether to update the reference image. The output image generation unit 126 is detected when a touch operation on various GUIs displayed on the transparent screen 111 is detected and an instruction for reading, displaying, hiding, moving, enlarging / reducing, turning pages, and the like is received. It is determined that the image is updated. It is also determined that the reference image is updated when the reference image or the reference image display position is received from the communication terminal 200. When it is determined that the reference image is to be updated (S20: Yes), the output image generation unit 126 updates the reference image and the reference image display position and stores them in the RAM 102. The transmission unit 124 transmits the updated reference image and reference image display position to the communication terminal 200. After the transmission, the process proceeds to S100. When it is determined that the reference image is not updated (S20: No), the process of the flowchart in FIG.
S100において、出力画像生成部126は、RAM102から撮像画像と、輪郭情報と、参照画像と、参照画像表示位置とを読み出して人体部位可視化処理を行う。S100の詳細な処理内容については後述する。 In S100, the output image generation unit 126 reads the captured image, the contour information, the reference image, and the reference image display position from the RAM 102, and performs a human body part visualization process. The detailed processing content of S100 will be described later.
図8は、本実施形態における、出力画像生成部126の人体部位可視化処理(S100)の内容を説明するフローチャートである。以下、図8を用いて人体部位可視化処理(S100)の処理内容を説明する。なお、図8に示されるフローチャートによる処理は、HDD104に格納されたプログラムコードがRAM102に展開され、CPU101によって実行される。 FIG. 8 is a flowchart illustrating the contents of the human body part visualization process (S100) of the output image generation unit 126 in the present embodiment. Hereinafter, the processing content of the human body part visualization process (S100) will be described with reference to FIG. 8 is executed by the CPU 101 after the program code stored in the HDD 104 is expanded in the RAM 102.
S101において、出力画像生成部126は、コミュニケーション端末200から受信した撮像画像620と輪郭情報とをRAM102から読み出す。 In S <b> 101, the output image generation unit 126 reads the captured image 620 and contour information received from the communication terminal 200 from the RAM 102.
S102において、出力画像生成部126は、輪郭情報を用いて、撮像画像620内において操作者OP2が撮像されている人物領域を特定する。 In S <b> 102, the output image generation unit 126 specifies the person area in which the operator OP <b> 2 is captured in the captured image 620 using the contour information.
S103において、出力画像生成部126は、撮像画像620を参照画像630の表示領域でトリミングしたトリミング画像900を取得する。 In S103, the output image generation unit 126 acquires a trimmed image 900 obtained by trimming the captured image 620 in the display area of the reference image 630.
S104において、出力画像生成部126は、トリミング画像900における人体部位領域901に対して所定の透明度で透明化処理する。前述の通り、人体部位領域901とは、参照画像630の表示領域内において、操作者OP2の人物領域と重なる領域をいう。出力画像生成部126は、処理対象である人体部位領域901に対して透明化処理を施す。 In S <b> 104, the output image generation unit 126 performs a transparency process with a predetermined transparency on the human body region 901 in the trimmed image 900. As described above, the human body part region 901 refers to a region that overlaps with the human region of the operator OP2 in the display region of the reference image 630. The output image generation unit 126 performs a transparency process on the human body region 901 that is the processing target.
S105において、出力画像生成部126は、トリミング画像900における人体部位領域外902を全透明化処理する。 In step S <b> 105, the output image generation unit 126 performs full transparency processing on the outside 902 of the human body region in the trimmed image 900.
S106において、出力画像生成部126は、透明化処理された人体部位領域901を含むトリミング画像900を、参照画像630の上位レイヤに配置する。 In S <b> 106, the output image generation unit 126 arranges the trimming image 900 including the human body region 901 that has been subjected to the transparency processing, on the upper layer of the reference image 630.
図9は、本実施形態における、出力画像650のレイヤ構成例を示す図である。デスクトップ画像610は、撮像画像620の縦横と同じ画素数によって構成され、出力画像650の最も下位のレイヤに配置される。デスクトップ画像610の上位レイヤには、撮像画像620が配置される。 FIG. 9 is a diagram illustrating a layer configuration example of the output image 650 in the present embodiment. The desktop image 610 is configured by the same number of pixels as the captured image 620 in the vertical and horizontal directions, and is arranged in the lowest layer of the output image 650. A captured image 620 is arranged on the upper layer of the desktop image 610.
参照画像630は、撮像画像620の上位レイヤに配置される。本実施形態において、参照画像630は、撮像画像620の縦横よりも少ない画素数によって構成され、撮像画像620の表示領域内における任意の位置に配置される。 The reference image 630 is arranged in an upper layer of the captured image 620. In the present embodiment, the reference image 630 is configured with a smaller number of pixels than the captured image 620 in the vertical and horizontal directions, and is arranged at an arbitrary position in the display area of the captured image 620.
トリミング画像900は、透明化処理された人体部位領域901と、全透明化処理された人体部位領域外902とを含み、参照画像630の縦横と同じ画素数によって構成される。人体部位領域901に対して透明化処理が施されたトリミング画像900は、参照画像630の上位レイヤに重合するように配置される。軌跡画像640は、デスクトップ画像610および撮像画像620の縦横と同じ画素数によって構成され、出力画像650のレイヤ構成の中で最も上位に配置される。 The trimmed image 900 includes a human body part region 901 that has been subjected to transparency processing and a human body part region outside 902 that has been subjected to total transparency processing, and is configured with the same number of pixels as the vertical and horizontal directions of the reference image 630. The trimmed image 900 in which the human body region 901 has been subjected to transparency processing is arranged so as to overlap the upper layer of the reference image 630. The trajectory image 640 is configured with the same number of pixels as the desktop image 610 and the captured image 620 in the vertical and horizontal directions, and is arranged at the highest level in the layer configuration of the output image 650.
以上説明した通り、出力画像生部126は、図9に示される通りにレイヤ画像を配置することにより、出力画像650を生成する。出力画像生成部126は、生成した出力画像650を、出力部127を介して表示部128に表示することができる。かかる構成により、本実施形態におけるコミュニケーション端末100は、参照画像630のコンテンツの視認性を損なうことなく、操作者OP2の動作の視認性を向上させることができ、各拠点の操作者同士が正確なコミュニケーションを行うことができる。 As described above, the output image generation unit 126 generates the output image 650 by arranging the layer images as shown in FIG. The output image generation unit 126 can display the generated output image 650 on the display unit 128 via the output unit 127. With this configuration, the communication terminal 100 according to the present embodiment can improve the visibility of the operation of the operator OP2 without impairing the visibility of the content of the reference image 630, and the operators at each base can accurately communicate with each other. Can communicate.
[実施形態2]
図10は、本実施形態における、出力画像生成部126の人体部位可視化処理(S100)の内容を説明するフローチャートである。以下、図10を用いて人体部位可視化処理(S100)の処理内容を説明する。なお、図10に示されるフローチャートによる処理は、HDD104に格納されたプログラムコードがRAM102に展開され、CPU101によって実行される。
[Embodiment 2]
FIG. 10 is a flowchart illustrating the contents of the human body part visualization process (S100) of the output image generation unit 126 in the present embodiment. Hereinafter, the processing content of the human body part visualization process (S100) will be described with reference to FIG. 10 is executed by the CPU 101 after the program code stored in the HDD 104 is expanded in the RAM 102.
S101において、出力画像生成部126は、コミュニケーション端末200から受信した撮像画像620と輪郭情報とをRAM102から読み出す。 In S <b> 101, the output image generation unit 126 reads the captured image 620 and contour information received from the communication terminal 200 from the RAM 102.
S1002において、出力画像生成部126は、参照画像1110をRAM102から読み出す。次いで、出力画像生成部126は、参照画像1100における操作者OP2の人体部位領域1101に対応する領域に対して、所定の透明度で透明化処理を行う。前述の通り、人体部位領域1101とは、参照画像1100の表示領域内において、操作者OP2の人物領域と重なる領域をいう。本実施形態では、人体部位領域1101に対して透明化処理を行うものではなく、参照画像1100における人体部位領域1101に対応する領域を処理対象とし、当該領域に対して透明化処理を行う。 In step S <b> 1002, the output image generation unit 126 reads the reference image 1110 from the RAM 102. Next, the output image generation unit 126 performs a transparency process with a predetermined transparency on a region corresponding to the human body region 1101 of the operator OP2 in the reference image 1100. As described above, the human body part region 1101 is a region that overlaps the person region of the operator OP2 in the display region of the reference image 1100. In the present embodiment, the transparency process is not performed on the human body region 1101, but the region corresponding to the human body region 1101 in the reference image 1100 is set as a processing target, and the transparency process is performed on the region.
S1003において、出力画像生成部126は、参照画像1100における操作者OP2の人体部位領域外1102に対応する領域を不透明化処理する。S1003においても同様に、人体部位領域外1102に対して不透明化処理を行うものではなく、参照画像1100における人体部位領域外1102に対応する領域を特定し、当該領域に対して不透明化処理を行う。 In step S <b> 1003, the output image generation unit 126 performs an opacity process on a region corresponding to the outside human body region 1102 of the operator OP <b> 2 in the reference image 1100. Similarly, in S1003, the opacity process is not performed on the human body part region outside 1102, but an area corresponding to the human body part region outside 1102 in the reference image 1100 is specified, and the opacity process is performed on the region. .
図11は、本実施形態における、出力画像650のレイヤ構成例を示す図である。デスクトップ画像610は、撮像画像620の縦横と同じ画素数によって構成され、出力画像650の最も下位のレイヤに配置される。デスクトップ画像610の上位レイヤには、撮像画像620が配置される。 FIG. 11 is a diagram illustrating a layer configuration example of the output image 650 in the present embodiment. The desktop image 610 is configured by the same number of pixels as the captured image 620 in the vertical and horizontal directions, and is arranged in the lowest layer of the output image 650. A captured image 620 is arranged on the upper layer of the desktop image 610.
参照画像1100は、撮像画像620の上位レイヤに配置される。本実施形態において、参照画像1100は、撮像画像620の縦横よりも少ない画素数によって構成され、撮像画像620の表示領域内における任意の位置に配置される。軌跡画像640は、デスクトップ画像610および撮像画像620の縦横と同じ画素数によって構成され、出力画像650のレイヤ構成の中で最も上位に配置される。 The reference image 1100 is arranged in an upper layer of the captured image 620. In the present embodiment, the reference image 1100 is configured with a smaller number of pixels than the captured image 620 in the vertical and horizontal directions, and is arranged at an arbitrary position in the display area of the captured image 620. The trajectory image 640 is configured with the same number of pixels as the desktop image 610 and the captured image 620 in the vertical and horizontal directions, and is arranged at the highest level in the layer configuration of the output image 650.
以上説明した通り、出力画像生部126は、図11に示される通りにレイヤ画像を配置することにより、出力画像650を生成する。このように、本実施形態では、実施形態1におけるトリミング画像900を生成することなく、可視化処理を施した人体部位領域1101を含む出力画像650を生成することができる。かかる構成により、本実施形態におけるコミュニケーション端末100は、参照画像630のコンテンツの視認性を損なうことなく、操作者OP2の動作の視認性を向上させることができ、各拠点の操作者同士が正確なコミュニケーションを行うことができる。 As described above, the output image generation unit 126 generates the output image 650 by arranging the layer images as shown in FIG. As described above, in this embodiment, the output image 650 including the human body region 1101 subjected to the visualization process can be generated without generating the trimmed image 900 in the first embodiment. With this configuration, the communication terminal 100 according to the present embodiment can improve the visibility of the operation of the operator OP2 without impairing the visibility of the content of the reference image 630, and the operators at each base can accurately communicate with each other. Can communicate.
[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (18)
他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、Receiving means for receiving a captured image captured at another site via a network;
前記受信手段が受信した前記撮像画像を表示する表示手段と、Display means for displaying the captured image received by the receiving means;
前記表示手段が前記撮像画像の上位レイヤに参照画像を重畳して表示する場合に、前記撮像画像から、前記参照画像が配置される領域の画像をトリミングするトリミング手段と、Trimming means for trimming an image of a region in which the reference image is arranged from the captured image when the display unit displays a reference image superimposed on an upper layer of the captured image;
前記トリミング手段によってトリミングされたトリミング画像の中から、人物に対応する人物部位領域を特定する特定手段と、A specifying unit for specifying a person part region corresponding to a person from the trimmed image trimmed by the trimming unit;
前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域とは異なる領域を全透明化する処理手段とを備え、Processing means for making the region different from the person part region specified by the specifying means out of the trimmed image,
前記表示手段は、前記撮像画像の上位レイヤに前記参照画像を重畳し、更に前記処理手段によって処理された前記トリミング画像を前記参照画像の上位レイヤに重畳した出力画像を表示することを特徴とするコミュニケーション支援システム。The display means superimposes the reference image on an upper layer of the captured image, and further displays an output image in which the trimmed image processed by the processing means is superimposed on an upper layer of the reference image. Communication support system.
前記特定手段は、前記距離画像の距離の値に基づいて、前記人物部位領域を特定することを特徴とする請求項1乃至5のいずれか1項に記載のコミュニケーション支援システム。The communication support system according to claim 1, wherein the specifying unit specifies the person part region based on a distance value of the distance image.
前記表示手段は、前記軌跡画像を前記トリミング画像の上位レイヤに重畳した前記出力画像を表示することを特徴とする請求項1乃至6のいずれか1項に記載のコミュニケーション支援システム。The communication support system according to claim 1, wherein the display unit displays the output image obtained by superimposing the trajectory image on an upper layer of the trimming image.
他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、Receiving means for receiving a captured image captured at another site via a network;
前記受信手段が受信した前記撮像画像を表示する表示手段と、Display means for displaying the captured image received by the receiving means;
前記表示手段が前記撮像画像の上位レイヤに参照画像を重畳して表示する場合に、前記参照画像の中から、人物に対応する人物領域を特定する特定手段と、A specifying means for specifying a person area corresponding to a person from the reference image when the display means displays a reference image superimposed on an upper layer of the captured image;
前記参照画像のうち、前記特定手段によって特定された前記人物領域を半透明化する処理手段と、を備え、Processing means for making the person area specified by the specifying means translucent out of the reference image,
前記表示手段は、前記撮像画像の上位レイヤに前記参照画像を重畳した出力画像を表示することを特徴とするコミュニケーション支援システム。The communication support system, wherein the display unit displays an output image in which the reference image is superimposed on an upper layer of the captured image.
他拠点で撮像された撮像画像を、ネットワークを介して受信する受信手段と、Receiving means for receiving a captured image captured at another site via a network;
前記受信手段が受信した前記撮像画像から、参照画像が配置される領域の画像をトリミングするトリミング手段と、Trimming means for trimming an image of a region in which a reference image is arranged from the captured image received by the receiving means;
前記トリミング手段によってトリミングされたトリミング画像の中から、人物に対応する人物部位領域を特定する特定手段と、A specifying unit for specifying a person part region corresponding to a person from the trimmed image trimmed by the trimming unit;
前記トリミング画像のうち、前記特定手段によって特定された前記人物部位領域とは異なる領域を全透明化する処理手段と、Processing means for making the area different from the person part area specified by the specifying means out of the trimmed image,
前記撮像画像の上位レイヤに前記参照画像を重畳し、更に前記処理手段によって処理された前記トリミング画像を前記参照画像の上位レイヤに重畳した、出力用の出力画像を生成する画像生成手段と、を備えることを特徴とする情報処理装置。Image generating means for generating an output image for output, wherein the reference image is superimposed on an upper layer of the captured image, and further, the trimmed image processed by the processing means is superimposed on an upper layer of the reference image; An information processing apparatus comprising:
前記特定手段は、前記距離画像の距離の値に基づいて、前記人物部位領域を特定することを特徴とする請求項11乃至15のいずれか1項に記載の情報処理装置。The information processing apparatus according to claim 11, wherein the specifying unit specifies the person part region based on a distance value of the distance image.
他拠点で撮像された撮像画像を、ネットワークを介して受信する受信ステップと、A receiving step of receiving a captured image captured at another site via a network;
前記受信ステップによって受信された前記撮像画像を表示する表示ステップと、A display step for displaying the captured image received by the receiving step;
前記表示ステップによって前記撮像画像の上位レイヤに参照画像が重畳して表示される場合に、前記撮像画像から、前記参照画像が配置される領域の画像をトリミングするトリミングステップと、A trimming step for trimming an image of a region in which the reference image is arranged from the captured image, when a reference image is superimposed and displayed on an upper layer of the captured image by the display step;
前記トリミングステップによってトリミングされたトリミング画像の中から、人物に対応する人物領域を特定する特定ステップと、A specifying step for specifying a person area corresponding to a person from the trimmed image trimmed by the trimming step;
前記トリミング画像のうち、前記特定ステップによって特定された前記人物領域とは異なる領域を全透明化する処理ステップとを備え、A process step of making the region different from the person region specified by the specifying step out of the trimmed image fully transparent,
前記表示ステップにおいて、前記撮像画像の上位レイヤに前記参照画像が重畳され、更に前記処理ステップによって処理された前記トリミング画像が前記参照画像の上位レイヤに重畳される出力画像が表示されるIn the display step, the reference image is superimposed on an upper layer of the captured image, and an output image in which the trimmed image processed in the processing step is superimposed on an upper layer of the reference image is displayed.
ことを特徴とする情報処理装置の制御方法。A method for controlling an information processing apparatus.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015083323A JP6558933B2 (en) | 2015-04-15 | 2015-04-15 | Communication support system, information processing apparatus and control method thereof |
US15/096,424 US10057315B2 (en) | 2015-04-15 | 2016-04-12 | Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015083323A JP6558933B2 (en) | 2015-04-15 | 2015-04-15 | Communication support system, information processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016208079A JP2016208079A (en) | 2016-12-08 |
JP2016208079A5 JP2016208079A5 (en) | 2018-05-17 |
JP6558933B2 true JP6558933B2 (en) | 2019-08-14 |
Family
ID=57128920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015083323A Expired - Fee Related JP6558933B2 (en) | 2015-04-15 | 2015-04-15 | Communication support system, information processing apparatus and control method thereof |
Country Status (2)
Country | Link |
---|---|
US (1) | US10057315B2 (en) |
JP (1) | JP6558933B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI615596B (en) * | 2016-08-05 | 2018-02-21 | 致伸科技股份有限公司 | Auto mobile projecting system |
JP7371369B2 (en) * | 2018-07-31 | 2023-10-31 | 株式会社リコー | Communication terminals and image communication systems |
US20220116552A1 (en) * | 2020-10-08 | 2022-04-14 | Vidiplus, Ltd | System and/or Method for Enhancing Content in Live Streaming Video |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6353450B1 (en) * | 1999-02-16 | 2002-03-05 | Intel Corporation | Placing and monitoring transparent user interface elements in a live video stream as a method for user input |
JP2005117285A (en) * | 2003-10-07 | 2005-04-28 | Hitachi Ltd | Information input device, communication terminal and communication method |
US7492386B2 (en) * | 2004-11-05 | 2009-02-17 | Sony Ericsson Mobile Communications Ab | Display management during a multi-party conversation |
EP1681656A1 (en) * | 2005-01-18 | 2006-07-19 | Oculus Info Inc. | System and method for processing map data |
US8294823B2 (en) * | 2006-08-04 | 2012-10-23 | Apple Inc. | Video communication systems and methods |
JP2009071478A (en) * | 2007-09-12 | 2009-04-02 | Sharp Corp | Information communication terminal and information communication system |
US8390718B2 (en) * | 2009-01-28 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | Methods and systems for performing visual collaboration between remotely situated participants |
IT1393271B1 (en) * | 2009-02-18 | 2012-04-12 | Univ Roma | LITHIUM-ION BATTERY WITH HIGH DEGREE OF SAFETY |
US9628722B2 (en) * | 2010-03-30 | 2017-04-18 | Personify, Inc. | Systems and methods for embedding a foreground video into a background feed based on a control input |
WO2011145256A1 (en) * | 2010-05-18 | 2011-11-24 | パナソニック株式会社 | Video terminal and method for forming display images |
WO2011149558A2 (en) * | 2010-05-28 | 2011-12-01 | Abelow Daniel H | Reality alternate |
ES2399263B1 (en) * | 2010-10-22 | 2014-01-30 | Ignacio Mondine Natucci | VIDEO CONFERENCE SYSTEM FOR BIDIRECTIONAL REMOTE COLLABORATION ON A COMPUTER SCREEN. |
US9055186B2 (en) * | 2013-07-23 | 2015-06-09 | Personify, Inc | Systems and methods for integrating user personas with content during video conferencing |
KR102135367B1 (en) * | 2014-01-23 | 2020-07-17 | 엘지전자 주식회사 | Mobile terminal and control method for the mobile terminal |
US9460340B2 (en) * | 2014-01-31 | 2016-10-04 | Google Inc. | Self-initiated change of appearance for subjects in video and images |
-
2015
- 2015-04-15 JP JP2015083323A patent/JP6558933B2/en not_active Expired - Fee Related
-
2016
- 2016-04-12 US US15/096,424 patent/US10057315B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016208079A (en) | 2016-12-08 |
US10057315B2 (en) | 2018-08-21 |
US20160307349A1 (en) | 2016-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9965039B2 (en) | Device and method for displaying user interface of virtual input device based on motion recognition | |
US11090555B2 (en) | Information processing method and apparatus, storage medium and electronic device | |
US20170255450A1 (en) | Spatial cooperative programming language | |
US20160292922A1 (en) | Display control device, display control method, and recording medium | |
US20180013957A1 (en) | Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program | |
US20160291687A1 (en) | Display control device, display control method, and recording medium | |
US10810801B2 (en) | Method of displaying at least one virtual object in mixed reality, and an associated terminal and system | |
US10416783B2 (en) | Causing specific location of an object provided to a device | |
JP2011511379A (en) | Select background layout | |
CN112136096B (en) | Displaying a physical input device as a virtual object | |
CN106993091B (en) | Image blurring method and mobile terminal | |
JP2018005477A (en) | Display control program, display control method and display control device | |
WO2022048373A1 (en) | Image processing method, mobile terminal, and storage medium | |
JP2015069365A (en) | Information processing equipment and control program | |
JP6558933B2 (en) | Communication support system, information processing apparatus and control method thereof | |
CN104951140B (en) | A kind of touch-screen menus display methods and system | |
WO2021225044A1 (en) | Information processing device, information processing method based on user input operation, and computer program for executing said method | |
US11386612B2 (en) | Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation | |
US20160321968A1 (en) | Information processing method and electronic device | |
JP6000553B2 (en) | Information processing apparatus and control method thereof | |
CN107025051B (en) | Information embedding method and device and client equipment | |
JP6999822B2 (en) | Terminal device and control method of terminal device | |
KR102320203B1 (en) | Electro device configured to display three dimensional virtual space and method for controlling thereof | |
JP6679430B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JPWO2018150757A1 (en) | Information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190716 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6558933 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |