JP2018073093A - Display controlling system, image processing device, display controlling method, and program - Google Patents

Display controlling system, image processing device, display controlling method, and program Download PDF

Info

Publication number
JP2018073093A
JP2018073093A JP2016211621A JP2016211621A JP2018073093A JP 2018073093 A JP2018073093 A JP 2018073093A JP 2016211621 A JP2016211621 A JP 2016211621A JP 2016211621 A JP2016211621 A JP 2016211621A JP 2018073093 A JP2018073093 A JP 2018073093A
Authority
JP
Japan
Prior art keywords
image
image processing
pointing
processing apparatus
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016211621A
Other languages
Japanese (ja)
Inventor
元気 池田
Motoki Ikeda
元気 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016211621A priority Critical patent/JP2018073093A/en
Publication of JP2018073093A publication Critical patent/JP2018073093A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display controlling system, an image processing device, a display controlling method, and a program capable of avoiding unnatural display of a pointing image.SOLUTION: A remote communication system includes a first image processing device 101a and a second image processing device 101b. Display controlling means is further provided for controlling the second image processing device to display a pointing image 105a indicating an action of a user C pointing out an image 105b on a display region 103a of the first image processing device. In a projection region 103b of the second image processing device 101b, a pointing image 106b is projected from a side of the second image processing device 101b where no user C is present.SELECTED DRAWING: Figure 1

Description

本発明は、表示制御システム、画像処理装置、表示制御方法、及びプログラムに関し、特に、遠隔コミュニケーションを行う表示制御システム、画像処理装置、表示制御方法、及びプログラムに関する。   The present invention relates to a display control system, an image processing device, a display control method, and a program, and more particularly to a display control system, an image processing device, a display control method, and a program that perform remote communication.

離れた場所(遠隔地)の相手とコミュニケーション(以下、「遠隔コミュニケーション」という。)を取るための手段として各画像を表示する表示制御システムが知られている。表示制御システムでは、例えば、離れた2つの会議室A,Bのそれぞれに表示部及び音声出力部を備える画像処理装置が配置され、画像処理装置同士が通信(以下、「遠隔コミュニケーション通信」という。)を行う。各会議室A,Bでは、各画像処理装置の音声出力部から通信先の音声が出力され、各画像処理装置の表示部に各会議室A,Bのユーザの画像や共有された電子資料等が表示される(例えば、特許文献1参照)。表示制御システムでは、会議室A,Bにおいて、共有された電子資料が同じように表示された場合、例えば、会議室Aのユーザが電子資料を指し示すと、会議室Bでは電子資料に重畳して会議室Aのユーザが指し示した行為を示すポインティング画像が表示される。これにより、会議室Aのユーザが電子資料を指し示した行為を会議室Bのユーザに容易に通知することができる。   A display control system for displaying each image is known as means for communicating with a remote place (remote place) (hereinafter referred to as “remote communication”). In the display control system, for example, an image processing apparatus including a display unit and an audio output unit is arranged in each of two separated conference rooms A and B, and the image processing apparatuses communicate with each other (hereinafter referred to as “remote communication communication”). )I do. In each conference room A, B, the voice of the communication destination is output from the audio output unit of each image processing device, and the images of the users in each conference room A, B, shared electronic materials, etc. Is displayed (for example, see Patent Document 1). In the display control system, when the shared electronic materials are displayed in the same way in the conference rooms A and B, for example, when the user of the conference room A points to the electronic materials, the conference room B is superimposed on the electronic materials. A pointing image indicating the action indicated by the user in the conference room A is displayed. Thereby, it is possible to easily notify the user of the conference room B of the action that the user of the conference room A points to the electronic material.

表示制御システムでは、表示部の他に、プロジェクタを備える画像処理装置が用いられる場合があり、この場合、ユーザの画像や電子資料等はプロジェクタによって投影される。プロジェクタは、スクリーンやホワイトボードといった地面に対して垂直な面に各画像を投影するのが一般的であるが、近年では、画像処理装置が配置された机の上等の地面に対して水平な面(以下、単に「水平面」という。)に各画像を投影する場合も増えている。この場合、プロジェクタは画像処理装置に対向する位置のユーザが読み易い向きに電子資料を表示し、各会議室A,Bでは、各画像処理装置から同じ距離だけ離れた位置であって、且つ各画像処理装置に対して同じ向きに電子資料が投影される。そのため、各会議室A,Bでは、各画像処理装置に対して同じような位置でユーザによる電子資料の指し示しが行われる傾向にある。   In the display control system, an image processing apparatus including a projector may be used in addition to the display unit. In this case, a user image, electronic material, or the like is projected by the projector. In general, a projector projects each image on a plane perpendicular to the ground, such as a screen or a whiteboard. However, in recent years, the projector is level with respect to the ground such as a desk on which an image processing apparatus is disposed. The number of cases where each image is projected on a plane (hereinafter simply referred to as “horizontal plane”) is also increasing. In this case, the projector displays the electronic material in an easy-to-read direction for the user at the position facing the image processing apparatus. In each of the conference rooms A and B, each projector is located at the same distance from each image processing apparatus, and The electronic material is projected in the same direction with respect to the image processing apparatus. Therefore, in each of the conference rooms A and B, there is a tendency that the electronic material is pointed to by the user at the same position with respect to each image processing apparatus.

特開2006−41884号公報JP 2006-41884 A

しかしながら、各画像処理装置に対して同じような位置でユーザによる電子資料の指し示しが行われると、例えば、会議室Bでは、会議室Aのユーザのポインティング画像が会議室Bのユーザの位置に投影される。その結果、まるで会議室Bのユーザから手が飛び出すような不自然な表示が行われてしまうという問題が生じる。   However, when the electronic material is pointed to by the user at the same position with respect to each image processing apparatus, for example, in the conference room B, the pointing image of the user in the conference room A is projected on the user's position in the conference room B. Is done. As a result, there arises a problem that an unnatural display appears as if a hand jumps out from the user in the conference room B.

本発明の目的は、ポインティング画像の不自然な表示を回避することができる表示制御システム、画像処理装置、表示制御方法、及びプログラムを提供することにある。   An object of the present invention is to provide a display control system, an image processing apparatus, a display control method, and a program that can avoid an unnatural display of a pointing image.

上記目的を達成するために、本発明の表示制御システムは、画像処理装置及び他の画像処理装置を備え、共有された画像を前記画像処理装置及び前記他の画像処理装置の各表示領域に表示する表示制御システムであって、前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御手段を備え、前記ポインティング画像は方向性を有し、前記表示制御手段は、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする。   In order to achieve the above object, a display control system of the present invention includes an image processing device and another image processing device, and displays a shared image in each display area of the image processing device and the other image processing device. A display control system for controlling the display of a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device; The pointing image has directionality, and the display control means displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.

本発明によれば、ポインティング画像の不自然な表示を回避することができる。   According to the present invention, an unnatural display of a pointing image can be avoided.

本発明の実施の形態に係る表示制御システムとしての遠隔コミュニケーションシステムを説明するための図である。It is a figure for demonstrating the remote communication system as a display control system which concerns on embodiment of this invention. 図1のプロジェクタの構成を概略的に示す斜視図である。FIG. 2 is a perspective view schematically showing a configuration of the projector in FIG. 1. 図1のデプスセンサの距離情報の取得範囲を説明するための図である。It is a figure for demonstrating the acquisition range of the distance information of the depth sensor of FIG. 図1の画像処理装置のハードウェア構成の概略を示すブロック図である。It is a block diagram which shows the outline of the hardware constitutions of the image processing apparatus of FIG. 図1の遠隔コミュニケーションシステムにおいて投影される画像の一例を示す図である。It is a figure which shows an example of the image projected in the remote communication system of FIG. 図1の画像処理装置によって実行される遠隔コミュニケーション制御処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the remote communication control process performed by the image processing apparatus of FIG. 図1の画像処理装置によって実行されるポインティング画像送信処理の手順を示すフローチャートである。2 is a flowchart showing a procedure of a pointing image transmission process executed by the image processing apparatus of FIG. 1. 図7のステップS701のポインティング画像生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the pointing image generation process of step S701 of FIG. 図1の画像処理装置によって実行されるポインティング画像の変換を説明するための図である。It is a figure for demonstrating conversion of the pointing image performed by the image processing apparatus of FIG. 図1の画像処理装置によって実行されるポインティング画像受信処理の手順を示すフローチャートである。2 is a flowchart illustrating a procedure of a pointing image reception process executed by the image processing apparatus in FIG. 1. 図10のステップS1002のレイアウト情報更新処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the layout information update process of step S1002 of FIG. 図11のステップS1102の処理における判別を説明するための図である。It is a figure for demonstrating the discrimination | determination in the process of step S1102 of FIG. 図11のレイアウト情報更新処理の第1の変形例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 1st modification of the layout information update process of FIG. 図13のステップS1302の処理における判別を説明するための図である。It is a figure for demonstrating the discrimination | determination in the process of step S1302 of FIG. 図11のレイアウト情報更新処理の第2の変形例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 2nd modification of the layout information update process of FIG. 図15のステップS1502の処理における判別を説明するための図である。It is a figure for demonstrating the discrimination | determination in the process of step S1502 of FIG. 図11のレイアウト情報更新処理の第3の変形例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 3rd modification of the layout information update process of FIG. 図17のステップS1702の処理における判別を説明するための図である。It is a figure for demonstrating the discrimination | determination in the process of step S1702 of FIG. 図10のポインティング画像受信処理の変形例及び図7のポインティング画像送信処理の変形例の各手順を示すフローチャートである。10 is a flowchart showing respective procedures of a modification of the pointing image reception process of FIG. 10 and a modification of the pointing image transmission process of FIG. 図1の画像処理装置によって実行される画像変換処理の各手順を示すフローチャートである。2 is a flowchart showing each procedure of image conversion processing executed by the image processing apparatus of FIG. 1.

以下、本発明の実施の形態を図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る表示制御システムとしての遠隔コミュニケーションシステム100を説明するための図である。   FIG. 1 is a diagram for explaining a remote communication system 100 as a display control system according to an embodiment of the present invention.

遠隔コミュニケーションシステム100は、離れた場所(遠隔地)の相手とコミュニケーションを取るためのコミュニケーションシステムである。遠隔コミュニケーションシステム100は複数の会議室の間で通信可能であり、本実施の形態では、一例として、2つの会議室A,Bの間で通信される場合を前提とする。各会議室A,Bは、移動に時間を要する程離れていても良く、また、同一のビルに設けられた別の会議室であっても良い。つまり、本実施の形態における「遠隔」という表現は、物理的な空間が別であることを示し、距離や移動に要する時間の長さを定義するものではない。遠隔コミュニケーションシステム100では、図1(a)に示すように、会議室Aに画像処理装置101aが設置され、図1(b)に示すように、会議室Bに画像処理装置101bが設置されている。なお、本実施の形態では、画像処理装置101a及び画像処理装置101bは同様の構成であり、以下では、一例として、画像処理装置101aを用いてその構成を説明する。また、以下では、会議室Aに設けられる装置の各構成要素や会議室Aで表示される画像等の末尾に符号「a」を付し、会議室Bに設けられる装置の各構成要素や会議室Bで表示される画像等の末尾に符号「b」を付して説明する。   The remote communication system 100 is a communication system for communicating with a remote place (remote place). The remote communication system 100 can communicate between a plurality of conference rooms. In this embodiment, as an example, it is assumed that communication is performed between two conference rooms A and B. The conference rooms A and B may be separated so as to require time for movement, or may be separate conference rooms provided in the same building. In other words, the expression “remote” in the present embodiment indicates that the physical space is different and does not define the distance or the length of time required for movement. In the remote communication system 100, an image processing apparatus 101a is installed in the conference room A as shown in FIG. 1A, and an image processing apparatus 101b is installed in the conference room B as shown in FIG. 1B. Yes. In this embodiment, the image processing apparatus 101a and the image processing apparatus 101b have the same configuration, and the configuration will be described below using the image processing apparatus 101a as an example. In addition, hereinafter, each component of the apparatus provided in the conference room A and an image displayed in the conference room A are denoted by “a” at the end, and each component of the apparatus provided in the conference room B and the conference A description will be given by attaching the symbol “b” to the end of the image or the like displayed in room B.

図1(a)において、画像処理装置101aはプロジェクタ102a及びデプスセンサ104aを備える。画像処理装置101aはタッチマット107a、カメラ108a、及びディスプレイ109aと接続されている。   In FIG. 1A, an image processing apparatus 101a includes a projector 102a and a depth sensor 104a. The image processing apparatus 101a is connected to a touch mat 107a, a camera 108a, and a display 109a.

プロジェクタ102aは、図2に示すように、光源ユニット201a、プロジェクタ鏡筒部202a、反射ミラー204a、及び投影ミラー205aを備える。光源ユニット201a及びプロジェクタ鏡筒部202aは屈曲部203aを介して接続され、屈曲部203aには反射ミラー204aが配置される。光源ユニット201aはプロジェクタ102aの光源であり、光を反射ミラー204aに出力する。プロジェクタ鏡筒部202aは複数のレンズを有する投影光学系である。反射ミラー204aは光源ユニット201aから出力された光を投影ミラー205aに反射させ、投影ミラー205aは投影ミラー205aによって反射した光をタッチマット107aに出力する。これにより、プロジェクタ102aはタッチマット107aに各画像を投影する。以下では、プロジェクタ102aがタッチマット107aに画像を投影する領域を投影領域103a(表示領域)と定義する。また、投影領域103aの大きさとして、幅を「screen_width」と定義し、高さを「screen_height」と定義する。なお、本実施の形態では、会議室Aの投影領域103a及び会議室Bの投影領域103bに関するキャリブレーション処理が予め実行されている。これにより、会議室Aにおける投影領域103aの大きさ及びタッチマット107aに対する投影領域103aの位置は、会議室Bにおける投影領域103bの大きさ及びタッチマット107bに対する投影領域103bの位置と同一である。   As shown in FIG. 2, the projector 102a includes a light source unit 201a, a projector barrel 202a, a reflection mirror 204a, and a projection mirror 205a. The light source unit 201a and the projector barrel portion 202a are connected via a bent portion 203a, and a reflection mirror 204a is disposed on the bent portion 203a. The light source unit 201a is a light source of the projector 102a and outputs light to the reflection mirror 204a. The projector barrel 202a is a projection optical system having a plurality of lenses. The reflection mirror 204a reflects the light output from the light source unit 201a to the projection mirror 205a, and the projection mirror 205a outputs the light reflected by the projection mirror 205a to the touch mat 107a. Thereby, the projector 102a projects each image on the touch mat 107a. Hereinafter, an area where the projector 102a projects an image on the touch mat 107a is defined as a projection area 103a (display area). Further, as the size of the projection area 103a, the width is defined as “screen_width” and the height is defined as “screen_height”. In the present embodiment, calibration processing relating to the projection area 103a of the conference room A and the projection area 103b of the conference room B is executed in advance. Thereby, the size of the projection area 103a in the conference room A and the position of the projection area 103a with respect to the touch mat 107a are the same as the size of the projection area 103b in the conference room B and the position of the projection area 103b with respect to the touch mat 107b.

デプスセンサ104aはタッチマット107aに投影された電子資料等の画像105aを指等で指したユーザの指や手の領域を抽出する。これにより、会議室AのユーザA,Bがタッチマット107aに投影された画像105aを指し示した場合、ユーザA,Bが指し示した行為を示すポインティング画像が生成される。生成されたポインティング画像は画像処理装置101bに送信され、画像処理装置101bは受信したポインティング画像をポインティング画像106bとしてタッチマット107bに投影する。デプスセンサ104aは、タッチマット107aから図3(a)の高さd1までの範囲の被写体の距離情報を取得可能である。また、デプスセンサ104aはタッチマット107aを撮影してRGB画像を生成する。   The depth sensor 104a extracts the area of the finger or hand of the user who points the image 105a such as the electronic material projected on the touch mat 107a with a finger or the like. Thus, when the users A and B in the conference room A point to the image 105a projected on the touch mat 107a, a pointing image indicating the action pointed to by the users A and B is generated. The generated pointing image is transmitted to the image processing apparatus 101b, and the image processing apparatus 101b projects the received pointing image on the touch mat 107b as a pointing image 106b. The depth sensor 104a can acquire subject distance information in a range from the touch mat 107a to the height d1 in FIG. The depth sensor 104a captures the touch mat 107a and generates an RGB image.

タッチマット107aは、ユーザによるタッチ操作を受け付けるための入力インターフェースであり、タッチ操作が行われた位置を示す座標を検出する。カメラ108aはタッチマット107aの周辺を撮影し、ディスプレイ109aは会議室BのユーザCの映像を表示する。   The touch mat 107a is an input interface for accepting a touch operation by a user, and detects coordinates indicating a position where the touch operation is performed. The camera 108a captures the periphery of the touch mat 107a, and the display 109a displays the video of the user C in the conference room B.

本実施の形態では、画像処理装置101bも、画像処理装置101aと同様に、デプスセンサ104bがタッチマット107bから図3(b)の高さd1までの範囲の被写体の距離情報を取得し、画像105bを指し示したユーザCの指や手の領域を抽出する。画像処理装置101bは抽出した結果に基づいてポインティング画像を生成し、該ポインティング画像を画像処理装置101aに送信する。これにより、会議室A,Bの間で、画像105a,105bを指し示した行為を互いに通知可能となる。   In the present embodiment, similarly to the image processing apparatus 101a, the image processing apparatus 101b also acquires distance information of the subject in the range from the touch mat 107b to the height d1 in FIG. The region of the finger or hand of user C pointing to is extracted. The image processing apparatus 101b generates a pointing image based on the extracted result, and transmits the pointing image to the image processing apparatus 101a. As a result, the actions indicating the images 105a and 105b can be notified to each other between the conference rooms A and B.

図4は、図1の画像処理装置101aのハードウェア構成の概略を示すブロック図である。   FIG. 4 is a block diagram showing an outline of the hardware configuration of the image processing apparatus 101a of FIG.

図4において、画像処理装置101aは、図1のプロジェクタ102a及びデプスセンサ104aの他に、制御部400aを備え、制御部400aは、プロジェクタ102a及びデプスセンサ104aのそれぞれと接続されている。制御部400aは、CPU401a、RAM402a、ROM403a、HDD404a、カメラI/F405a、ディスプレイコントローラ406a、オーディオコントローラ407a、USBコントローラ410a、及びネットワークI/F411aを備える。CPU401a、RAM402a、ROM403a、HDD404a、カメラI/F405a、ディスプレイコントローラ406a、オーディオコントローラ407a、USBコントローラ410a、及びネットワークI/F411aはシステムバス419aを介して互いに接続されている。デプスセンサ104aはコントローラ415a、赤外線投射部416a、赤外線カメラ417a、及びRGBカメラ418aを備える。コントローラ415aは、赤外線投射部416a、赤外線カメラ417a、及びRGBカメラ418aのそれぞれと接続されている。   4, the image processing apparatus 101a includes a control unit 400a in addition to the projector 102a and the depth sensor 104a in FIG. 1, and the control unit 400a is connected to each of the projector 102a and the depth sensor 104a. The control unit 400a includes a CPU 401a, RAM 402a, ROM 403a, HDD 404a, camera I / F 405a, display controller 406a, audio controller 407a, USB controller 410a, and network I / F 411a. The CPU 401a, RAM 402a, ROM 403a, HDD 404a, camera I / F 405a, display controller 406a, audio controller 407a, USB controller 410a, and network I / F 411a are connected to each other via a system bus 419a. The depth sensor 104a includes a controller 415a, an infrared projection unit 416a, an infrared camera 417a, and an RGB camera 418a. The controller 415a is connected to each of the infrared projection unit 416a, the infrared camera 417a, and the RGB camera 418a.

制御部400aは画像処理装置101a全体を統括的に制御する。CPU401aはROM403a及びHDD404aに格納されたプログラムを実行して各制御を行う。RAM402aは揮発性メモリであり、CPU401aの作業領域として用いられる。また、RAM402aは各データの一時格納領域として用いられ、例えば、後述するポインティング画像906やレイアウト情報を格納する。ROM403aは不揮発性メモリであり、画像処理装置101aのブートプログラム等を格納する。HDD404aは画像処理装置101aの制御プログラムや各データを格納する。例えば、HDD404aは画像処理装置101aの設置位置情報やディスプレイ109aの設置位置情報を格納する。カメラI/F405aはデプスセンサ104aやカメラ108aとデータ通信を行う。例えば、カメラI/F405aはカメラ108aによって撮影された会議室Aの映像データをカメラ108aから取得する。会議室Aの映像データはネットワークI/F411aを介して画像処理装置101bに送信される。   The control unit 400a comprehensively controls the entire image processing apparatus 101a. The CPU 401a executes each program by executing a program stored in the ROM 403a and the HDD 404a. The RAM 402a is a volatile memory and is used as a work area for the CPU 401a. The RAM 402a is used as a temporary storage area for each data, and stores, for example, a pointing image 906 and layout information described later. The ROM 403a is a non-volatile memory and stores a boot program of the image processing apparatus 101a. The HDD 404a stores the control program and each data of the image processing apparatus 101a. For example, the HDD 404a stores installation position information of the image processing apparatus 101a and installation position information of the display 109a. The camera I / F 405a performs data communication with the depth sensor 104a and the camera 108a. For example, the camera I / F 405a acquires the video data of the conference room A captured by the camera 108a from the camera 108a. The video data of the conference room A is transmitted to the image processing apparatus 101b via the network I / F 411a.

ディスプレイコントローラ406aはプロジェクタ102aやディスプレイ109aとデータ通信を行う。ディスプレイコントローラ406aはプロジェクタ102aによる画像の投影処理の制御や、ディスプレイ109aによる画像の表示制御を行う。例えば、ディスプレイコントローラ406aはタッチマット107aの投影領域103aに図5(a)の設定メニュー501aを投影する制御を行う。設定メニュー501aは、タッチマット107aの投影領域103aにおいて所定の期間ユーザに押下された位置、例えば、タッチ位置502aを中心とする円形の画像である。設定メニュー501aは少なくとも開始ボタン503aを備える。開始ボタン503aは遠隔コミュニケーション通信の実行を指示する操作ボタンであり、開始ボタン503aがユーザによって選択されると、図5(b)の設定メニュー504aが投影領域103aに投影される。設定メニュー504aは接続リスト505a、接続ボタン506a、及びキャンセルボタン507aを備える。接続リスト505aには遠隔コミュニケーション通信の通信先の候補が表示される。接続ボタン506aは遠隔コミュニケーション通信の開始を指示する操作ボタンであり、キャンセルボタン507aは遠隔コミュニケーション通信に関する設定の中止を指示する操作ボタンである。例えば、接続リスト505aにおいて会議室Bが選択され、且つ接続ボタン506aが選択されると、画像処理装置101aは会議室Bに配置された画像処理装置101bに遠隔コミュニケーション通信の実行要求通知を送信する。実行要求通知の受け付けを完了すると、画像処理装置101a及び画像処理装置101bの間で遠隔コミュニケーション通信の実行が可能になる。これにより、画像処理装置101aは、図5(c)に示すように、画像処理装置101bと共有された電子資料等の画像508aを投影領域103aに投影可能となる。また、画像処理装置101aは、画像508aを投影中にタッチマット107aの投影領域103aが所定の期間ユーザによって押下されると、設定メニュー509aを投影領域103aに投影する。設定メニュー509aはユーザが押下したタッチ位置510aを中心とする円形の画像であり、ファイルボタン511a及び終了ボタン512aを備える。ファイルボタン511aは投影領域103aに投影する電子資料を選択するための操作ボタンであり、終了ボタン512aは遠隔コミュニケーション通信の実行の終了を指示する操作ボタンである。   The display controller 406a performs data communication with the projector 102a and the display 109a. The display controller 406a controls image projection processing by the projector 102a and image display control by the display 109a. For example, the display controller 406a performs control to project the setting menu 501a in FIG. 5A onto the projection area 103a of the touch mat 107a. The setting menu 501a is a circular image centered on a position pressed by the user for a predetermined period in the projection area 103a of the touch mat 107a, for example, the touch position 502a. The setting menu 501a includes at least a start button 503a. The start button 503a is an operation button for instructing execution of remote communication communication. When the start button 503a is selected by the user, a setting menu 504a shown in FIG. 5B is projected onto the projection area 103a. The setting menu 504a includes a connection list 505a, a connection button 506a, and a cancel button 507a. In the connection list 505a, communication destination candidates for remote communication communication are displayed. The connection button 506a is an operation button for instructing the start of remote communication communication, and the cancel button 507a is an operation button for instructing cancellation of settings related to remote communication communication. For example, when the conference room B is selected in the connection list 505a and the connection button 506a is selected, the image processing apparatus 101a transmits a remote communication communication execution request notification to the image processing apparatus 101b arranged in the conference room B. . When the acceptance of the execution request notification is completed, the remote communication communication can be executed between the image processing apparatus 101a and the image processing apparatus 101b. As a result, the image processing apparatus 101a can project an image 508a such as electronic material shared with the image processing apparatus 101b onto the projection area 103a as shown in FIG. 5C. Further, when the projection area 103a of the touch mat 107a is pressed by the user for a predetermined period while projecting the image 508a, the image processing apparatus 101a projects the setting menu 509a onto the projection area 103a. The setting menu 509a is a circular image centered on the touch position 510a pressed by the user, and includes a file button 511a and an end button 512a. The file button 511a is an operation button for selecting electronic materials to be projected onto the projection area 103a, and the end button 512a is an operation button for instructing the end of execution of the remote communication communication.

オーディオコントローラ407aは画像処理装置101aに接続されたマイク408a及びスピーカ409aとデータ通信を行う。例えば、オーディオコントローラ407aはマイク408aによって受信した音声を音声データに変換する。音声データはネットワークI/F411aによって画像処理装置101bに送信される。また、オーディオコントローラ407aはスピーカ409aを制御して会議室BのユーザCが発した音声を会議室Aに出力する。USBコントローラ410aは接続されたタッチマット107aや外部メモリ412aとデータ通信を行う。例えば、USBコントローラ410aはユーザがペンや指等でタッチしたタッチマット107aの位置を示す座標情報をタッチマット107aから取得する。また、USBコントローラ410aは接続されたUSBメモリやSDカード等の外部メモリ412aから画像データを取得する。ネットワークI/F411aはネットワーク413に接続されたファイルサーバ414や画像処理装置101bとデータ通信を行う。   The audio controller 407a performs data communication with the microphone 408a and the speaker 409a connected to the image processing apparatus 101a. For example, the audio controller 407a converts audio received by the microphone 408a into audio data. The audio data is transmitted to the image processing apparatus 101b through the network I / F 411a. Further, the audio controller 407a controls the speaker 409a to output the voice uttered by the user C in the conference room B to the conference room A. The USB controller 410a performs data communication with the connected touch mat 107a and the external memory 412a. For example, the USB controller 410a acquires coordinate information indicating the position of the touch mat 107a touched by the user with a pen or a finger from the touch mat 107a. The USB controller 410a acquires image data from an external memory 412a such as a connected USB memory or SD card. The network I / F 411a performs data communication with the file server 414 and the image processing apparatus 101b connected to the network 413.

コントローラ415aは赤外線投射部416a及び赤外線カメラ417aを制御して画像処理装置101aから対象物までの距離を示す8ビット1チャネルの距離画像データを取得する。また、コントローラ415aはRGBカメラ418aを制御して8ビット3チャネルのRGB画像データを取得する。赤外線投射部416aは不可視の赤外線の3次元測定パターンを対象物に投射する。赤外線カメラ417aは対象物に投射された3次元測定パターンを読み取る。RGBカメラ418aは可視光を撮影する。距離画像データ及びRGB画像データはHDD404aに格納される。   The controller 415a controls the infrared projection unit 416a and the infrared camera 417a to acquire 8-bit 1-channel distance image data indicating the distance from the image processing apparatus 101a to the object. The controller 415a controls the RGB camera 418a to acquire 8-bit 3-channel RGB image data. The infrared projection unit 416a projects an invisible infrared three-dimensional measurement pattern onto an object. The infrared camera 417a reads the three-dimensional measurement pattern projected on the object. The RGB camera 418a captures visible light. The distance image data and the RGB image data are stored in the HDD 404a.

次に、遠隔コミュニケーションシステム100で実行される遠隔コミュニケーション通信について説明する。以下では、一例として、遠隔コミュニケーション通信における画像処理装置101aの処理について説明する。なお、画像処理装置101bも同様の処理を実行可能である。   Next, remote communication communication executed by the remote communication system 100 will be described. Hereinafter, as an example, processing of the image processing apparatus 101a in remote communication communication will be described. Note that the image processing apparatus 101b can also perform the same processing.

図6は、図1の画像処理装置101aによって実行される遠隔コミュニケーション制御処理の手順を示すフローチャートである。   FIG. 6 is a flowchart showing a procedure of remote communication control processing executed by the image processing apparatus 101a of FIG.

図6の処理は、CPU401aがROM403a及びHDD404aに格納されたプログラムを実行することによって行われる。図6の処理は、画像処理装置101aにおける設定メニュー504aの操作、及び画像処理装置101bを含む他の装置から送信された遠隔コミュニケーション通信の実行要求通知のいずれかに基づいて遠隔コミュニケーション通信を実行する場合を前提とする。   The processing in FIG. 6 is performed by the CPU 401a executing a program stored in the ROM 403a and the HDD 404a. 6 executes remote communication communication based on either the operation of the setting menu 504a in the image processing apparatus 101a or the remote communication communication execution request notification transmitted from another apparatus including the image processing apparatus 101b. Assumes the case.

図6において、まず、CPU401aは遠隔コミュニケーション通信の開始指示手段が設定メニュー504aの操作及び他の装置から送信された遠隔コミュニケーション通信の実行要求通知のいずれであるかを判別する(ステップS601)。   In FIG. 6, first, the CPU 401a determines whether the remote communication communication start instruction means is an operation of the setting menu 504a or a remote communication communication execution request notification transmitted from another device (step S601).

ステップS601の判別の結果、開始指示手段が設定メニュー504aの操作であるとき、CPU401aは接続リスト505aから選択された通信先、例えば、画像処理装置101bに遠隔コミュニケーション通信の実行要求通知を送信する(ステップS602)。遠隔コミュニケーション通信の実行要求通知には、遠隔コミュニケーション通信に必要な各情報や、共有される電子資料を特定する情報等が含まれている。次いで、CPU401aは画像処理装置101bから遠隔コミュニケーション通信の受付完了通知を受信したか否かを判別する(ステップS603)。   As a result of the determination in step S601, when the start instruction means is an operation of the setting menu 504a, the CPU 401a transmits a remote communication communication execution request notification to the communication destination selected from the connection list 505a, for example, the image processing apparatus 101b ( Step S602). The remote communication communication execution request notification includes information necessary for remote communication communication, information for specifying electronic materials to be shared, and the like. Next, the CPU 401a determines whether or not a remote communication communication acceptance completion notification has been received from the image processing apparatus 101b (step S603).

ステップS603の判別の結果、受付完了通知を受信したとき、CPU401aは後述するステップS607以降の処理を行う。一方、ステップS603の判別の結果、受付完了通知を受信しないとき、CPU401aは画像処理装置101bから遠隔コミュニケーション通信の実行要求取消通知を受信したか否かを判別する(ステップS604)。   As a result of the determination in step S603, when the reception completion notification is received, the CPU 401a performs the processing after step S607 described later. On the other hand, when the reception completion notification is not received as a result of the determination in step S603, the CPU 401a determines whether or not a remote communication communication execution request cancellation notification is received from the image processing apparatus 101b (step S604).

ステップS604の判別の結果、実行要求取消通知を受信したとき、CPU401aは本処理を終了する。一方、ステップS604の判別の結果、実行要求取消通知を受信しないとき、CPU401aは設定メニュー504aにおいてキャンセルボタン507aが選択されたか否かを判別する(ステップS605)。   When the execution request cancellation notification is received as a result of the determination in step S604, the CPU 401a ends this process. On the other hand, as a result of the determination in step S604, when the execution request cancellation notification is not received, the CPU 401a determines whether or not the cancel button 507a is selected in the setting menu 504a (step S605).

ステップS605の判別の結果、キャンセルボタン507aが選択されたとき、CPU401aは本処理を終了する。一方、ステップS605の判別の結果、キャンセルボタン507aが選択されないとき、CPU401aはステップS603の処理に戻る。   As a result of the determination in step S605, when the cancel button 507a is selected, the CPU 401a ends this process. On the other hand, as a result of the determination in step S605, when the cancel button 507a is not selected, the CPU 401a returns to the process in step S603.

ステップS601の判別の結果、開始指示手段が他の装置から送信された遠隔コミュニケーション通信の実行要求通知であるとき、CPU401aは該実行要求通知に基づいて画像処理装置101bと共有する電子資料を決定する(ステップS606)。次いで、CPU401aは遠隔コミュニケーション通信を実行するための各モジュールの初期化処理を実行する(ステップS607)。初期化処理の実行が完了すると、CPU401aは後述する図7のポインティング画像送信処理及び図10のポインティング画像受信処理を実行する。後述する図7のポインティング画像送信処理及び図10のポインティング画像受信処理は、遠隔コミュニケーション通信の終了がユーザによって指示されるまで繰り返し実行される。投影領域103aが所定の期間押下されると、CPU401aは設定メニュー509aを投影領域103aに投影する。CPU401aは終了ボタン512aが選択されると(ステップS608でYES)、遠隔コミュニケーション通信の終了処理を実行し(ステップS609)、本処理を終了する。   As a result of the determination in step S601, when the start instruction means is a remote communication communication execution request notification transmitted from another device, the CPU 401a determines electronic materials to be shared with the image processing apparatus 101b based on the execution request notification. (Step S606). Next, the CPU 401a executes initialization processing for each module for executing remote communication communication (step S607). When the execution of the initialization process is completed, the CPU 401a executes a pointing image transmission process shown in FIG. 7 and a pointing image reception process shown in FIG. The pointing image transmission process of FIG. 7 and the pointing image reception process of FIG. 10 to be described later are repeatedly executed until the end of the remote communication communication is instructed by the user. When the projection area 103a is pressed for a predetermined period, the CPU 401a projects a setting menu 509a onto the projection area 103a. When the end button 512a is selected (YES in step S608), the CPU 401a executes remote communication communication end processing (step S609), and ends this processing.

次に、遠隔コミュニケーション通信におけるポインティング画像の送信及び受信について説明する。一例として、画像処理装置101aが画像処理装置101bにポインティング画像を送信する場合について説明する。   Next, transmission and reception of a pointing image in remote communication communication will be described. As an example, a case where the image processing apparatus 101a transmits a pointing image to the image processing apparatus 101b will be described.

図7は、図1の画像処理装置101aによって実行されるポインティング画像送信処理の手順を示すフローチャートである。   FIG. 7 is a flowchart showing the procedure of the pointing image transmission process executed by the image processing apparatus 101a of FIG.

図7の処理は、CPU401aがROM403a及びHDD404aに格納されたプログラムを実行することによって行われる。   The processing in FIG. 7 is performed by the CPU 401a executing a program stored in the ROM 403a and the HDD 404a.

図7において、まず、CPU401aは、会議室AのユーザA,Bによる画像105aの指し示しを検知すると、図8のポインティング画像生成処理を実行する(ステップS701)。これにより、CPU401aは会議室AのユーザA,Bが画像105aを指し示した行為を示すポインティング画像及び該ポインティング画像の表示位置等を示すレイアウト情報を生成する。次いで、CPU401aはポインティング画像及びレイアウト情報を画像処理装置101bに送信する(ステップS702)。ステップS702では、会議室Aにおいて画像105aの指し示しが検知されない場合、CPU401aは画像105aの指し示しが検知されない旨を示す情報を画像処理装置101bに送信する。次いで、CPU401aはポインティング画像送信処理の終了の指示を受け付けたか否かを判別する(ステップS703)。   In FIG. 7, first, when the CPU 401a detects the pointing of the image 105a by the users A and B in the conference room A, the CPU 401a executes the pointing image generation process of FIG. 8 (step S701). As a result, the CPU 401a generates a pointing image indicating an action in which the users A and B in the conference room A point to the image 105a, and layout information indicating the display position of the pointing image and the like. Next, the CPU 401a transmits the pointing image and layout information to the image processing apparatus 101b (step S702). In step S702, when the pointing of the image 105a is not detected in the conference room A, the CPU 401a transmits information indicating that the pointing of the image 105a is not detected to the image processing apparatus 101b. Next, the CPU 401a determines whether an instruction to end the pointing image transmission process has been received (step S703).

ステップS703の判別の結果、ポインティング画像生成処理の終了の指示を受け付けないとき、CPU401aはステップS701の処理に戻る。一方、ステップS703の判別の結果、ポインティング画像生成処理の終了の指示を受け付けたとき、CPU401aは上述した図6のステップS608以降の処理を行う。   As a result of the determination in step S703, when the instruction to end the pointing image generation process is not accepted, the CPU 401a returns to the process in step S701. On the other hand, as a result of the determination in step S703, when an instruction to end the pointing image generation process is received, the CPU 401a performs the process from step S608 in FIG. 6 described above.

図8は、図7のステップS701のポインティング画像生成処理の手順を示すフローチャートである。   FIG. 8 is a flowchart showing the procedure of the pointing image generation process in step S701 of FIG.

図8において、まず、CPU401aは、デプスセンサ104aからRGB画像及び距離画像を取得し(ステップS801,S802)、距離画像の座標変換を行う(ステップS803)。デプスセンサ104aでは、距離画像を撮影する赤外線カメラ417aがRGB画像を撮影するRGBカメラ418aと異なる位置に設けられるので、ステップS803の処理では、CPU401aが距離画像をRGB画像の座標系に座標変換する。なお、本実施の形態では、赤外線カメラ417a及びRGBカメラ418aに関するキャリブレーション処理が予め実行される。これにより、赤外線カメラ417a及びRGBカメラ418aの各位置情報や上記座標変換に用いられる内部パラメータが導出され、基準画像が生成される。基準画像はユーザA,Bの手等を含まないタッチマット107aのみの距離画像である。   In FIG. 8, first, the CPU 401a acquires an RGB image and a distance image from the depth sensor 104a (steps S801 and S802), and performs coordinate conversion of the distance image (step S803). In the depth sensor 104a, since the infrared camera 417a that captures the distance image is provided at a different position from the RGB camera 418a that captures the RGB image, the CPU 401a converts the distance image into the coordinate system of the RGB image in the process of step S803. In the present embodiment, calibration processing relating to the infrared camera 417a and the RGB camera 418a is executed in advance. Thereby, each positional information of the infrared camera 417a and the RGB camera 418a and internal parameters used for the coordinate conversion are derived, and a reference image is generated. The reference image is a distance image of only the touch mat 107a that does not include the hands of the users A and B.

次いで、CPU401aは予め生成された基準画像及びステップS802で取得した距離画像の差分に基づいてマスク画像を生成する(ステップS804)。ステップS804では、例えば、会議室Aにおいて画像105aを指し示したユーザAの手の情報を含む距離画像がマスク画像として生成される。次いで、CPU401aは生成したマスク画像に対しノイズ除去及び平滑化のための画像処理を施す(ステップS805)。   Next, the CPU 401a generates a mask image based on the difference between the reference image generated in advance and the distance image acquired in step S802 (step S804). In step S804, for example, a distance image including information on the hand of user A pointing to the image 105a in the conference room A is generated as a mask image. Next, the CPU 401a performs image processing for noise removal and smoothing on the generated mask image (step S805).

次いで、CPU401aは画像処理を施したマスク画像及びステップS801で取得したRGB画像に基づいて色情報を含む中間画像を生成する(ステップS806)。次いで、CPU401aは該中間画像に対し透明化処理を施す(ステップS807)。ステップS807では、中間画像において、画素値が「255」の部分を非透明にし、画素値が「0」の部分を透明にした図9(a)の多値画像900aを生成する。多値画像900aはユーザAの手を示す領域901aが半透明であり、その他の領域が透明である。次いで、CPU401aは多値画像900aを投影領域103aの座標系である投影座標系に射影変換して図9(b)の変換画像902aを生成する(ステップS808)。具体的に、ステップS808では、多値画像900aに含まれる投影領域103aの頂点(L1,M1)を(0,0)に変換し、頂点(L2,M2)を(0,screen_height)に変換する。頂点(L3,M3)を(screen_width,screen_height)に変換し、頂点(L4,M4)を(screen_width,0)に変換する。なお、射影変換に用いられる各パラメータは事前のキャリブレーション処理によって導出される。   Next, the CPU 401a generates an intermediate image including color information based on the mask image subjected to the image processing and the RGB image acquired in step S801 (step S806). Next, the CPU 401a performs a transparency process on the intermediate image (step S807). In step S807, the multi-valued image 900a in FIG. 9A is generated in which the portion having the pixel value “255” is made non-transparent and the portion having the pixel value “0” is made transparent in the intermediate image. In the multi-valued image 900a, the area 901a indicating the hand of the user A is translucent, and the other areas are transparent. Next, the CPU 401a projects and converts the multi-valued image 900a into a projection coordinate system that is the coordinate system of the projection area 103a, and generates a converted image 902a in FIG. 9B (step S808). Specifically, in step S808, the vertex (L1, M1) of the projection region 103a included in the multi-valued image 900a is converted to (0, 0), and the vertex (L2, M2) is converted to (0, screen_height). . The vertex (L3, M3) is converted to (screen_width, screen_height), and the vertex (L4, M4) is converted to (screen_width, 0). Each parameter used for projective transformation is derived by a prior calibration process.

次いで、CPU401aは変換画像902aにおけるユーザAの手を示す領域903aの外接矩形領域904aを抽出し、該外接矩形領域904aの座標を取得する(ステップS809)。次いで、CPU401aは変換画像902aにおける指し示し位置の座標を取得する(ステップS810)。指し示し位置は、変換画像902aにおけるユーザAが指し示す指の先端部である。ステップS810において、CPU401aは、外接矩形領域904aの四辺の中から変換画像902aの端と一致し、且つ非透明な画素が最も多く接する辺905aを特定する。CPU401aは辺905aに対向する辺906aに非透明な画素が接する位置907aを指し示し位置に決定し、該指し示し位置の座標を取得する。   Next, the CPU 401a extracts the circumscribed rectangular area 904a of the area 903a indicating the user A's hand in the converted image 902a, and acquires the coordinates of the circumscribed rectangular area 904a (step S809). Next, the CPU 401a acquires the coordinates of the indicated position in the converted image 902a (step S810). The pointing position is the tip of the finger pointed by the user A in the converted image 902a. In step S810, the CPU 401a identifies a side 905a that coincides with the end of the converted image 902a from the four sides of the circumscribed rectangular region 904a and that is most in contact with non-transparent pixels. The CPU 401a points to the position 907a where the non-transparent pixel is in contact with the side 906a facing the side 905a, and acquires the coordinates of the pointed position.

次いで、CPU401aは変換画像902aから外接矩形領域904aをトリミングし、方向性を有する図9(c)のポインティング画像908aを生成する(ステップS811)。以下では、ポインティング画像908aにおけるユーザAの指先側をポインティング画像908aの指先側と定義し、ポインティング画像908aにおけるユーザAの手首側をポインティング画像908aの手首側と定義する。また、指し示し位置907a及びポインティング画像908aの手首側の辺を結ぶ直線を指し示し線909aと定義する。さらに、ユーザAが指し示す方向を指し示し方向と定義し、その向きを指し示し線909aの矢印で示す。次いで、CPU401aはポインティング画像908a及びレイアウト情報を対応付けしてRAM402aに格納する(ステップS811)。レイアウト情報は、ステップS809で取得した外接矩形領域904aの座標及びステップS810で取得した指し示し位置の座標等を含む。その後、CPU401aは上述したステップS702以降の処理を行う。なお、本実施の形態では、複数の指し示しが検知された場合、各指し示しに対して図8の処理を実行する。   Next, the CPU 401a trims the circumscribed rectangular area 904a from the converted image 902a, and generates the pointing image 908a of FIG. 9C having directionality (step S811). Hereinafter, the fingertip side of the user A in the pointing image 908a is defined as the fingertip side of the pointing image 908a, and the wrist side of the user A in the pointing image 908a is defined as the wrist side of the pointing image 908a. Further, a straight line connecting the pointing position 907a and the wrist side of the pointing image 908a is defined as a pointing line 909a. Further, the direction indicated by the user A is defined as the pointing direction, and the direction is indicated by an arrow of the line 909a. Next, the CPU 401a associates the pointing image 908a with the layout information and stores them in the RAM 402a (step S811). The layout information includes the coordinates of the circumscribed rectangular area 904a acquired in step S809, the coordinates of the pointing position acquired in step S810, and the like. Thereafter, the CPU 401a performs the processing after step S702 described above. In the present embodiment, when a plurality of indications are detected, the processing of FIG. 8 is executed for each indication.

図10は、図1の画像処理装置101bによって実行されるポインティング画像受信処理の手順を示すフローチャートである。   FIG. 10 is a flowchart showing the procedure of the pointing image reception process executed by the image processing apparatus 101b of FIG.

図10の処理は、CPU401bがROM403b及びHDD404bに格納されたプログラムを実行することによって行われる。   The processing in FIG. 10 is performed by the CPU 401b executing a program stored in the ROM 403b and the HDD 404b.

図10において、CPU401bは画像処理装置101aからポインティング画像及びレイアウト情報を受信したか否かを判別する(ステップS1001)。   In FIG. 10, the CPU 401b determines whether a pointing image and layout information are received from the image processing apparatus 101a (step S1001).

ステップS1001の判別の結果、画像処理装置101aから、例えば、ポインティング画像908a及びレイアウト情報を受信したとき、CPU401bは後述する図11のレイアウト情報更新処理を行う(ステップS1002)。これにより、CPU401bは取得したポインティング画像908aを回転させる回転角度を決定し、該回転角度に基づいてレイアウト情報を更新する。次いで、CPU401bはポインティング画像908a及び更新後のレイアウト情報に基づいてポインティング画像を投影領域103bに投影する(ステップS1003)。次いで、CPU401bはポインティング画像受信処理の実行の終了が指示されたか否かを判別する(ステップS1004)。   As a result of the determination in step S1001, for example, when receiving a pointing image 908a and layout information from the image processing apparatus 101a, the CPU 401b performs layout information update processing in FIG. 11 described later (step S1002). As a result, the CPU 401b determines a rotation angle for rotating the acquired pointing image 908a, and updates the layout information based on the rotation angle. Next, the CPU 401b projects the pointing image on the projection area 103b based on the pointing image 908a and the updated layout information (step S1003). Next, the CPU 401b determines whether or not the end of execution of the pointing image reception process has been instructed (step S1004).

ステップS1004の判別の結果、ポインティング画像受信処理の実行の終了が指示されないとき、CPU401bはステップS1001の処理に戻る。一方、ポインティング画像受信処理の実行の終了が指示されたとき、CPU401bは上述したステップS608以降の処理を行う。   As a result of the determination in step S1004, when the end of execution of the pointing image reception process is not instructed, the CPU 401b returns to the process in step S1001. On the other hand, when the end of execution of the pointing image reception process is instructed, the CPU 401b performs the processes after step S608 described above.

図11は、図10のステップS1002のレイアウト情報更新処理の手順を示すフローチャートである。   FIG. 11 is a flowchart showing the procedure of the layout information update process in step S1002 of FIG.

図11において、まず、CPU401bは、投影領域103bに対する画像処理装置101bの設置位置(以下、単に「画像処理装置101bの設置位置」という。)に関する情報をHDD404bから取得する(ステップS1101)。次いで、CPU401bは、取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側が画像処理装置101bの設置側であるか否かを判別する(ステップS1102)。具体的に、上記ポインティング画像の指し示し線及び該指し示し線を指し示し方向と逆方向に延長した延長線(以下、「指し示し延長線」という。)のいずれかが投影領域103bにおける画像処理装置101bの設置側の辺と交差する場合、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側であると判別する。例えば、上記ポインティング画像が図12(a)のポインティング画像1201bである場合、ポインティング画像1201bの指し示し延長線1202bが投影領域103bにおける画像処理装置101bの設置側の辺1203bと交差するので、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側であると判別する。   In FIG. 11, first, the CPU 401b obtains information about the installation position of the image processing apparatus 101b with respect to the projection area 103b (hereinafter simply referred to as “the installation position of the image processing apparatus 101b”) from the HDD 404b (step S1101). Next, the CPU 401b determines whether the wrist side of the pointing image projected on the projection area 103b is the installation side of the image processing apparatus 101b based on the acquired pointing image 908a (step S1102). Specifically, either the pointing line of the pointing image or an extension line extending in the direction opposite to the pointing direction (hereinafter referred to as “pointing extension line”) is set in the projection region 103b. When intersecting the side edge, the CPU 401b determines that the wrist side of the pointing image is the installation side of the image processing apparatus 101b. For example, when the pointing image is the pointing image 1201b of FIG. 12A, the pointing line 1202b of the pointing image 1201b intersects the side 1203b on the installation side of the image processing apparatus 101b in the projection area 103b. It is determined that the wrist side of the pointing image is the installation side of the image processing apparatus 101b.

一方、上記ポインティング画像の指し示し線及び指し示し延長線のいずれもが投影領域103bにおける画像処理装置101bの設置側の辺と交差しない場合、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側でないと判別する。例えば、上記ポインティング画像が図12(a)のポインティング画像1204bである場合、ポインティング画像1204bの指し示し延長線1205bが辺1203bと交差しないので、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側でないと判別する。   On the other hand, when neither the pointing line nor the pointing extension line of the pointing image intersects the side on the installation side of the image processing apparatus 101b in the projection area 103b, the CPU 401b indicates that the wrist side of the pointing image is not the installation side of the image processing apparatus 101b. Is determined. For example, when the pointing image is the pointing image 1204b in FIG. 12A, the pointing line 1205b of the pointing image 1204b does not intersect the side 1203b, so the CPU 401b has the wrist side of the pointing image on the installation side of the image processing apparatus 101b. It is determined that it is not.

ステップS1102の判別の結果、上記ポインティング画像の手首側が画像処理装置101bの設置側であるとき、CPU401bは本処理を終了する。一方、ステップS1102の判別の結果、上記ポインティング画像の手首側が画像処理装置101bの設置側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1103)。CPU401bは、例えば、ポインティング画像1204bを該ポインティング画像1204bの指し示し位置を中心に回転させた際にポインティング画像1204bの指し示し延長線が画像処理装置101bの設置側の辺と交差する回転角度を決定する。次いで、CPU401bは回転角度に基づいてレイアウト情報を更新し(ステップS1104)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側が画像処理装置101b側となる図12(c)のポインティング画像1207bが投影される。つまり、画像処理装置101bは、ユーザCが存在しない側、具体的に、画像処理装置101bの設置側からポインティング画像1207bを表示する。その後、CPU401bは上述したステップS1003以降の処理を行う。   As a result of the determination in step S1102, when the wrist side of the pointing image is the installation side of the image processing apparatus 101b, the CPU 401b ends this process. On the other hand, if the result of determination in step S1102 is that the wrist side of the pointing image is not the installation side of the image processing apparatus 101b, the CPU 401b determines the rotation angle of the pointing image (step S1103). For example, when the pointing image 1204b is rotated around the pointing position of the pointing image 1204b, the CPU 401b determines the rotation angle at which the extended line indicated by the pointing image 1204b intersects the side on the installation side of the image processing apparatus 101b. Next, the CPU 401b updates the layout information based on the rotation angle (step S1104), and stores the updated layout information in the RAM 402b. As a result, the pointing image 1207b of FIG. 12C in which the wrist side of the user A is the image processing apparatus 101b side is projected onto the projection area 103b. That is, the image processing apparatus 101b displays the pointing image 1207b from the side where the user C does not exist, specifically from the installation side of the image processing apparatus 101b. After that, the CPU 401b performs the processing after step S1003 described above.

上述した図10及び図11の処理によれば、画像処理装置101bの投影領域103bにおいて、画像処理装置101bのユーザCが存在しない側からポインティング画像1207bが表示される。すなわち、会議室AにおけるユーザA,Bの位置に関わらず、会議室Bにおいて、ポインティング画像1207bがユーザCの位置に表示されることはない。これにより、会議室Bにおいて、まるでユーザCから手が飛び出すような不自然な表示が行われるのを回避することができる。   10 and 11 described above, the pointing image 1207b is displayed from the side where the user C of the image processing apparatus 101b does not exist in the projection area 103b of the image processing apparatus 101b. That is, regardless of the positions of the users A and B in the conference room A, the pointing image 1207b is not displayed at the position of the user C in the conference room B. Thereby, in the conference room B, it is possible to avoid an unnatural display such as a hand jumping out from the user C.

また、上述した図10及び図11の処理では、画像処理装置101bの投影領域103bにおいて、画像処理装置101bの設置側からポインティング画像1207bが表示される。これにより、少なくとも、ポインティング画像1207bがユーザCに重畳して表示されるのを回避することができる。   Further, in the above-described processing of FIGS. 10 and 11, the pointing image 1207b is displayed from the installation side of the image processing apparatus 101b in the projection region 103b of the image processing apparatus 101b. Thereby, at least the pointing image 1207b can be prevented from being superimposed on the user C and displayed.

以上、本発明について、上述した実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。   As described above, the present invention has been described using the above-described embodiment, but the present invention is not limited to the above-described embodiment.

例えば、画像処理装置101bに対向しない位置ではなく、図12(c)に示すように、画像処理装置101bの前方側からユーザCが投影領域103bを確認している場合であっても良い。この場合でも上述した本実施の形態と同様の効果を奏することができる。   For example, it may be a case where the user C is confirming the projection region 103b from the front side of the image processing apparatus 101b as shown in FIG. Even in this case, the same effect as the above-described embodiment can be obtained.

また、上述した本実施の形態では、ポインティング画像1207bが投影領域103bにおける画像105bの上下方向における上端側(以下、単に「画像105bの上端側」という。)から表示されても良い。   In the above-described embodiment, the pointing image 1207b may be displayed from the upper end side in the vertical direction of the image 105b in the projection region 103b (hereinafter simply referred to as “the upper end side of the image 105b”).

図13は、図11のレイアウト情報更新処理の第1の変形例の手順を示すフローチャートである。   FIG. 13 is a flowchart showing the procedure of a first modification of the layout information update process of FIG.

図13において、まず、CPU401bは投影領域103bに投影される画像105bの上端側の情報をHDD404bから取得する(ステップS1301)。次いで、CPU401bは取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側が画像105bの上端側であるか否かを判別する(ステップS1302)。具体的に、上記ポインティング画像の指し示し線及び指し示し延長線のいずれかが投影領域103bにおける画像105bの上端側の辺と交差する場合、CPU401bは上記ポインティング画像の手首側が画像105bの上端側であると判別する。例えば、上記ポインティング画像が図14(a)のポインティング画像1401bである場合、ポインティング画像1401bの指し示し延長線1402bが投影領域103bにおける画像105bの上端側の辺1403bと交差するので、CPU401bは上記ポインティング画像の手首側が画像105bの上端側であると判別する。   In FIG. 13, first, the CPU 401b acquires information on the upper end side of the image 105b projected on the projection area 103b from the HDD 404b (step S1301). Next, the CPU 401b determines whether the wrist side of the pointing image projected on the projection area 103b is the upper end side of the image 105b based on the acquired pointing image 908a (step S1302). Specifically, when any one of the pointing line and the pointing extension line of the pointing image intersects the upper edge side of the image 105b in the projection area 103b, the CPU 401b determines that the wrist side of the pointing image is the upper edge side of the image 105b. Determine. For example, when the pointing image is the pointing image 1401b of FIG. 14A, the pointing line 1402b of the pointing image 1401b crosses the side 1403b on the upper end side of the image 105b in the projection region 103b, and thus the CPU 401b It is determined that the wrist side is the upper end side of the image 105b.

一方、指し示し線及び指し示し延長線のいずれもが投影領域103bにおける画像105bの上端側の辺と交差しない場合、CPU401bは上記ポインティング画像の手首側が画像105bの上端側でないと判別する。例えば、上記ポインティング画像が図14(a)のポインティング画像1404bである場合、ポインティング画像1404bの指し示し延長線1405bが辺1403bと交差しないので、CPU401bは上記ポインティング画像の手首側が画像105bの上端側でないと判別する。   On the other hand, when neither the pointing line nor the pointing extension line intersects the upper edge side of the image 105b in the projection area 103b, the CPU 401b determines that the wrist side of the pointing image is not the upper edge side of the image 105b. For example, when the pointing image is the pointing image 1404b of FIG. 14A, the pointing line 1404b of the pointing image 1404b does not intersect the side 1403b, so the CPU 401b does not have to point the wrist side of the pointing image to the upper end side of the image 105b. Determine.

ステップS1302の判別の結果、上記ポインティング画像の手首側が画像105bの上端側であるとき、CPU401bは本処理を終了する。一方、ステップS1302の判別の結果、上記ポインティング画像の手首側が画像105bの上端側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1303)。CPU401bは、例えば、ポインティング画像1404bを該ポインティング画像1404bの指し示し位置を中心に回転させた際にポインティング画像1404bの指し示し延長線が画像105bの上端側の辺と交差する回転角度を決定する。次いで、CPU401bは回転角度に基づいてレイアウト情報を更新し(ステップS1304)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側が画像105bの上端側となるポインティング画像1407bが投影される。つまり、画像処理装置101bは画像105bの上端側からポインティング画像1407bを表示する。その後、CPU401bは本処理を終了する。   As a result of the determination in step S1302, when the wrist side of the pointing image is the upper end side of the image 105b, the CPU 401b ends this process. On the other hand, as a result of the determination in step S1302, when the wrist side of the pointing image is not the upper end side of the image 105b, the CPU 401b determines the rotation angle of the pointing image (step S1303). For example, when the pointing image 1404b is rotated around the pointing position of the pointing image 1404b, the CPU 401b determines the rotation angle at which the extended line indicated by the pointing image 1404b intersects the upper edge side of the image 105b. Next, the CPU 401b updates the layout information based on the rotation angle (step S1304), and stores the updated layout information in the RAM 402b. Accordingly, a pointing image 1407b in which the wrist side of the user A is the upper end side of the image 105b is projected onto the projection area 103b. That is, the image processing apparatus 101b displays the pointing image 1407b from the upper end side of the image 105b. Thereafter, the CPU 401b ends this process.

上述した図13の処理では、ポインティング画像1407bが投影領域103bにおける画像105bの上端側から表示される。通常、ユーザは投影領域103bに投影された画像105bを閲覧し易い位置から確認するので、画像105bを閲覧し難い位置である画像105の上端側にユーザCが存在する可能性は極めて低い。これに対して、本実施の形態では、ポインティング画像1407bが投影領域103bにおける画像105bの上端側から表示される。これにより、ポインティング画像1407bがユーザCに重畳して表示される事態を確実に減らすことができる。   In the process of FIG. 13 described above, the pointing image 1407b is displayed from the upper end side of the image 105b in the projection region 103b. Normally, since the user confirms the image 105b projected on the projection area 103b from a position where the user can easily view the image 105b, the possibility that the user C exists on the upper end side of the image 105 which is a position where the image 105b is difficult to view is extremely low. On the other hand, in the present embodiment, the pointing image 1407b is displayed from the upper end side of the image 105b in the projection region 103b. Thereby, the situation where the pointing image 1407b is displayed superimposed on the user C can be reliably reduced.

上述した実施の形態において、カメラ108bやマイク408bを用いて会議室BにおけるユーザCがいない位置を推定し、推定した側からポインティング画像を表示しても良い。   In the above-described embodiment, a position where the user C is not present in the conference room B may be estimated using the camera 108b or the microphone 408b, and a pointing image may be displayed from the estimated side.

図15は、図11のレイアウト情報更新処理の第2の変形例の手順を示すフローチャートである。   FIG. 15 is a flowchart showing the procedure of the second modification of the layout information update process of FIG.

図15において、まず、CPU401bは投影領域103bの四辺のうちユーザが存在しない辺を推定する(ステップS1501)。以下では、ステップS1501において、投影領域103bにおいてユーザが存在しないと推定された辺を無人推定辺と定義し、無人推定辺の側を無人推定辺側と定義する。例えば、ステップS1501において、CPU401bはカメラ108bで撮影した撮影画像を解析し、Haar Like特徴量を用いた方法等に基づいて該撮影画像から顔領域を検出する。CPU401bは投影領域103bの四辺のうち顔領域が検出されない辺の側を無人推定辺側とする。なお、本実施の形態では、撮影画像及び投影領域103bの各辺の関係は事前のキャリブレーションによって予め設定される。また、CPU401bは、マイクアレイを用いた方法等に基づいて投影領域103bの周辺の発話及び発話元から投影領域103bに向かう方向である発話方向を検出する。CPU401bは遠隔コミュニケーション通信の開始に応じて発話及び発話方向の検出を開始し、投影領域103bの四辺のうち発話が検出されない又は発話の検出回数が予め設定された回数より少ない辺の側を無人推定辺側とする。なお、本実施の形態では、発話方向及び投影領域103bの各辺の関係は事前のキャリブレーションによって予め設定される。   In FIG. 15, first, the CPU 401b estimates a side where no user exists among the four sides of the projection area 103b (step S1501). In the following, in step S1501, the side estimated to have no user in the projection area 103b is defined as the unmanned estimated side, and the unmanned estimated side is defined as the unmanned estimated side. For example, in step S1501, the CPU 401b analyzes a photographed image photographed by the camera 108b, and detects a face area from the photographed image based on a method using the Haar Like feature. The CPU 401b sets the side where the face area is not detected among the four sides of the projection area 103b as the unmanned estimated side. In the present embodiment, the relationship between the captured image and each side of the projection area 103b is set in advance by prior calibration. Further, the CPU 401b detects an utterance around the projection area 103b and an utterance direction that is a direction from the utterance source to the projection area 103b based on a method using a microphone array. The CPU 401b starts detecting the utterance and the utterance direction in response to the start of the remote communication communication, and unattended estimation is performed on the side of the four sides of the projection area 103b where no utterance is detected or the number of utterance detection is less than the preset number. It is the side. In the present embodiment, the relationship between the utterance direction and each side of the projection region 103b is set in advance by prior calibration.

次いで、CPU401bは取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側が無人推定辺側であるか否かを判別する(ステップS1502)。具体的に、上記ポインティング画像の指し示し線及び指し示し延長線のいずれかが無人推定辺と交差する場合、CPU401bは上記ポインティング画像の手首側が無人推定辺側であると判別する。例えば、上記ポインティング画像が図16(a)のポインティング画像1601bである場合、ポインティング画像1601bの指し示し延長線1602bが無人推定辺1603bと交差するので、CPU401bは上記ポインティング画像の手首側が無人推定辺側であると判別する。一方、指し示し線及び指し示し延長線のいずれもが無人推定辺と交差しない場合、CPU401bは上記ポインティング画像の手首側が無人推定辺側でないと判別する。例えば、上記ポインティング画像が図16(a)のポインティング画像1604bである場合、ポインティング画像1604bの指し示し延長線1605bが無人推定辺1603bと交差しないので、CPU401bは上記ポインティング画像の手首側が無人推定辺側でないと判別する。   Next, based on the acquired pointing image 908a, the CPU 401b determines whether or not the wrist side of the pointing image projected on the projection area 103b is the unmanned estimated side (step S1502). Specifically, when any of the pointing line and the pointing extension line of the pointing image intersects the unmanned estimated side, the CPU 401b determines that the wrist side of the pointing image is the unmanned estimated side. For example, when the pointing image is the pointing image 1601b of FIG. 16A, the pointing line 1602b of the pointing image 1601b intersects the unmanned estimated side 1603b, so the CPU 401b has the wrist side of the pointing image on the unmanned estimated side side. Determine that there is. On the other hand, when neither the pointing line nor the pointing extension line intersects the unmanned estimated side, the CPU 401b determines that the wrist side of the pointing image is not the unmanned estimated side. For example, if the pointing image is the pointing image 1604b of FIG. 16A, the pointing line 1605b of the pointing image 1604b does not intersect the unmanned estimated side 1603b, so the CPU 401b does not have the wrist side of the pointing image on the unmanned estimated side side. Is determined.

ステップS1502の判別の結果、上記ポインティング画像の手首側が無人推定辺側であるとき、CPU401bは本処理を終了する。一方、ステップS1502の判別の結果、上記ポインティング画像の手首側が無人推定辺側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1503)。CPU401bは、例えば、ポインティング画像1604bを該ポインティング画像1604bの指し示し位置を中心に回転させた際にポインティング画像1604bの指し示し延長線が無人推定辺と交差する回転角度を決定する。次いで、CPU401bは回転角度に基づいてレイアウト情報を更新し(ステップS1504)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側が無人推定辺側となるポインティング画像1607bが投影される。つまり、画像処理装置101bは無人推定辺側からポインティング画像1607bを表示する。その後、CPU401bは本処理を終了する。   As a result of the determination in step S1502, when the wrist side of the pointing image is the unmanned estimated side, the CPU 401b ends this process. On the other hand, if the result of determination in step S1502 is that the wrist side of the pointing image is not the unmanned estimated side, the CPU 401b determines the rotation angle of the pointing image (step S1503). For example, when the pointing image 1604b is rotated around the pointing position of the pointing image 1604b, the CPU 401b determines a rotation angle at which the extension line of the pointing image 1604b intersects the unmanned estimated side. Next, the CPU 401b updates the layout information based on the rotation angle (step S1504), and stores the updated layout information in the RAM 402b. Thereby, a pointing image 1607b in which the wrist side of the user A is the unmanned estimated side is projected onto the projection area 103b. That is, the image processing apparatus 101b displays the pointing image 1607b from the unmanned estimated side. Thereafter, the CPU 401b ends this process.

上述した図15の処理では、ポインティング画像1607bが無人推定辺側から表示される。これにより、ポインティング画像1407bがユーザCに重畳して表示される事態をより確実に減らすことができる。   In the process of FIG. 15 described above, the pointing image 1607b is displayed from the unmanned estimated side. Thereby, the situation where the pointing image 1407b is displayed superimposed on the user C can be more reliably reduced.

また、上述した実施の形態において、ディスプレイ109b側からポインティング画像を表示しても良い。   In the above-described embodiment, a pointing image may be displayed from the display 109b side.

図17は、図11のレイアウト情報更新処理の第3の変形例の手順を示すフローチャートである。   FIG. 17 is a flowchart showing the procedure of the third modification of the layout information update process of FIG.

図17において、まず、CPU401bは、通信先のユーザA,Bの映像が表示されるディスプレイ109bの設置位置に関する情報をHDD404bから取得する(ステップS1701)。次いで、CPU401bは取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側がディスプレイ109bの設置側であるか否かを判別する(ステップS1702)。具体的に、上記ポインティング画像の指し示し線及び指し示し延長線のいずれかが投影領域103bにおけるディスプレイ109bが設置された側の辺と交差する場合、CPU401bは上記ポインティング画像の手首側がディスプレイ109bの設置側であると判別する。以下では、投影領域103bにおけるディスプレイ109bが設置された側の辺をディスプレイ設置辺と定義する。一方、指し示し線及び指し示し延長線のいずれもがディスプレイ設置辺と交差しない場合、CPU401bは上記ポインティング画像の手首側がディスプレイ109bの設置側でないと判別する。   In FIG. 17, first, the CPU 401b obtains information regarding the installation position of the display 109b on which the images of the communication destination users A and B are displayed from the HDD 404b (step S1701). Next, the CPU 401b determines whether or not the wrist side of the pointing image projected on the projection area 103b is the installation side of the display 109b based on the acquired pointing image 908a (step S1702). Specifically, when either the pointing line or the pointing extension line of the pointing image intersects the side of the projection area 103b where the display 109b is installed, the CPU 401b determines that the wrist side of the pointing image is the installation side of the display 109b. Determine that there is. Hereinafter, the side of the projection area 103b on which the display 109b is installed is defined as the display installation side. On the other hand, when neither the pointing line nor the pointing extension line intersects the display installation side, the CPU 401b determines that the wrist side of the pointing image is not the display 109b installation side.

ステップS1702の判別の結果、上記ポインティング画像の手首側がディスプレイ109bの設置側であるとき、CPU401bは本処理を終了する。一方、ステップS1702の判別の結果、上記ポインティング画像の手首側がディスプレイ109bの設置側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1703)。例えば、CPU401bは、ユーザAの手首側がディスプレイ109bの設置側でないポインティング画像を該ポインティング画像の指し示し位置を中心に回転させた際に該ポインティング画像の指し示し延長線がディスプレイ設置辺と交差する回転角度を決定する。次いで、CPU401bは決定した回転角度に基づいてレイアウト情報を更新し(ステップS1704)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側がディスプレイ109bの設置側となるポインティング画像1801bが投影される。つまり、画像処理装置101bはディスプレイ109bの設置側からポインティング画像1801bを表示する。その後、CPU401bは本処理を終了する。   As a result of the determination in step S1702, when the wrist side of the pointing image is the installation side of the display 109b, the CPU 401b ends this process. On the other hand, if the result of determination in step S1702 is that the wrist side of the pointing image is not the display 109b installation side, the CPU 401b determines the rotation angle of the pointing image (step S1703). For example, when the CPU 401b rotates a pointing image where the wrist of the user A is not the display 109b on the pointing image pointing position, the CPU 401b sets the rotation angle at which the extension line of the pointing image intersects the display setting side. decide. Next, the CPU 401b updates the layout information based on the determined rotation angle (step S1704), and stores the updated layout information in the RAM 402b. Thus, a pointing image 1801b in which the wrist side of the user A is the installation side of the display 109b is projected onto the projection area 103b. That is, the image processing apparatus 101b displays the pointing image 1801b from the installation side of the display 109b. Thereafter, the CPU 401b ends this process.

上述した図17の処理では、ポインティング画像1801bが投影領域103bにおけるディスプレイ109bの設置側から表示される。これにより、会議室Bにおいて、会議室AのユーザA,Bのポインティング画像をユーザA,Bが表示される側から表示することができ、もって、自然な遠隔コミュニケーション通信を実現することができる。   In the processing of FIG. 17 described above, the pointing image 1801b is displayed from the installation side of the display 109b in the projection region 103b. Thereby, in the conference room B, the pointing images of the users A and B in the conference room A can be displayed from the side where the users A and B are displayed, and thus natural remote communication communication can be realized.

さらに、上述した実施の形態において、画像処理装置101aがレイアウト情報を送信する前に該レイアウト情報を更新しても良い。   Furthermore, in the above-described embodiment, the layout information may be updated before the image processing apparatus 101a transmits the layout information.

図19(a)は、図10のポインティング画像受信処理の変形例の手順を示すフローチャートである。   FIG. 19A is a flowchart illustrating a procedure of a modification of the pointing image reception process of FIG.

図19(a)の処理は、CPU401bがROM403b及びHDD404bに格納されたプログラムを実行することによって行われる。   The process in FIG. 19A is performed by the CPU 401b executing a program stored in the ROM 403b and the HDD 404b.

図19(a)について、CPU401bはポインティング画像の回転角度を決定するためのパラメータを画像処理装置101aに送信する(ステップS1901)。すなわち、本実施の形態では、画像処理装置101bは、画像処理装置101aからポインティング画像及びレイアウト情報を受信する前に上記パラメータを画像処理装置101aに送信する。上記パラメータとして、例えば、投影領域103bに対する画像処理装置101bの設置位置に関する情報、投影領域103bにおける画像105bの上端側の辺を示す情報、投影領域103bにおける無人推定辺側を示す情報、及びディスプレイ109bの設置位置に関する情報を画像処理装置101aに送信する。次いで、上述したステップS1001の処理を実行する。   19A, the CPU 401b transmits a parameter for determining the rotation angle of the pointing image to the image processing apparatus 101a (step S1901). That is, in the present embodiment, the image processing apparatus 101b transmits the parameters to the image processing apparatus 101a before receiving the pointing image and the layout information from the image processing apparatus 101a. Examples of the parameters include information regarding the installation position of the image processing apparatus 101b with respect to the projection area 103b, information indicating the upper edge side of the image 105b in the projection area 103b, information indicating the unmanned estimated edge side in the projection area 103b, and the display 109b Information regarding the installation position of the image processing apparatus 101a is transmitted to the image processing apparatus 101a. Next, the process of step S1001 described above is executed.

ステップS1001の判別の結果、画像処理装置101aからポインティング画像及びレイアウト情報を受信しないとき、CPU401bは上述したステップS1004以降の処理を行う。一方、ステップS1001の判別の結果、画像処理装置101aからポインティング画像及びポインティング画像のレイアウト情報を受信したとき、CPU401bは上述したステップS1003以降の処理を行う。   As a result of the determination in step S1001, when the pointing image and the layout information are not received from the image processing apparatus 101a, the CPU 401b performs the processes after step S1004 described above. On the other hand, as a result of the determination in step S1001, when the pointing image and the layout information of the pointing image are received from the image processing apparatus 101a, the CPU 401b performs the processing from step S1003 described above.

図19(b)は、図7のポインティング画像送信処理の変形例の手順を示すフローチャートである。   FIG. 19B is a flowchart showing the procedure of a modification of the pointing image transmission process of FIG.

図19(b)の処理は、CPU401aがROM403a及びHDD404aに格納されたプログラムを実行することによって行われる。   The process in FIG. 19B is performed by the CPU 401a executing a program stored in the ROM 403a and the HDD 404a.

図19(b)において、まず、CPU401aは上記パラメータを画像処理装置101bから取得する(ステップS1902)。次いで、CPU401aは上述したステップS701の処理を行い、レイアウト情報更新処理を実行する(ステップS1903)。ステップS1903では、図20(a)〜図20(d)のいずれかのレイアウト情報更新処理が実行される。例えば、図20(a)の処理では、CPU401aが、上述したステップS1102〜S1104の処理を実行し、画像処理装置101bにおいてポインティング画像が画像処理装置101bの設置側から表示されるようにレイアウト情報を更新する。また、図20(b)の処理では、CPU401aが、上述したステップS1302〜S1304の処理を実行し、画像処理装置101bにおいてポインティング画像が画像105bの上端側から表示されるようにレイアウト情報を更新する。さらに、図20(c)の処理では、CPU401aが、上述したステップS1502〜S1504の処理を実行し、画像処理装置101bにおいてポインティング画像が無人推定辺側から表示されるようにレイアウト情報を更新する。図20(d)の処理では、CPU401aが、上述したステップS1702〜S1704の処理を実行し、画像処理装置101bにおいてポインティング画像がディスプレイ109bの設置側から表示されるようにレイアウト情報を更新する。次いで、CPU401aは上述したステップS702以降の処理を行う。   In FIG. 19B, first, the CPU 401a acquires the parameters from the image processing apparatus 101b (step S1902). Next, the CPU 401a performs the process of step S701 described above and executes a layout information update process (step S1903). In step S1903, the layout information update process in any one of FIGS. 20A to 20D is executed. For example, in the process of FIG. 20A, the CPU 401a executes the processes of steps S1102 to S1104 described above, and the layout information is displayed so that the pointing image is displayed from the installation side of the image processing apparatus 101b in the image processing apparatus 101b. Update. In the process of FIG. 20B, the CPU 401a executes the processes of steps S1302 to S1304 described above, and updates the layout information so that the pointing image is displayed from the upper end side of the image 105b in the image processing apparatus 101b. . Further, in the process of FIG. 20C, the CPU 401a executes the processes of steps S1502 to S1504 described above, and updates the layout information so that the pointing image is displayed from the unmanned estimated side in the image processing apparatus 101b. In the process of FIG. 20D, the CPU 401a executes the processes of steps S1702 to S1704 described above, and updates the layout information so that the pointing image is displayed from the installation side of the display 109b in the image processing apparatus 101b. Next, the CPU 401a performs the processing after step S702 described above.

上述した図19(a)、図19(b)、及び図20(a)〜図20(d)の処理においても、上述した本実施の形態と同様の効果を奏することができる。   In the processes of FIGS. 19A, 19B, and 20A to 20D described above, the same effects as those of the present embodiment described above can be obtained.

また、上述した本実施の形態において、画像処理装置101bの設置位置情報やディスプレイ109bの設置位置情報等のパラメータのように遠隔コミュニケーション通信中に変更される可能性が極めて低いパラメータの送信処理は、複数回行わなくても良く、画像処理装置101aは受信した上記パラメータを保持することが好ましい。これにより、パラメータの通信処理の実行を減らすことができ、もって、パラメータの通信処理の負荷を軽減することができる。   In addition, in the present embodiment described above, the parameter transmission process that is extremely unlikely to be changed during remote communication communication, such as the installation position information of the image processing apparatus 101b and the installation position information of the display 109b, The image processing apparatus 101a does not need to perform the process a plurality of times, and preferably holds the received parameter. As a result, the execution of parameter communication processing can be reduced, and the load of parameter communication processing can be reduced.

本発明は、上述の実施の形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、該システム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by processing to be executed. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 遠隔コミュニケーションシステム
101a,101b 画像処理装置
102a プロジェクタ
103a,103b 投影領域
105a,105b 画像
108a,108b カメラ
408a,408b マイク
908a,1207b,1407b,1607b,1801b ポインティング画像
100 Remote communication system 101a, 101b Image processing apparatus 102a Projector 103a, 103b Projection area 105a, 105b Image 108a, 108b Camera 408a, 408b Microphone 908a, 1207b, 1407b, 1607b, 1801b Pointing image

Claims (12)

画像処理装置及び他の画像処理装置を備え、共有された画像を前記画像処理装置及び前記他の画像処理装置の各表示領域に表示する表示制御システムであって、
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御手段を備え、
前記ポインティング画像は方向性を有し、
前記表示制御手段は、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする表示制御システム。
A display control system that includes an image processing device and another image processing device, and displays a shared image in each display area of the image processing device and the other image processing device,
Display control means for performing control to display a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device;
The pointing image has directionality,
The display control system, wherein the display control means displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.
前記表示制御手段は、前記画像処理装置の表示領域における前記画像処理装置が配置された側から前記ポインティング画像を表示することを特徴とする請求項1記載の表示制御システム。   The display control system according to claim 1, wherein the display control unit displays the pointing image from a side where the image processing device is arranged in a display area of the image processing device. 前記表示制御手段は、前記表示された画像の上下方向における前記表示された画像の上端側から前記ポインティング画像を表示することを特徴とする請求項1記載の表示制御システム。   The display control system according to claim 1, wherein the display control unit displays the pointing image from an upper end side of the displayed image in a vertical direction of the displayed image. 前記画像処理装置の周辺のユーザを検知する検知手段を更に備え、
前記表示制御手段は、前記画像処理装置の表示領域において、前記ユーザが検知されない側から前記ポインティング画像を表示することを特徴とする請求項1記載の表示制御システム。
The image processing apparatus further comprises detection means for detecting users around the image processing apparatus,
The display control system according to claim 1, wherein the display control unit displays the pointing image from a side where the user is not detected in a display area of the image processing apparatus.
前記他の画像処理装置のユーザを表示する表示手段を更に備え、
前記表示制御手段は、前記画像処理装置の表示領域において、前記表示手段が配置された側から前記ポインティング画像を表示することを特徴とする請求項1記載の表示制御システム。
A display unit for displaying a user of the other image processing apparatus;
The display control system according to claim 1, wherein the display control unit displays the pointing image from a side where the display unit is arranged in a display area of the image processing apparatus.
他の画像処理装置と共有された画像を表示領域に表示する画像処理装置であって、
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記表示領域に表示する制御を行う表示制御手段を備え、
前記ポインティング画像は方向性を有し、
前記表示制御手段は、前記表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする画像処理装置。
An image processing apparatus that displays an image shared with another image processing apparatus in a display area,
Display control means for performing control to display a pointing image indicating an action in which the user of the other image processing apparatus points to the displayed image on the display area;
The pointing image has directionality,
The display control means displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area.
前記表示制御手段は、前記表示領域における前記画像処理装置が配置された側から前記ポインティング画像を表示することを特徴とする請求項6記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the display control unit displays the pointing image from a side where the image processing apparatus is arranged in the display area. 前記表示制御手段は、前記表示された画像の上下方向における前記表示された画像の上端側から前記ポインティング画像を表示することを特徴とする請求項6記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the display control unit displays the pointing image from an upper end side of the displayed image in a vertical direction of the displayed image. 前記画像処理装置の周辺のユーザを検知する検知手段を更に備え、
前記表示制御手段は、前記表示領域において、前記ユーザが検知されない側から前記ポインティング画像を表示することを特徴とする請求項6記載の画像処理装置。
The image processing apparatus further comprises detection means for detecting users around the image processing apparatus,
The image processing apparatus according to claim 6, wherein the display control unit displays the pointing image from a side where the user is not detected in the display area.
前記他の画像処理装置のユーザを表示する表示手段を更に備え、
前記表示制御手段は、前記表示領域において、前記表示手段が配置された側から前記ポインティング画像を表示することを特徴とする請求項6記載の画像処理装置。
A display unit for displaying a user of the other image processing apparatus;
The image processing apparatus according to claim 6, wherein the display control unit displays the pointing image from the side where the display unit is arranged in the display area.
画像処理装置及び他の画像処理装置を備え、共有された画像を前記画像処理装置及び前記他の画像処理装置の各表示領域に表示する表示制御方法であって、
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御ステップを有し、
前記ポインティング画像は方向性を有し、
前記表示制御ステップは、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする表示制御方法。
A display control method comprising an image processing device and another image processing device, and displaying a shared image in each display area of the image processing device and the other image processing device,
A display control step for performing control to display a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device;
The pointing image has directionality,
In the display control step, the pointing image is displayed from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.
画像処理装置及び他の画像処理装置を備え、共有された画像を前記画像処理装置及び前記他の画像処理装置の各表示領域に表示する表示制御方法をコンピュータに実行させるプログラムであって、
前記表示制御方法は、
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御ステップを有し、
前記ポインティング画像は方向性を有し、
前記表示制御ステップは、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とするプログラム。
A program comprising an image processing device and another image processing device, causing a computer to execute a display control method for displaying a shared image in each display area of the image processing device and the other image processing device,
The display control method includes:
A display control step for performing control to display a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device;
The pointing image has directionality,
The display control step displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.
JP2016211621A 2016-10-28 2016-10-28 Display controlling system, image processing device, display controlling method, and program Pending JP2018073093A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016211621A JP2018073093A (en) 2016-10-28 2016-10-28 Display controlling system, image processing device, display controlling method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016211621A JP2018073093A (en) 2016-10-28 2016-10-28 Display controlling system, image processing device, display controlling method, and program

Publications (1)

Publication Number Publication Date
JP2018073093A true JP2018073093A (en) 2018-05-10

Family

ID=62111647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016211621A Pending JP2018073093A (en) 2016-10-28 2016-10-28 Display controlling system, image processing device, display controlling method, and program

Country Status (1)

Country Link
JP (1) JP2018073093A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230852A1 (en) * 2018-06-01 2019-12-05 ソニー株式会社 Information processing device, information processing method, and program
WO2020162154A1 (en) * 2019-02-04 2020-08-13 ソニー株式会社 Information processing device and information processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230852A1 (en) * 2018-06-01 2019-12-05 ソニー株式会社 Information processing device, information processing method, and program
CN112166602A (en) * 2018-06-01 2021-01-01 索尼公司 Information processing apparatus, information processing method, and program
JPWO2019230852A1 (en) * 2018-06-01 2021-07-08 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
US11366631B2 (en) 2018-06-01 2022-06-21 Sony Corporation Information processing device, information processing method, and program
JP7276334B2 (en) 2018-06-01 2023-05-18 ソニーグループ株式会社 Information processing device, information processing method, and program
CN112166602B (en) * 2018-06-01 2023-12-05 索尼公司 Information processing device, information processing method, and program
WO2020162154A1 (en) * 2019-02-04 2020-08-13 ソニー株式会社 Information processing device and information processing method
EP3923149A4 (en) * 2019-02-04 2022-04-06 Sony Group Corporation Information processing device and information processing method

Similar Documents

Publication Publication Date Title
US9980040B2 (en) Active speaker location detection
US10733801B2 (en) Markerless image analysis for augmented reality
KR102222974B1 (en) Holographic snap grid
CN106255938B (en) Calibration of sensors and projectors
EP2864932B1 (en) Fingertip location for gesture input
US20170068326A1 (en) Imaging surround system for touch-free display control
TWI531929B (en) Identifying a target touch region of a touch-sensitive surface based on an image
TWI559174B (en) Gesture based manipulation of three-dimensional images
CN109840950B (en) Method for obtaining real-size 3D model and surveying device
US9531995B1 (en) User face capture in projection-based systems
Saputra et al. Indoor human tracking application using multiple depth-cameras
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
CN110286906B (en) User interface display method and device, storage medium and mobile terminal
JP2018073093A (en) Display controlling system, image processing device, display controlling method, and program
US10725586B2 (en) Presentation of a digital image of an object
US9041689B1 (en) Estimating fingertip position using image analysis
WO2021004413A1 (en) Handheld input device and blanking control method and apparatus for indication icon of handheld input device
CN113508354A (en) Representation of a display environment
JP6124862B2 (en) Method for performing action according to pointing gesture, conference support system, and computer program
JP2019012453A (en) Information processing device, control method therefor, and program
TW201621554A (en) Capture and projection of an object image
JP2013134549A (en) Data input device and data input method
JP2018063555A (en) Information processing device, information processing method, and program
JP2016139396A (en) User interface device, method and program
JP2017049662A (en) Information processing apparatus, control method thereof, program, and storage medium