JP2018073093A - Display controlling system, image processing device, display controlling method, and program - Google Patents
Display controlling system, image processing device, display controlling method, and program Download PDFInfo
- Publication number
- JP2018073093A JP2018073093A JP2016211621A JP2016211621A JP2018073093A JP 2018073093 A JP2018073093 A JP 2018073093A JP 2016211621 A JP2016211621 A JP 2016211621A JP 2016211621 A JP2016211621 A JP 2016211621A JP 2018073093 A JP2018073093 A JP 2018073093A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- pointing
- processing apparatus
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示制御システム、画像処理装置、表示制御方法、及びプログラムに関し、特に、遠隔コミュニケーションを行う表示制御システム、画像処理装置、表示制御方法、及びプログラムに関する。 The present invention relates to a display control system, an image processing device, a display control method, and a program, and more particularly to a display control system, an image processing device, a display control method, and a program that perform remote communication.
離れた場所(遠隔地)の相手とコミュニケーション(以下、「遠隔コミュニケーション」という。)を取るための手段として各画像を表示する表示制御システムが知られている。表示制御システムでは、例えば、離れた2つの会議室A,Bのそれぞれに表示部及び音声出力部を備える画像処理装置が配置され、画像処理装置同士が通信(以下、「遠隔コミュニケーション通信」という。)を行う。各会議室A,Bでは、各画像処理装置の音声出力部から通信先の音声が出力され、各画像処理装置の表示部に各会議室A,Bのユーザの画像や共有された電子資料等が表示される(例えば、特許文献1参照)。表示制御システムでは、会議室A,Bにおいて、共有された電子資料が同じように表示された場合、例えば、会議室Aのユーザが電子資料を指し示すと、会議室Bでは電子資料に重畳して会議室Aのユーザが指し示した行為を示すポインティング画像が表示される。これにより、会議室Aのユーザが電子資料を指し示した行為を会議室Bのユーザに容易に通知することができる。 A display control system for displaying each image is known as means for communicating with a remote place (remote place) (hereinafter referred to as “remote communication”). In the display control system, for example, an image processing apparatus including a display unit and an audio output unit is arranged in each of two separated conference rooms A and B, and the image processing apparatuses communicate with each other (hereinafter referred to as “remote communication communication”). )I do. In each conference room A, B, the voice of the communication destination is output from the audio output unit of each image processing device, and the images of the users in each conference room A, B, shared electronic materials, etc. Is displayed (for example, see Patent Document 1). In the display control system, when the shared electronic materials are displayed in the same way in the conference rooms A and B, for example, when the user of the conference room A points to the electronic materials, the conference room B is superimposed on the electronic materials. A pointing image indicating the action indicated by the user in the conference room A is displayed. Thereby, it is possible to easily notify the user of the conference room B of the action that the user of the conference room A points to the electronic material.
表示制御システムでは、表示部の他に、プロジェクタを備える画像処理装置が用いられる場合があり、この場合、ユーザの画像や電子資料等はプロジェクタによって投影される。プロジェクタは、スクリーンやホワイトボードといった地面に対して垂直な面に各画像を投影するのが一般的であるが、近年では、画像処理装置が配置された机の上等の地面に対して水平な面(以下、単に「水平面」という。)に各画像を投影する場合も増えている。この場合、プロジェクタは画像処理装置に対向する位置のユーザが読み易い向きに電子資料を表示し、各会議室A,Bでは、各画像処理装置から同じ距離だけ離れた位置であって、且つ各画像処理装置に対して同じ向きに電子資料が投影される。そのため、各会議室A,Bでは、各画像処理装置に対して同じような位置でユーザによる電子資料の指し示しが行われる傾向にある。 In the display control system, an image processing apparatus including a projector may be used in addition to the display unit. In this case, a user image, electronic material, or the like is projected by the projector. In general, a projector projects each image on a plane perpendicular to the ground, such as a screen or a whiteboard. However, in recent years, the projector is level with respect to the ground such as a desk on which an image processing apparatus is disposed. The number of cases where each image is projected on a plane (hereinafter simply referred to as “horizontal plane”) is also increasing. In this case, the projector displays the electronic material in an easy-to-read direction for the user at the position facing the image processing apparatus. In each of the conference rooms A and B, each projector is located at the same distance from each image processing apparatus, and The electronic material is projected in the same direction with respect to the image processing apparatus. Therefore, in each of the conference rooms A and B, there is a tendency that the electronic material is pointed to by the user at the same position with respect to each image processing apparatus.
しかしながら、各画像処理装置に対して同じような位置でユーザによる電子資料の指し示しが行われると、例えば、会議室Bでは、会議室Aのユーザのポインティング画像が会議室Bのユーザの位置に投影される。その結果、まるで会議室Bのユーザから手が飛び出すような不自然な表示が行われてしまうという問題が生じる。 However, when the electronic material is pointed to by the user at the same position with respect to each image processing apparatus, for example, in the conference room B, the pointing image of the user in the conference room A is projected on the user's position in the conference room B. Is done. As a result, there arises a problem that an unnatural display appears as if a hand jumps out from the user in the conference room B.
本発明の目的は、ポインティング画像の不自然な表示を回避することができる表示制御システム、画像処理装置、表示制御方法、及びプログラムを提供することにある。 An object of the present invention is to provide a display control system, an image processing apparatus, a display control method, and a program that can avoid an unnatural display of a pointing image.
上記目的を達成するために、本発明の表示制御システムは、画像処理装置及び他の画像処理装置を備え、共有された画像を前記画像処理装置及び前記他の画像処理装置の各表示領域に表示する表示制御システムであって、前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御手段を備え、前記ポインティング画像は方向性を有し、前記表示制御手段は、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする。 In order to achieve the above object, a display control system of the present invention includes an image processing device and another image processing device, and displays a shared image in each display area of the image processing device and the other image processing device. A display control system for controlling the display of a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device; The pointing image has directionality, and the display control means displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.
本発明によれば、ポインティング画像の不自然な表示を回避することができる。 According to the present invention, an unnatural display of a pointing image can be avoided.
以下、本発明の実施の形態を図面を参照しながら詳述する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施の形態に係る表示制御システムとしての遠隔コミュニケーションシステム100を説明するための図である。 FIG. 1 is a diagram for explaining a remote communication system 100 as a display control system according to an embodiment of the present invention.
遠隔コミュニケーションシステム100は、離れた場所(遠隔地)の相手とコミュニケーションを取るためのコミュニケーションシステムである。遠隔コミュニケーションシステム100は複数の会議室の間で通信可能であり、本実施の形態では、一例として、2つの会議室A,Bの間で通信される場合を前提とする。各会議室A,Bは、移動に時間を要する程離れていても良く、また、同一のビルに設けられた別の会議室であっても良い。つまり、本実施の形態における「遠隔」という表現は、物理的な空間が別であることを示し、距離や移動に要する時間の長さを定義するものではない。遠隔コミュニケーションシステム100では、図1(a)に示すように、会議室Aに画像処理装置101aが設置され、図1(b)に示すように、会議室Bに画像処理装置101bが設置されている。なお、本実施の形態では、画像処理装置101a及び画像処理装置101bは同様の構成であり、以下では、一例として、画像処理装置101aを用いてその構成を説明する。また、以下では、会議室Aに設けられる装置の各構成要素や会議室Aで表示される画像等の末尾に符号「a」を付し、会議室Bに設けられる装置の各構成要素や会議室Bで表示される画像等の末尾に符号「b」を付して説明する。
The remote communication system 100 is a communication system for communicating with a remote place (remote place). The remote communication system 100 can communicate between a plurality of conference rooms. In this embodiment, as an example, it is assumed that communication is performed between two conference rooms A and B. The conference rooms A and B may be separated so as to require time for movement, or may be separate conference rooms provided in the same building. In other words, the expression “remote” in the present embodiment indicates that the physical space is different and does not define the distance or the length of time required for movement. In the remote communication system 100, an
図1(a)において、画像処理装置101aはプロジェクタ102a及びデプスセンサ104aを備える。画像処理装置101aはタッチマット107a、カメラ108a、及びディスプレイ109aと接続されている。
In FIG. 1A, an
プロジェクタ102aは、図2に示すように、光源ユニット201a、プロジェクタ鏡筒部202a、反射ミラー204a、及び投影ミラー205aを備える。光源ユニット201a及びプロジェクタ鏡筒部202aは屈曲部203aを介して接続され、屈曲部203aには反射ミラー204aが配置される。光源ユニット201aはプロジェクタ102aの光源であり、光を反射ミラー204aに出力する。プロジェクタ鏡筒部202aは複数のレンズを有する投影光学系である。反射ミラー204aは光源ユニット201aから出力された光を投影ミラー205aに反射させ、投影ミラー205aは投影ミラー205aによって反射した光をタッチマット107aに出力する。これにより、プロジェクタ102aはタッチマット107aに各画像を投影する。以下では、プロジェクタ102aがタッチマット107aに画像を投影する領域を投影領域103a(表示領域)と定義する。また、投影領域103aの大きさとして、幅を「screen_width」と定義し、高さを「screen_height」と定義する。なお、本実施の形態では、会議室Aの投影領域103a及び会議室Bの投影領域103bに関するキャリブレーション処理が予め実行されている。これにより、会議室Aにおける投影領域103aの大きさ及びタッチマット107aに対する投影領域103aの位置は、会議室Bにおける投影領域103bの大きさ及びタッチマット107bに対する投影領域103bの位置と同一である。
As shown in FIG. 2, the
デプスセンサ104aはタッチマット107aに投影された電子資料等の画像105aを指等で指したユーザの指や手の領域を抽出する。これにより、会議室AのユーザA,Bがタッチマット107aに投影された画像105aを指し示した場合、ユーザA,Bが指し示した行為を示すポインティング画像が生成される。生成されたポインティング画像は画像処理装置101bに送信され、画像処理装置101bは受信したポインティング画像をポインティング画像106bとしてタッチマット107bに投影する。デプスセンサ104aは、タッチマット107aから図3(a)の高さd1までの範囲の被写体の距離情報を取得可能である。また、デプスセンサ104aはタッチマット107aを撮影してRGB画像を生成する。
The
タッチマット107aは、ユーザによるタッチ操作を受け付けるための入力インターフェースであり、タッチ操作が行われた位置を示す座標を検出する。カメラ108aはタッチマット107aの周辺を撮影し、ディスプレイ109aは会議室BのユーザCの映像を表示する。
The
本実施の形態では、画像処理装置101bも、画像処理装置101aと同様に、デプスセンサ104bがタッチマット107bから図3(b)の高さd1までの範囲の被写体の距離情報を取得し、画像105bを指し示したユーザCの指や手の領域を抽出する。画像処理装置101bは抽出した結果に基づいてポインティング画像を生成し、該ポインティング画像を画像処理装置101aに送信する。これにより、会議室A,Bの間で、画像105a,105bを指し示した行為を互いに通知可能となる。
In the present embodiment, similarly to the
図4は、図1の画像処理装置101aのハードウェア構成の概略を示すブロック図である。
FIG. 4 is a block diagram showing an outline of the hardware configuration of the
図4において、画像処理装置101aは、図1のプロジェクタ102a及びデプスセンサ104aの他に、制御部400aを備え、制御部400aは、プロジェクタ102a及びデプスセンサ104aのそれぞれと接続されている。制御部400aは、CPU401a、RAM402a、ROM403a、HDD404a、カメラI/F405a、ディスプレイコントローラ406a、オーディオコントローラ407a、USBコントローラ410a、及びネットワークI/F411aを備える。CPU401a、RAM402a、ROM403a、HDD404a、カメラI/F405a、ディスプレイコントローラ406a、オーディオコントローラ407a、USBコントローラ410a、及びネットワークI/F411aはシステムバス419aを介して互いに接続されている。デプスセンサ104aはコントローラ415a、赤外線投射部416a、赤外線カメラ417a、及びRGBカメラ418aを備える。コントローラ415aは、赤外線投射部416a、赤外線カメラ417a、及びRGBカメラ418aのそれぞれと接続されている。
4, the
制御部400aは画像処理装置101a全体を統括的に制御する。CPU401aはROM403a及びHDD404aに格納されたプログラムを実行して各制御を行う。RAM402aは揮発性メモリであり、CPU401aの作業領域として用いられる。また、RAM402aは各データの一時格納領域として用いられ、例えば、後述するポインティング画像906やレイアウト情報を格納する。ROM403aは不揮発性メモリであり、画像処理装置101aのブートプログラム等を格納する。HDD404aは画像処理装置101aの制御プログラムや各データを格納する。例えば、HDD404aは画像処理装置101aの設置位置情報やディスプレイ109aの設置位置情報を格納する。カメラI/F405aはデプスセンサ104aやカメラ108aとデータ通信を行う。例えば、カメラI/F405aはカメラ108aによって撮影された会議室Aの映像データをカメラ108aから取得する。会議室Aの映像データはネットワークI/F411aを介して画像処理装置101bに送信される。
The
ディスプレイコントローラ406aはプロジェクタ102aやディスプレイ109aとデータ通信を行う。ディスプレイコントローラ406aはプロジェクタ102aによる画像の投影処理の制御や、ディスプレイ109aによる画像の表示制御を行う。例えば、ディスプレイコントローラ406aはタッチマット107aの投影領域103aに図5(a)の設定メニュー501aを投影する制御を行う。設定メニュー501aは、タッチマット107aの投影領域103aにおいて所定の期間ユーザに押下された位置、例えば、タッチ位置502aを中心とする円形の画像である。設定メニュー501aは少なくとも開始ボタン503aを備える。開始ボタン503aは遠隔コミュニケーション通信の実行を指示する操作ボタンであり、開始ボタン503aがユーザによって選択されると、図5(b)の設定メニュー504aが投影領域103aに投影される。設定メニュー504aは接続リスト505a、接続ボタン506a、及びキャンセルボタン507aを備える。接続リスト505aには遠隔コミュニケーション通信の通信先の候補が表示される。接続ボタン506aは遠隔コミュニケーション通信の開始を指示する操作ボタンであり、キャンセルボタン507aは遠隔コミュニケーション通信に関する設定の中止を指示する操作ボタンである。例えば、接続リスト505aにおいて会議室Bが選択され、且つ接続ボタン506aが選択されると、画像処理装置101aは会議室Bに配置された画像処理装置101bに遠隔コミュニケーション通信の実行要求通知を送信する。実行要求通知の受け付けを完了すると、画像処理装置101a及び画像処理装置101bの間で遠隔コミュニケーション通信の実行が可能になる。これにより、画像処理装置101aは、図5(c)に示すように、画像処理装置101bと共有された電子資料等の画像508aを投影領域103aに投影可能となる。また、画像処理装置101aは、画像508aを投影中にタッチマット107aの投影領域103aが所定の期間ユーザによって押下されると、設定メニュー509aを投影領域103aに投影する。設定メニュー509aはユーザが押下したタッチ位置510aを中心とする円形の画像であり、ファイルボタン511a及び終了ボタン512aを備える。ファイルボタン511aは投影領域103aに投影する電子資料を選択するための操作ボタンであり、終了ボタン512aは遠隔コミュニケーション通信の実行の終了を指示する操作ボタンである。
The
オーディオコントローラ407aは画像処理装置101aに接続されたマイク408a及びスピーカ409aとデータ通信を行う。例えば、オーディオコントローラ407aはマイク408aによって受信した音声を音声データに変換する。音声データはネットワークI/F411aによって画像処理装置101bに送信される。また、オーディオコントローラ407aはスピーカ409aを制御して会議室BのユーザCが発した音声を会議室Aに出力する。USBコントローラ410aは接続されたタッチマット107aや外部メモリ412aとデータ通信を行う。例えば、USBコントローラ410aはユーザがペンや指等でタッチしたタッチマット107aの位置を示す座標情報をタッチマット107aから取得する。また、USBコントローラ410aは接続されたUSBメモリやSDカード等の外部メモリ412aから画像データを取得する。ネットワークI/F411aはネットワーク413に接続されたファイルサーバ414や画像処理装置101bとデータ通信を行う。
The
コントローラ415aは赤外線投射部416a及び赤外線カメラ417aを制御して画像処理装置101aから対象物までの距離を示す8ビット1チャネルの距離画像データを取得する。また、コントローラ415aはRGBカメラ418aを制御して8ビット3チャネルのRGB画像データを取得する。赤外線投射部416aは不可視の赤外線の3次元測定パターンを対象物に投射する。赤外線カメラ417aは対象物に投射された3次元測定パターンを読み取る。RGBカメラ418aは可視光を撮影する。距離画像データ及びRGB画像データはHDD404aに格納される。
The controller 415a controls the
次に、遠隔コミュニケーションシステム100で実行される遠隔コミュニケーション通信について説明する。以下では、一例として、遠隔コミュニケーション通信における画像処理装置101aの処理について説明する。なお、画像処理装置101bも同様の処理を実行可能である。
Next, remote communication communication executed by the remote communication system 100 will be described. Hereinafter, as an example, processing of the
図6は、図1の画像処理装置101aによって実行される遠隔コミュニケーション制御処理の手順を示すフローチャートである。
FIG. 6 is a flowchart showing a procedure of remote communication control processing executed by the
図6の処理は、CPU401aがROM403a及びHDD404aに格納されたプログラムを実行することによって行われる。図6の処理は、画像処理装置101aにおける設定メニュー504aの操作、及び画像処理装置101bを含む他の装置から送信された遠隔コミュニケーション通信の実行要求通知のいずれかに基づいて遠隔コミュニケーション通信を実行する場合を前提とする。
The processing in FIG. 6 is performed by the
図6において、まず、CPU401aは遠隔コミュニケーション通信の開始指示手段が設定メニュー504aの操作及び他の装置から送信された遠隔コミュニケーション通信の実行要求通知のいずれであるかを判別する(ステップS601)。
In FIG. 6, first, the
ステップS601の判別の結果、開始指示手段が設定メニュー504aの操作であるとき、CPU401aは接続リスト505aから選択された通信先、例えば、画像処理装置101bに遠隔コミュニケーション通信の実行要求通知を送信する(ステップS602)。遠隔コミュニケーション通信の実行要求通知には、遠隔コミュニケーション通信に必要な各情報や、共有される電子資料を特定する情報等が含まれている。次いで、CPU401aは画像処理装置101bから遠隔コミュニケーション通信の受付完了通知を受信したか否かを判別する(ステップS603)。
As a result of the determination in step S601, when the start instruction means is an operation of the
ステップS603の判別の結果、受付完了通知を受信したとき、CPU401aは後述するステップS607以降の処理を行う。一方、ステップS603の判別の結果、受付完了通知を受信しないとき、CPU401aは画像処理装置101bから遠隔コミュニケーション通信の実行要求取消通知を受信したか否かを判別する(ステップS604)。
As a result of the determination in step S603, when the reception completion notification is received, the
ステップS604の判別の結果、実行要求取消通知を受信したとき、CPU401aは本処理を終了する。一方、ステップS604の判別の結果、実行要求取消通知を受信しないとき、CPU401aは設定メニュー504aにおいてキャンセルボタン507aが選択されたか否かを判別する(ステップS605)。
When the execution request cancellation notification is received as a result of the determination in step S604, the
ステップS605の判別の結果、キャンセルボタン507aが選択されたとき、CPU401aは本処理を終了する。一方、ステップS605の判別の結果、キャンセルボタン507aが選択されないとき、CPU401aはステップS603の処理に戻る。
As a result of the determination in step S605, when the cancel
ステップS601の判別の結果、開始指示手段が他の装置から送信された遠隔コミュニケーション通信の実行要求通知であるとき、CPU401aは該実行要求通知に基づいて画像処理装置101bと共有する電子資料を決定する(ステップS606)。次いで、CPU401aは遠隔コミュニケーション通信を実行するための各モジュールの初期化処理を実行する(ステップS607)。初期化処理の実行が完了すると、CPU401aは後述する図7のポインティング画像送信処理及び図10のポインティング画像受信処理を実行する。後述する図7のポインティング画像送信処理及び図10のポインティング画像受信処理は、遠隔コミュニケーション通信の終了がユーザによって指示されるまで繰り返し実行される。投影領域103aが所定の期間押下されると、CPU401aは設定メニュー509aを投影領域103aに投影する。CPU401aは終了ボタン512aが選択されると(ステップS608でYES)、遠隔コミュニケーション通信の終了処理を実行し(ステップS609)、本処理を終了する。
As a result of the determination in step S601, when the start instruction means is a remote communication communication execution request notification transmitted from another device, the
次に、遠隔コミュニケーション通信におけるポインティング画像の送信及び受信について説明する。一例として、画像処理装置101aが画像処理装置101bにポインティング画像を送信する場合について説明する。
Next, transmission and reception of a pointing image in remote communication communication will be described. As an example, a case where the
図7は、図1の画像処理装置101aによって実行されるポインティング画像送信処理の手順を示すフローチャートである。
FIG. 7 is a flowchart showing the procedure of the pointing image transmission process executed by the
図7の処理は、CPU401aがROM403a及びHDD404aに格納されたプログラムを実行することによって行われる。
The processing in FIG. 7 is performed by the
図7において、まず、CPU401aは、会議室AのユーザA,Bによる画像105aの指し示しを検知すると、図8のポインティング画像生成処理を実行する(ステップS701)。これにより、CPU401aは会議室AのユーザA,Bが画像105aを指し示した行為を示すポインティング画像及び該ポインティング画像の表示位置等を示すレイアウト情報を生成する。次いで、CPU401aはポインティング画像及びレイアウト情報を画像処理装置101bに送信する(ステップS702)。ステップS702では、会議室Aにおいて画像105aの指し示しが検知されない場合、CPU401aは画像105aの指し示しが検知されない旨を示す情報を画像処理装置101bに送信する。次いで、CPU401aはポインティング画像送信処理の終了の指示を受け付けたか否かを判別する(ステップS703)。
In FIG. 7, first, when the
ステップS703の判別の結果、ポインティング画像生成処理の終了の指示を受け付けないとき、CPU401aはステップS701の処理に戻る。一方、ステップS703の判別の結果、ポインティング画像生成処理の終了の指示を受け付けたとき、CPU401aは上述した図6のステップS608以降の処理を行う。
As a result of the determination in step S703, when the instruction to end the pointing image generation process is not accepted, the
図8は、図7のステップS701のポインティング画像生成処理の手順を示すフローチャートである。 FIG. 8 is a flowchart showing the procedure of the pointing image generation process in step S701 of FIG.
図8において、まず、CPU401aは、デプスセンサ104aからRGB画像及び距離画像を取得し(ステップS801,S802)、距離画像の座標変換を行う(ステップS803)。デプスセンサ104aでは、距離画像を撮影する赤外線カメラ417aがRGB画像を撮影するRGBカメラ418aと異なる位置に設けられるので、ステップS803の処理では、CPU401aが距離画像をRGB画像の座標系に座標変換する。なお、本実施の形態では、赤外線カメラ417a及びRGBカメラ418aに関するキャリブレーション処理が予め実行される。これにより、赤外線カメラ417a及びRGBカメラ418aの各位置情報や上記座標変換に用いられる内部パラメータが導出され、基準画像が生成される。基準画像はユーザA,Bの手等を含まないタッチマット107aのみの距離画像である。
In FIG. 8, first, the
次いで、CPU401aは予め生成された基準画像及びステップS802で取得した距離画像の差分に基づいてマスク画像を生成する(ステップS804)。ステップS804では、例えば、会議室Aにおいて画像105aを指し示したユーザAの手の情報を含む距離画像がマスク画像として生成される。次いで、CPU401aは生成したマスク画像に対しノイズ除去及び平滑化のための画像処理を施す(ステップS805)。
Next, the
次いで、CPU401aは画像処理を施したマスク画像及びステップS801で取得したRGB画像に基づいて色情報を含む中間画像を生成する(ステップS806)。次いで、CPU401aは該中間画像に対し透明化処理を施す(ステップS807)。ステップS807では、中間画像において、画素値が「255」の部分を非透明にし、画素値が「0」の部分を透明にした図9(a)の多値画像900aを生成する。多値画像900aはユーザAの手を示す領域901aが半透明であり、その他の領域が透明である。次いで、CPU401aは多値画像900aを投影領域103aの座標系である投影座標系に射影変換して図9(b)の変換画像902aを生成する(ステップS808)。具体的に、ステップS808では、多値画像900aに含まれる投影領域103aの頂点(L1,M1)を(0,0)に変換し、頂点(L2,M2)を(0,screen_height)に変換する。頂点(L3,M3)を(screen_width,screen_height)に変換し、頂点(L4,M4)を(screen_width,0)に変換する。なお、射影変換に用いられる各パラメータは事前のキャリブレーション処理によって導出される。
Next, the
次いで、CPU401aは変換画像902aにおけるユーザAの手を示す領域903aの外接矩形領域904aを抽出し、該外接矩形領域904aの座標を取得する(ステップS809)。次いで、CPU401aは変換画像902aにおける指し示し位置の座標を取得する(ステップS810)。指し示し位置は、変換画像902aにおけるユーザAが指し示す指の先端部である。ステップS810において、CPU401aは、外接矩形領域904aの四辺の中から変換画像902aの端と一致し、且つ非透明な画素が最も多く接する辺905aを特定する。CPU401aは辺905aに対向する辺906aに非透明な画素が接する位置907aを指し示し位置に決定し、該指し示し位置の座標を取得する。
Next, the
次いで、CPU401aは変換画像902aから外接矩形領域904aをトリミングし、方向性を有する図9(c)のポインティング画像908aを生成する(ステップS811)。以下では、ポインティング画像908aにおけるユーザAの指先側をポインティング画像908aの指先側と定義し、ポインティング画像908aにおけるユーザAの手首側をポインティング画像908aの手首側と定義する。また、指し示し位置907a及びポインティング画像908aの手首側の辺を結ぶ直線を指し示し線909aと定義する。さらに、ユーザAが指し示す方向を指し示し方向と定義し、その向きを指し示し線909aの矢印で示す。次いで、CPU401aはポインティング画像908a及びレイアウト情報を対応付けしてRAM402aに格納する(ステップS811)。レイアウト情報は、ステップS809で取得した外接矩形領域904aの座標及びステップS810で取得した指し示し位置の座標等を含む。その後、CPU401aは上述したステップS702以降の処理を行う。なお、本実施の形態では、複数の指し示しが検知された場合、各指し示しに対して図8の処理を実行する。
Next, the
図10は、図1の画像処理装置101bによって実行されるポインティング画像受信処理の手順を示すフローチャートである。
FIG. 10 is a flowchart showing the procedure of the pointing image reception process executed by the
図10の処理は、CPU401bがROM403b及びHDD404bに格納されたプログラムを実行することによって行われる。 The processing in FIG. 10 is performed by the CPU 401b executing a program stored in the ROM 403b and the HDD 404b.
図10において、CPU401bは画像処理装置101aからポインティング画像及びレイアウト情報を受信したか否かを判別する(ステップS1001)。
In FIG. 10, the CPU 401b determines whether a pointing image and layout information are received from the
ステップS1001の判別の結果、画像処理装置101aから、例えば、ポインティング画像908a及びレイアウト情報を受信したとき、CPU401bは後述する図11のレイアウト情報更新処理を行う(ステップS1002)。これにより、CPU401bは取得したポインティング画像908aを回転させる回転角度を決定し、該回転角度に基づいてレイアウト情報を更新する。次いで、CPU401bはポインティング画像908a及び更新後のレイアウト情報に基づいてポインティング画像を投影領域103bに投影する(ステップS1003)。次いで、CPU401bはポインティング画像受信処理の実行の終了が指示されたか否かを判別する(ステップS1004)。
As a result of the determination in step S1001, for example, when receiving a
ステップS1004の判別の結果、ポインティング画像受信処理の実行の終了が指示されないとき、CPU401bはステップS1001の処理に戻る。一方、ポインティング画像受信処理の実行の終了が指示されたとき、CPU401bは上述したステップS608以降の処理を行う。 As a result of the determination in step S1004, when the end of execution of the pointing image reception process is not instructed, the CPU 401b returns to the process in step S1001. On the other hand, when the end of execution of the pointing image reception process is instructed, the CPU 401b performs the processes after step S608 described above.
図11は、図10のステップS1002のレイアウト情報更新処理の手順を示すフローチャートである。 FIG. 11 is a flowchart showing the procedure of the layout information update process in step S1002 of FIG.
図11において、まず、CPU401bは、投影領域103bに対する画像処理装置101bの設置位置(以下、単に「画像処理装置101bの設置位置」という。)に関する情報をHDD404bから取得する(ステップS1101)。次いで、CPU401bは、取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側が画像処理装置101bの設置側であるか否かを判別する(ステップS1102)。具体的に、上記ポインティング画像の指し示し線及び該指し示し線を指し示し方向と逆方向に延長した延長線(以下、「指し示し延長線」という。)のいずれかが投影領域103bにおける画像処理装置101bの設置側の辺と交差する場合、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側であると判別する。例えば、上記ポインティング画像が図12(a)のポインティング画像1201bである場合、ポインティング画像1201bの指し示し延長線1202bが投影領域103bにおける画像処理装置101bの設置側の辺1203bと交差するので、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側であると判別する。
In FIG. 11, first, the CPU 401b obtains information about the installation position of the
一方、上記ポインティング画像の指し示し線及び指し示し延長線のいずれもが投影領域103bにおける画像処理装置101bの設置側の辺と交差しない場合、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側でないと判別する。例えば、上記ポインティング画像が図12(a)のポインティング画像1204bである場合、ポインティング画像1204bの指し示し延長線1205bが辺1203bと交差しないので、CPU401bは上記ポインティング画像の手首側が画像処理装置101bの設置側でないと判別する。
On the other hand, when neither the pointing line nor the pointing extension line of the pointing image intersects the side on the installation side of the
ステップS1102の判別の結果、上記ポインティング画像の手首側が画像処理装置101bの設置側であるとき、CPU401bは本処理を終了する。一方、ステップS1102の判別の結果、上記ポインティング画像の手首側が画像処理装置101bの設置側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1103)。CPU401bは、例えば、ポインティング画像1204bを該ポインティング画像1204bの指し示し位置を中心に回転させた際にポインティング画像1204bの指し示し延長線が画像処理装置101bの設置側の辺と交差する回転角度を決定する。次いで、CPU401bは回転角度に基づいてレイアウト情報を更新し(ステップS1104)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側が画像処理装置101b側となる図12(c)のポインティング画像1207bが投影される。つまり、画像処理装置101bは、ユーザCが存在しない側、具体的に、画像処理装置101bの設置側からポインティング画像1207bを表示する。その後、CPU401bは上述したステップS1003以降の処理を行う。
As a result of the determination in step S1102, when the wrist side of the pointing image is the installation side of the
上述した図10及び図11の処理によれば、画像処理装置101bの投影領域103bにおいて、画像処理装置101bのユーザCが存在しない側からポインティング画像1207bが表示される。すなわち、会議室AにおけるユーザA,Bの位置に関わらず、会議室Bにおいて、ポインティング画像1207bがユーザCの位置に表示されることはない。これにより、会議室Bにおいて、まるでユーザCから手が飛び出すような不自然な表示が行われるのを回避することができる。
10 and 11 described above, the
また、上述した図10及び図11の処理では、画像処理装置101bの投影領域103bにおいて、画像処理装置101bの設置側からポインティング画像1207bが表示される。これにより、少なくとも、ポインティング画像1207bがユーザCに重畳して表示されるのを回避することができる。
Further, in the above-described processing of FIGS. 10 and 11, the
以上、本発明について、上述した実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。 As described above, the present invention has been described using the above-described embodiment, but the present invention is not limited to the above-described embodiment.
例えば、画像処理装置101bに対向しない位置ではなく、図12(c)に示すように、画像処理装置101bの前方側からユーザCが投影領域103bを確認している場合であっても良い。この場合でも上述した本実施の形態と同様の効果を奏することができる。
For example, it may be a case where the user C is confirming the
また、上述した本実施の形態では、ポインティング画像1207bが投影領域103bにおける画像105bの上下方向における上端側(以下、単に「画像105bの上端側」という。)から表示されても良い。
In the above-described embodiment, the
図13は、図11のレイアウト情報更新処理の第1の変形例の手順を示すフローチャートである。 FIG. 13 is a flowchart showing the procedure of a first modification of the layout information update process of FIG.
図13において、まず、CPU401bは投影領域103bに投影される画像105bの上端側の情報をHDD404bから取得する(ステップS1301)。次いで、CPU401bは取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側が画像105bの上端側であるか否かを判別する(ステップS1302)。具体的に、上記ポインティング画像の指し示し線及び指し示し延長線のいずれかが投影領域103bにおける画像105bの上端側の辺と交差する場合、CPU401bは上記ポインティング画像の手首側が画像105bの上端側であると判別する。例えば、上記ポインティング画像が図14(a)のポインティング画像1401bである場合、ポインティング画像1401bの指し示し延長線1402bが投影領域103bにおける画像105bの上端側の辺1403bと交差するので、CPU401bは上記ポインティング画像の手首側が画像105bの上端側であると判別する。
In FIG. 13, first, the CPU 401b acquires information on the upper end side of the
一方、指し示し線及び指し示し延長線のいずれもが投影領域103bにおける画像105bの上端側の辺と交差しない場合、CPU401bは上記ポインティング画像の手首側が画像105bの上端側でないと判別する。例えば、上記ポインティング画像が図14(a)のポインティング画像1404bである場合、ポインティング画像1404bの指し示し延長線1405bが辺1403bと交差しないので、CPU401bは上記ポインティング画像の手首側が画像105bの上端側でないと判別する。
On the other hand, when neither the pointing line nor the pointing extension line intersects the upper edge side of the
ステップS1302の判別の結果、上記ポインティング画像の手首側が画像105bの上端側であるとき、CPU401bは本処理を終了する。一方、ステップS1302の判別の結果、上記ポインティング画像の手首側が画像105bの上端側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1303)。CPU401bは、例えば、ポインティング画像1404bを該ポインティング画像1404bの指し示し位置を中心に回転させた際にポインティング画像1404bの指し示し延長線が画像105bの上端側の辺と交差する回転角度を決定する。次いで、CPU401bは回転角度に基づいてレイアウト情報を更新し(ステップS1304)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側が画像105bの上端側となるポインティング画像1407bが投影される。つまり、画像処理装置101bは画像105bの上端側からポインティング画像1407bを表示する。その後、CPU401bは本処理を終了する。
As a result of the determination in step S1302, when the wrist side of the pointing image is the upper end side of the
上述した図13の処理では、ポインティング画像1407bが投影領域103bにおける画像105bの上端側から表示される。通常、ユーザは投影領域103bに投影された画像105bを閲覧し易い位置から確認するので、画像105bを閲覧し難い位置である画像105の上端側にユーザCが存在する可能性は極めて低い。これに対して、本実施の形態では、ポインティング画像1407bが投影領域103bにおける画像105bの上端側から表示される。これにより、ポインティング画像1407bがユーザCに重畳して表示される事態を確実に減らすことができる。
In the process of FIG. 13 described above, the
上述した実施の形態において、カメラ108bやマイク408bを用いて会議室BにおけるユーザCがいない位置を推定し、推定した側からポインティング画像を表示しても良い。
In the above-described embodiment, a position where the user C is not present in the conference room B may be estimated using the
図15は、図11のレイアウト情報更新処理の第2の変形例の手順を示すフローチャートである。 FIG. 15 is a flowchart showing the procedure of the second modification of the layout information update process of FIG.
図15において、まず、CPU401bは投影領域103bの四辺のうちユーザが存在しない辺を推定する(ステップS1501)。以下では、ステップS1501において、投影領域103bにおいてユーザが存在しないと推定された辺を無人推定辺と定義し、無人推定辺の側を無人推定辺側と定義する。例えば、ステップS1501において、CPU401bはカメラ108bで撮影した撮影画像を解析し、Haar Like特徴量を用いた方法等に基づいて該撮影画像から顔領域を検出する。CPU401bは投影領域103bの四辺のうち顔領域が検出されない辺の側を無人推定辺側とする。なお、本実施の形態では、撮影画像及び投影領域103bの各辺の関係は事前のキャリブレーションによって予め設定される。また、CPU401bは、マイクアレイを用いた方法等に基づいて投影領域103bの周辺の発話及び発話元から投影領域103bに向かう方向である発話方向を検出する。CPU401bは遠隔コミュニケーション通信の開始に応じて発話及び発話方向の検出を開始し、投影領域103bの四辺のうち発話が検出されない又は発話の検出回数が予め設定された回数より少ない辺の側を無人推定辺側とする。なお、本実施の形態では、発話方向及び投影領域103bの各辺の関係は事前のキャリブレーションによって予め設定される。
In FIG. 15, first, the CPU 401b estimates a side where no user exists among the four sides of the
次いで、CPU401bは取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側が無人推定辺側であるか否かを判別する(ステップS1502)。具体的に、上記ポインティング画像の指し示し線及び指し示し延長線のいずれかが無人推定辺と交差する場合、CPU401bは上記ポインティング画像の手首側が無人推定辺側であると判別する。例えば、上記ポインティング画像が図16(a)のポインティング画像1601bである場合、ポインティング画像1601bの指し示し延長線1602bが無人推定辺1603bと交差するので、CPU401bは上記ポインティング画像の手首側が無人推定辺側であると判別する。一方、指し示し線及び指し示し延長線のいずれもが無人推定辺と交差しない場合、CPU401bは上記ポインティング画像の手首側が無人推定辺側でないと判別する。例えば、上記ポインティング画像が図16(a)のポインティング画像1604bである場合、ポインティング画像1604bの指し示し延長線1605bが無人推定辺1603bと交差しないので、CPU401bは上記ポインティング画像の手首側が無人推定辺側でないと判別する。
Next, based on the acquired
ステップS1502の判別の結果、上記ポインティング画像の手首側が無人推定辺側であるとき、CPU401bは本処理を終了する。一方、ステップS1502の判別の結果、上記ポインティング画像の手首側が無人推定辺側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1503)。CPU401bは、例えば、ポインティング画像1604bを該ポインティング画像1604bの指し示し位置を中心に回転させた際にポインティング画像1604bの指し示し延長線が無人推定辺と交差する回転角度を決定する。次いで、CPU401bは回転角度に基づいてレイアウト情報を更新し(ステップS1504)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側が無人推定辺側となるポインティング画像1607bが投影される。つまり、画像処理装置101bは無人推定辺側からポインティング画像1607bを表示する。その後、CPU401bは本処理を終了する。
As a result of the determination in step S1502, when the wrist side of the pointing image is the unmanned estimated side, the CPU 401b ends this process. On the other hand, if the result of determination in step S1502 is that the wrist side of the pointing image is not the unmanned estimated side, the CPU 401b determines the rotation angle of the pointing image (step S1503). For example, when the
上述した図15の処理では、ポインティング画像1607bが無人推定辺側から表示される。これにより、ポインティング画像1407bがユーザCに重畳して表示される事態をより確実に減らすことができる。
In the process of FIG. 15 described above, the
また、上述した実施の形態において、ディスプレイ109b側からポインティング画像を表示しても良い。
In the above-described embodiment, a pointing image may be displayed from the
図17は、図11のレイアウト情報更新処理の第3の変形例の手順を示すフローチャートである。 FIG. 17 is a flowchart showing the procedure of the third modification of the layout information update process of FIG.
図17において、まず、CPU401bは、通信先のユーザA,Bの映像が表示されるディスプレイ109bの設置位置に関する情報をHDD404bから取得する(ステップS1701)。次いで、CPU401bは取得したポインティング画像908aに基づいて投影領域103bに投影されるポインティング画像の手首側がディスプレイ109bの設置側であるか否かを判別する(ステップS1702)。具体的に、上記ポインティング画像の指し示し線及び指し示し延長線のいずれかが投影領域103bにおけるディスプレイ109bが設置された側の辺と交差する場合、CPU401bは上記ポインティング画像の手首側がディスプレイ109bの設置側であると判別する。以下では、投影領域103bにおけるディスプレイ109bが設置された側の辺をディスプレイ設置辺と定義する。一方、指し示し線及び指し示し延長線のいずれもがディスプレイ設置辺と交差しない場合、CPU401bは上記ポインティング画像の手首側がディスプレイ109bの設置側でないと判別する。
In FIG. 17, first, the CPU 401b obtains information regarding the installation position of the
ステップS1702の判別の結果、上記ポインティング画像の手首側がディスプレイ109bの設置側であるとき、CPU401bは本処理を終了する。一方、ステップS1702の判別の結果、上記ポインティング画像の手首側がディスプレイ109bの設置側でないとき、CPU401bは該ポインティング画像の回転角度を決定する(ステップS1703)。例えば、CPU401bは、ユーザAの手首側がディスプレイ109bの設置側でないポインティング画像を該ポインティング画像の指し示し位置を中心に回転させた際に該ポインティング画像の指し示し延長線がディスプレイ設置辺と交差する回転角度を決定する。次いで、CPU401bは決定した回転角度に基づいてレイアウト情報を更新し(ステップS1704)、更新したレイアウト情報をRAM402bに格納する。これにより、投影領域103bには、ユーザAの手首側がディスプレイ109bの設置側となるポインティング画像1801bが投影される。つまり、画像処理装置101bはディスプレイ109bの設置側からポインティング画像1801bを表示する。その後、CPU401bは本処理を終了する。
As a result of the determination in step S1702, when the wrist side of the pointing image is the installation side of the
上述した図17の処理では、ポインティング画像1801bが投影領域103bにおけるディスプレイ109bの設置側から表示される。これにより、会議室Bにおいて、会議室AのユーザA,Bのポインティング画像をユーザA,Bが表示される側から表示することができ、もって、自然な遠隔コミュニケーション通信を実現することができる。
In the processing of FIG. 17 described above, the
さらに、上述した実施の形態において、画像処理装置101aがレイアウト情報を送信する前に該レイアウト情報を更新しても良い。
Furthermore, in the above-described embodiment, the layout information may be updated before the
図19(a)は、図10のポインティング画像受信処理の変形例の手順を示すフローチャートである。 FIG. 19A is a flowchart illustrating a procedure of a modification of the pointing image reception process of FIG.
図19(a)の処理は、CPU401bがROM403b及びHDD404bに格納されたプログラムを実行することによって行われる。 The process in FIG. 19A is performed by the CPU 401b executing a program stored in the ROM 403b and the HDD 404b.
図19(a)について、CPU401bはポインティング画像の回転角度を決定するためのパラメータを画像処理装置101aに送信する(ステップS1901)。すなわち、本実施の形態では、画像処理装置101bは、画像処理装置101aからポインティング画像及びレイアウト情報を受信する前に上記パラメータを画像処理装置101aに送信する。上記パラメータとして、例えば、投影領域103bに対する画像処理装置101bの設置位置に関する情報、投影領域103bにおける画像105bの上端側の辺を示す情報、投影領域103bにおける無人推定辺側を示す情報、及びディスプレイ109bの設置位置に関する情報を画像処理装置101aに送信する。次いで、上述したステップS1001の処理を実行する。
19A, the CPU 401b transmits a parameter for determining the rotation angle of the pointing image to the
ステップS1001の判別の結果、画像処理装置101aからポインティング画像及びレイアウト情報を受信しないとき、CPU401bは上述したステップS1004以降の処理を行う。一方、ステップS1001の判別の結果、画像処理装置101aからポインティング画像及びポインティング画像のレイアウト情報を受信したとき、CPU401bは上述したステップS1003以降の処理を行う。
As a result of the determination in step S1001, when the pointing image and the layout information are not received from the
図19(b)は、図7のポインティング画像送信処理の変形例の手順を示すフローチャートである。 FIG. 19B is a flowchart showing the procedure of a modification of the pointing image transmission process of FIG.
図19(b)の処理は、CPU401aがROM403a及びHDD404aに格納されたプログラムを実行することによって行われる。
The process in FIG. 19B is performed by the
図19(b)において、まず、CPU401aは上記パラメータを画像処理装置101bから取得する(ステップS1902)。次いで、CPU401aは上述したステップS701の処理を行い、レイアウト情報更新処理を実行する(ステップS1903)。ステップS1903では、図20(a)〜図20(d)のいずれかのレイアウト情報更新処理が実行される。例えば、図20(a)の処理では、CPU401aが、上述したステップS1102〜S1104の処理を実行し、画像処理装置101bにおいてポインティング画像が画像処理装置101bの設置側から表示されるようにレイアウト情報を更新する。また、図20(b)の処理では、CPU401aが、上述したステップS1302〜S1304の処理を実行し、画像処理装置101bにおいてポインティング画像が画像105bの上端側から表示されるようにレイアウト情報を更新する。さらに、図20(c)の処理では、CPU401aが、上述したステップS1502〜S1504の処理を実行し、画像処理装置101bにおいてポインティング画像が無人推定辺側から表示されるようにレイアウト情報を更新する。図20(d)の処理では、CPU401aが、上述したステップS1702〜S1704の処理を実行し、画像処理装置101bにおいてポインティング画像がディスプレイ109bの設置側から表示されるようにレイアウト情報を更新する。次いで、CPU401aは上述したステップS702以降の処理を行う。
In FIG. 19B, first, the
上述した図19(a)、図19(b)、及び図20(a)〜図20(d)の処理においても、上述した本実施の形態と同様の効果を奏することができる。 In the processes of FIGS. 19A, 19B, and 20A to 20D described above, the same effects as those of the present embodiment described above can be obtained.
また、上述した本実施の形態において、画像処理装置101bの設置位置情報やディスプレイ109bの設置位置情報等のパラメータのように遠隔コミュニケーション通信中に変更される可能性が極めて低いパラメータの送信処理は、複数回行わなくても良く、画像処理装置101aは受信した上記パラメータを保持することが好ましい。これにより、パラメータの通信処理の実行を減らすことができ、もって、パラメータの通信処理の負荷を軽減することができる。
In addition, in the present embodiment described above, the parameter transmission process that is extremely unlikely to be changed during remote communication communication, such as the installation position information of the
本発明は、上述の実施の形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、該システム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by processing to be executed. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 遠隔コミュニケーションシステム
101a,101b 画像処理装置
102a プロジェクタ
103a,103b 投影領域
105a,105b 画像
108a,108b カメラ
408a,408b マイク
908a,1207b,1407b,1607b,1801b ポインティング画像
100
Claims (12)
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御手段を備え、
前記ポインティング画像は方向性を有し、
前記表示制御手段は、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする表示制御システム。 A display control system that includes an image processing device and another image processing device, and displays a shared image in each display area of the image processing device and the other image processing device,
Display control means for performing control to display a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device;
The pointing image has directionality,
The display control system, wherein the display control means displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.
前記表示制御手段は、前記画像処理装置の表示領域において、前記ユーザが検知されない側から前記ポインティング画像を表示することを特徴とする請求項1記載の表示制御システム。 The image processing apparatus further comprises detection means for detecting users around the image processing apparatus,
The display control system according to claim 1, wherein the display control unit displays the pointing image from a side where the user is not detected in a display area of the image processing apparatus.
前記表示制御手段は、前記画像処理装置の表示領域において、前記表示手段が配置された側から前記ポインティング画像を表示することを特徴とする請求項1記載の表示制御システム。 A display unit for displaying a user of the other image processing apparatus;
The display control system according to claim 1, wherein the display control unit displays the pointing image from a side where the display unit is arranged in a display area of the image processing apparatus.
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記表示領域に表示する制御を行う表示制御手段を備え、
前記ポインティング画像は方向性を有し、
前記表示制御手段は、前記表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする画像処理装置。 An image processing apparatus that displays an image shared with another image processing apparatus in a display area,
Display control means for performing control to display a pointing image indicating an action in which the user of the other image processing apparatus points to the displayed image on the display area;
The pointing image has directionality,
The display control means displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area.
前記表示制御手段は、前記表示領域において、前記ユーザが検知されない側から前記ポインティング画像を表示することを特徴とする請求項6記載の画像処理装置。 The image processing apparatus further comprises detection means for detecting users around the image processing apparatus,
The image processing apparatus according to claim 6, wherein the display control unit displays the pointing image from a side where the user is not detected in the display area.
前記表示制御手段は、前記表示領域において、前記表示手段が配置された側から前記ポインティング画像を表示することを特徴とする請求項6記載の画像処理装置。 A display unit for displaying a user of the other image processing apparatus;
The image processing apparatus according to claim 6, wherein the display control unit displays the pointing image from the side where the display unit is arranged in the display area.
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御ステップを有し、
前記ポインティング画像は方向性を有し、
前記表示制御ステップは、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とする表示制御方法。 A display control method comprising an image processing device and another image processing device, and displaying a shared image in each display area of the image processing device and the other image processing device,
A display control step for performing control to display a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device;
The pointing image has directionality,
In the display control step, the pointing image is displayed from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.
前記表示制御方法は、
前記他の画像処理装置のユーザが前記表示された画像を指し示した行為を示すポインティング画像を前記画像処理装置の表示領域に表示する制御を行う表示制御ステップを有し、
前記ポインティング画像は方向性を有し、
前記表示制御ステップは、前記画像処理装置の表示領域において、前記画像処理装置のユーザが存在しない側から前記ポインティング画像を表示することを特徴とするプログラム。 A program comprising an image processing device and another image processing device, causing a computer to execute a display control method for displaying a shared image in each display area of the image processing device and the other image processing device,
The display control method includes:
A display control step for performing control to display a pointing image indicating an action in which the user of the other image processing device points to the displayed image in a display area of the image processing device;
The pointing image has directionality,
The display control step displays the pointing image from the side where the user of the image processing apparatus does not exist in the display area of the image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016211621A JP2018073093A (en) | 2016-10-28 | 2016-10-28 | Display controlling system, image processing device, display controlling method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016211621A JP2018073093A (en) | 2016-10-28 | 2016-10-28 | Display controlling system, image processing device, display controlling method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018073093A true JP2018073093A (en) | 2018-05-10 |
Family
ID=62111647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016211621A Pending JP2018073093A (en) | 2016-10-28 | 2016-10-28 | Display controlling system, image processing device, display controlling method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018073093A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019230852A1 (en) * | 2018-06-01 | 2019-12-05 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020162154A1 (en) * | 2019-02-04 | 2020-08-13 | ソニー株式会社 | Information processing device and information processing method |
-
2016
- 2016-10-28 JP JP2016211621A patent/JP2018073093A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019230852A1 (en) * | 2018-06-01 | 2019-12-05 | ソニー株式会社 | Information processing device, information processing method, and program |
CN112166602A (en) * | 2018-06-01 | 2021-01-01 | 索尼公司 | Information processing apparatus, information processing method, and program |
JPWO2019230852A1 (en) * | 2018-06-01 | 2021-07-08 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
US11366631B2 (en) | 2018-06-01 | 2022-06-21 | Sony Corporation | Information processing device, information processing method, and program |
JP7276334B2 (en) | 2018-06-01 | 2023-05-18 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
CN112166602B (en) * | 2018-06-01 | 2023-12-05 | 索尼公司 | Information processing device, information processing method, and program |
WO2020162154A1 (en) * | 2019-02-04 | 2020-08-13 | ソニー株式会社 | Information processing device and information processing method |
EP3923149A4 (en) * | 2019-02-04 | 2022-04-06 | Sony Group Corporation | Information processing device and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9980040B2 (en) | Active speaker location detection | |
US10733801B2 (en) | Markerless image analysis for augmented reality | |
KR102222974B1 (en) | Holographic snap grid | |
CN106255938B (en) | Calibration of sensors and projectors | |
EP2864932B1 (en) | Fingertip location for gesture input | |
US20170068326A1 (en) | Imaging surround system for touch-free display control | |
TWI531929B (en) | Identifying a target touch region of a touch-sensitive surface based on an image | |
TWI559174B (en) | Gesture based manipulation of three-dimensional images | |
CN109840950B (en) | Method for obtaining real-size 3D model and surveying device | |
US9531995B1 (en) | User face capture in projection-based systems | |
Saputra et al. | Indoor human tracking application using multiple depth-cameras | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN110286906B (en) | User interface display method and device, storage medium and mobile terminal | |
JP2018073093A (en) | Display controlling system, image processing device, display controlling method, and program | |
US10725586B2 (en) | Presentation of a digital image of an object | |
US9041689B1 (en) | Estimating fingertip position using image analysis | |
WO2021004413A1 (en) | Handheld input device and blanking control method and apparatus for indication icon of handheld input device | |
CN113508354A (en) | Representation of a display environment | |
JP6124862B2 (en) | Method for performing action according to pointing gesture, conference support system, and computer program | |
JP2019012453A (en) | Information processing device, control method therefor, and program | |
TW201621554A (en) | Capture and projection of an object image | |
JP2013134549A (en) | Data input device and data input method | |
JP2018063555A (en) | Information processing device, information processing method, and program | |
JP2016139396A (en) | User interface device, method and program | |
JP2017049662A (en) | Information processing apparatus, control method thereof, program, and storage medium |