JP2021033907A - Display system and control method thereof - Google Patents
Display system and control method thereof Download PDFInfo
- Publication number
- JP2021033907A JP2021033907A JP2019156457A JP2019156457A JP2021033907A JP 2021033907 A JP2021033907 A JP 2021033907A JP 2019156457 A JP2019156457 A JP 2019156457A JP 2019156457 A JP2019156457 A JP 2019156457A JP 2021033907 A JP2021033907 A JP 2021033907A
- Authority
- JP
- Japan
- Prior art keywords
- display
- user
- unit
- users
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、表示システムおよびその制御方法に関する。 The present invention relates to a display system and a control method thereof.
複数人で利用するテーブルの上面が表示パネルになっている表示装置が知られている(例えば、特許文献1参照)。特許文献1によれば、矩形テーブルのそれぞれの辺に距離センサを設け、着座するユーザまでの距離に基づいてオブジェクトの表示位置を決定している。
There is known a display device in which the upper surface of a table used by a plurality of people is a display panel (see, for example, Patent Document 1). According to
例えば円形テーブルのような、取り囲むユーザの数が流動的な表示テーブルの場合には、表示テーブルを取り囲むユーザに対して良好にオブジェクトを表示することが困難であった。 In the case of a display table such as a circular table in which the number of surrounding users is fluid, it is difficult to display objects well to the users surrounding the display table.
本発明は、このような問題を解決するためになされたものであり、テーブルに設けられた表示部を取り囲むユーザに対して、オブジェクトを良好に表示することができる表示システム等を提供することを目的とする。 The present invention has been made to solve such a problem, and provides a display system or the like capable of displaying an object satisfactorily to a user who surrounds a display unit provided on a table. The purpose.
本発明の第1の態様における表示システムは、オブジェクトを表示する表示部と、表示部の周囲に配置されたセンサの出力信号に基づいて表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算部と、表示部の周囲に居るユーザのそれぞれを個人識別する識別部と、複数のユーザの個人情報が登録された参照リストを記憶する記憶部と、計算部で計算されたユーザの人数と位置、および識別部で識別された識別情報を参照リストと比較した結果に基づいてオブジェクトの表示位置と向きを調整して表示部に表示する制御部とを備える。本発明の第2の態様における制御方法は、オブジェクトを表示する表示部と、複数のユーザの個人情報が登録された参照リストを記憶する記憶部とを備える表示システムの制御方法であって、表示部の周囲に配置されたセンサの出力信号に基づいて表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算ステップと、表示部の周囲に居るユーザのそれぞれを個人識別する識別ステップと、計算ステップで計算されたユーザの人数と位置、および識別ステップで識別された識別情報を参照リストと比較した結果に基づいてオブジェクトの表示位置と向きを調整して表示部に表示する制御ステップとを有する。 The display system according to the first aspect of the present invention calculates the number of users around the display unit and their respective positions based on the display unit that displays the object and the output signal of the sensor arranged around the display unit. A calculation unit, an identification unit that personally identifies each user around the display unit, a storage unit that stores a reference list in which personal information of a plurality of users is registered, and a number of users calculated by the calculation unit. It is provided with a control unit that adjusts the display position and orientation of the object based on the result of comparing the identification information identified by the identification unit with the reference list and displays the object on the display unit. The control method according to the second aspect of the present invention is a control method of a display system including a display unit for displaying an object and a storage unit for storing a reference list in which personal information of a plurality of users is registered. A calculation step of calculating the number of users around the display unit and their respective positions based on the output signals of sensors arranged around the unit, and an identification step of personally identifying each user around the display unit. , The number and position of users calculated in the calculation step, and the control step that adjusts the display position and orientation of the object based on the result of comparing the identification information identified in the identification step with the reference list and displays it on the display unit. Has.
本発明により、テーブルに設けられた表示部を取り囲むユーザに対して、オブジェクトを良好に表示することができる表示システム等を提供できる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a display system or the like capable of displaying an object satisfactorily to a user who surrounds a display unit provided on a table.
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the invention according to the claims is not limited to the following embodiments. Moreover, not all of the configurations described in the embodiments are indispensable as means for solving the problem.
図1は、本実施形態に係る表示システムの表示テーブル100を複数のユーザが取り囲む様子を示す斜視図である。本実施形態に係る表示システムは、その機能を実現するための実質的な要素を表示テーブルが備えるように構成することもできるが、一部の要素をインターネットや近距離無線通信等を介して接続される外部装置に配設することもできる。したがって、表示システムは、実質的な要素を内蔵する場合には表示テーブルが表示システムそのものとなり、一部の要素を外部装置に委ねる場合には表示テーブルにそれらの外部装置を含めた全体が表示システムとなる。以下の本実施形態においては、表示テーブル100と外部装置によって構成される表示システムについて説明する。 FIG. 1 is a perspective view showing a state in which a plurality of users surround the display table 100 of the display system according to the present embodiment. The display system according to the present embodiment can be configured so that the display table includes substantial elements for realizing the function, but some elements are connected via the Internet, short-range wireless communication, or the like. It can also be arranged in an external device to be installed. Therefore, in the display system, the display table becomes the display system itself when a substantial element is built in, and when some elements are entrusted to an external device, the entire display system including those external devices is displayed. It becomes. In the following embodiment, a display system including a display table 100 and an external device will be described.
表示テーブル100は、例えば会議に好適な円形机形状を成し、椅子に着座した複数のユーザが周囲を取り囲める程度の大きさを有する。表示テーブル100の天面は、例えば液晶パネルである表示パネル120の表示面となっており、電子ファイルを展開した資料やデジタル映像等をオブジェクトとして表示することができる。表示テーブル100を取り囲むユーザは、表示テーブル100に表示されるオブジェクトを見ながらミーティングを行ったり、雑談を楽しんだりすることができる。
The display table 100 has a circular desk shape suitable for meetings, for example, and has a size such that a plurality of users seated in chairs can surround the surroundings. The top surface of the display table 100 is, for example, the display surface of the
天面の周囲には等間隔に3つのマイク110a、110b、110cが設けられており、これらのマイクはそれぞれ、ユーザの話し声を集音する。詳しくは後述するが、表示テーブル100は、これらのマイクで集音した音声を解析して状況を把握し、解析した状況に応じてオブジェクトの表示位置と向きを調整して表示パネル120に表示する。以下に、いくつかの実施例を通じて本実施形態を説明する。
Three
最初に第1実施例について説明する。図2は、第1実施例に係る表示システムの制御ブロック図である。表示テーブル100は、主に、マイク110、表示パネル120、タッチパネル130、スピーカー140、演算部150、オブジェクト格納部170、メモリ180および通信ユニット190を備える。マイク110は、上述のように表示テーブル100の天面の周囲に分散して配置された3つのマイク110a、110b、110cであり、集音した音声をデジタル信号に変換して演算部150へ送信する。表示パネル120は、上述のように例えば液晶パネルであり、演算部150から受信する映像信号を可視映像に変換して表示する。映像信号は上述のオブジェクトを含み、本実施例において表示パネル120は、オブジェクトを表示する表示部として機能する。
First, the first embodiment will be described. FIG. 2 is a control block diagram of the display system according to the first embodiment. The display table 100 mainly includes a
タッチパネル130は、表示パネル120に重畳されており、ユーザの接触操作を検知して検知信号を生成し、演算部150へ送信する。演算部150は、タッチパネル130から受信した検知信号に応じた制御を実行する。例えば、表示されているオブジェクト上でスワイプ操作を検知した場合には、当該オブジェクトをスワイプ方向へ移動させる。スピーカー140は、演算部150から受信した音声信号を可聴音に変換する。スピーカー140は、具体的には後述するが、表示テーブル100の周囲に居る一人一人のユーザに発声を促す催促音声を発する場合には、演算部150と協働して、催促部として機能する。
The
オブジェクト格納部170は、例えばHDDで構成される記憶装置であり、表示パネル120へ表示するオブジェクトのオブジェクトデータを格納している。オブジェクト格納部170は、演算部150の要求に応じてオブジェクトデータを演算部150へ供給する。また、オブジェクト格納部170は、オブジェクトデータがオブジェクトとして表示パネル120に表示されている間にユーザによって修正や編集がなされた場合には、修正や編集によって更新されたオブジェクトデータを格納する。
The
メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、表示システムを制御するための制御プログラムの他にも、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。通信ユニット190は、例えば無線LANユニットであるネットワーク接続ユニットを含む。演算部150は、通信ユニット190を介して、インターネット300に接続された外部装置との間で各種データを授受することができる。また、通信ユニット190は、例えばBluetooth(登録商標)である近距離通信ユニットを含んでも良い。近距離通信ユニットを有する場合には、周囲に配置された外部装置と直接的にデータを授受することができる。
The
演算部150は、例えばCPUであり、表示システムの全体を制御する。また、演算部150は、制御や処理に関わる様々な演算を実行する機能処理部としての役割も担う。計算部151および制御部152は、機能処理部の例である。計算部151は、マイク110で集音された音声の到達時間のずれに基づいて表示パネル120の周囲に居るユーザの人数とそれぞれの位置を計算する計算処理を実行する。制御部152は、計算部151が計算したユーザの人数と位置に基づいて、表示対象のオブジェクトの表示位置と向きを調整して映像信号を生成し、表示パネル120に表示する表示制御処理を実行する。
The
表示テーブル100は、通信ユニット250を介してインターネット300に接続されている。インターネット300には、表示テーブル100と共に表示システムを構成する装置としての音声解析装置310とオブジェクト格納装置320が接続されている。
The display table 100 is connected to the
音声解析装置310は、例えばサーバによって構成され、表示テーブル100から受け取った音声データをテキスト化して単語分析を施し、DNNモデルやロジスティック回帰モデルを用いて当該音声データの内容を識別する。そして、識別した内容から演算部150が処理可能な処理を抽出して処理コマンドに変換し、表示テーブル100へ送り返す。つまり、演算部150は、マイク110で集音した音声の内容を識別する場合に、その音声データを音声解析装置310へ送ると、音声解析装置310から処理コマンドを受け取ることができる。このような一連の処理により、ユーザは、オブジェクトの表示に関して希望する処理を発声すると、発声内容に応じてオブジェクトの表示位置や向き、大きさを変えることができる。このような言語処理は、比較的負荷の大きい処理であるので、専用の外部装置で実行することが好ましい。
The
オブジェクト格納装置320は、例えばHDDによって構成されている記憶装置であり、オブジェクト格納部170と同様に、表示パネル120へ表示するオブジェクトのオブジェクトデータを格納している。オブジェクト格納装置320は、演算部150の要求に応じてオブジェクトデータを演算部150へ供給する。例えば、ユーザは、不図示のパソコンで作成した電子ファイルを、インターネット300を介してオブジェクト格納装置320へ格納しておけば、当該電子ファイルを展開した資料を表示パネル120へ表示させることができる。また、オブジェクト格納装置320は、特定の表示テーブル100に限らず他の表示テーブルからもアクセスできるので、複数の表示テーブルにおいて汎用的に利用されるオブジェクトを格納しておく場合に好適である。なお、表示システムとしては、オブジェクトを格納する機能をオブジェクト格納部170とオブジェクト格納装置320の一方に集約して、他方を設けないように構成しても良い。
The
次に、このような表示システムがオブジェクトをどのように表示パネル120に表示するかについて説明する。図3は、ユーザとオブジェクト表示の関係を示す図であり、表示テーブル100を上方から見下ろした様子を示している。図示するように、本実施例においては円形の天板のほぼ全域が表示パネル120の表示面になっており、その周囲に120°の等間隔で3つのマイク110a、110b、110cが配置されている。表示テーブル100の周囲には複数人のユーザが着座できるスペースがあるが、図示する例では、ユーザA、ユーザB、ユーザCの三人が表示パネル120を取り囲むように着座している。
Next, how such a display system displays an object on the
表示パネル120の表示面において、その中央の座標を(x,y)=(0,0)と定め、図の右方向をx軸、上方向をy軸と定める。また、z軸は図に対して手前方向と定める。それぞれのマイク110a、110b、110cの座標は既知であり、音速を一定値として、あるユーザPが発した音声がそれぞれのマイクに到達した時間の時間差を計測すれば、そのユーザPの口元の三次元座標(xp,yp,zp)を計算できる。計算部151は、3つのマイク110a、110b、110cで集音された音声波形を時間軸方向にシフトしてマッチング処理を実行することにより時間差を同定する。このとき、計算部151は、複数のユーザが同時に発声した場合などにおいては、周波数情報を用いてユーザごとの音声波形に分離してからマッチング処理を行っても良い。本実施例においては、表示パネル120に対してユーザがどの方向に存在するかを知りたいので、算出されたz座標は用いないこととし、ユーザPの位置を(xp,yp)とする。
On the display surface of the
このようにして計算部151は、ユーザAの発声からユーザAの位置(xa、ya)、ユーザBの発声からユーザBの位置(xb、yb)、ユーザCの発声からユーザCの位置(xc、yc)を計算する。計算部151は、それぞれのユーザの発声に対して位置計算を実行することにより、結果的に表示パネル120の周囲に居るユーザの人数もカウントすることができる。
制御部152は、計算部151からそれぞれのユーザの位置座標を受け取ったら、表示対象であるオブジェクトをその位置座標に対応するように表示位置と向きを調整して表示パネル120に表示する。具体的には図示するように、ユーザAに対してオブジェクト801aを、ユーザBに対してオブジェクト801bを、ユーザCに対してオブジェクト801cを、それぞれのユーザの前で正対するように位置と向きを調整して表示する。なお、オブジェクト801a、801b、801cは、同一内容のオブジェクトである。それぞれのユーザに対する表示位置は、オブジェクトの大きさや解像度、表示パネル120からユーザまでの距離等の条件に応じて決定される。それらの条件に応じて快適とされる表示位置は、例えば事前に実験を通じて検証され、ルックアップテーブル化されている。制御部152は、このようなルックアップテーブルを参照して表示位置を決定することができる。
When the
本実施例によれば、それぞれのユーザは、自身にとって最適な位置にオブジェクトが表示されることになるので、その内容を容易に把握することができる。また、同一内容のオブジェクトがそれぞれのユーザの前に表示されるので、同席するユーザ間で情報をいち早く共有することができる。なお、例えば表示対象であるオブジェクトがA4縦の書類であれば、制御部152は、当該オブジェクトをそれぞれのユーザに対して縦方向にA4の大きさ100%で表示する。タッチパネル130や音声指示によって位置、大きさ、向きの変更が指示されたら、制御部152は、その指示に応じてシフト処理、拡縮処理、回転処理を施す。
According to this embodiment, each user can easily grasp the contents of the object because the object is displayed at the optimum position for himself / herself. In addition, since objects with the same content are displayed in front of each user, information can be shared quickly among the users present. For example, if the object to be displayed is an A4 vertical document, the
なお、計算部151は、ユーザの発声がマイク110a、110b、110cで集音されなければ、当該ユーザの位置を計算できず、そもそもその存在を把握することもできない。そこで、演算部150は、例えば表示テーブル100の起動時に初期動作として、表示テーブル100の周囲に居る一人一人のユーザに発声を促す催促音声をスピーカー140から発することができる。例えば、「一問ずつクイズを出しますので、順番に答えて下さい」などと、簡単なクイズを数題出題する。マイク110a、110b、110cは、それらに対する返答を各ユーザの音声として取得する。催促音声は、初期動作の一環として発する場合に限らず、例えば、認識しているユーザの位置とタッチパネル130の接触位置に齟齬が検出された場合などに発しても良い。
Note that the
図4は、図3に示す状態から一部のユーザが移動した場合のオブジェクト表示の変化を示す図である。図3と同様に、表示テーブル100を上方から見下ろした様子を示している。 FIG. 4 is a diagram showing a change in the object display when a part of the users move from the state shown in FIG. Similar to FIG. 3, the display table 100 is shown looking down from above.
表示テーブル100が起動されると、マイク110a、110b、110cは、継続的に集音を行い、計算部151は、マイクからの音声信号を用いて周期的にユーザの人数と位置を計算する。例えば、ユーザBが椅子をずらすなどして矢印方向へ移動するとその発声位置も変化するので、計算部151は、ユーザBの位置を(x’b、y’b)であると再計算する。ユーザBの位置が再計算されると、制御部152は、オブジェクト801bの表示位置と向きを再調整する。なお、ユーザの位置の変化量(例えば、変化前の位置から変化後の位置までの距離)が基準量に満たない場合は、オブジェクトが小さく揺れ動くことを防ぐべく、表示位置と向きの再調整を行わないことが好ましい。
When the display table 100 is activated, the
図5は、図4に示す状態から一部のユーザが退去した場合のオブジェクト表示の変化を示す図である。図4と同様に、表示テーブル100を上方から見下ろした様子を示している。 FIG. 5 is a diagram showing a change in the object display when a part of the users move out from the state shown in FIG. Similar to FIG. 4, the display table 100 is shown looking down from above.
計算部151は、上述のようにユーザの人数と位置を周期的に計算していると、それまで確認できていたユnーザの存在がある時点から確認できなくなることがある。このような場合には、当該ユーザが退去したものと判断して、制御部152は、対応するオブジェクトを消去する。例えば、図示するようにユーザAの位置が確認できなくなった場合は、ユーザAに対してそれまで表示していたオブジェクト801aを消去する。なお、ユーザが継続して存在する場合でも発声が途絶えると、計算部151は、そのユーザの位置を計算することができない。そこで、制御部152は、計算部151が一定時間(例えば15分)の間に一度も対象ユーザの位置を計算できなかった場合に当該ユーザが退去したと判断して、対象となるオブジェクトを消去すると良い。この場合に、演算部150は、一定時間が経過する前に、スピーカー140から対象ユーザに向けて催促音声を発しても良い。なお、発話音声をスピーカー140から発する場合は、他のユーザが発声していないタイミングに行うことが好ましい。
If the
また、ある時点から更に別のユーザが加わる状況も考え得る。計算部151がそれまで確認できていなかった位置にある時点からユーザの存在が確認した場合には、制御部152は、当該ユーザの位置に応じて新たなオブジェクトを表示位置と向きを調整して表示する。このように、ユーザの増減に応じてオブジェクト表示の調整を行うために、計算部151は、一旦存在を確認したユーザについては、その位置を継続的に監視し、軌跡情報として記録しておくことが好ましい。軌跡情報を記録しておくことで、制御部152は、例えば、対象ユーザが移動したのか新たに現れたのかを判断することができる。
It is also possible that another user will be added from a certain point in time. When the existence of the user is confirmed from the time when the
図6は、図3の状態において音声指示を認識した場合のオブジェクト表示の変化の一例を示す図である。図3と同様に、表示テーブル100を上方から見下ろした様子を示している。 FIG. 6 is a diagram showing an example of a change in the object display when a voice instruction is recognized in the state of FIG. Similar to FIG. 3, the display table 100 is shown looking down from above.
演算部150は、マイク110a、110b、110cからの音声信号を継続的に音声解析装置310へ転送し、音声解析装置310は、その中から処理に関する指示を抽出した場合に処理コマンドに変換して演算部150へ送り返す。例えば、ユーザAが「倍の大きさに拡大表示して」と指示した場合には、演算部150は、音声解析装置310からオブジェクトの大きさを倍にする旨の処理コマンドを受け取る。制御部152は、その処理コマンドに従って、それまで表示していたオブジェクト801aを2倍に拡大したオブジェクト802aを、ユーザAにとって見やすい位置と向きに調整して表示する。なお、「倍の大きさに拡大表示」と発声した人物がユーザAであることは、計算部151が計算したその発声位置と、それまでのユーザAの位置とを比較することによって確認される。
The
制御部152は、オブジェクト802aを調整した位置と向きに表示する場合に、オブジェクト802aとそれまでに表示していた他のオブジェクトが重なると判断したときには、それまで表示していた他のオブジェクトを消去する。このように、音声指示によって調整されたオブジェクトの表示を優先することにより、ユーザの意図に即したオブジェクト表示を実現することができる。
When the
次に、第1実施例に係る表示システムの処理フローについて説明する。図7は、当該処理フローを示すフロー図である。図示するフローは、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。図のフローは、表示テーブル100が起動された時点から開始する。 Next, the processing flow of the display system according to the first embodiment will be described. FIG. 7 is a flow chart showing the processing flow. The illustrated flow describes the process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. The flow of the figure starts from the time when the display table 100 is started.
マイク110は、ステップS101で、音声の取得を開始する。取得した音声は音声信号に変換して計算部151と音声解析装置310へ引き渡す。初期動作時においては、演算部150は、スピーカー140から催促音声を発しても良い。
The
計算部151は、ステップS102で、マイク110から受け取った音声信号を用いて表示テーブル100の周囲に居るユーザの人数と位置を計算する。その計算結果を受けて、制御部152は、ステップS103で、それぞれのユーザが視認しやすいように各オブジェクトの表示位置と向きを整えて表示パネル120に表示する。なお、ステップS102において計算部151により算出されたあるユーザの位置が前回算出された位置の近傍である場合には、ステップS103において制御部152は、そのユーザに対するオブジェクトの表示調整をスキップする。
In step S102, the
ステップS104へ進み、演算部150は、ユーザから表示の変更指示があったか否かを確認する。具体的には、ステップS101で音声解析装置310へ送った音声信号に対して、音声解析装置310から処理コマンドが送られてきたかを確認する。あるいは、タッチパネル130が操作されたか否かを確認する。処理コマンドが送られてきている場合またはタッチパネル130が操作された場合には、ステップS105へ進む。処理コマンドが送られてきていない場合またはタッチパネル130が操作されていない場合にはステップS105をスキップしてステップS106へ進む。ステップS105へ進んだ場合は、制御部152は、当該処理コマンドまたはタッチパネル130の操作に従ってオブジェクトの表示位置、向き、大きさなどを調整して表示パネル120の表示を更新する。表示の更新を終えたらステップS106へ進む。
Proceeding to step S104, the
演算部150は、ステップS106で、表示終了の指示を受け付けたか否かを確認する。受け付けていなければステップS101へ戻る。受け付けていれば、終了処理を実行して一連の処理を終了する。
In step S106, the
次に第2実施例について説明する。第2実施例に係る表示システムは、第1実施例に係る表示システムの構成と同様であるので、全体構成の説明は省略する。第2実施例では、ユーザの数が増えた場合にオブジェクトをどのように表示するかについて特に言及する。第2実施例の表示態様は、第1実施例の表示態様に加えて、あるいは第1実施例の一部の表示態様を変更して実施し得る。 Next, the second embodiment will be described. Since the display system according to the second embodiment is the same as the configuration of the display system according to the first embodiment, the description of the overall configuration will be omitted. In the second embodiment, how to display the object when the number of users increases will be specifically mentioned. The display mode of the second embodiment may be implemented in addition to the display mode of the first embodiment or by changing a part of the display mode of the first embodiment.
図8は、第2実施例に係るユーザとオブジェクト表示の関係を示す図であり、図3と同様に表示テーブル100を上方から見下ろした様子を示している。図8に示す例では、図3の例と比較して更にユーザDが加わっている。ユーザDは、ユーザAとユーザBの間に位置し、この3人は比較的詰めた状態で着座していると言える。 FIG. 8 is a diagram showing the relationship between the user and the object display according to the second embodiment, and shows a state in which the display table 100 is looked down from above in the same manner as in FIG. In the example shown in FIG. 8, the user D is further added as compared with the example of FIG. User D is located between User A and User B, and it can be said that these three are seated in a relatively packed state.
このような状況においても、表示するオブジェクトが表示パネル120に対して比較的小さければ、図3の表示態様と同様に、制御部152は、それぞれのユーザの前に各オブジェクトを100%の大きさで適切に表示することができる。図8の例では、制御部152は、A4縦の書類であるオブジェクト801dを、他のユーザと同様に、ユーザDの前に100%の大きさで縦方向に表示する。
Even in such a situation, if the objects to be displayed are relatively small with respect to the
しかし、表示するオブジェクトが大きくなると、ユーザが比較的詰めた状態で着座している場合には、各オブジェクトを互いに重なることなくそれぞれのユーザの前に表示させることができなくなる。図9は、表示するオブジェクトが大きい場合のユーザとオブジェクト表示の関係を示す図である。ユーザAからDの着座位置は図8の例と同様であるが、表示対象がA4縦の書類のオブジェクトから、A3横の書類のオブジェクトに変更されている。 However, when the objects to be displayed become large, when the users are seated in a relatively packed state, the objects cannot be displayed in front of each user without overlapping each other. FIG. 9 is a diagram showing the relationship between the user and the object display when the object to be displayed is large. The seating positions of users A to D are the same as in the example of FIG. 8, but the display target is changed from the object of the A4 vertical document to the object of the A3 horizontal document.
図示するように、各ユーザの前にA3横の書類のオブジェクトをそれぞれ100%の大きさで表示しようとすると、それぞれ点線で図示するオブジェクト803aとオブジェクト803dが、また、オブジェクト803dとオブジェクト803bが互いに重なり合ってしまう。そこで、制御部152は、オブジェクトどうしが重なり合う場合には、重なり合う複数のオブジェクトに対するユーザをひとつのグループと認識し、重なり合う複数のオブジェクトに替えて、当該グループの基準位置に対応する位置と向きにひとつのオブジェクトを表示する。
As shown in the figure, when trying to display the objects of the document next to A3 in 100% size in front of each user, the
具体的には、オブジェクト803a、803b、803cが重なり合うので、制御部152は、これらのオブジェクトに対するユーザであるユーザA、B、Dを同一グループと認識する。ユーザA、B、Dの位置座標は計算部151によって算出されているので、これらの座標に基づいてグループの基準位置を算出する。グループの基準位置は予め定義されており、例えば、それぞれのユーザの位置座標を極座標に変換し、これらの平均値となる距離および偏角に対する位置を基準位置(xs,ys)と定める。制御部152は、このように算出した基準位置に対して表示位置と向きが最適となるように、オブジェクト803sを表示する。このようにオブジェクト803sを表示すれば、同一グループの各ユーザに対して、ある程度の見やすさを確保できる。また、図の例であれば、ユーザAとユーザBがユーザDに近寄ってオブジェクト803sを見ることも期待できる。
Specifically, since the
図10は、表示するオブジェクトが大きい場合のユーザとオブジェクト表示の別例を示す図である。図9の例では、同一グループと認識した複数のユーザに対して、1つのオブジェクトを100%の大きさで表示したが、重なっていたオブジェクトを表示しないことによってスペースが生じている。そこで、図10の例においては、制御部152は、この余剰スペースを利用して、表示するオブジェクトを拡大する。具体的には、図9のオブジェクト803sに対し、向きはそのままに拡大したオブジェクト804sを、その全体が表示されるように位置を調整して表示する。
FIG. 10 is a diagram showing another example of the user and the object display when the object to be displayed is large. In the example of FIG. 9, one object is displayed in a size of 100% for a plurality of users who are recognized as the same group, but a space is created by not displaying the overlapping objects. Therefore, in the example of FIG. 10, the
拡大率は、余剰スペースと、同一グループに属さない他のユーザ(図の例ではユーザC)のオブジェクト(同じくオブジェクト803c)に重ならないことを考慮して決定される。図示するように拡大されたオブジェクト804sを表示すれば、図9のオブジェクト803sより視認性が向上する。なお、オブジェクト804sの内容は、同時に表示されているオブジェクト803cと同一である。
The enlargement ratio is determined in consideration of not overlapping the surplus space and the object (also object 803c) of another user (user C in the example of the figure) that does not belong to the same group. If the
図10の表示態様は、オブジェクトを100%の大きさで表示しようとしたときに隣接するオブジェクトと重なり合ってしまう場合に限らない。例えば、図8の態様でA4縦の書類のオブジェクトを100%の大きさで表示していているときにユーザから拡大表示の指示を受けた場合に、その拡大率で表示しようとすると隣接するオブジェクトと重なり合ってしまう場合にも図10の表示態様を採用し得る。 The display mode of FIG. 10 is not limited to the case where an object overlaps with an adjacent object when an attempt is made to display the object at 100% size. For example, when an object of an A4 vertical document is displayed in a size of 100% in the aspect of FIG. 8, when a user gives an instruction for enlargement display, an adjacent object is displayed at the enlargement ratio. The display mode of FIG. 10 can be adopted even when they overlap with each other.
図8の状態において例えばユーザAが、音声指示あるいはタッチパネル操作の指示により、オブジェクト801aを200%に拡大する指示を行った場合に、そのままオブジェクト801aが拡大されてしまうと隣接するオブジェクト801dと重なってしまう。そこで、制御部152は、まずオブジェクト801a、801dを消去し、ユーザAとユーザDを同一グループと認識して基準位置を算出し、その基準位置に即して200%に拡大したオブジェクトを表示する。すなわち、制御部152は、オブジェクトを拡大させる指示をユーザから受け付けた場合に、拡大したオブジェクトが隣接するオブジェクトと重なり合うときには、拡大したひとつのオブジェクトを表示する。
In the state of FIG. 8, for example, when the user A gives an instruction to enlarge the
次に、第2実施例に係る表示システムの処理フローについて説明する。図11は、当該処理フローを示すフロー図である。図示するフローは、図7のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the second embodiment will be described. FIG. 11 is a flow chart showing the processing flow. Similar to the flow of FIG. 7, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. Further, the same processing as the flow of FIG. 7 is given the same step number, and the description thereof will be omitted unless otherwise specified.
ステップS101でマイク110が音声の取得を開始し、ステップS102で計算部151が表示テーブル100の周囲に居るユーザの人数と位置を計算したら、ステップS203へ進む。制御部152は、ステップS203で、それぞれのユーザが視認しやすいように各オブジェクトの表示位置と向きを整えて表示パネル120に表示可能か試みる。具体的には、初期設定であれば各オブジェクトを100%の大きさで表示可能かを試みる。すでに大きさの指示を受けていたり設定が変更されていたりする場合には、各オブジェクトをその大きさで表示可能かを試みる。ステップS204へ進み、制御部152は、各オブジェクトの配置を調整した結果、一部でも重なり合うオブジェクトが存在するか否かを判断し、重なり合わないと判断した場合にはステップS205へ進み、重なり合うと判断した場合にはステップS206へ進む。
In step S101, the
ステップS205へ進んだ場合には、制御部152は、図8に示すように、各ユーザの位置から快適に視認できるよう、それぞれのオブジェクトを表示位置と向きを調整して表示パネル120に表示する。その後、ステップS104へ進む。
When the process proceeds to step S205, as shown in FIG. 8, the
ステップS206へ進んだ場合には、制御部152は、隣接するオブジェクトと互いに重なり合うオブジェクトを抽出する。そして、これらのオブジェクトのそれぞれに対応するユーザをひとつのユーザグループと判断する。さらにステップS207へすすみ、制御部152は、ユーザグループに属したそれぞれのユーザの位置座標から基準位置を算出し、その基準位置に合せて、図9に示すように、表示位置と向きを調整したひとつのオブジェクトを表示パネル120に表示する。なお、この段階で、図10に示すように、余剰スペースを利用して拡大表示を行っても良い。その後、ステップS104へ進む。
When the process proceeds to step S206, the
ステップS104で演算部150がユーザから変更指示があったと確認した場合には、ステップS213へ進む。ステップS213では、確認された処理コマンドまたはタッチパネル130の操作に従って各オブジェクトの表示位置と向きを整え、表示パネル120に表示可能か試みる。
When the
ステップS214へ進み、制御部152は、各オブジェクトの配置を調整した結果、一部でも重なり合うオブジェクトが存在するか否かを判断し、重なり合わないと判断した場合にはステップS215へ進み、重なり合うと判断した場合にはステップS216へ進む。
Proceeding to step S214, the
ステップS215へ進んだ場合には、制御部152は、各ユーザの位置から快適に視認できるよう、ユーザからの変更指示に即してそれぞれのオブジェクトを表示位置と向きを調整して表示パネル120に表示する。その後、ステップS106へ進む。
When the process proceeds to step S215, the
ステップS216へ進んだ場合には、制御部152は、隣接するオブジェクトと互いに重なり合うオブジェクトを抽出する。そして、これらのオブジェクトのそれぞれに対応するユーザをひとつのユーザグループと判断する。さらにステップS217へすすみ、制御部152は、ユーザグループに属したそれぞれのユーザの位置座標から基準位置を算出し、その基準位置とユーザからの変更指示に即して表示位置と向きを調整して、オブジェクトを表示パネル120に表示する。その後、ステップS106へ進む。演算部150は、ステップS106で、終了指示に関する判断を行う。
When the process proceeds to step S216, the
次に第3実施例について説明する。第3実施例に係る表示システムは、第1実施例に係る表示システムに一部の要素を加えた構成を有する。第3実施例では、ユーザの個人識別を行い、その結果をオブジェクトの表示調整に反映させる。第3実施例の表示態様は、第1実施例および第2実施例の表示態様に加えて、あるいは第1実施例および第2実施例の一部の表示態様を変更して実施し得る。 Next, a third embodiment will be described. The display system according to the third embodiment has a configuration in which some elements are added to the display system according to the first embodiment. In the third embodiment, the personal identification of the user is performed, and the result is reflected in the display adjustment of the object. The display mode of the third embodiment may be implemented in addition to the display mode of the first embodiment and the second embodiment, or by changing a part of the display mode of the first embodiment and the second embodiment.
図12は、第3実施例に係る表示システムの制御ブロック図である。図2に示す第1実施例に係る表示システムの構成に対して、第3実施例に係る表示システムは、演算部150が識別部153としても機能する点、メモリ180が参照リスト181を記憶している点、インターネット300にユーザ声紋格納装置330が接続されている点、音声解析装置310が判別部311を備える点が異なる。同一の機能を発揮する要素については、図2と同じ符番を付して、その説明を省略する。なお、同一の機能を発揮する要素であっても更に別機能を有する場合には、後に詳述する。
FIG. 12 is a control block diagram of the display system according to the third embodiment. In contrast to the configuration of the display system according to the first embodiment shown in FIG. 2, in the display system according to the third embodiment, the
メモリ180は、参照リスト181を記憶している。参照リストは、表示システムを利用する複数のユーザについて、それぞれの個人情報が予め登録されたリストである。リストの内容については後述する。
The
ユーザ声紋格納装置330は、例えばHDDによって構成されている記憶装置であり、表示システムを利用する複数のユーザのサンプル音声をデータ化したサンプル音声データを格納している。音声データは、声紋ファイルとしてユーザごとに、例えばmp3ファイルとして格納されている。
The user
音声解析装置310に組み込まれた判別部311は、表示テーブル100から受け取った音声データと、ユーザ声紋格納装置330から読み出した声紋ファイルとを比較する。そして、受け取った音声データの音声が、いずれの声紋ファイルの音声と合致するかを判別し、その判別結果を表示テーブル100へ返す。
The
識別部153は、音声解析装置310からインターネット300を介して受け取った判別結果とメモリ180から読み出した参照リスト181とを照合し、発声人物を特定する。また、参照リストの登録内容に従って、発声人物の優先順位を確定させる。
The
図13は、オブジェクト表示の調整時に参照する参照リスト181の例である。参照リストは、優先順位、ユーザ名および声紋ファイルが相互に関連付けられて記述されている。図示するように、例えばユーザ「鈴木一郎」は、サンプルされた音声が「001.mp3」と名付けられた声紋ファイルとしてユーザ声紋格納装置330に格納されており、優先順位は「1」位であることが参照リスト181より読み取れる。
FIG. 13 is an example of the
識別部153は、音声解析装置310の判別部311から判別結果として声紋ファイル名を受け取ると、参照リスト181と照合して、その声紋ファイル名に対応するユーザを発声人物であると特定する。併せて、その発声人物の優先順位も特定する。
When the
発声人物の位置はその音声信号から計算部151によって計算されるので、制御部152は、表示テーブル100の周囲に居るユーザの人数と、それぞれのユーザの位置、それぞれのユーザの優先順位を把握することができる。
Since the position of the uttering person is calculated by the
図14は、ユーザとオブジェクト表示の関係を示す図であり、図3等と同様に表示テーブル100を上方から見下ろした様子を示している。図示するように、4人のユーザA〜Dが表示テーブル100の周囲に着座しており、ユーザAとユーザDは互いに近い位置に存在する。このような状況において、各ユーザの前にA3横の書類のオブジェクトをそれぞれ100%の大きさで表示パネル120に表示しようとすると、ユーザAに対するオブジェクト805aとユーザDに対するオブジェクト805dが互いに重なり合ってしまう。
FIG. 14 is a diagram showing the relationship between the user and the object display, and shows a state in which the display table 100 is looked down from above in the same manner as in FIG. 3 and the like. As shown in the figure, four users A to D are seated around the display table 100, and the user A and the user D are close to each other. In such a situation, if the object of the document next to A3 is displayed on the
このようにオブジェクトどうしが重なり合ってしまう場合には、制御部152は、優先順位が高位のユーザを優先してオブジェクトの表示位置と向きを調整する。具体的には、ユーザAの優先順位が5位であると把握され、ユーザDの優先順位が2位と把握された場合には、2位の方が高位であるので、制御部152は、オブジェクト805aの表示を聡略し、ユーザDの位置(xd,yd)に合せて調整したオブジェクト805dを表示する。なお、制御部152は、ユーザBに対して最適に調整した表示位置と向きでオブジェクト805bを表示しても他のオブジェクトとは重なり合わないことを確認して、オブジェクト805bを表示する。ユーザCに対するオブジェクト805cも同様である。
When the objects overlap each other in this way, the
このように予め優先順位を登録しておけば、表示システムは、優先順位の高いユーザに合わせてオブジェクトの表示位置と向きを調整できるので、例えば組織内の会議で用いられるような場合に好適である。なお、途中でユーザが参加したり退去したりする場合には、制御部152は、その変化に応じてオブジェクトの表示を再調整する。例えば、優先順位が高いユーザが加われば、そのユーザに対するオブジェクトの表示を優先し、当該オブジェクトに重なる既表示のオブジェクトが存在すれば消去する。優先順位が高いユーザが離れれば、そのユーザに対するオブジェクトの表示を取り止め、当該オブジェクトのために表示が省略されていたオブジェクトが存在すればそのオブジェクトを表示させる。ユーザが表示テーブル100の周りで移動した場合も、同様に優先順位によってオブジェクトの表示および非表示を決定する。
By registering the priority in advance in this way, the display system can adjust the display position and orientation of the object according to the user having a high priority, and is therefore suitable for use in a meeting in an organization, for example. is there. When the user joins or leaves in the middle, the
図15は、表示するオブジェクトが大きい場合のユーザとオブジェクト表示の関係を示す図であり、図14と同様に、表示テーブル100を上方から見下ろした様子を示している。例えばCAD図面のようなさらに大きな書類をオブジェクトとして表示するような場合には、隣り合うユーザがあまり近くに存在していなくても、表示するオブジェクトどうしが重なり合ってしまうことがある。図示するように、ユーザAとユーザCおよびユーザBとユーザCの間隔に対して、ユーザAとユーザBの間隔が若干狭い程度であっても、ユーザAに対するオブジェクト806aの一部と、ユーザBに対するオブジェクト806bの一部が重なり合ってしまう。このような状況において、図14の例のように優先順位の低いユーザに対するオブジェクトを単に非表示にしてしまうと、優先順位の低いユーザに大きな不都合が生じる。すなわち、他のユーザに対して表示されるオブジェクトは遠かったり向きが大きく異なったりするので、優先順位の低いユーザは、オブジェクトの内容を把握することが難しくなる。
FIG. 15 is a diagram showing the relationship between the user and the object display when the object to be displayed is large, and like FIG. 14, shows a state in which the display table 100 is viewed from above. For example, when displaying a larger document such as a CAD drawing as an object, the objects to be displayed may overlap each other even if adjacent users do not exist very close to each other. As shown in the figure, even if the distance between the user A and the user B is slightly narrower than the distance between the user A and the user C and the user B and the user C, a part of the
そこで、このような場合には、優先順位の低いユーザに対するオブジェクトを単に非表示にするのではなく、優先順位の高いユーザに対するオブジェクトと重ならない程度に縮小して表示する。例えば図示するように、ユーザBの優先順位が1位であって、ユーザAの優先順位が5位である場合には、制御部152は、高位であるユーザBに対するオブジェクト806bを優先して表示する。そして、ユーザAに対するオブジェクト806aをオブジェクト806bと重ならなくなるまで縮小したオブジェクト806a’を表示する。このようにオブジェクト806a’を表示すれば、本来の大きさより多少小さいものの、ユーザAもオブジェクトの内容を把握できることができる。
Therefore, in such a case, the object for the user having a low priority is not simply hidden, but is reduced and displayed so as not to overlap with the object for the user with a high priority. For example, as shown in the figure, when the priority of the user B is the first and the priority of the user A is the fifth, the
図16は、表示するオブジェクトがさらに大きい場合のユーザとオブジェクト表示の関係を示す図であり、図14、図15と同様に、表示テーブル100を上方から見下ろした様子を示している。図15で示したオブジェクトよりもさらに大きなオブジェクトを表示する場合や、もともとは小さいオブジェクトでも拡大指示がなされた結果大きく表示することになったオブジェクトの場合には、単独で表示することが好ましい。すなわち、ひとつのオブジェクトが表示パネル120の表示面の大半を占めるような場合には、図15の例のように余剰スペースに小さなオブジェクトを表示しても、ユーザはその内容を把握しづらいので、一つのオブジェクトに限って表示する。
FIG. 16 is a diagram showing the relationship between the user and the object display when the object to be displayed is larger, and shows a state in which the display table 100 is looked down from above as in FIGS. 14 and 15. When displaying an object larger than the object shown in FIG. 15, or when an object that is originally small but is to be displayed larger as a result of an enlargement instruction, it is preferable to display the object alone. That is, when one object occupies most of the display surface of the
この場合、制御部152は、周囲に居るすべてのユーザの優先順位を確認し、最も高位のユーザの位置を基準位置として当該オブジェクトの表示位置と向きを調整して、表示する。図の例では、ユーザAの優先順位が5位であり、ユーザBの優先順位が1位であり、ユーザCの優先順位が3位であるので、最高位であるユーザBの位置(xb,yb)を基準位置として表示位置と向きを調整したオブジェクト805dを表示する。このような表示は、最高位のユーザにとって視認しやすいだけでなく、その他のユーザにとっても、向きは最適でなくてもオブジェクトの内容を確認しやすいと言える。
In this case, the
優先順位を利用してどのようにオブジェクトを表示するかについて図14〜図16の3つの例を説明したが、いずれの例を採用するかは、表示するオブジェクトの大きさ、隣り合うユーザ間の間隔、表示パネル120の大きさや形状等に基づいて決定することができる。例えば、隣り合うユーザ間の間隔が所定距離未満であれば図14の例に従い、所定距離以上であれば図15の例に従う。また、図15の例に従う場合に、縮小したオブジェクトが所定の大きさ未満になる場合には図16の例に従うようにしても良い。いずれの場合であっても、指定された大きさでそれぞれのユーザに対するオブジェクトを表示しようとするときにオブジェクトどうしが重なり合ってしまう場合には、優先順位が高位のユーザに対するオブジェクトを他のオブジェクトよりも大きく表示すれば良い。この場合、他のオブジェクトは非表示にされる場合を含む。
Three examples of FIGS. 14 to 16 have been described for how to display objects using the priority, but which example is adopted depends on the size of the object to be displayed and between adjacent users. It can be determined based on the interval, the size and shape of the
なお、図14〜図16の3つの例は、参照リスト181に記述された優先順位に基づいてオブジェクトの表示を調整したが、参照リスト181に記述される個人情報は優先順位でなくても良く、制御部152は、他の個人情報に基づいてオブジェクトの表示を調整しても良い。他の個人情報は、優先順位に準ずるようなユーザの役職や地位であっても良い。あるいは、それぞれのユーザが該当し得る複数の属性項目が用意されており、その属性項目に該当するか否かが記述されていても良い。この場合は、例えば、該当数が多いユーザほど高い優先順位が割り当てられる。
In the three examples of FIGS. 14 to 16, the display of the object is adjusted based on the priority described in the
次に、第3実施例に係る表示システムの処理フローについて説明する。図17は、第3実施例に係る表示システムの典型的な処理フローを示すフロー図である。図示するフローは、図7のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the third embodiment will be described. FIG. 17 is a flow chart showing a typical processing flow of the display system according to the third embodiment. Similar to the flow of FIG. 7, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. Further, the same processing as the flow of FIG. 7 is given the same step number, and the description thereof will be omitted unless otherwise specified.
ステップS101でマイク110が音声の取得を開始し、ステップS102で計算部151が表示テーブル100の周囲に居るユーザの人数と位置を計算したら、ステップS301へ進む。識別部153は、ステップS301で、音声解析装置310の判別部311から判別結果として声紋ファイル名を受け取る。そして、メモリ180から読み出した参照リスト181と照合して、その声紋ファイル名に対応するユーザを発声人物であると特定する。さらに、ステップS302で、参照リスト181の記述情報から当該ユーザの優先順位を確定させる。ユーザの優先順位は、上述のように、参照リスト181に登録されているユーザごとに直接記述されている場合はその優先順位が用いられ、個人情報の記述から導出する場合は、予め設定された導出条件によって確定される。
In step S101, the
ステップS303へ進み、制御部152は、計算部151で計算されたユーザの人数と位置、および識別部153で確定された優先順位に基づいて対象となるオブジェクトの表示位置と向きを調整して表示パネル120に表示する。具体的な表示態様は上述の通りである。その後、ステップS104へ進む。
Proceeding to step S303, the
ステップS104で演算部150がユーザから変更指示があったと確認した場合には、ステップS305へ進む。制御部152は、ステップS305で、確認された処理コマンドまたはタッチパネル130の操作に従って各オブジェクトの表示位置と向きを整え、表示パネル120に表示する。この場合も、事前にオブジェクトどうしが重なり合うか否かを判断し、重なり合うと判断し場合には、ユーザの優先順位に従ったオブジェクトの再調整を実行する。その後、ステップS106へ進む。演算部150は、ステップS106で、終了指示に関する判断を行う。
If the
次に第4実施例について説明する。図18は、第4実施例に係る表示システムの制御ブロック図である。第1実施例と同一の機能を発揮する要素については、図2と同じ符番を付して、その説明を省略する。 Next, a fourth embodiment will be described. FIG. 18 is a control block diagram of the display system according to the fourth embodiment. Elements that exhibit the same functions as in the first embodiment are given the same numbering numbers as those in FIG. 2, and the description thereof will be omitted.
第4実施例に係る表示システムは、第1実施例に係る表示システムにカメラ160を加えた構成である。表示テーブル100の周囲に居るユーザの人数とそれぞれの位置を、第1実施例においてはマイク110a、110b、110cで集音された音声の到達時間のずれに基づいて計算部151が計算していたところ、第4実施例においてはカメラ160で撮像された画像に基づいて計算部151’が計算する。
The display system according to the fourth embodiment has a configuration in which the
カメラ160は、表示テーブル100とその周囲を撮像可能なデジタルカメラユニットであり、撮像した画像を画像データとして計算部151’へ送信する。計算部151’は、受信した画像データを例えば顔認識技術によって解析して、表示テーブル100の周囲に居るユーザの人数とそれぞれの位置を計算する。なお、第4実施例においてマイク110a、110b、110cは、ユーザからの音声指示を集音するために用いられる。
The
図19は、ユーザとオブジェクト表示の関係を示す図であり、図3と同様に表示テーブル100を上方から見下ろした様子を示している。カメラ160として、例えばステレオカメラや距離画像カメラを用いれば、マイクを用いたときのようにユーザの位置座標(xp,yp)を算出できるが、ここでは二次元の単画像を用いて簡易的にユーザの方位(θp)を算出して用いる手法について説明する。方位(θ)は、図示するように、z軸を回転軸とする場合の、x軸正方向からの角度で表される。
FIG. 19 is a diagram showing the relationship between the user and the object display, and shows a state in which the display table 100 is viewed from above as in FIG. As the
カメラ160は、原点位置に上向きに設置された360°カメラである。具体的には、約180°の画角を有する魚眼レンズを備えるカメラユニットである。計算部151’は、カメラ160で撮像された画像からユーザAを認識してユーザAの方位θaを計算する。同様に、ユーザBを認識してユーザBの方位θbを、ユーザCを認識してユーザCの方位θcを計算する。計算部151’は、それぞれのユーザの方位計算を実行することにより、結果的に表示テーブル100の周囲に居るユーザの人数もカウントすることができる。
The
制御部152は、計算部151’からそれぞれのユーザの方位を受け取ったら、表示対象であるオブジェクトをその方位に対応するように表示位置と向きを調整して表示パネル120に表示する。具体的には図示するように、ユーザAに対してオブジェクト801aを、ユーザBに対してオブジェクト801bを、ユーザCに対してオブジェクト801cを、それぞれのユーザの前で正対するように位置と向きを調整して表示する。なお、ユーザの方位に基づいて各オブジェクトを表示する場合は、ユーザが表示テーブル100からどれくらい離れているのかがわからないので、例えば、表示パネル120の周縁からオブジェクトの端までの距離が所定距離となるようにオブジェクトの表示位置を調整する。
When the
それぞれのユーザは、自身にとって良好な位置にオブジェクトが表示されることになるので、その内容を容易に把握することができる。また、同一内容のオブジェクトがそれぞれのユーザの前に表示されるので、同席するユーザ間で情報をいち早く共有することができる。なお、例えば表示対象であるオブジェクトがA4縦の書類であれば、制御部152’は、当該オブジェクトをそれぞれのユーザに対して縦方向にA4の大きさ100%で表示する。タッチパネル130や音声指示によって位置、大きさ、向きの変更が指示されたら、制御部152’は、その指示に応じてシフト処理、拡縮処理、回転処理を施す。
Since each user will display the object in a position that is good for him / her, he / she can easily grasp the contents. In addition, since objects with the same content are displayed in front of each user, information can be shared quickly among the users present. For example, if the object to be displayed is an A4 vertical document, the control unit 152'displays the object to each user in the vertical direction with an A4 size of 100%. When a change in position, size, or orientation is instructed by the
表示パネル120の中心に魚眼レンズを備えるカメラユニットを設ける場合に限らず、カメラ160は、さまざまなカメラユニットを採用でき、さまざまに配置し得る。例えば、表示テーブル100を俯瞰するようにステレオカメラを天井に設置しても良い。その場合には、計算部151’は、各ユーザの位置座標を計算することができる。もちろん、カメラユニットは一台でなくても良く、複数台を用いても良い。複数台を用いる場合には、全体で表示テーブル100とその周囲が撮像できれば良い。
Not limited to the case where the camera unit provided with the fisheye lens is provided at the center of the
特に、カメラ160が表示パネル120の表示領域も撮像できるのであれば、制御部152は、当該表示領域の状態に応じてオブジェクトの表示を調整しても良い。例えば、計算部151’は、カメラ160で撮像された画像から表示パネル120の表示領域を抽出してメッシュ状に分割し、それぞれのメッシュ領域の照度を計算する。制御部152は、計算された照度が第1閾値以上第2閾値未満のメッシュ領域にオブジェクトを表示させる場合には、オブジェクトの表示輝度を高める。オブジェクトの表示輝度を高める手法としては、バックライトの光量を増したり、オブジェクトの明度を上げたりすることが考えられる。また、制御部152は、計算された照度が第2閾値以上である場合には、当該メッシュ領域にオブジェクトを表示することを断念して、他の表示位置へ表示する。表示システムは、表示輝度を高める処理と他の表示位置へ表示する処理のいずれも採用しても良いし、いずれか一方を採用しても良い。
In particular, if the
また、このようにカメラ160を利用した表示システムであっても、第1実施例と同様に、既存のユーザが移動したり、退去したり、新たなユーザが加わったりした場合に、変化に応じてオブジェクトの表示位置と向きを調整することができる。さらに、第2実施例と同様に、同一グループを認識してオブジェクトの表示位置と向き、大きさを調整することができる。
Further, even in the display system using the
また、音声によって個人を特定する手法の代わりに画像によって個人を特定する手法を採用すれば、第3実施例と同様に、個人情報に基づいてオブジェクトの表示を調整することもできる。具体的には、ユーザ声紋格納装置330の代わりにユーザ画像格納装置を設け、予め各ユーザの顔画像を格納しておく。そして、音声解析装置310の代わりに画像解析装置を設け、表示テーブル100から送られてきた顔画像とユーザ画像格納装置に格納された顔画像をマッチング処理して、送られてきた顔画像がいずれのユーザであるかを解析結果として識別部153へ返す。制御部152は、認識されたユーザの優先順位を確定して、その優先順位に即した表示調整を実行する。
Further, if the method of identifying the individual by the image is adopted instead of the method of identifying the individual by the voice, the display of the object can be adjusted based on the personal information as in the third embodiment. Specifically, a user image storage device is provided instead of the user
次に、第4実施例に係る表示システムの処理フローについて説明する。図20は、第4実施例に係る表示システムの典型的な処理フローを示すフロー図である。図示するフローは、図7のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the fourth embodiment will be described. FIG. 20 is a flow chart showing a typical processing flow of the display system according to the fourth embodiment. Similar to the flow of FIG. 7, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. Further, the same processing as the flow of FIG. 7 is given the same step number, and the description thereof will be omitted unless otherwise specified.
カメラ160は、ステップS401で、撮像を実行する。撮像によって生成した画像データは計算部151’へ引き渡す。計算部151’は、ステップS402で、取得した画像データの画像から各ユーザを認識し、それぞれの方位を計算する。制御部152は、ステップS403で、計算部151’が計算した各ユーザの方位に合せて、それぞれ対応するオブジェクトの表示位置と向きを調整して表示パネル120に表示する。なお、表示パネル120の表示領域の照度を計算する場合は、上述のように、その照度に応じた調整を実行しても良い。以降のステップS104からステップS106の処理は図7の例と同様である。
The
次に第5実施例について説明する。第5実施例に係る表示システムは、第1実施例に係る表示システムの構成と同様であるので、全体構成の説明は省略する。第5実施例では、それぞれのユーザの位置に基づいてオブジェクトの表示位置と向きを調整するときに、ユーザの眼の推定高さに基づいて当該オブジェクトを歪ませる。 Next, a fifth embodiment will be described. Since the display system according to the fifth embodiment is the same as the configuration of the display system according to the first embodiment, the description of the overall configuration will be omitted. In the fifth embodiment, when adjusting the display position and orientation of the object based on the position of each user, the object is distorted based on the estimated height of the user's eyes.
図21は、第5実施例に係る表示テーブル100とユーザの様子を示す図であり、表示テーブル100を側方より観察した様子を示している。上述のように、あるユーザPが発した音声がマイク110a、110b、110cに到達した時間の時間差を計測すれば、そのユーザPの口元の三次元座標(xp,yp,zp)を計算できる。また、人の顔の標準的な眼と口の長さをhとすると、ユーザPの両眼中心位置(xp,yp,z’p)はおよそ(xp,yp,zp+h)と推定される。そこで、本実施例においては、眼の推定高さをz’pとする。図の例では、座っているユーザAの眼の推定高さはz’aであり、立っているユーザCの眼の推定高さはz’cである。
FIG. 21 is a diagram showing the state of the display table 100 and the user according to the fifth embodiment, and shows the state of observing the display table 100 from the side. As described above, if the time difference in the time when the voice emitted by a user P reaches the
図22は、オブジェクトの歪み加工を説明するための図であり、図21と同様に、表示テーブル100を側方より観察した様子を示している。ここでは、立っているユーザCに対して表示されるオブジェクト808cについて説明する。
FIG. 22 is a diagram for explaining the distortion processing of the object, and shows a state in which the display table 100 is observed from the side as in FIG. 21. Here, the
ユーザCの両眼中心位置(xc,yc,z’c)が計算部151によって推定されると、まず(xc,yc)の位置座標から、基準位置が定まる。基準位置は、図3の例において、オブジェクトを100%の大きさで表示した場合の、最もユーザ寄りの位置である。そして、その100%の大きさのオブジェクトを、仮想的に、基準位置周りにユーザCの視線と直交するまで回転して持ち上げる。ユーザCの視線方向は持ち上げられたオブジェクトの中心位置である。このときのオブジェクトの姿勢をオブジェクト808c’で示す。
Binocular center position of the user C (x c, y c, z 'c) When it is estimated by the
そして、このような姿勢で想定した100%の大きさのオブジェクト808c’を、表示パネル120の表示面に、ユーザCの両眼中心位置(xc,yc,z’c)を点光源として射影する。このような射影によって形成されたオブジェクトが表示対象となるオブジェクト808cである。例えば、オブジェクトの縦の長さは、このような射影によりL1から、L1’に伸長する。
Then, such a 100% assumed in posture size 'and the display surface of the
図23は、ユーザとオブジェクト表示の関係を示す図であり、図22で歪み加工が施されたオブジェクトを表示する表示テーブル100を上方から見下ろした様子を示している。図示するように、ユーザCに対して表示されるオブジェクト808cは、点線で示すように100%で表示される場合の縦の長さがL1であるのに対し、歪み加工によりL1’に伸長されている様子がわかる。横方向にも同様に伸長され、その結果、オブジェクト808cは、ユーザに対して手前側よりも奥側へ向かって拡がる逆台形形状となる。オブジェクト808cの情報として示されるテキストや画像も同様に歪み加工が施される。また、ユーザAに対するオブジェクト808aも、着座したユーザAの眼の推定高さに応じて同様に歪み加工が施される。
FIG. 23 is a diagram showing the relationship between the user and the object display, and shows a state in which the display table 100 displaying the distorted object in FIG. 22 is viewed from above. As illustrated, the
このように歪み加工を施してオブジェクトを表示することにより、ユーザは結果的に本来の形状に近い状態でオブジェクトを視認することができるので、違和感を覚えることなく自然にオブジェクトの内容を把握することができる。特に、オブジェクトが文字を含むような場合には、ユーザから遠くに表示されても拡大されるので都合が良い。 By displaying the object with distortion processing in this way, the user can visually recognize the object in a state close to the original shape as a result, so that the content of the object can be grasped naturally without feeling any discomfort. Can be done. In particular, when the object contains characters, it is convenient because it is enlarged even if it is displayed far from the user.
なお、オブジェクトの形状をユーザの眼の推定高さに応じてどのような歪み加工を施すのかについては、さまざまな手法を採用し得る。上記の例では、ユーザがオブジェクトの内容を把握しやすくすることを優先して逆台形形状に伸長させたが、画像を表示するような場合において奥行き感を強調する効果を狙うときには、手前側より奥側を縮めて歪ませる加工を施しても良い。 It should be noted that various methods can be adopted for what kind of distortion processing is applied to the shape of the object according to the estimated height of the user's eyes. In the above example, the object is stretched into an inverted trapezoidal shape with priority given to making it easier for the user to understand the contents of the object, but when aiming for the effect of emphasizing the sense of depth when displaying an image, from the front side. The back side may be shrunk and distorted.
また、本実施例においても、第1実施例と同様に、既存のユーザが移動したり、退去したり、新たなユーザが加わったりした場合に、変化に応じてオブジェクトの表示位置と向きを調整することができる。この場合の調整は、ユーザの目の推定高さに応じた歪み加工を含む。また、ユーザが立ったり座ったりする変化を検出した場合にも、制御部152は、対処となるオブジェクトを再調整する。また、第2実施例と同様に、制御部152は、同一グループを認識してオブジェクトの表示位置と向き、大きさを調整することができる。このとき、隣り合うオブジェクトどうしが重なりあるか否かの判断は、歪み加工を施した形状で行う。
Further, also in this embodiment, as in the first embodiment, when an existing user moves, moves out, or a new user joins, the display position and orientation of the object are adjusted according to the change. can do. The adjustment in this case includes distortion processing according to the estimated height of the user's eyes. Also, when the user detects a change in standing or sitting, the
また、本実施例においても、第3実施例と同様に、識別部153でユーザを識別し、制御部152は、参照リストに記述された当該ユーザの個人情報に基づいてオブジェクトの表示を調整しても良い。また、制御部152は、参照リストに記述された個人情報をユーザの優先順位を確定する場合に限らず、他の表示調整に利用することもできる。
Further, also in this embodiment, as in the third embodiment, the
図24は、オブジェクト表示の調整時に参照する参照リストの別例である。図示する参照リスト181’は、図13の参照リスト181に比べて、老眼登録の項目を有する。例えば、優先順位が1位である鈴木一郎は老眼登録が「あり」になっており、優先順位が2位である佐藤花子は老眼登録が「なし」になっている。このような情報が参照リスト181’に記述されている場合に、制御部152は、老眼登録ありのユーザに対しては、オブジェクトの表示位置をユーザ位置から少し離したり、拡大率を大きくしたり調整することができる。
FIG. 24 is another example of the reference list to be referred to when adjusting the object display. The illustrated reference list 181'has more presbyopia registration items than the
なお、本実施例において、音声に関する処理を、第4実施例のようにカメラが出力する画像に関する処理に置き換えることもできる。その場合、図18を用いて説明したシステム構成を採用すれば良い。なお、カメラを用いる場合は、例えば取得画像から両眼領域を抽出することにより、ユーザの眼の高さを直接的に解析することができる。より正確に両眼中心位置を算出したい場合には、ステレオカメラなど被写体の距離情報を取得できるカメラ構成が好ましい。 In this embodiment, the processing related to sound can be replaced with the processing related to the image output by the camera as in the fourth embodiment. In that case, the system configuration described with reference to FIG. 18 may be adopted. When a camera is used, the height of the user's eyes can be directly analyzed, for example, by extracting the binocular region from the acquired image. When it is desired to calculate the center position of both eyes more accurately, a camera configuration such as a stereo camera that can acquire the distance information of the subject is preferable.
次に、第5実施例に係る表示システムの処理フローについて説明する。図25は、当該処理フローを示すフロー図である。ここでは、個人識別を実行して参照リスト181’を利用する例を説明する。図示するフローは、図7および図17のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7および図17のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the fifth embodiment will be described. FIG. 25 is a flow chart showing the processing flow. Here, an example of executing personal identification and using the reference list 181'will be described. Similar to the flow of FIGS. 7 and 17, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and covers all the processes related to the display. is not it. Further, the same processing as the flow of FIGS. 7 and 17 is assigned the same step number, and the description thereof will be omitted unless otherwise specified.
ステップS101でマイク110が音声の取得を開始し、次にステップS102で計算部151が表示テーブル100の周囲に居るユーザの人数と位置を計算する。計算部151は、ユーザの位置として、目の推定高さを含む両眼中心位置を計算する。次に、ステップS301へ進み、識別部153は、判別部311から判別結果を受け取り、メモリ180から読み出した参照リスト181’と照合してユーザを特定する。さらに、ステップS502で、参照リスト181’の記述情報から当該ユーザの優先順位および調整項目を確定させる。調整項目は、例えば老眼登録に対する表示位置および拡大率であり、登録されている個人情報に応じて、調整する表示項目が予め対応付けられている。
In step S101, the
制御部152は、ステップS503で、それぞれのユーザが視認しやすいように各オブジェクトに歪み加工を施して表示位置と向きを整え、表示パネル120に表示する。具体的な表示態様は上述の通りである。その後、ステップS104へ進む。
In step S503, the
ステップS104で演算部150がユーザから変更指示があったと確認した場合には、ステップS505へ進む。制御部152は、ステップS505で、確認された処理コマンドまたはタッチパネル130の操作に従って各オブジェクトに歪み加工を施して表示位置と向きを整え、表示パネル120に表示する。この場合も、事前にオブジェクトどうしが重なり合うか否かを判断し、重なり合うと判断し場合には、ユーザの優先順位に従ったオブジェクトの再調整を実行する。その後、ステップS106へ進む。演算部150は、ステップS106で、終了指示に関する判断を行う。
If the
以上5つの実施例とその変形例を通じて本実施形態を説明したが、冒頭にも説明したように本実施形態に係る表示システムは、各実施例で具体的に説明した態様以外にも、さまざまな態様を採用し得る。例えば、表示テーブル100は円形でなくても良く、表示システムが用いられる用途や環境に応じて、例えば矩形やL字形であっても良い。あるいは、表示部は、表示パネル120でなくても、例えば表示テーブルの上面が投影面になっており、天井に設けられたプロジェクタから映像を投影する構成であっても構わない。また、表示部の周囲に分散して配置されたマイクは3つに限らず、それ以上であっても構わない。より多くのマイクを設けてそれらの音声信号を利用すれば、より精度の高い計算結果を得ることができる。
The present embodiment has been described through the above five examples and its modifications, but as described at the beginning, the display system according to the present embodiment has various modes other than those specifically described in each embodiment. Aspects can be adopted. For example, the display table 100 does not have to be circular, and may be rectangular or L-shaped, for example, depending on the application and environment in which the display system is used. Alternatively, the display unit may not be the
100 表示テーブル、110 マイク、120 表示パネル、130 タッチパネル、140 スピーカー、150 演算部、151 計算部、152 制御部、153 識別部、160 カメラ、170 オブジェクト格納部、180 メモリ、181 参照リスト、190 通信ユニット、300 インターネット、310 音声解析装置、311 判別部、320 オブジェクト格納装置、330 ユーザ声紋格納装置 100 display table, 110 microphone, 120 display panel, 130 touch panel, 140 speaker, 150 arithmetic unit, 151 calculation unit, 152 control unit, 153 identification unit, 160 camera, 170 object storage unit, 180 memory, 181 reference list, 190 communication Unit, 300 Internet, 310 voice analyzer, 311 discriminator, 320 object storage device, 330 user voiceprint storage device
Claims (8)
前記表示部の周囲に配置されたセンサの出力信号に基づいて前記表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算部と、
前記表示部の周囲に居るユーザのそれぞれを個人識別する識別部と、
複数のユーザの個人情報が登録された参照リストを記憶する記憶部と、
前記計算部で計算されたユーザの人数と位置、および前記識別部で識別された識別情報を前記参照リストと比較した結果に基づいて前記オブジェクトの表示位置と向きを調整して前記表示部に表示する制御部と
を備える表示システム。 A display unit that displays objects and
A calculation unit that calculates the number of users around the display unit and their respective positions based on the output signals of sensors arranged around the display unit.
An identification unit that personally identifies each user around the display unit,
A storage unit that stores a reference list in which personal information of multiple users is registered,
The display position and orientation of the object are adjusted and displayed on the display unit based on the result of comparing the number and position of users calculated by the calculation unit and the identification information identified by the identification unit with the reference list. A display system with a control unit.
前記制御部は、前記優先順位が高位のユーザを優先して前記オブジェクトの表示位置と向きを調整する請求項1に記載の表示システム。 In the reference list, the priorities of the plurality of users are registered as the personal information.
The display system according to claim 1, wherein the control unit gives priority to a user having a higher priority and adjusts the display position and orientation of the object.
前記表示部の周囲に配置されたセンサの出力信号に基づいて前記表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算ステップと、
前記表示部の周囲に居るユーザのそれぞれを個人識別する識別ステップと、
前記計算ステップで計算されたユーザの人数と位置、および前記識別ステップで識別された識別情報を前記参照リストと比較した結果に基づいて前記オブジェクトの表示位置と向きを調整して前記表示部に表示する制御ステップと
を有する制御方法。 It is a control method of a display system including a display unit for displaying an object and a storage unit for storing a reference list in which personal information of a plurality of users is registered.
A calculation step of calculating the number of users around the display unit and their respective positions based on the output signals of the sensors arranged around the display unit, and
An identification step that personally identifies each of the users around the display unit,
The display position and orientation of the object are adjusted and displayed on the display unit based on the result of comparing the number and position of users calculated in the calculation step and the identification information identified in the identification step with the reference list. A control method having a control step to be performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019156457A JP2021033907A (en) | 2019-08-29 | 2019-08-29 | Display system and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019156457A JP2021033907A (en) | 2019-08-29 | 2019-08-29 | Display system and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021033907A true JP2021033907A (en) | 2021-03-01 |
Family
ID=74677938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019156457A Pending JP2021033907A (en) | 2019-08-29 | 2019-08-29 | Display system and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021033907A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113487968A (en) * | 2021-07-12 | 2021-10-08 | 宁波视睿迪光电有限公司 | Multi-person table top display system |
-
2019
- 2019-08-29 JP JP2019156457A patent/JP2021033907A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113487968A (en) * | 2021-07-12 | 2021-10-08 | 宁波视睿迪光电有限公司 | Multi-person table top display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9906725B2 (en) | Portable video communication system | |
US20160343389A1 (en) | Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium | |
JP6330056B2 (en) | Information processing apparatus, information processing system, control method, and program | |
WO2012095917A1 (en) | Electronic device and electronic device control program | |
US20230045237A1 (en) | Wearable apparatus for active substitution | |
WO2019128101A1 (en) | Projection region-adaptive dynamic projection method, apparatus, and electronic device | |
JPWO2016103988A1 (en) | Information processing apparatus, information processing method, and program | |
JP2008269588A (en) | Recognition device, recognition method, and recognition program | |
US20090251557A1 (en) | Image pickup control method and apparatus for camera | |
JP5771998B2 (en) | Electronic device and electronic device control program | |
JP5700963B2 (en) | Information processing apparatus and control method thereof | |
JP6627775B2 (en) | Information processing apparatus, information processing method and program | |
JP2011061461A (en) | Imaging apparatus, directivity control method, and program therefor | |
JP2021033907A (en) | Display system and control method thereof | |
KR20110085160A (en) | Stenography input system and method for conference using face recognition | |
JP2016021259A (en) | Electronic apparatus and control program for electronic apparatus | |
WO2010018770A1 (en) | Image display device | |
JP2021033200A (en) | Display system and control method thereof | |
JP2021033908A (en) | Display system and control method thereof | |
JP2021033909A (en) | Display system and control method thereof | |
JP2021033906A (en) | Display system and control method thereof | |
JP2012146216A (en) | Electronic device and program for controlling the same | |
JP5811537B2 (en) | Electronics | |
US20220024046A1 (en) | Apparatus and method for determining interaction between human and robot | |
JP2009060220A (en) | Communication system and communication program |