JP2021033907A - Display system and control method thereof - Google Patents

Display system and control method thereof Download PDF

Info

Publication number
JP2021033907A
JP2021033907A JP2019156457A JP2019156457A JP2021033907A JP 2021033907 A JP2021033907 A JP 2021033907A JP 2019156457 A JP2019156457 A JP 2019156457A JP 2019156457 A JP2019156457 A JP 2019156457A JP 2021033907 A JP2021033907 A JP 2021033907A
Authority
JP
Japan
Prior art keywords
display
user
unit
users
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019156457A
Other languages
Japanese (ja)
Inventor
聡隆 村田
Satotaka Murata
聡隆 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019156457A priority Critical patent/JP2021033907A/en
Publication of JP2021033907A publication Critical patent/JP2021033907A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a display system capable of satisfactorily displaying an object to users surrounding a display unit provided on a table.SOLUTION: A display system comprises a display unit displaying an object, a calculation unit calculating the number of users around the display unit and positions thereof on the basis of output signals of sensors placed around the display unit, an identification unit identifying each of the users around the display unit, a storage unit storing a reference list in which individual information about a plurality of users is registered, and a control unit adjusting a display position and direction of the object on the basis of a result of comparing the identification information identified by the identification unit with the reference list to display the object in the display unit.SELECTED DRAWING: Figure 14

Description

本発明は、表示システムおよびその制御方法に関する。 The present invention relates to a display system and a control method thereof.

複数人で利用するテーブルの上面が表示パネルになっている表示装置が知られている(例えば、特許文献1参照)。特許文献1によれば、矩形テーブルのそれぞれの辺に距離センサを設け、着座するユーザまでの距離に基づいてオブジェクトの表示位置を決定している。 There is known a display device in which the upper surface of a table used by a plurality of people is a display panel (see, for example, Patent Document 1). According to Patent Document 1, distance sensors are provided on each side of the rectangular table, and the display position of the object is determined based on the distance to the seated user.

特開2013−214259号公報Japanese Unexamined Patent Publication No. 2013-214259

例えば円形テーブルのような、取り囲むユーザの数が流動的な表示テーブルの場合には、表示テーブルを取り囲むユーザに対して良好にオブジェクトを表示することが困難であった。 In the case of a display table such as a circular table in which the number of surrounding users is fluid, it is difficult to display objects well to the users surrounding the display table.

本発明は、このような問題を解決するためになされたものであり、テーブルに設けられた表示部を取り囲むユーザに対して、オブジェクトを良好に表示することができる表示システム等を提供することを目的とする。 The present invention has been made to solve such a problem, and provides a display system or the like capable of displaying an object satisfactorily to a user who surrounds a display unit provided on a table. The purpose.

本発明の第1の態様における表示システムは、オブジェクトを表示する表示部と、表示部の周囲に配置されたセンサの出力信号に基づいて表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算部と、表示部の周囲に居るユーザのそれぞれを個人識別する識別部と、複数のユーザの個人情報が登録された参照リストを記憶する記憶部と、計算部で計算されたユーザの人数と位置、および識別部で識別された識別情報を参照リストと比較した結果に基づいてオブジェクトの表示位置と向きを調整して表示部に表示する制御部とを備える。本発明の第2の態様における制御方法は、オブジェクトを表示する表示部と、複数のユーザの個人情報が登録された参照リストを記憶する記憶部とを備える表示システムの制御方法であって、表示部の周囲に配置されたセンサの出力信号に基づいて表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算ステップと、表示部の周囲に居るユーザのそれぞれを個人識別する識別ステップと、計算ステップで計算されたユーザの人数と位置、および識別ステップで識別された識別情報を参照リストと比較した結果に基づいてオブジェクトの表示位置と向きを調整して表示部に表示する制御ステップとを有する。 The display system according to the first aspect of the present invention calculates the number of users around the display unit and their respective positions based on the display unit that displays the object and the output signal of the sensor arranged around the display unit. A calculation unit, an identification unit that personally identifies each user around the display unit, a storage unit that stores a reference list in which personal information of a plurality of users is registered, and a number of users calculated by the calculation unit. It is provided with a control unit that adjusts the display position and orientation of the object based on the result of comparing the identification information identified by the identification unit with the reference list and displays the object on the display unit. The control method according to the second aspect of the present invention is a control method of a display system including a display unit for displaying an object and a storage unit for storing a reference list in which personal information of a plurality of users is registered. A calculation step of calculating the number of users around the display unit and their respective positions based on the output signals of sensors arranged around the unit, and an identification step of personally identifying each user around the display unit. , The number and position of users calculated in the calculation step, and the control step that adjusts the display position and orientation of the object based on the result of comparing the identification information identified in the identification step with the reference list and displays it on the display unit. Has.

本発明により、テーブルに設けられた表示部を取り囲むユーザに対して、オブジェクトを良好に表示することができる表示システム等を提供できる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a display system or the like capable of displaying an object satisfactorily to a user who surrounds a display unit provided on a table.

本実施形態に係る表示システムの表示テーブルを複数のユーザが取り囲む様子を示す斜視図である。It is a perspective view which shows the appearance that a plurality of users surround the display table of the display system which concerns on this embodiment. 第1実施例に係る表示システムの制御ブロック図である。It is a control block diagram of the display system which concerns on 1st Embodiment. ユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between a user and an object display. 一部のユーザが移動した場合のオブジェクト表示の変化を示す図である。It is a figure which shows the change of the object display when a part of users move. 一部のユーザが退去した場合のオブジェクト表示の変化を示す図である。It is a figure which shows the change of the object display when some users move out. 音声指示を認識した場合のオブジェクト表示の変化の一例を示す図である。It is a figure which shows an example of the change of the object display when the voice instruction is recognized. 第1実施例に係る表示システムの処理フローを示すフロー図である。It is a flow chart which shows the processing flow of the display system which concerns on 1st Example. 第2実施例に係るユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between the user and the object display which concerns on 2nd Example. 表示するオブジェクトが大きい場合のユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between a user and an object display when the object to be displayed is large. 表示するオブジェクトが大きい場合のユーザとオブジェクト表示の別例を示す図である。It is a figure which shows another example of a user and an object display when the object to be displayed is large. 第2実施例に係る表示システムの処理フローを示すフロー図である。It is a flow chart which shows the processing flow of the display system which concerns on 2nd Example. 第3実施例に係る表示システムの制御ブロック図である。It is a control block diagram of the display system which concerns on 3rd Example. オブジェクト表示の調整時に参照する参照リストの例である。This is an example of the reference list to be referenced when adjusting the object display. ユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between a user and an object display. 表示するオブジェクトが大きい場合のユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between a user and an object display when the object to be displayed is large. 表示するオブジェクトがさらに大きい場合のユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between a user and an object display when the object to be displayed is larger. 第3実施例に係る表示システムの処理フローを示すフロー図である。It is a flow chart which shows the processing flow of the display system which concerns on 3rd Example. 第4実施例に係る表示システムの制御ブロック図である。It is a control block diagram of the display system which concerns on 4th Embodiment. ユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between a user and an object display. 第4実施例に係る表示システムの処理フローを示すフロー図である。It is a flow chart which shows the processing flow of the display system which concerns on 4th Embodiment. 第5実施例に係る表示テーブルとユーザの様子を示す図である。It is a figure which shows the state of the display table and the user which concerns on 5th Example. オブジェクトの歪み加工を説明するための図である。It is a figure for demonstrating the distortion processing of an object. ユーザとオブジェクト表示の関係を示す図である。It is a figure which shows the relationship between a user and an object display. オブジェクト表示の調整時に参照する参照リストの別例である。This is another example of the reference list to be referenced when adjusting the object display. 第5実施例に係る表示システムの処理フローを示すフロー図である。It is a flow chart which shows the processing flow of the display system which concerns on 5th Example.

以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the invention according to the claims is not limited to the following embodiments. Moreover, not all of the configurations described in the embodiments are indispensable as means for solving the problem.

図1は、本実施形態に係る表示システムの表示テーブル100を複数のユーザが取り囲む様子を示す斜視図である。本実施形態に係る表示システムは、その機能を実現するための実質的な要素を表示テーブルが備えるように構成することもできるが、一部の要素をインターネットや近距離無線通信等を介して接続される外部装置に配設することもできる。したがって、表示システムは、実質的な要素を内蔵する場合には表示テーブルが表示システムそのものとなり、一部の要素を外部装置に委ねる場合には表示テーブルにそれらの外部装置を含めた全体が表示システムとなる。以下の本実施形態においては、表示テーブル100と外部装置によって構成される表示システムについて説明する。 FIG. 1 is a perspective view showing a state in which a plurality of users surround the display table 100 of the display system according to the present embodiment. The display system according to the present embodiment can be configured so that the display table includes substantial elements for realizing the function, but some elements are connected via the Internet, short-range wireless communication, or the like. It can also be arranged in an external device to be installed. Therefore, in the display system, the display table becomes the display system itself when a substantial element is built in, and when some elements are entrusted to an external device, the entire display system including those external devices is displayed. It becomes. In the following embodiment, a display system including a display table 100 and an external device will be described.

表示テーブル100は、例えば会議に好適な円形机形状を成し、椅子に着座した複数のユーザが周囲を取り囲める程度の大きさを有する。表示テーブル100の天面は、例えば液晶パネルである表示パネル120の表示面となっており、電子ファイルを展開した資料やデジタル映像等をオブジェクトとして表示することができる。表示テーブル100を取り囲むユーザは、表示テーブル100に表示されるオブジェクトを見ながらミーティングを行ったり、雑談を楽しんだりすることができる。 The display table 100 has a circular desk shape suitable for meetings, for example, and has a size such that a plurality of users seated in chairs can surround the surroundings. The top surface of the display table 100 is, for example, the display surface of the display panel 120, which is a liquid crystal panel, and can display a document in which an electronic file is developed, a digital image, or the like as an object. A user who surrounds the display table 100 can hold a meeting or enjoy a chat while looking at the objects displayed on the display table 100.

天面の周囲には等間隔に3つのマイク110a、110b、110cが設けられており、これらのマイクはそれぞれ、ユーザの話し声を集音する。詳しくは後述するが、表示テーブル100は、これらのマイクで集音した音声を解析して状況を把握し、解析した状況に応じてオブジェクトの表示位置と向きを調整して表示パネル120に表示する。以下に、いくつかの実施例を通じて本実施形態を説明する。 Three microphones 110a, 110b, and 110c are provided around the top surface at equal intervals, and each of these microphones collects the voice of the user. As will be described in detail later, the display table 100 analyzes the sounds collected by these microphones to grasp the situation, adjusts the display position and orientation of the object according to the analyzed situation, and displays the object on the display panel 120. .. The present embodiment will be described below through some examples.

最初に第1実施例について説明する。図2は、第1実施例に係る表示システムの制御ブロック図である。表示テーブル100は、主に、マイク110、表示パネル120、タッチパネル130、スピーカー140、演算部150、オブジェクト格納部170、メモリ180および通信ユニット190を備える。マイク110は、上述のように表示テーブル100の天面の周囲に分散して配置された3つのマイク110a、110b、110cであり、集音した音声をデジタル信号に変換して演算部150へ送信する。表示パネル120は、上述のように例えば液晶パネルであり、演算部150から受信する映像信号を可視映像に変換して表示する。映像信号は上述のオブジェクトを含み、本実施例において表示パネル120は、オブジェクトを表示する表示部として機能する。 First, the first embodiment will be described. FIG. 2 is a control block diagram of the display system according to the first embodiment. The display table 100 mainly includes a microphone 110, a display panel 120, a touch panel 130, a speaker 140, a calculation unit 150, an object storage unit 170, a memory 180, and a communication unit 190. The microphones 110 are three microphones 110a, 110b, and 110c dispersedly arranged around the top surface of the display table 100 as described above, and convert the collected sound into a digital signal and transmit it to the arithmetic unit 150. To do. As described above, the display panel 120 is, for example, a liquid crystal panel, and converts a video signal received from the calculation unit 150 into a visible video and displays it. The video signal includes the above-mentioned object, and in this embodiment, the display panel 120 functions as a display unit for displaying the object.

タッチパネル130は、表示パネル120に重畳されており、ユーザの接触操作を検知して検知信号を生成し、演算部150へ送信する。演算部150は、タッチパネル130から受信した検知信号に応じた制御を実行する。例えば、表示されているオブジェクト上でスワイプ操作を検知した場合には、当該オブジェクトをスワイプ方向へ移動させる。スピーカー140は、演算部150から受信した音声信号を可聴音に変換する。スピーカー140は、具体的には後述するが、表示テーブル100の周囲に居る一人一人のユーザに発声を促す催促音声を発する場合には、演算部150と協働して、催促部として機能する。 The touch panel 130 is superimposed on the display panel 120, detects a user's contact operation, generates a detection signal, and transmits the detection signal to the calculation unit 150. The calculation unit 150 executes control according to the detection signal received from the touch panel 130. For example, when a swipe operation is detected on the displayed object, the object is moved in the swipe direction. The speaker 140 converts the audio signal received from the arithmetic unit 150 into an audible sound. As will be described in detail later, the speaker 140 functions as a reminder unit in cooperation with the calculation unit 150 when emitting a reminder voice for urging each user around the display table 100 to utter.

オブジェクト格納部170は、例えばHDDで構成される記憶装置であり、表示パネル120へ表示するオブジェクトのオブジェクトデータを格納している。オブジェクト格納部170は、演算部150の要求に応じてオブジェクトデータを演算部150へ供給する。また、オブジェクト格納部170は、オブジェクトデータがオブジェクトとして表示パネル120に表示されている間にユーザによって修正や編集がなされた場合には、修正や編集によって更新されたオブジェクトデータを格納する。 The object storage unit 170 is, for example, a storage device composed of an HDD, and stores object data of an object to be displayed on the display panel 120. The object storage unit 170 supplies object data to the calculation unit 150 in response to a request from the calculation unit 150. Further, when the object data is modified or edited by the user while the object data is displayed as an object on the display panel 120, the object storage unit 170 stores the object data updated by the modification or editing.

メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、表示システムを制御するための制御プログラムの他にも、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。通信ユニット190は、例えば無線LANユニットであるネットワーク接続ユニットを含む。演算部150は、通信ユニット190を介して、インターネット300に接続された外部装置との間で各種データを授受することができる。また、通信ユニット190は、例えばBluetooth(登録商標)である近距離通信ユニットを含んでも良い。近距離通信ユニットを有する場合には、周囲に配置された外部装置と直接的にデータを授受することができる。 The memory 180 is a non-volatile storage medium, and for example, a solid state drive is used. The memory 240 stores various parameter values, functions, look-up tables, etc. used for control in addition to the control program for controlling the display system. The communication unit 190 includes, for example, a network connection unit which is a wireless LAN unit. The calculation unit 150 can exchange various data with and from an external device connected to the Internet 300 via the communication unit 190. Further, the communication unit 190 may include, for example, a short-range communication unit which is Bluetooth (registered trademark). When it has a short-range communication unit, it can directly exchange data with an external device arranged around it.

演算部150は、例えばCPUであり、表示システムの全体を制御する。また、演算部150は、制御や処理に関わる様々な演算を実行する機能処理部としての役割も担う。計算部151および制御部152は、機能処理部の例である。計算部151は、マイク110で集音された音声の到達時間のずれに基づいて表示パネル120の周囲に居るユーザの人数とそれぞれの位置を計算する計算処理を実行する。制御部152は、計算部151が計算したユーザの人数と位置に基づいて、表示対象のオブジェクトの表示位置と向きを調整して映像信号を生成し、表示パネル120に表示する表示制御処理を実行する。 The calculation unit 150 is, for example, a CPU and controls the entire display system. The arithmetic unit 150 also plays a role as a functional processing unit that executes various operations related to control and processing. The calculation unit 151 and the control unit 152 are examples of functional processing units. The calculation unit 151 executes a calculation process for calculating the number of users around the display panel 120 and their respective positions based on the difference in the arrival time of the voice collected by the microphone 110. The control unit 152 adjusts the display position and orientation of the object to be displayed based on the number and position of users calculated by the calculation unit 151 to generate a video signal, and executes a display control process for displaying on the display panel 120. To do.

表示テーブル100は、通信ユニット250を介してインターネット300に接続されている。インターネット300には、表示テーブル100と共に表示システムを構成する装置としての音声解析装置310とオブジェクト格納装置320が接続されている。 The display table 100 is connected to the Internet 300 via the communication unit 250. A voice analysis device 310 and an object storage device 320 as devices constituting the display system are connected to the Internet 300 together with the display table 100.

音声解析装置310は、例えばサーバによって構成され、表示テーブル100から受け取った音声データをテキスト化して単語分析を施し、DNNモデルやロジスティック回帰モデルを用いて当該音声データの内容を識別する。そして、識別した内容から演算部150が処理可能な処理を抽出して処理コマンドに変換し、表示テーブル100へ送り返す。つまり、演算部150は、マイク110で集音した音声の内容を識別する場合に、その音声データを音声解析装置310へ送ると、音声解析装置310から処理コマンドを受け取ることができる。このような一連の処理により、ユーザは、オブジェクトの表示に関して希望する処理を発声すると、発声内容に応じてオブジェクトの表示位置や向き、大きさを変えることができる。このような言語処理は、比較的負荷の大きい処理であるので、専用の外部装置で実行することが好ましい。 The voice analysis device 310 is configured by, for example, a server, converts voice data received from the display table 100 into text, performs word analysis, and identifies the content of the voice data using a DNN model or a logistic regression model. Then, the processing unit 150 extracts the processing that can be processed from the identified contents, converts it into a processing command, and sends it back to the display table 100. That is, when the arithmetic unit 150 identifies the content of the voice collected by the microphone 110 and sends the voice data to the voice analysis device 310, the calculation unit 150 can receive a processing command from the voice analysis device 310. Through such a series of processes, when the user utters a desired process for displaying the object, the display position, orientation, and size of the object can be changed according to the utterance content. Since such language processing is a process with a relatively large load, it is preferable to execute it in a dedicated external device.

オブジェクト格納装置320は、例えばHDDによって構成されている記憶装置であり、オブジェクト格納部170と同様に、表示パネル120へ表示するオブジェクトのオブジェクトデータを格納している。オブジェクト格納装置320は、演算部150の要求に応じてオブジェクトデータを演算部150へ供給する。例えば、ユーザは、不図示のパソコンで作成した電子ファイルを、インターネット300を介してオブジェクト格納装置320へ格納しておけば、当該電子ファイルを展開した資料を表示パネル120へ表示させることができる。また、オブジェクト格納装置320は、特定の表示テーブル100に限らず他の表示テーブルからもアクセスできるので、複数の表示テーブルにおいて汎用的に利用されるオブジェクトを格納しておく場合に好適である。なお、表示システムとしては、オブジェクトを格納する機能をオブジェクト格納部170とオブジェクト格納装置320の一方に集約して、他方を設けないように構成しても良い。 The object storage device 320 is a storage device composed of, for example, an HDD, and stores object data of an object to be displayed on the display panel 120, similarly to the object storage unit 170. The object storage device 320 supplies object data to the calculation unit 150 in response to a request from the calculation unit 150. For example, if a user stores an electronic file created by a personal computer (not shown) in the object storage device 320 via the Internet 300, the user can display the expanded material of the electronic file on the display panel 120. Further, since the object storage device 320 can be accessed not only from the specific display table 100 but also from other display tables, it is suitable for storing objects that are generally used in a plurality of display tables. The display system may be configured such that the functions for storing objects are integrated in one of the object storage unit 170 and the object storage device 320, and the other is not provided.

次に、このような表示システムがオブジェクトをどのように表示パネル120に表示するかについて説明する。図3は、ユーザとオブジェクト表示の関係を示す図であり、表示テーブル100を上方から見下ろした様子を示している。図示するように、本実施例においては円形の天板のほぼ全域が表示パネル120の表示面になっており、その周囲に120°の等間隔で3つのマイク110a、110b、110cが配置されている。表示テーブル100の周囲には複数人のユーザが着座できるスペースがあるが、図示する例では、ユーザA、ユーザB、ユーザCの三人が表示パネル120を取り囲むように着座している。 Next, how such a display system displays an object on the display panel 120 will be described. FIG. 3 is a diagram showing the relationship between the user and the object display, and shows a state in which the display table 100 is viewed from above. As shown in the figure, in this embodiment, almost the entire area of the circular top plate is the display surface of the display panel 120, and three microphones 110a, 110b, and 110c are arranged around the display panel 120 at equal intervals of 120 °. There is. There is a space around the display table 100 in which a plurality of users can be seated. In the illustrated example, three users, user A, user B, and user C, are seated so as to surround the display panel 120.

表示パネル120の表示面において、その中央の座標を(x,y)=(0,0)と定め、図の右方向をx軸、上方向をy軸と定める。また、z軸は図に対して手前方向と定める。それぞれのマイク110a、110b、110cの座標は既知であり、音速を一定値として、あるユーザPが発した音声がそれぞれのマイクに到達した時間の時間差を計測すれば、そのユーザPの口元の三次元座標(x,y,z)を計算できる。計算部151は、3つのマイク110a、110b、110cで集音された音声波形を時間軸方向にシフトしてマッチング処理を実行することにより時間差を同定する。このとき、計算部151は、複数のユーザが同時に発声した場合などにおいては、周波数情報を用いてユーザごとの音声波形に分離してからマッチング処理を行っても良い。本実施例においては、表示パネル120に対してユーザがどの方向に存在するかを知りたいので、算出されたz座標は用いないこととし、ユーザPの位置を(x,y)とする。 On the display surface of the display panel 120, the coordinates at the center thereof are defined as (x, y) = (0,0), the right direction of the figure is defined as the x-axis, and the upward direction is defined as the y-axis. Further, the z-axis is defined as the front direction with respect to the figure. The coordinates of the microphones 110a, 110b, and 110c are known, and if the time difference in the time when the voice emitted by a user P reaches each microphone is measured with the speed of sound as a constant value, the third order of the mouth of the user P is measured. The original coordinates (x p , y p , z p ) can be calculated. The calculation unit 151 identifies the time difference by shifting the voice waveforms collected by the three microphones 110a, 110b, and 110c in the time axis direction and executing the matching process. At this time, when a plurality of users utter at the same time, the calculation unit 151 may perform the matching process after separating the voice waveforms for each user by using the frequency information. In this embodiment, since it is desired to know in which direction the user exists with respect to the display panel 120, the calculated z-coordinate is not used, and the position of the user P is (x p , y p ). ..

このようにして計算部151は、ユーザAの発声からユーザAの位置(x、y)、ユーザBの発声からユーザBの位置(x、y)、ユーザCの発声からユーザCの位置(x、y)を計算する。計算部151は、それぞれのユーザの発声に対して位置計算を実行することにより、結果的に表示パネル120の周囲に居るユーザの人数もカウントすることができる。 Calculation unit 151 in this manner, the position of the user A from the user utterances A (x a, y a) , the position of the user B from the user utterances B (x b, y b) , the user C from the user utterances C The position of (x c , y c ) is calculated. The calculation unit 151 can count the number of users around the display panel 120 as a result by executing the position calculation for each user's utterance.

制御部152は、計算部151からそれぞれのユーザの位置座標を受け取ったら、表示対象であるオブジェクトをその位置座標に対応するように表示位置と向きを調整して表示パネル120に表示する。具体的には図示するように、ユーザAに対してオブジェクト801aを、ユーザBに対してオブジェクト801bを、ユーザCに対してオブジェクト801cを、それぞれのユーザの前で正対するように位置と向きを調整して表示する。なお、オブジェクト801a、801b、801cは、同一内容のオブジェクトである。それぞれのユーザに対する表示位置は、オブジェクトの大きさや解像度、表示パネル120からユーザまでの距離等の条件に応じて決定される。それらの条件に応じて快適とされる表示位置は、例えば事前に実験を通じて検証され、ルックアップテーブル化されている。制御部152は、このようなルックアップテーブルを参照して表示位置を決定することができる。 When the control unit 152 receives the position coordinates of each user from the calculation unit 151, the control unit 152 adjusts the display position and orientation so as to correspond to the position coordinates of the object to be displayed, and displays the object on the display panel 120. Specifically, as shown in the figure, the position and orientation of the object 801a for the user A, the object 801b for the user B, and the object 801c for the user C so as to face each user in front of each user. Adjust and display. The objects 801a, 801b, and 801c are objects having the same contents. The display position for each user is determined according to conditions such as the size and resolution of the object, the distance from the display panel 120 to the user, and the like. The display positions that are comfortable according to these conditions are verified in advance through experiments, for example, and are made into a look-up table. The control unit 152 can determine the display position with reference to such a look-up table.

本実施例によれば、それぞれのユーザは、自身にとって最適な位置にオブジェクトが表示されることになるので、その内容を容易に把握することができる。また、同一内容のオブジェクトがそれぞれのユーザの前に表示されるので、同席するユーザ間で情報をいち早く共有することができる。なお、例えば表示対象であるオブジェクトがA4縦の書類であれば、制御部152は、当該オブジェクトをそれぞれのユーザに対して縦方向にA4の大きさ100%で表示する。タッチパネル130や音声指示によって位置、大きさ、向きの変更が指示されたら、制御部152は、その指示に応じてシフト処理、拡縮処理、回転処理を施す。 According to this embodiment, each user can easily grasp the contents of the object because the object is displayed at the optimum position for himself / herself. In addition, since objects with the same content are displayed in front of each user, information can be shared quickly among the users present. For example, if the object to be displayed is an A4 vertical document, the control unit 152 displays the object to each user in the vertical direction with an A4 size of 100%. When a change in position, size, or orientation is instructed by the touch panel 130 or a voice instruction, the control unit 152 performs shift processing, scaling processing, and rotation processing in response to the instruction.

なお、計算部151は、ユーザの発声がマイク110a、110b、110cで集音されなければ、当該ユーザの位置を計算できず、そもそもその存在を把握することもできない。そこで、演算部150は、例えば表示テーブル100の起動時に初期動作として、表示テーブル100の周囲に居る一人一人のユーザに発声を促す催促音声をスピーカー140から発することができる。例えば、「一問ずつクイズを出しますので、順番に答えて下さい」などと、簡単なクイズを数題出題する。マイク110a、110b、110cは、それらに対する返答を各ユーザの音声として取得する。催促音声は、初期動作の一環として発する場合に限らず、例えば、認識しているユーザの位置とタッチパネル130の接触位置に齟齬が検出された場合などに発しても良い。 Note that the calculation unit 151 cannot calculate the position of the user unless the user's utterance is collected by the microphones 110a, 110b, 110c, and cannot grasp the existence of the user in the first place. Therefore, for example, when the display table 100 is activated, the calculation unit 150 can emit a reminder voice urging each user around the display table 100 to utter from the speaker 140 as an initial operation. For example, ask a few simple quizzes, such as "I will give you a quiz one by one, so please answer in order." The microphones 110a, 110b, 110c acquire the response to them as the voice of each user. The reminder voice is not limited to the case where it is emitted as a part of the initial operation, and may be emitted, for example, when a discrepancy is detected between the position of the recognizing user and the contact position of the touch panel 130.

図4は、図3に示す状態から一部のユーザが移動した場合のオブジェクト表示の変化を示す図である。図3と同様に、表示テーブル100を上方から見下ろした様子を示している。 FIG. 4 is a diagram showing a change in the object display when a part of the users move from the state shown in FIG. Similar to FIG. 3, the display table 100 is shown looking down from above.

表示テーブル100が起動されると、マイク110a、110b、110cは、継続的に集音を行い、計算部151は、マイクからの音声信号を用いて周期的にユーザの人数と位置を計算する。例えば、ユーザBが椅子をずらすなどして矢印方向へ移動するとその発声位置も変化するので、計算部151は、ユーザBの位置を(x’、y’)であると再計算する。ユーザBの位置が再計算されると、制御部152は、オブジェクト801bの表示位置と向きを再調整する。なお、ユーザの位置の変化量(例えば、変化前の位置から変化後の位置までの距離)が基準量に満たない場合は、オブジェクトが小さく揺れ動くことを防ぐべく、表示位置と向きの再調整を行わないことが好ましい。 When the display table 100 is activated, the microphones 110a, 110b, and 110c continuously collect sound, and the calculation unit 151 periodically calculates the number and position of users using the audio signal from the microphone. For example, since the user B also changes its utterance position when moved in the arrow direction by such shifting chairs, calculation unit 151 recalculates the position of the user B as the (x 'b, y' b ). When the position of the user B is recalculated, the control unit 152 readjusts the display position and the orientation of the object 801b. If the amount of change in the user's position (for example, the distance from the position before the change to the position after the change) is less than the reference amount, readjust the display position and orientation to prevent the object from shaking slightly. It is preferable not to do so.

図5は、図4に示す状態から一部のユーザが退去した場合のオブジェクト表示の変化を示す図である。図4と同様に、表示テーブル100を上方から見下ろした様子を示している。 FIG. 5 is a diagram showing a change in the object display when a part of the users move out from the state shown in FIG. Similar to FIG. 4, the display table 100 is shown looking down from above.

計算部151は、上述のようにユーザの人数と位置を周期的に計算していると、それまで確認できていたユnーザの存在がある時点から確認できなくなることがある。このような場合には、当該ユーザが退去したものと判断して、制御部152は、対応するオブジェクトを消去する。例えば、図示するようにユーザAの位置が確認できなくなった場合は、ユーザAに対してそれまで表示していたオブジェクト801aを消去する。なお、ユーザが継続して存在する場合でも発声が途絶えると、計算部151は、そのユーザの位置を計算することができない。そこで、制御部152は、計算部151が一定時間(例えば15分)の間に一度も対象ユーザの位置を計算できなかった場合に当該ユーザが退去したと判断して、対象となるオブジェクトを消去すると良い。この場合に、演算部150は、一定時間が経過する前に、スピーカー140から対象ユーザに向けて催促音声を発しても良い。なお、発話音声をスピーカー140から発する場合は、他のユーザが発声していないタイミングに行うことが好ましい。 If the calculation unit 151 periodically calculates the number and position of users as described above, the existence of the user, which has been confirmed up to that point, may not be confirmed from a certain point in time. In such a case, the control unit 152 deletes the corresponding object by determining that the user has moved out. For example, when the position of the user A cannot be confirmed as shown in the figure, the object 801a that has been displayed to the user A up to that point is deleted. Even if the user continues to exist, if the utterance is interrupted, the calculation unit 151 cannot calculate the position of the user. Therefore, if the calculation unit 151 cannot calculate the position of the target user even once within a certain period of time (for example, 15 minutes), the control unit 152 determines that the user has moved out and deletes the target object. Then it is good. In this case, the calculation unit 150 may emit a reminder voice from the speaker 140 to the target user before a certain period of time elapses. When the uttered voice is emitted from the speaker 140, it is preferable to emit the spoken voice at a timing when another user is not uttering.

また、ある時点から更に別のユーザが加わる状況も考え得る。計算部151がそれまで確認できていなかった位置にある時点からユーザの存在が確認した場合には、制御部152は、当該ユーザの位置に応じて新たなオブジェクトを表示位置と向きを調整して表示する。このように、ユーザの増減に応じてオブジェクト表示の調整を行うために、計算部151は、一旦存在を確認したユーザについては、その位置を継続的に監視し、軌跡情報として記録しておくことが好ましい。軌跡情報を記録しておくことで、制御部152は、例えば、対象ユーザが移動したのか新たに現れたのかを判断することができる。 It is also possible that another user will be added from a certain point in time. When the existence of the user is confirmed from the time when the calculation unit 151 is in a position that could not be confirmed so far, the control unit 152 adjusts the display position and orientation of a new object according to the position of the user. indicate. In this way, in order to adjust the object display according to the increase or decrease of the user, the calculation unit 151 continuously monitors the position of the user whose existence has been confirmed and records it as trajectory information. Is preferable. By recording the locus information, the control unit 152 can determine, for example, whether the target user has moved or newly appeared.

図6は、図3の状態において音声指示を認識した場合のオブジェクト表示の変化の一例を示す図である。図3と同様に、表示テーブル100を上方から見下ろした様子を示している。 FIG. 6 is a diagram showing an example of a change in the object display when a voice instruction is recognized in the state of FIG. Similar to FIG. 3, the display table 100 is shown looking down from above.

演算部150は、マイク110a、110b、110cからの音声信号を継続的に音声解析装置310へ転送し、音声解析装置310は、その中から処理に関する指示を抽出した場合に処理コマンドに変換して演算部150へ送り返す。例えば、ユーザAが「倍の大きさに拡大表示して」と指示した場合には、演算部150は、音声解析装置310からオブジェクトの大きさを倍にする旨の処理コマンドを受け取る。制御部152は、その処理コマンドに従って、それまで表示していたオブジェクト801aを2倍に拡大したオブジェクト802aを、ユーザAにとって見やすい位置と向きに調整して表示する。なお、「倍の大きさに拡大表示」と発声した人物がユーザAであることは、計算部151が計算したその発声位置と、それまでのユーザAの位置とを比較することによって確認される。 The calculation unit 150 continuously transfers the voice signals from the microphones 110a, 110b, and 110c to the voice analysis device 310, and the voice analysis device 310 converts them into processing commands when an instruction regarding processing is extracted from the signals. It is sent back to the calculation unit 150. For example, when the user A instructs to "enlarge the display to double the size", the calculation unit 150 receives a processing command from the voice analysis device 310 to double the size of the object. According to the processing command, the control unit 152 adjusts and displays the object 802a, which is a double-enlarged object 801a that has been displayed so far, in a position and orientation that is easy for the user A to see. It should be noted that the fact that the person who utters "enlarged display to double the size" is the user A is confirmed by comparing the utterance position calculated by the calculation unit 151 with the position of the user A up to that point. ..

制御部152は、オブジェクト802aを調整した位置と向きに表示する場合に、オブジェクト802aとそれまでに表示していた他のオブジェクトが重なると判断したときには、それまで表示していた他のオブジェクトを消去する。このように、音声指示によって調整されたオブジェクトの表示を優先することにより、ユーザの意図に即したオブジェクト表示を実現することができる。 When the control unit 152 determines that the object 802a and the other objects displayed up to that point overlap with each other when the object 802a is displayed in the adjusted position and orientation, the control unit 152 deletes the other objects displayed up to that point. To do. In this way, by giving priority to the display of the object adjusted by the voice instruction, it is possible to realize the object display according to the user's intention.

次に、第1実施例に係る表示システムの処理フローについて説明する。図7は、当該処理フローを示すフロー図である。図示するフローは、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。図のフローは、表示テーブル100が起動された時点から開始する。 Next, the processing flow of the display system according to the first embodiment will be described. FIG. 7 is a flow chart showing the processing flow. The illustrated flow describes the process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. The flow of the figure starts from the time when the display table 100 is started.

マイク110は、ステップS101で、音声の取得を開始する。取得した音声は音声信号に変換して計算部151と音声解析装置310へ引き渡す。初期動作時においては、演算部150は、スピーカー140から催促音声を発しても良い。 The microphone 110 starts acquiring voice in step S101. The acquired voice is converted into a voice signal and handed over to the calculation unit 151 and the voice analysis device 310. At the time of initial operation, the calculation unit 150 may emit a reminder voice from the speaker 140.

計算部151は、ステップS102で、マイク110から受け取った音声信号を用いて表示テーブル100の周囲に居るユーザの人数と位置を計算する。その計算結果を受けて、制御部152は、ステップS103で、それぞれのユーザが視認しやすいように各オブジェクトの表示位置と向きを整えて表示パネル120に表示する。なお、ステップS102において計算部151により算出されたあるユーザの位置が前回算出された位置の近傍である場合には、ステップS103において制御部152は、そのユーザに対するオブジェクトの表示調整をスキップする。 In step S102, the calculation unit 151 calculates the number and positions of users around the display table 100 using the audio signal received from the microphone 110. In response to the calculation result, the control unit 152 arranges the display position and orientation of each object and displays them on the display panel 120 in step S103 so that each user can easily see them. If the position of a certain user calculated by the calculation unit 151 in step S102 is near the position calculated last time, the control unit 152 skips the display adjustment of the object for the user in step S103.

ステップS104へ進み、演算部150は、ユーザから表示の変更指示があったか否かを確認する。具体的には、ステップS101で音声解析装置310へ送った音声信号に対して、音声解析装置310から処理コマンドが送られてきたかを確認する。あるいは、タッチパネル130が操作されたか否かを確認する。処理コマンドが送られてきている場合またはタッチパネル130が操作された場合には、ステップS105へ進む。処理コマンドが送られてきていない場合またはタッチパネル130が操作されていない場合にはステップS105をスキップしてステップS106へ進む。ステップS105へ進んだ場合は、制御部152は、当該処理コマンドまたはタッチパネル130の操作に従ってオブジェクトの表示位置、向き、大きさなどを調整して表示パネル120の表示を更新する。表示の更新を終えたらステップS106へ進む。 Proceeding to step S104, the calculation unit 150 confirms whether or not the user has instructed to change the display. Specifically, it is confirmed whether or not a processing command has been sent from the voice analysis device 310 to the voice signal sent to the voice analysis device 310 in step S101. Alternatively, it is confirmed whether or not the touch panel 130 has been operated. If a processing command has been sent or the touch panel 130 has been operated, the process proceeds to step S105. If the processing command has not been sent or the touch panel 130 has not been operated, step S105 is skipped and the process proceeds to step S106. When the process proceeds to step S105, the control unit 152 adjusts the display position, orientation, size, etc. of the object according to the processing command or the operation of the touch panel 130, and updates the display on the display panel 120. When the update of the display is completed, the process proceeds to step S106.

演算部150は、ステップS106で、表示終了の指示を受け付けたか否かを確認する。受け付けていなければステップS101へ戻る。受け付けていれば、終了処理を実行して一連の処理を終了する。 In step S106, the calculation unit 150 confirms whether or not the instruction to end the display has been received. If not accepted, the process returns to step S101. If it is accepted, the end process is executed to end the series of processes.

次に第2実施例について説明する。第2実施例に係る表示システムは、第1実施例に係る表示システムの構成と同様であるので、全体構成の説明は省略する。第2実施例では、ユーザの数が増えた場合にオブジェクトをどのように表示するかについて特に言及する。第2実施例の表示態様は、第1実施例の表示態様に加えて、あるいは第1実施例の一部の表示態様を変更して実施し得る。 Next, the second embodiment will be described. Since the display system according to the second embodiment is the same as the configuration of the display system according to the first embodiment, the description of the overall configuration will be omitted. In the second embodiment, how to display the object when the number of users increases will be specifically mentioned. The display mode of the second embodiment may be implemented in addition to the display mode of the first embodiment or by changing a part of the display mode of the first embodiment.

図8は、第2実施例に係るユーザとオブジェクト表示の関係を示す図であり、図3と同様に表示テーブル100を上方から見下ろした様子を示している。図8に示す例では、図3の例と比較して更にユーザDが加わっている。ユーザDは、ユーザAとユーザBの間に位置し、この3人は比較的詰めた状態で着座していると言える。 FIG. 8 is a diagram showing the relationship between the user and the object display according to the second embodiment, and shows a state in which the display table 100 is looked down from above in the same manner as in FIG. In the example shown in FIG. 8, the user D is further added as compared with the example of FIG. User D is located between User A and User B, and it can be said that these three are seated in a relatively packed state.

このような状況においても、表示するオブジェクトが表示パネル120に対して比較的小さければ、図3の表示態様と同様に、制御部152は、それぞれのユーザの前に各オブジェクトを100%の大きさで適切に表示することができる。図8の例では、制御部152は、A4縦の書類であるオブジェクト801dを、他のユーザと同様に、ユーザDの前に100%の大きさで縦方向に表示する。 Even in such a situation, if the objects to be displayed are relatively small with respect to the display panel 120, the control unit 152 makes each object 100% larger in front of each user, as in the display mode of FIG. Can be displayed properly with. In the example of FIG. 8, the control unit 152 vertically displays the object 801d, which is an A4 vertical document, in front of the user D in a size of 100% like other users.

しかし、表示するオブジェクトが大きくなると、ユーザが比較的詰めた状態で着座している場合には、各オブジェクトを互いに重なることなくそれぞれのユーザの前に表示させることができなくなる。図9は、表示するオブジェクトが大きい場合のユーザとオブジェクト表示の関係を示す図である。ユーザAからDの着座位置は図8の例と同様であるが、表示対象がA4縦の書類のオブジェクトから、A3横の書類のオブジェクトに変更されている。 However, when the objects to be displayed become large, when the users are seated in a relatively packed state, the objects cannot be displayed in front of each user without overlapping each other. FIG. 9 is a diagram showing the relationship between the user and the object display when the object to be displayed is large. The seating positions of users A to D are the same as in the example of FIG. 8, but the display target is changed from the object of the A4 vertical document to the object of the A3 horizontal document.

図示するように、各ユーザの前にA3横の書類のオブジェクトをそれぞれ100%の大きさで表示しようとすると、それぞれ点線で図示するオブジェクト803aとオブジェクト803dが、また、オブジェクト803dとオブジェクト803bが互いに重なり合ってしまう。そこで、制御部152は、オブジェクトどうしが重なり合う場合には、重なり合う複数のオブジェクトに対するユーザをひとつのグループと認識し、重なり合う複数のオブジェクトに替えて、当該グループの基準位置に対応する位置と向きにひとつのオブジェクトを表示する。 As shown in the figure, when trying to display the objects of the document next to A3 in 100% size in front of each user, the objects 803a and 803d shown by the dotted lines, and the objects 803d and 803b are shown with each other. It overlaps. Therefore, when the objects overlap each other, the control unit 152 recognizes the user for the overlapping plurality of objects as one group, replaces the overlapping objects with one, and one position and direction corresponding to the reference position of the group. Display the object of.

具体的には、オブジェクト803a、803b、803cが重なり合うので、制御部152は、これらのオブジェクトに対するユーザであるユーザA、B、Dを同一グループと認識する。ユーザA、B、Dの位置座標は計算部151によって算出されているので、これらの座標に基づいてグループの基準位置を算出する。グループの基準位置は予め定義されており、例えば、それぞれのユーザの位置座標を極座標に変換し、これらの平均値となる距離および偏角に対する位置を基準位置(x,y)と定める。制御部152は、このように算出した基準位置に対して表示位置と向きが最適となるように、オブジェクト803sを表示する。このようにオブジェクト803sを表示すれば、同一グループの各ユーザに対して、ある程度の見やすさを確保できる。また、図の例であれば、ユーザAとユーザBがユーザDに近寄ってオブジェクト803sを見ることも期待できる。 Specifically, since the objects 803a, 803b, and 803c overlap, the control unit 152 recognizes the users A, B, and D who are users for these objects as the same group. Since the position coordinates of the users A, B, and D are calculated by the calculation unit 151, the reference position of the group is calculated based on these coordinates. The reference position of the group is defined in advance. For example, the position coordinates of each user are converted into polar coordinates, and the position with respect to the distance and the declination that becomes the average value of these is defined as the reference position (x s , y s ). The control unit 152 displays the object 803s so that the display position and the orientation are optimal with respect to the reference position calculated in this way. By displaying the object 803s in this way, it is possible to secure a certain degree of visibility for each user in the same group. Further, in the example of the figure, it can be expected that the user A and the user B approach the user D and see the object 803s.

図10は、表示するオブジェクトが大きい場合のユーザとオブジェクト表示の別例を示す図である。図9の例では、同一グループと認識した複数のユーザに対して、1つのオブジェクトを100%の大きさで表示したが、重なっていたオブジェクトを表示しないことによってスペースが生じている。そこで、図10の例においては、制御部152は、この余剰スペースを利用して、表示するオブジェクトを拡大する。具体的には、図9のオブジェクト803sに対し、向きはそのままに拡大したオブジェクト804sを、その全体が表示されるように位置を調整して表示する。 FIG. 10 is a diagram showing another example of the user and the object display when the object to be displayed is large. In the example of FIG. 9, one object is displayed in a size of 100% for a plurality of users who are recognized as the same group, but a space is created by not displaying the overlapping objects. Therefore, in the example of FIG. 10, the control unit 152 uses this surplus space to enlarge the object to be displayed. Specifically, with respect to the object 803s of FIG. 9, the object 804s enlarged with the same orientation is displayed by adjusting the position so that the entire object is displayed.

拡大率は、余剰スペースと、同一グループに属さない他のユーザ(図の例ではユーザC)のオブジェクト(同じくオブジェクト803c)に重ならないことを考慮して決定される。図示するように拡大されたオブジェクト804sを表示すれば、図9のオブジェクト803sより視認性が向上する。なお、オブジェクト804sの内容は、同時に表示されているオブジェクト803cと同一である。 The enlargement ratio is determined in consideration of not overlapping the surplus space and the object (also object 803c) of another user (user C in the example of the figure) that does not belong to the same group. If the enlarged object 804s is displayed as shown in the figure, the visibility is improved as compared with the object 803s of FIG. The content of the object 804s is the same as that of the object 803c displayed at the same time.

図10の表示態様は、オブジェクトを100%の大きさで表示しようとしたときに隣接するオブジェクトと重なり合ってしまう場合に限らない。例えば、図8の態様でA4縦の書類のオブジェクトを100%の大きさで表示していているときにユーザから拡大表示の指示を受けた場合に、その拡大率で表示しようとすると隣接するオブジェクトと重なり合ってしまう場合にも図10の表示態様を採用し得る。 The display mode of FIG. 10 is not limited to the case where an object overlaps with an adjacent object when an attempt is made to display the object at 100% size. For example, when an object of an A4 vertical document is displayed in a size of 100% in the aspect of FIG. 8, when a user gives an instruction for enlargement display, an adjacent object is displayed at the enlargement ratio. The display mode of FIG. 10 can be adopted even when they overlap with each other.

図8の状態において例えばユーザAが、音声指示あるいはタッチパネル操作の指示により、オブジェクト801aを200%に拡大する指示を行った場合に、そのままオブジェクト801aが拡大されてしまうと隣接するオブジェクト801dと重なってしまう。そこで、制御部152は、まずオブジェクト801a、801dを消去し、ユーザAとユーザDを同一グループと認識して基準位置を算出し、その基準位置に即して200%に拡大したオブジェクトを表示する。すなわち、制御部152は、オブジェクトを拡大させる指示をユーザから受け付けた場合に、拡大したオブジェクトが隣接するオブジェクトと重なり合うときには、拡大したひとつのオブジェクトを表示する。 In the state of FIG. 8, for example, when the user A gives an instruction to enlarge the object 801a to 200% by a voice instruction or a touch panel operation instruction, if the object 801a is enlarged as it is, it overlaps with the adjacent object 801d. It ends up. Therefore, the control unit 152 first erases the objects 801a and 801d, recognizes the user A and the user D as the same group, calculates the reference position, and displays the object enlarged to 200% according to the reference position. .. That is, when the control unit 152 receives an instruction to enlarge an object from the user and the enlarged object overlaps with an adjacent object, the control unit 152 displays one enlarged object.

次に、第2実施例に係る表示システムの処理フローについて説明する。図11は、当該処理フローを示すフロー図である。図示するフローは、図7のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the second embodiment will be described. FIG. 11 is a flow chart showing the processing flow. Similar to the flow of FIG. 7, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. Further, the same processing as the flow of FIG. 7 is given the same step number, and the description thereof will be omitted unless otherwise specified.

ステップS101でマイク110が音声の取得を開始し、ステップS102で計算部151が表示テーブル100の周囲に居るユーザの人数と位置を計算したら、ステップS203へ進む。制御部152は、ステップS203で、それぞれのユーザが視認しやすいように各オブジェクトの表示位置と向きを整えて表示パネル120に表示可能か試みる。具体的には、初期設定であれば各オブジェクトを100%の大きさで表示可能かを試みる。すでに大きさの指示を受けていたり設定が変更されていたりする場合には、各オブジェクトをその大きさで表示可能かを試みる。ステップS204へ進み、制御部152は、各オブジェクトの配置を調整した結果、一部でも重なり合うオブジェクトが存在するか否かを判断し、重なり合わないと判断した場合にはステップS205へ進み、重なり合うと判断した場合にはステップS206へ進む。 In step S101, the microphone 110 starts acquiring voice, and in step S102, the calculation unit 151 calculates the number and positions of users around the display table 100, and then proceeds to step S203. In step S203, the control unit 152 arranges the display position and orientation of each object so that each user can easily see them, and attempts to display on the display panel 120. Specifically, if it is the initial setting, it tries to display each object at 100% size. If you have already received a size instruction or the settings have been changed, try to display each object in that size. Proceeding to step S204, the control unit 152 determines whether or not there are any overlapping objects as a result of adjusting the arrangement of the objects, and if it is determined that they do not overlap, the process proceeds to step S205, and when they overlap. If it is determined, the process proceeds to step S206.

ステップS205へ進んだ場合には、制御部152は、図8に示すように、各ユーザの位置から快適に視認できるよう、それぞれのオブジェクトを表示位置と向きを調整して表示パネル120に表示する。その後、ステップS104へ進む。 When the process proceeds to step S205, as shown in FIG. 8, the control unit 152 adjusts the display position and orientation of each object and displays them on the display panel 120 so that the objects can be comfortably viewed from each user's position. .. Then, the process proceeds to step S104.

ステップS206へ進んだ場合には、制御部152は、隣接するオブジェクトと互いに重なり合うオブジェクトを抽出する。そして、これらのオブジェクトのそれぞれに対応するユーザをひとつのユーザグループと判断する。さらにステップS207へすすみ、制御部152は、ユーザグループに属したそれぞれのユーザの位置座標から基準位置を算出し、その基準位置に合せて、図9に示すように、表示位置と向きを調整したひとつのオブジェクトを表示パネル120に表示する。なお、この段階で、図10に示すように、余剰スペースを利用して拡大表示を行っても良い。その後、ステップS104へ進む。 When the process proceeds to step S206, the control unit 152 extracts objects that overlap each other with adjacent objects. Then, the users corresponding to each of these objects are determined as one user group. Further proceeding to step S207, the control unit 152 calculates a reference position from the position coordinates of each user belonging to the user group, and adjusts the display position and orientation according to the reference position as shown in FIG. One object is displayed on the display panel 120. At this stage, as shown in FIG. 10, the surplus space may be used for enlarged display. Then, the process proceeds to step S104.

ステップS104で演算部150がユーザから変更指示があったと確認した場合には、ステップS213へ進む。ステップS213では、確認された処理コマンドまたはタッチパネル130の操作に従って各オブジェクトの表示位置と向きを整え、表示パネル120に表示可能か試みる。 When the calculation unit 150 confirms that the user has instructed the change in step S104, the process proceeds to step S213. In step S213, the display position and orientation of each object are adjusted according to the confirmed processing command or the operation of the touch panel 130, and an attempt is made to see if the objects can be displayed on the display panel 120.

ステップS214へ進み、制御部152は、各オブジェクトの配置を調整した結果、一部でも重なり合うオブジェクトが存在するか否かを判断し、重なり合わないと判断した場合にはステップS215へ進み、重なり合うと判断した場合にはステップS216へ進む。 Proceeding to step S214, the control unit 152 determines whether or not there are any overlapping objects as a result of adjusting the arrangement of the objects, and if it is determined that they do not overlap, proceeds to step S215 and when they overlap. If it is determined, the process proceeds to step S216.

ステップS215へ進んだ場合には、制御部152は、各ユーザの位置から快適に視認できるよう、ユーザからの変更指示に即してそれぞれのオブジェクトを表示位置と向きを調整して表示パネル120に表示する。その後、ステップS106へ進む。 When the process proceeds to step S215, the control unit 152 adjusts the display position and orientation of each object according to the change instruction from the user so that the object can be visually recognized comfortably from the position of each user, and displays the object on the display panel 120. indicate. Then, the process proceeds to step S106.

ステップS216へ進んだ場合には、制御部152は、隣接するオブジェクトと互いに重なり合うオブジェクトを抽出する。そして、これらのオブジェクトのそれぞれに対応するユーザをひとつのユーザグループと判断する。さらにステップS217へすすみ、制御部152は、ユーザグループに属したそれぞれのユーザの位置座標から基準位置を算出し、その基準位置とユーザからの変更指示に即して表示位置と向きを調整して、オブジェクトを表示パネル120に表示する。その後、ステップS106へ進む。演算部150は、ステップS106で、終了指示に関する判断を行う。 When the process proceeds to step S216, the control unit 152 extracts objects that overlap each other with adjacent objects. Then, the users corresponding to each of these objects are determined as one user group. Further proceeding to step S217, the control unit 152 calculates a reference position from the position coordinates of each user belonging to the user group, and adjusts the display position and orientation according to the reference position and the change instruction from the user. , Display the object on the display panel 120. Then, the process proceeds to step S106. In step S106, the calculation unit 150 determines the end instruction.

次に第3実施例について説明する。第3実施例に係る表示システムは、第1実施例に係る表示システムに一部の要素を加えた構成を有する。第3実施例では、ユーザの個人識別を行い、その結果をオブジェクトの表示調整に反映させる。第3実施例の表示態様は、第1実施例および第2実施例の表示態様に加えて、あるいは第1実施例および第2実施例の一部の表示態様を変更して実施し得る。 Next, a third embodiment will be described. The display system according to the third embodiment has a configuration in which some elements are added to the display system according to the first embodiment. In the third embodiment, the personal identification of the user is performed, and the result is reflected in the display adjustment of the object. The display mode of the third embodiment may be implemented in addition to the display mode of the first embodiment and the second embodiment, or by changing a part of the display mode of the first embodiment and the second embodiment.

図12は、第3実施例に係る表示システムの制御ブロック図である。図2に示す第1実施例に係る表示システムの構成に対して、第3実施例に係る表示システムは、演算部150が識別部153としても機能する点、メモリ180が参照リスト181を記憶している点、インターネット300にユーザ声紋格納装置330が接続されている点、音声解析装置310が判別部311を備える点が異なる。同一の機能を発揮する要素については、図2と同じ符番を付して、その説明を省略する。なお、同一の機能を発揮する要素であっても更に別機能を有する場合には、後に詳述する。 FIG. 12 is a control block diagram of the display system according to the third embodiment. In contrast to the configuration of the display system according to the first embodiment shown in FIG. 2, in the display system according to the third embodiment, the calculation unit 150 also functions as the identification unit 153, and the memory 180 stores the reference list 181. The difference is that the user voiceprint storage device 330 is connected to the Internet 300, and the voice analysis device 310 includes the discrimination unit 311. Elements that exhibit the same function are given the same numbering as in FIG. 2, and the description thereof will be omitted. If elements that exhibit the same function have different functions, they will be described in detail later.

メモリ180は、参照リスト181を記憶している。参照リストは、表示システムを利用する複数のユーザについて、それぞれの個人情報が予め登録されたリストである。リストの内容については後述する。 The memory 180 stores the reference list 181. The reference list is a list in which personal information of each of a plurality of users who use the display system is registered in advance. The contents of the list will be described later.

ユーザ声紋格納装置330は、例えばHDDによって構成されている記憶装置であり、表示システムを利用する複数のユーザのサンプル音声をデータ化したサンプル音声データを格納している。音声データは、声紋ファイルとしてユーザごとに、例えばmp3ファイルとして格納されている。 The user voiceprint storage device 330 is a storage device composed of, for example, an HDD, and stores sample voice data obtained by converting sample voices of a plurality of users who use the display system into data. The voice data is stored as a voiceprint file for each user, for example, as an mp3 file.

音声解析装置310に組み込まれた判別部311は、表示テーブル100から受け取った音声データと、ユーザ声紋格納装置330から読み出した声紋ファイルとを比較する。そして、受け取った音声データの音声が、いずれの声紋ファイルの音声と合致するかを判別し、その判別結果を表示テーブル100へ返す。 The discrimination unit 311 incorporated in the voice analysis device 310 compares the voice data received from the display table 100 with the voiceprint file read from the user voiceprint storage device 330. Then, it is determined which voiceprint file the voice of the received voice data matches with, and the determination result is returned to the display table 100.

識別部153は、音声解析装置310からインターネット300を介して受け取った判別結果とメモリ180から読み出した参照リスト181とを照合し、発声人物を特定する。また、参照リストの登録内容に従って、発声人物の優先順位を確定させる。 The identification unit 153 collates the discrimination result received from the voice analysis device 310 via the Internet 300 with the reference list 181 read from the memory 180, and identifies the uttering person. In addition, the priority of the uttering person is determined according to the registered contents of the reference list.

図13は、オブジェクト表示の調整時に参照する参照リスト181の例である。参照リストは、優先順位、ユーザ名および声紋ファイルが相互に関連付けられて記述されている。図示するように、例えばユーザ「鈴木一郎」は、サンプルされた音声が「001.mp3」と名付けられた声紋ファイルとしてユーザ声紋格納装置330に格納されており、優先順位は「1」位であることが参照リスト181より読み取れる。 FIG. 13 is an example of the reference list 181 to be referred to when adjusting the object display. The reference list describes the priorities, usernames, and voiceprint files that are associated with each other. As shown in the figure, for example, the user "Ichiro Suzuki" stores the sampled voice as a voiceprint file named "001.mp3" in the user voiceprint storage device 330, and the priority is "1". Can be read from the reference list 181.

識別部153は、音声解析装置310の判別部311から判別結果として声紋ファイル名を受け取ると、参照リスト181と照合して、その声紋ファイル名に対応するユーザを発声人物であると特定する。併せて、その発声人物の優先順位も特定する。 When the identification unit 153 receives the voiceprint file name as the discrimination result from the discrimination unit 311 of the voice analysis device 310, it collates with the reference list 181 and identifies the user corresponding to the voiceprint file name as the utterance person. At the same time, the priority of the vocalizing person is also specified.

発声人物の位置はその音声信号から計算部151によって計算されるので、制御部152は、表示テーブル100の周囲に居るユーザの人数と、それぞれのユーザの位置、それぞれのユーザの優先順位を把握することができる。 Since the position of the uttering person is calculated by the calculation unit 151 from the voice signal, the control unit 152 grasps the number of users around the display table 100, the position of each user, and the priority of each user. be able to.

図14は、ユーザとオブジェクト表示の関係を示す図であり、図3等と同様に表示テーブル100を上方から見下ろした様子を示している。図示するように、4人のユーザA〜Dが表示テーブル100の周囲に着座しており、ユーザAとユーザDは互いに近い位置に存在する。このような状況において、各ユーザの前にA3横の書類のオブジェクトをそれぞれ100%の大きさで表示パネル120に表示しようとすると、ユーザAに対するオブジェクト805aとユーザDに対するオブジェクト805dが互いに重なり合ってしまう。 FIG. 14 is a diagram showing the relationship between the user and the object display, and shows a state in which the display table 100 is looked down from above in the same manner as in FIG. 3 and the like. As shown in the figure, four users A to D are seated around the display table 100, and the user A and the user D are close to each other. In such a situation, if the object of the document next to A3 is displayed on the display panel 120 in 100% size in front of each user, the object 805a for user A and the object 805d for user D overlap each other. ..

このようにオブジェクトどうしが重なり合ってしまう場合には、制御部152は、優先順位が高位のユーザを優先してオブジェクトの表示位置と向きを調整する。具体的には、ユーザAの優先順位が5位であると把握され、ユーザDの優先順位が2位と把握された場合には、2位の方が高位であるので、制御部152は、オブジェクト805aの表示を聡略し、ユーザDの位置(x,y)に合せて調整したオブジェクト805dを表示する。なお、制御部152は、ユーザBに対して最適に調整した表示位置と向きでオブジェクト805bを表示しても他のオブジェクトとは重なり合わないことを確認して、オブジェクト805bを表示する。ユーザCに対するオブジェクト805cも同様である。 When the objects overlap each other in this way, the control unit 152 adjusts the display position and orientation of the objects by giving priority to the user having a higher priority. Specifically, when it is grasped that the priority of the user A is the fifth place and the priority of the user D is grasped as the second place, the second place is higher, so that the control unit 152 has the control unit 152. The display of the object 805a is abbreviated, and the object 805d adjusted according to the position (x d , y d) of the user D is displayed. The control unit 152 displays the object 805b after confirming that the object 805b does not overlap with other objects even if the object 805b is displayed at the display position and orientation optimally adjusted for the user B. The same applies to the object 805c for the user C.

このように予め優先順位を登録しておけば、表示システムは、優先順位の高いユーザに合わせてオブジェクトの表示位置と向きを調整できるので、例えば組織内の会議で用いられるような場合に好適である。なお、途中でユーザが参加したり退去したりする場合には、制御部152は、その変化に応じてオブジェクトの表示を再調整する。例えば、優先順位が高いユーザが加われば、そのユーザに対するオブジェクトの表示を優先し、当該オブジェクトに重なる既表示のオブジェクトが存在すれば消去する。優先順位が高いユーザが離れれば、そのユーザに対するオブジェクトの表示を取り止め、当該オブジェクトのために表示が省略されていたオブジェクトが存在すればそのオブジェクトを表示させる。ユーザが表示テーブル100の周りで移動した場合も、同様に優先順位によってオブジェクトの表示および非表示を決定する。 By registering the priority in advance in this way, the display system can adjust the display position and orientation of the object according to the user having a high priority, and is therefore suitable for use in a meeting in an organization, for example. is there. When the user joins or leaves in the middle, the control unit 152 readjusts the display of the object according to the change. For example, when a user with a high priority is added, the display of the object for that user is prioritized, and if there is an already displayed object that overlaps the object, it is deleted. When a user with a high priority leaves, the display of the object to that user is stopped, and if there is an object whose display has been omitted for that object, that object is displayed. When the user moves around the display table 100, the display / non-display of the object is similarly determined by the priority.

図15は、表示するオブジェクトが大きい場合のユーザとオブジェクト表示の関係を示す図であり、図14と同様に、表示テーブル100を上方から見下ろした様子を示している。例えばCAD図面のようなさらに大きな書類をオブジェクトとして表示するような場合には、隣り合うユーザがあまり近くに存在していなくても、表示するオブジェクトどうしが重なり合ってしまうことがある。図示するように、ユーザAとユーザCおよびユーザBとユーザCの間隔に対して、ユーザAとユーザBの間隔が若干狭い程度であっても、ユーザAに対するオブジェクト806aの一部と、ユーザBに対するオブジェクト806bの一部が重なり合ってしまう。このような状況において、図14の例のように優先順位の低いユーザに対するオブジェクトを単に非表示にしてしまうと、優先順位の低いユーザに大きな不都合が生じる。すなわち、他のユーザに対して表示されるオブジェクトは遠かったり向きが大きく異なったりするので、優先順位の低いユーザは、オブジェクトの内容を把握することが難しくなる。 FIG. 15 is a diagram showing the relationship between the user and the object display when the object to be displayed is large, and like FIG. 14, shows a state in which the display table 100 is viewed from above. For example, when displaying a larger document such as a CAD drawing as an object, the objects to be displayed may overlap each other even if adjacent users do not exist very close to each other. As shown in the figure, even if the distance between the user A and the user B is slightly narrower than the distance between the user A and the user C and the user B and the user C, a part of the object 806a with respect to the user A and the user B A part of the object 806b with respect to the above overlaps. In such a situation, simply hiding the object for the user with the lower priority as in the example of FIG. 14 causes a great inconvenience for the user with the lower priority. That is, since the objects displayed to other users are far away or have different orientations, it is difficult for a user with a low priority to grasp the contents of the objects.

そこで、このような場合には、優先順位の低いユーザに対するオブジェクトを単に非表示にするのではなく、優先順位の高いユーザに対するオブジェクトと重ならない程度に縮小して表示する。例えば図示するように、ユーザBの優先順位が1位であって、ユーザAの優先順位が5位である場合には、制御部152は、高位であるユーザBに対するオブジェクト806bを優先して表示する。そして、ユーザAに対するオブジェクト806aをオブジェクト806bと重ならなくなるまで縮小したオブジェクト806a’を表示する。このようにオブジェクト806a’を表示すれば、本来の大きさより多少小さいものの、ユーザAもオブジェクトの内容を把握できることができる。 Therefore, in such a case, the object for the user having a low priority is not simply hidden, but is reduced and displayed so as not to overlap with the object for the user with a high priority. For example, as shown in the figure, when the priority of the user B is the first and the priority of the user A is the fifth, the control unit 152 preferentially displays the object 806b with respect to the higher user B. To do. Then, the object 806a'in which the object 806a for the user A is reduced until it does not overlap with the object 806b is displayed. If the object 806a'is displayed in this way, the user A can grasp the contents of the object, although the size is slightly smaller than the original size.

図16は、表示するオブジェクトがさらに大きい場合のユーザとオブジェクト表示の関係を示す図であり、図14、図15と同様に、表示テーブル100を上方から見下ろした様子を示している。図15で示したオブジェクトよりもさらに大きなオブジェクトを表示する場合や、もともとは小さいオブジェクトでも拡大指示がなされた結果大きく表示することになったオブジェクトの場合には、単独で表示することが好ましい。すなわち、ひとつのオブジェクトが表示パネル120の表示面の大半を占めるような場合には、図15の例のように余剰スペースに小さなオブジェクトを表示しても、ユーザはその内容を把握しづらいので、一つのオブジェクトに限って表示する。 FIG. 16 is a diagram showing the relationship between the user and the object display when the object to be displayed is larger, and shows a state in which the display table 100 is looked down from above as in FIGS. 14 and 15. When displaying an object larger than the object shown in FIG. 15, or when an object that is originally small but is to be displayed larger as a result of an enlargement instruction, it is preferable to display the object alone. That is, when one object occupies most of the display surface of the display panel 120, even if a small object is displayed in the surplus space as in the example of FIG. 15, it is difficult for the user to grasp the contents. Display only one object.

この場合、制御部152は、周囲に居るすべてのユーザの優先順位を確認し、最も高位のユーザの位置を基準位置として当該オブジェクトの表示位置と向きを調整して、表示する。図の例では、ユーザAの優先順位が5位であり、ユーザBの優先順位が1位であり、ユーザCの優先順位が3位であるので、最高位であるユーザBの位置(x,y)を基準位置として表示位置と向きを調整したオブジェクト805dを表示する。このような表示は、最高位のユーザにとって視認しやすいだけでなく、その他のユーザにとっても、向きは最適でなくてもオブジェクトの内容を確認しやすいと言える。 In this case, the control unit 152 confirms the priority of all the surrounding users, adjusts the display position and orientation of the object with the position of the highest user as the reference position, and displays the object. In the example of the figure, the priority of user A is 5th, the priority of user B is 1st, and the priority of user C is 3rd, so that the position of user B, which is the highest, (x b). , Y b ) is used as a reference position to display the object 805d whose display position and orientation are adjusted. It can be said that such a display is not only easy to see for the highest user, but also easy for other users to check the contents of the object even if the orientation is not optimal.

優先順位を利用してどのようにオブジェクトを表示するかについて図14〜図16の3つの例を説明したが、いずれの例を採用するかは、表示するオブジェクトの大きさ、隣り合うユーザ間の間隔、表示パネル120の大きさや形状等に基づいて決定することができる。例えば、隣り合うユーザ間の間隔が所定距離未満であれば図14の例に従い、所定距離以上であれば図15の例に従う。また、図15の例に従う場合に、縮小したオブジェクトが所定の大きさ未満になる場合には図16の例に従うようにしても良い。いずれの場合であっても、指定された大きさでそれぞれのユーザに対するオブジェクトを表示しようとするときにオブジェクトどうしが重なり合ってしまう場合には、優先順位が高位のユーザに対するオブジェクトを他のオブジェクトよりも大きく表示すれば良い。この場合、他のオブジェクトは非表示にされる場合を含む。 Three examples of FIGS. 14 to 16 have been described for how to display objects using the priority, but which example is adopted depends on the size of the object to be displayed and between adjacent users. It can be determined based on the interval, the size and shape of the display panel 120, and the like. For example, if the distance between adjacent users is less than a predetermined distance, the example of FIG. 14 is followed, and if the distance is greater than or equal to the predetermined distance, the example of FIG. 15 is followed. Further, when the example of FIG. 15 is followed, if the reduced object becomes smaller than a predetermined size, the example of FIG. 16 may be followed. In either case, if the objects overlap when trying to display the objects for each user in the specified size, then the object for the higher priority user is better than the other objects. It should be displayed in a large size. In this case, other objects may be hidden.

なお、図14〜図16の3つの例は、参照リスト181に記述された優先順位に基づいてオブジェクトの表示を調整したが、参照リスト181に記述される個人情報は優先順位でなくても良く、制御部152は、他の個人情報に基づいてオブジェクトの表示を調整しても良い。他の個人情報は、優先順位に準ずるようなユーザの役職や地位であっても良い。あるいは、それぞれのユーザが該当し得る複数の属性項目が用意されており、その属性項目に該当するか否かが記述されていても良い。この場合は、例えば、該当数が多いユーザほど高い優先順位が割り当てられる。 In the three examples of FIGS. 14 to 16, the display of the object is adjusted based on the priority described in the reference list 181. However, the personal information described in the reference list 181 does not have to be the priority. , The control unit 152 may adjust the display of the object based on other personal information. Other personal information may be the title or position of the user according to the priority. Alternatively, a plurality of attribute items that can be applied to each user may be prepared, and it may be described whether or not the attribute items are applicable. In this case, for example, the higher the number of applicable users, the higher the priority is assigned.

次に、第3実施例に係る表示システムの処理フローについて説明する。図17は、第3実施例に係る表示システムの典型的な処理フローを示すフロー図である。図示するフローは、図7のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the third embodiment will be described. FIG. 17 is a flow chart showing a typical processing flow of the display system according to the third embodiment. Similar to the flow of FIG. 7, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. Further, the same processing as the flow of FIG. 7 is given the same step number, and the description thereof will be omitted unless otherwise specified.

ステップS101でマイク110が音声の取得を開始し、ステップS102で計算部151が表示テーブル100の周囲に居るユーザの人数と位置を計算したら、ステップS301へ進む。識別部153は、ステップS301で、音声解析装置310の判別部311から判別結果として声紋ファイル名を受け取る。そして、メモリ180から読み出した参照リスト181と照合して、その声紋ファイル名に対応するユーザを発声人物であると特定する。さらに、ステップS302で、参照リスト181の記述情報から当該ユーザの優先順位を確定させる。ユーザの優先順位は、上述のように、参照リスト181に登録されているユーザごとに直接記述されている場合はその優先順位が用いられ、個人情報の記述から導出する場合は、予め設定された導出条件によって確定される。 In step S101, the microphone 110 starts acquiring voice, and in step S102, the calculation unit 151 calculates the number and positions of users around the display table 100, and then proceeds to step S301. In step S301, the identification unit 153 receives the voiceprint file name as the discrimination result from the discrimination unit 311 of the voice analysis device 310. Then, by collating with the reference list 181 read from the memory 180, the user corresponding to the voiceprint file name is identified as the uttering person. Further, in step S302, the priority of the user is determined from the description information in the reference list 181. As described above, the priority of the user is set in advance when it is directly described for each user registered in the reference list 181 and when it is derived from the description of personal information. It is determined by the derivation condition.

ステップS303へ進み、制御部152は、計算部151で計算されたユーザの人数と位置、および識別部153で確定された優先順位に基づいて対象となるオブジェクトの表示位置と向きを調整して表示パネル120に表示する。具体的な表示態様は上述の通りである。その後、ステップS104へ進む。 Proceeding to step S303, the control unit 152 adjusts and displays the display position and orientation of the target object based on the number and position of users calculated by the calculation unit 151 and the priority determined by the identification unit 153. It is displayed on the panel 120. The specific display mode is as described above. Then, the process proceeds to step S104.

ステップS104で演算部150がユーザから変更指示があったと確認した場合には、ステップS305へ進む。制御部152は、ステップS305で、確認された処理コマンドまたはタッチパネル130の操作に従って各オブジェクトの表示位置と向きを整え、表示パネル120に表示する。この場合も、事前にオブジェクトどうしが重なり合うか否かを判断し、重なり合うと判断し場合には、ユーザの優先順位に従ったオブジェクトの再調整を実行する。その後、ステップS106へ進む。演算部150は、ステップS106で、終了指示に関する判断を行う。 If the calculation unit 150 confirms that the user has instructed the change in step S104, the process proceeds to step S305. In step S305, the control unit 152 adjusts the display position and orientation of each object according to the confirmed processing command or the operation of the touch panel 130, and displays the objects on the display panel 120. In this case as well, it is determined in advance whether or not the objects overlap each other, and if it is determined that the objects overlap, the objects are readjusted according to the priority of the user. Then, the process proceeds to step S106. In step S106, the calculation unit 150 determines the end instruction.

次に第4実施例について説明する。図18は、第4実施例に係る表示システムの制御ブロック図である。第1実施例と同一の機能を発揮する要素については、図2と同じ符番を付して、その説明を省略する。 Next, a fourth embodiment will be described. FIG. 18 is a control block diagram of the display system according to the fourth embodiment. Elements that exhibit the same functions as in the first embodiment are given the same numbering numbers as those in FIG. 2, and the description thereof will be omitted.

第4実施例に係る表示システムは、第1実施例に係る表示システムにカメラ160を加えた構成である。表示テーブル100の周囲に居るユーザの人数とそれぞれの位置を、第1実施例においてはマイク110a、110b、110cで集音された音声の到達時間のずれに基づいて計算部151が計算していたところ、第4実施例においてはカメラ160で撮像された画像に基づいて計算部151’が計算する。 The display system according to the fourth embodiment has a configuration in which the camera 160 is added to the display system according to the first embodiment. In the first embodiment, the calculation unit 151 calculates the number of users around the display table 100 and their respective positions based on the difference in the arrival time of the sounds collected by the microphones 110a, 110b, and 110c. However, in the fourth embodiment, the calculation unit 151'calculates based on the image captured by the camera 160.

カメラ160は、表示テーブル100とその周囲を撮像可能なデジタルカメラユニットであり、撮像した画像を画像データとして計算部151’へ送信する。計算部151’は、受信した画像データを例えば顔認識技術によって解析して、表示テーブル100の周囲に居るユーザの人数とそれぞれの位置を計算する。なお、第4実施例においてマイク110a、110b、110cは、ユーザからの音声指示を集音するために用いられる。 The camera 160 is a digital camera unit capable of capturing an image of the display table 100 and its surroundings, and transmits the captured image as image data to the calculation unit 151'. The calculation unit 151'analyzes the received image data by, for example, a face recognition technique, and calculates the number of users around the display table 100 and their respective positions. In the fourth embodiment, the microphones 110a, 110b, 110c are used to collect voice instructions from the user.

図19は、ユーザとオブジェクト表示の関係を示す図であり、図3と同様に表示テーブル100を上方から見下ろした様子を示している。カメラ160として、例えばステレオカメラや距離画像カメラを用いれば、マイクを用いたときのようにユーザの位置座標(x,y)を算出できるが、ここでは二次元の単画像を用いて簡易的にユーザの方位(θ)を算出して用いる手法について説明する。方位(θ)は、図示するように、z軸を回転軸とする場合の、x軸正方向からの角度で表される。 FIG. 19 is a diagram showing the relationship between the user and the object display, and shows a state in which the display table 100 is viewed from above as in FIG. As the camera 160, for example by using the stereo camera and distance image camera, position coordinates (x p, y p) of the user, such as when using the microphone can be calculated, where using a single image of the two-dimensional simple A method of calculating and using the user's orientation (θ p) will be described. As shown in the figure, the orientation (θ) is represented by an angle from the positive direction of the x-axis when the z-axis is the rotation axis.

カメラ160は、原点位置に上向きに設置された360°カメラである。具体的には、約180°の画角を有する魚眼レンズを備えるカメラユニットである。計算部151’は、カメラ160で撮像された画像からユーザAを認識してユーザAの方位θを計算する。同様に、ユーザBを認識してユーザBの方位θを、ユーザCを認識してユーザCの方位θを計算する。計算部151’は、それぞれのユーザの方位計算を実行することにより、結果的に表示テーブル100の周囲に居るユーザの人数もカウントすることができる。 The camera 160 is a 360 ° camera installed upward at the origin position. Specifically, it is a camera unit including a fisheye lens having an angle of view of about 180 °. The calculation unit 151'recognizes the user A from the image captured by the camera 160 and calculates the direction θ a of the user A. Similarly, the user B is recognized and the direction θ b of the user B is calculated, and the user C is recognized and the direction θ c of the user C is calculated. The calculation unit 151'can also count the number of users around the display table 100 as a result by executing the orientation calculation of each user.

制御部152は、計算部151’からそれぞれのユーザの方位を受け取ったら、表示対象であるオブジェクトをその方位に対応するように表示位置と向きを調整して表示パネル120に表示する。具体的には図示するように、ユーザAに対してオブジェクト801aを、ユーザBに対してオブジェクト801bを、ユーザCに対してオブジェクト801cを、それぞれのユーザの前で正対するように位置と向きを調整して表示する。なお、ユーザの方位に基づいて各オブジェクトを表示する場合は、ユーザが表示テーブル100からどれくらい離れているのかがわからないので、例えば、表示パネル120の周縁からオブジェクトの端までの距離が所定距離となるようにオブジェクトの表示位置を調整する。 When the control unit 152 receives the orientation of each user from the calculation unit 151', the control unit 152 adjusts the display position and orientation of the object to be displayed so as to correspond to the orientation, and displays the object on the display panel 120. Specifically, as shown in the figure, the position and orientation of the object 801a for the user A, the object 801b for the user B, and the object 801c for the user C so as to face each user in front of each user. Adjust and display. When displaying each object based on the orientation of the user, since it is not known how far the user is from the display table 100, for example, the distance from the peripheral edge of the display panel 120 to the edge of the object is a predetermined distance. Adjust the display position of the object so that.

それぞれのユーザは、自身にとって良好な位置にオブジェクトが表示されることになるので、その内容を容易に把握することができる。また、同一内容のオブジェクトがそれぞれのユーザの前に表示されるので、同席するユーザ間で情報をいち早く共有することができる。なお、例えば表示対象であるオブジェクトがA4縦の書類であれば、制御部152’は、当該オブジェクトをそれぞれのユーザに対して縦方向にA4の大きさ100%で表示する。タッチパネル130や音声指示によって位置、大きさ、向きの変更が指示されたら、制御部152’は、その指示に応じてシフト処理、拡縮処理、回転処理を施す。 Since each user will display the object in a position that is good for him / her, he / she can easily grasp the contents. In addition, since objects with the same content are displayed in front of each user, information can be shared quickly among the users present. For example, if the object to be displayed is an A4 vertical document, the control unit 152'displays the object to each user in the vertical direction with an A4 size of 100%. When a change in position, size, or orientation is instructed by the touch panel 130 or a voice instruction, the control unit 152'performs shift processing, scaling processing, and rotation processing according to the instruction.

表示パネル120の中心に魚眼レンズを備えるカメラユニットを設ける場合に限らず、カメラ160は、さまざまなカメラユニットを採用でき、さまざまに配置し得る。例えば、表示テーブル100を俯瞰するようにステレオカメラを天井に設置しても良い。その場合には、計算部151’は、各ユーザの位置座標を計算することができる。もちろん、カメラユニットは一台でなくても良く、複数台を用いても良い。複数台を用いる場合には、全体で表示テーブル100とその周囲が撮像できれば良い。 Not limited to the case where the camera unit provided with the fisheye lens is provided at the center of the display panel 120, the camera 160 can adopt various camera units and can be arranged in various ways. For example, the stereo camera may be installed on the ceiling so as to overlook the display table 100. In that case, the calculation unit 151'can calculate the position coordinates of each user. Of course, the number of camera units does not have to be one, and a plurality of camera units may be used. When a plurality of units are used, it is sufficient that the display table 100 and its surroundings can be imaged as a whole.

特に、カメラ160が表示パネル120の表示領域も撮像できるのであれば、制御部152は、当該表示領域の状態に応じてオブジェクトの表示を調整しても良い。例えば、計算部151’は、カメラ160で撮像された画像から表示パネル120の表示領域を抽出してメッシュ状に分割し、それぞれのメッシュ領域の照度を計算する。制御部152は、計算された照度が第1閾値以上第2閾値未満のメッシュ領域にオブジェクトを表示させる場合には、オブジェクトの表示輝度を高める。オブジェクトの表示輝度を高める手法としては、バックライトの光量を増したり、オブジェクトの明度を上げたりすることが考えられる。また、制御部152は、計算された照度が第2閾値以上である場合には、当該メッシュ領域にオブジェクトを表示することを断念して、他の表示位置へ表示する。表示システムは、表示輝度を高める処理と他の表示位置へ表示する処理のいずれも採用しても良いし、いずれか一方を採用しても良い。 In particular, if the camera 160 can also image the display area of the display panel 120, the control unit 152 may adjust the display of the object according to the state of the display area. For example, the calculation unit 151'extracts the display area of the display panel 120 from the image captured by the camera 160, divides it into a mesh shape, and calculates the illuminance of each mesh area. When the control unit 152 displays the object in the mesh region where the calculated illuminance is equal to or more than the first threshold value and less than the second threshold value, the control unit 152 increases the display brightness of the object. As a method of increasing the display brightness of an object, it is conceivable to increase the amount of light from the backlight or increase the brightness of the object. Further, when the calculated illuminance is equal to or higher than the second threshold value, the control unit 152 gives up displaying the object in the mesh area and displays it at another display position. The display system may employ either a process of increasing the display luminance or a process of displaying at another display position, or may adopt either one.

また、このようにカメラ160を利用した表示システムであっても、第1実施例と同様に、既存のユーザが移動したり、退去したり、新たなユーザが加わったりした場合に、変化に応じてオブジェクトの表示位置と向きを調整することができる。さらに、第2実施例と同様に、同一グループを認識してオブジェクトの表示位置と向き、大きさを調整することができる。 Further, even in the display system using the camera 160 in this way, as in the first embodiment, when an existing user moves, moves out, or a new user joins, the display system responds to changes. You can adjust the display position and orientation of the object. Further, as in the second embodiment, the same group can be recognized and the display position, orientation, and size of the object can be adjusted.

また、音声によって個人を特定する手法の代わりに画像によって個人を特定する手法を採用すれば、第3実施例と同様に、個人情報に基づいてオブジェクトの表示を調整することもできる。具体的には、ユーザ声紋格納装置330の代わりにユーザ画像格納装置を設け、予め各ユーザの顔画像を格納しておく。そして、音声解析装置310の代わりに画像解析装置を設け、表示テーブル100から送られてきた顔画像とユーザ画像格納装置に格納された顔画像をマッチング処理して、送られてきた顔画像がいずれのユーザであるかを解析結果として識別部153へ返す。制御部152は、認識されたユーザの優先順位を確定して、その優先順位に即した表示調整を実行する。 Further, if the method of identifying the individual by the image is adopted instead of the method of identifying the individual by the voice, the display of the object can be adjusted based on the personal information as in the third embodiment. Specifically, a user image storage device is provided instead of the user voiceprint storage device 330, and the face image of each user is stored in advance. Then, an image analysis device is provided instead of the voice analysis device 310, and the face image sent from the display table 100 is matched with the face image stored in the user image storage device, and the sent face image is eventually obtained. Is returned to the identification unit 153 as an analysis result as to whether or not the user is the user. The control unit 152 determines the priority of the recognized user, and executes display adjustment according to the priority.

次に、第4実施例に係る表示システムの処理フローについて説明する。図20は、第4実施例に係る表示システムの典型的な処理フローを示すフロー図である。図示するフローは、図7のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the fourth embodiment will be described. FIG. 20 is a flow chart showing a typical processing flow of the display system according to the fourth embodiment. Similar to the flow of FIG. 7, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and does not cover all the processes related to the display. Further, the same processing as the flow of FIG. 7 is given the same step number, and the description thereof will be omitted unless otherwise specified.

カメラ160は、ステップS401で、撮像を実行する。撮像によって生成した画像データは計算部151’へ引き渡す。計算部151’は、ステップS402で、取得した画像データの画像から各ユーザを認識し、それぞれの方位を計算する。制御部152は、ステップS403で、計算部151’が計算した各ユーザの方位に合せて、それぞれ対応するオブジェクトの表示位置と向きを調整して表示パネル120に表示する。なお、表示パネル120の表示領域の照度を計算する場合は、上述のように、その照度に応じた調整を実行しても良い。以降のステップS104からステップS106の処理は図7の例と同様である。 The camera 160 executes imaging in step S401. The image data generated by the imaging is handed over to the calculation unit 151'. In step S402, the calculation unit 151'recognizes each user from the image of the acquired image data and calculates each direction. In step S403, the control unit 152 adjusts the display position and orientation of the corresponding objects according to the orientation of each user calculated by the calculation unit 151'and displays them on the display panel 120. When calculating the illuminance of the display area of the display panel 120, adjustment may be performed according to the illuminance as described above. Subsequent processes from step S104 to step S106 are the same as in the example of FIG. 7.

次に第5実施例について説明する。第5実施例に係る表示システムは、第1実施例に係る表示システムの構成と同様であるので、全体構成の説明は省略する。第5実施例では、それぞれのユーザの位置に基づいてオブジェクトの表示位置と向きを調整するときに、ユーザの眼の推定高さに基づいて当該オブジェクトを歪ませる。 Next, a fifth embodiment will be described. Since the display system according to the fifth embodiment is the same as the configuration of the display system according to the first embodiment, the description of the overall configuration will be omitted. In the fifth embodiment, when adjusting the display position and orientation of the object based on the position of each user, the object is distorted based on the estimated height of the user's eyes.

図21は、第5実施例に係る表示テーブル100とユーザの様子を示す図であり、表示テーブル100を側方より観察した様子を示している。上述のように、あるユーザPが発した音声がマイク110a、110b、110cに到達した時間の時間差を計測すれば、そのユーザPの口元の三次元座標(x,y,z)を計算できる。また、人の顔の標準的な眼と口の長さをhとすると、ユーザPの両眼中心位置(x,y,z’)はおよそ(x,y,z+h)と推定される。そこで、本実施例においては、眼の推定高さをz’とする。図の例では、座っているユーザAの眼の推定高さはz’であり、立っているユーザCの眼の推定高さはz’である。 FIG. 21 is a diagram showing the state of the display table 100 and the user according to the fifth embodiment, and shows the state of observing the display table 100 from the side. As described above, if the time difference in the time when the voice emitted by a user P reaches the microphones 110a, 110b, 110c is measured, the three-dimensional coordinates (x p , y p , z p ) of the mouth of the user P can be obtained. Can be calculated. Further, when the length of a standard eye and mouth of a person's face is h, binocular center position of the user P (x p, y p, z 'p) is approximately (x p, y p, z p + h )It is estimated to be. Therefore, in the present embodiment, the estimated height of the eye and z 'p. In the illustrated example, the estimated height of the eyes of the sitting user A 'is a, estimated height of the eyes of the user C who is standing in z' z is c.

図22は、オブジェクトの歪み加工を説明するための図であり、図21と同様に、表示テーブル100を側方より観察した様子を示している。ここでは、立っているユーザCに対して表示されるオブジェクト808cについて説明する。 FIG. 22 is a diagram for explaining the distortion processing of the object, and shows a state in which the display table 100 is observed from the side as in FIG. 21. Here, the object 808c displayed to the standing user C will be described.

ユーザCの両眼中心位置(x,y,z’)が計算部151によって推定されると、まず(x,y)の位置座標から、基準位置が定まる。基準位置は、図3の例において、オブジェクトを100%の大きさで表示した場合の、最もユーザ寄りの位置である。そして、その100%の大きさのオブジェクトを、仮想的に、基準位置周りにユーザCの視線と直交するまで回転して持ち上げる。ユーザCの視線方向は持ち上げられたオブジェクトの中心位置である。このときのオブジェクトの姿勢をオブジェクト808c’で示す。 Binocular center position of the user C (x c, y c, z 'c) When it is estimated by the calculation unit 151, first, (x c, y c) from the position coordinates of the reference position is determined. The reference position is the position closest to the user when the object is displayed in a size of 100% in the example of FIG. Then, the object of 100% size is virtually rotated and lifted around the reference position until it is orthogonal to the line of sight of the user C. The line-of-sight direction of user C is the center position of the lifted object. The posture of the object at this time is indicated by the object 808c'.

そして、このような姿勢で想定した100%の大きさのオブジェクト808c’を、表示パネル120の表示面に、ユーザCの両眼中心位置(x,y,z’)を点光源として射影する。このような射影によって形成されたオブジェクトが表示対象となるオブジェクト808cである。例えば、オブジェクトの縦の長さは、このような射影によりLから、L’に伸長する。 Then, such a 100% assumed in posture size 'and the display surface of the display panel 120, both eyes center position of the user C (x c, y c, z' object 808c of c) as a point source Project. The object formed by such projection is the object 808c to be displayed. For example, the length of the longitudinal objects, from L 1 by such projection, extending L 1 '.

図23は、ユーザとオブジェクト表示の関係を示す図であり、図22で歪み加工が施されたオブジェクトを表示する表示テーブル100を上方から見下ろした様子を示している。図示するように、ユーザCに対して表示されるオブジェクト808cは、点線で示すように100%で表示される場合の縦の長さがLであるのに対し、歪み加工によりL’に伸長されている様子がわかる。横方向にも同様に伸長され、その結果、オブジェクト808cは、ユーザに対して手前側よりも奥側へ向かって拡がる逆台形形状となる。オブジェクト808cの情報として示されるテキストや画像も同様に歪み加工が施される。また、ユーザAに対するオブジェクト808aも、着座したユーザAの眼の推定高さに応じて同様に歪み加工が施される。 FIG. 23 is a diagram showing the relationship between the user and the object display, and shows a state in which the display table 100 displaying the distorted object in FIG. 22 is viewed from above. As illustrated, the object 808c that are displayed to the user C, compared the length of the vertical when it is displayed in 100% as indicated by a dotted line in the range of L 1, the L 1 'by distortion processing You can see how it is stretched. It is similarly extended in the lateral direction, and as a result, the object 808c has an inverted trapezoidal shape that expands toward the back side rather than the front side with respect to the user. The text and image shown as the information of the object 808c are similarly distorted. Further, the object 808a for the user A is similarly distorted according to the estimated height of the eyes of the seated user A.

このように歪み加工を施してオブジェクトを表示することにより、ユーザは結果的に本来の形状に近い状態でオブジェクトを視認することができるので、違和感を覚えることなく自然にオブジェクトの内容を把握することができる。特に、オブジェクトが文字を含むような場合には、ユーザから遠くに表示されても拡大されるので都合が良い。 By displaying the object with distortion processing in this way, the user can visually recognize the object in a state close to the original shape as a result, so that the content of the object can be grasped naturally without feeling any discomfort. Can be done. In particular, when the object contains characters, it is convenient because it is enlarged even if it is displayed far from the user.

なお、オブジェクトの形状をユーザの眼の推定高さに応じてどのような歪み加工を施すのかについては、さまざまな手法を採用し得る。上記の例では、ユーザがオブジェクトの内容を把握しやすくすることを優先して逆台形形状に伸長させたが、画像を表示するような場合において奥行き感を強調する効果を狙うときには、手前側より奥側を縮めて歪ませる加工を施しても良い。 It should be noted that various methods can be adopted for what kind of distortion processing is applied to the shape of the object according to the estimated height of the user's eyes. In the above example, the object is stretched into an inverted trapezoidal shape with priority given to making it easier for the user to understand the contents of the object, but when aiming for the effect of emphasizing the sense of depth when displaying an image, from the front side. The back side may be shrunk and distorted.

また、本実施例においても、第1実施例と同様に、既存のユーザが移動したり、退去したり、新たなユーザが加わったりした場合に、変化に応じてオブジェクトの表示位置と向きを調整することができる。この場合の調整は、ユーザの目の推定高さに応じた歪み加工を含む。また、ユーザが立ったり座ったりする変化を検出した場合にも、制御部152は、対処となるオブジェクトを再調整する。また、第2実施例と同様に、制御部152は、同一グループを認識してオブジェクトの表示位置と向き、大きさを調整することができる。このとき、隣り合うオブジェクトどうしが重なりあるか否かの判断は、歪み加工を施した形状で行う。 Further, also in this embodiment, as in the first embodiment, when an existing user moves, moves out, or a new user joins, the display position and orientation of the object are adjusted according to the change. can do. The adjustment in this case includes distortion processing according to the estimated height of the user's eyes. Also, when the user detects a change in standing or sitting, the control unit 152 readjusts the object to be dealt with. Further, as in the second embodiment, the control unit 152 can recognize the same group and adjust the display position, orientation, and size of the object. At this time, it is determined whether or not the adjacent objects overlap each other based on the distorted shape.

また、本実施例においても、第3実施例と同様に、識別部153でユーザを識別し、制御部152は、参照リストに記述された当該ユーザの個人情報に基づいてオブジェクトの表示を調整しても良い。また、制御部152は、参照リストに記述された個人情報をユーザの優先順位を確定する場合に限らず、他の表示調整に利用することもできる。 Further, also in this embodiment, as in the third embodiment, the identification unit 153 identifies the user, and the control unit 152 adjusts the display of the object based on the personal information of the user described in the reference list. You may. Further, the control unit 152 can use the personal information described in the reference list not only for determining the priority of the user but also for other display adjustments.

図24は、オブジェクト表示の調整時に参照する参照リストの別例である。図示する参照リスト181’は、図13の参照リスト181に比べて、老眼登録の項目を有する。例えば、優先順位が1位である鈴木一郎は老眼登録が「あり」になっており、優先順位が2位である佐藤花子は老眼登録が「なし」になっている。このような情報が参照リスト181’に記述されている場合に、制御部152は、老眼登録ありのユーザに対しては、オブジェクトの表示位置をユーザ位置から少し離したり、拡大率を大きくしたり調整することができる。 FIG. 24 is another example of the reference list to be referred to when adjusting the object display. The illustrated reference list 181'has more presbyopia registration items than the reference list 181 of FIG. For example, Ichiro Suzuki, who has the highest priority, has presbyopia registration "Yes", and Hanako Sato, who has the second highest priority, has "No" presbyopia registration. When such information is described in the reference list 181', the control unit 152 may, for a user with presbyopia registration, slightly move the display position of the object from the user position or increase the enlargement ratio. Can be adjusted.

なお、本実施例において、音声に関する処理を、第4実施例のようにカメラが出力する画像に関する処理に置き換えることもできる。その場合、図18を用いて説明したシステム構成を採用すれば良い。なお、カメラを用いる場合は、例えば取得画像から両眼領域を抽出することにより、ユーザの眼の高さを直接的に解析することができる。より正確に両眼中心位置を算出したい場合には、ステレオカメラなど被写体の距離情報を取得できるカメラ構成が好ましい。 In this embodiment, the processing related to sound can be replaced with the processing related to the image output by the camera as in the fourth embodiment. In that case, the system configuration described with reference to FIG. 18 may be adopted. When a camera is used, the height of the user's eyes can be directly analyzed, for example, by extracting the binocular region from the acquired image. When it is desired to calculate the center position of both eyes more accurately, a camera configuration such as a stereo camera that can acquire the distance information of the subject is preferable.

次に、第5実施例に係る表示システムの処理フローについて説明する。図25は、当該処理フローを示すフロー図である。ここでは、個人識別を実行して参照リスト181’を利用する例を説明する。図示するフローは、図7および図17のフローと同様に、表示テーブル100の周囲に居るユーザに合せてオブジェクトの表示を調整する処理を説明するものであり、表示に関する全ての処理を網羅するものではない。また、図7および図17のフローと同一の処理については、同じステップ番号を付すことにより、特に言及しない限りその説明を省略する。 Next, the processing flow of the display system according to the fifth embodiment will be described. FIG. 25 is a flow chart showing the processing flow. Here, an example of executing personal identification and using the reference list 181'will be described. Similar to the flow of FIGS. 7 and 17, the illustrated flow describes a process of adjusting the display of the object according to the users around the display table 100, and covers all the processes related to the display. is not it. Further, the same processing as the flow of FIGS. 7 and 17 is assigned the same step number, and the description thereof will be omitted unless otherwise specified.

ステップS101でマイク110が音声の取得を開始し、次にステップS102で計算部151が表示テーブル100の周囲に居るユーザの人数と位置を計算する。計算部151は、ユーザの位置として、目の推定高さを含む両眼中心位置を計算する。次に、ステップS301へ進み、識別部153は、判別部311から判別結果を受け取り、メモリ180から読み出した参照リスト181’と照合してユーザを特定する。さらに、ステップS502で、参照リスト181’の記述情報から当該ユーザの優先順位および調整項目を確定させる。調整項目は、例えば老眼登録に対する表示位置および拡大率であり、登録されている個人情報に応じて、調整する表示項目が予め対応付けられている。 In step S101, the microphone 110 starts acquiring voice, and then in step S102, the calculation unit 151 calculates the number and positions of users around the display table 100. The calculation unit 151 calculates the binocular center position including the estimated height of the eyes as the user's position. Next, the process proceeds to step S301, and the identification unit 153 receives the determination result from the determination unit 311 and identifies the user by collating with the reference list 181'read from the memory 180. Further, in step S502, the priority and adjustment items of the user are determined from the description information of the reference list 181'. The adjustment items are, for example, the display position and the enlargement ratio for the presbyopia registration, and the display items to be adjusted are associated in advance according to the registered personal information.

制御部152は、ステップS503で、それぞれのユーザが視認しやすいように各オブジェクトに歪み加工を施して表示位置と向きを整え、表示パネル120に表示する。具体的な表示態様は上述の通りである。その後、ステップS104へ進む。 In step S503, the control unit 152 distorts each object so that each user can easily see it, adjusts the display position and orientation, and displays the object on the display panel 120. The specific display mode is as described above. Then, the process proceeds to step S104.

ステップS104で演算部150がユーザから変更指示があったと確認した場合には、ステップS505へ進む。制御部152は、ステップS505で、確認された処理コマンドまたはタッチパネル130の操作に従って各オブジェクトに歪み加工を施して表示位置と向きを整え、表示パネル120に表示する。この場合も、事前にオブジェクトどうしが重なり合うか否かを判断し、重なり合うと判断し場合には、ユーザの優先順位に従ったオブジェクトの再調整を実行する。その後、ステップS106へ進む。演算部150は、ステップS106で、終了指示に関する判断を行う。 If the calculation unit 150 confirms that the user has instructed the change in step S104, the process proceeds to step S505. In step S505, the control unit 152 distorts each object according to the confirmed processing command or the operation of the touch panel 130 to adjust the display position and orientation, and displays the object on the display panel 120. In this case as well, it is determined in advance whether or not the objects overlap each other, and if it is determined that the objects overlap, the objects are readjusted according to the priority of the user. Then, the process proceeds to step S106. In step S106, the calculation unit 150 determines the end instruction.

以上5つの実施例とその変形例を通じて本実施形態を説明したが、冒頭にも説明したように本実施形態に係る表示システムは、各実施例で具体的に説明した態様以外にも、さまざまな態様を採用し得る。例えば、表示テーブル100は円形でなくても良く、表示システムが用いられる用途や環境に応じて、例えば矩形やL字形であっても良い。あるいは、表示部は、表示パネル120でなくても、例えば表示テーブルの上面が投影面になっており、天井に設けられたプロジェクタから映像を投影する構成であっても構わない。また、表示部の周囲に分散して配置されたマイクは3つに限らず、それ以上であっても構わない。より多くのマイクを設けてそれらの音声信号を利用すれば、より精度の高い計算結果を得ることができる。 The present embodiment has been described through the above five examples and its modifications, but as described at the beginning, the display system according to the present embodiment has various modes other than those specifically described in each embodiment. Aspects can be adopted. For example, the display table 100 does not have to be circular, and may be rectangular or L-shaped, for example, depending on the application and environment in which the display system is used. Alternatively, the display unit may not be the display panel 120, but may have a configuration in which, for example, the upper surface of the display table is a projection surface and an image is projected from a projector provided on the ceiling. Further, the number of microphones dispersed around the display unit is not limited to three, and may be more than three. If more microphones are provided and their audio signals are used, more accurate calculation results can be obtained.

100 表示テーブル、110 マイク、120 表示パネル、130 タッチパネル、140 スピーカー、150 演算部、151 計算部、152 制御部、153 識別部、160 カメラ、170 オブジェクト格納部、180 メモリ、181 参照リスト、190 通信ユニット、300 インターネット、310 音声解析装置、311 判別部、320 オブジェクト格納装置、330 ユーザ声紋格納装置 100 display table, 110 microphone, 120 display panel, 130 touch panel, 140 speaker, 150 arithmetic unit, 151 calculation unit, 152 control unit, 153 identification unit, 160 camera, 170 object storage unit, 180 memory, 181 reference list, 190 communication Unit, 300 Internet, 310 voice analyzer, 311 discriminator, 320 object storage device, 330 user voiceprint storage device

Claims (8)

オブジェクトを表示する表示部と、
前記表示部の周囲に配置されたセンサの出力信号に基づいて前記表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算部と、
前記表示部の周囲に居るユーザのそれぞれを個人識別する識別部と、
複数のユーザの個人情報が登録された参照リストを記憶する記憶部と、
前記計算部で計算されたユーザの人数と位置、および前記識別部で識別された識別情報を前記参照リストと比較した結果に基づいて前記オブジェクトの表示位置と向きを調整して前記表示部に表示する制御部と
を備える表示システム。
A display unit that displays objects and
A calculation unit that calculates the number of users around the display unit and their respective positions based on the output signals of sensors arranged around the display unit.
An identification unit that personally identifies each user around the display unit,
A storage unit that stores a reference list in which personal information of multiple users is registered,
The display position and orientation of the object are adjusted and displayed on the display unit based on the result of comparing the number and position of users calculated by the calculation unit and the identification information identified by the identification unit with the reference list. A display system with a control unit.
前記参照リストは、前記複数のユーザの優先順位が前記個人情報として登録されており、
前記制御部は、前記優先順位が高位のユーザを優先して前記オブジェクトの表示位置と向きを調整する請求項1に記載の表示システム。
In the reference list, the priorities of the plurality of users are registered as the personal information.
The display system according to claim 1, wherein the control unit gives priority to a user having a higher priority and adjusts the display position and orientation of the object.
前記制御部は、前記表示部の周囲に居るユーザのそれぞれに対して前記オブジェクトを表示しようとする場合にオブジェクトどうしが重なり合うときには、前記優先順位が低位のユーザに対するオブジェクトの表示を省略する請求項2に記載の表示システム。 2. The control unit omits the display of the object to the user having a lower priority when the objects overlap each other when trying to display the object to each of the users around the display unit. The display system described in. 前記制御部は、前記優先順位が高位のユーザに対するオブジェクトを他のオブジェクトよりも大きく表示する請求項2または3に記載の表示システム。 The display system according to claim 2 or 3, wherein the control unit displays an object for a user having a higher priority than other objects. 前記制御部は、前記オブジェクトを一つ拡大して表示する場合には、前記優先順位が最高位のユーザを基準として前記オブジェクトの表示位置と向きを調整する請求項2に記載の表示システム。 The display system according to claim 2, wherein when the object is enlarged and displayed by one, the control unit adjusts the display position and orientation of the object with reference to the user having the highest priority. 前記制御部は、ユーザの位置が変化したことを前記計算部が算出した場合に、前記オブジェクトの表示位置と向きを再調整する請求項1から5のいずれか1項に記載の表示システム。 The display system according to any one of claims 1 to 5, wherein the control unit readjusts the display position and orientation of the object when the calculation unit calculates that the position of the user has changed. 前記制御部は、ユーザの人数が増加したこと、および減少したことを前記計算部が算出した場合に、前記オブジェクトの表示位置と向きを再調整する請求項1から6のいずれか1項に記載の表示システム。 The method according to any one of claims 1 to 6, wherein the control unit readjusts the display position and orientation of the object when the calculation unit calculates that the number of users has increased or decreased. Display system. オブジェクトを表示する表示部と、複数のユーザの個人情報が登録された参照リストを記憶する記憶部とを備える表示システムの制御方法であって、
前記表示部の周囲に配置されたセンサの出力信号に基づいて前記表示部の周囲に居るユーザの人数とそれぞれの位置を計算する計算ステップと、
前記表示部の周囲に居るユーザのそれぞれを個人識別する識別ステップと、
前記計算ステップで計算されたユーザの人数と位置、および前記識別ステップで識別された識別情報を前記参照リストと比較した結果に基づいて前記オブジェクトの表示位置と向きを調整して前記表示部に表示する制御ステップと
を有する制御方法。
It is a control method of a display system including a display unit for displaying an object and a storage unit for storing a reference list in which personal information of a plurality of users is registered.
A calculation step of calculating the number of users around the display unit and their respective positions based on the output signals of the sensors arranged around the display unit, and
An identification step that personally identifies each of the users around the display unit,
The display position and orientation of the object are adjusted and displayed on the display unit based on the result of comparing the number and position of users calculated in the calculation step and the identification information identified in the identification step with the reference list. A control method having a control step to be performed.
JP2019156457A 2019-08-29 2019-08-29 Display system and control method thereof Pending JP2021033907A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019156457A JP2021033907A (en) 2019-08-29 2019-08-29 Display system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019156457A JP2021033907A (en) 2019-08-29 2019-08-29 Display system and control method thereof

Publications (1)

Publication Number Publication Date
JP2021033907A true JP2021033907A (en) 2021-03-01

Family

ID=74677938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019156457A Pending JP2021033907A (en) 2019-08-29 2019-08-29 Display system and control method thereof

Country Status (1)

Country Link
JP (1) JP2021033907A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487968A (en) * 2021-07-12 2021-10-08 宁波视睿迪光电有限公司 Multi-person table top display system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487968A (en) * 2021-07-12 2021-10-08 宁波视睿迪光电有限公司 Multi-person table top display system

Similar Documents

Publication Publication Date Title
US9906725B2 (en) Portable video communication system
US20160343389A1 (en) Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium
JP6330056B2 (en) Information processing apparatus, information processing system, control method, and program
WO2012095917A1 (en) Electronic device and electronic device control program
US20230045237A1 (en) Wearable apparatus for active substitution
WO2019128101A1 (en) Projection region-adaptive dynamic projection method, apparatus, and electronic device
JPWO2016103988A1 (en) Information processing apparatus, information processing method, and program
JP2008269588A (en) Recognition device, recognition method, and recognition program
US20090251557A1 (en) Image pickup control method and apparatus for camera
JP5771998B2 (en) Electronic device and electronic device control program
JP5700963B2 (en) Information processing apparatus and control method thereof
JP6627775B2 (en) Information processing apparatus, information processing method and program
JP2011061461A (en) Imaging apparatus, directivity control method, and program therefor
JP2021033907A (en) Display system and control method thereof
KR20110085160A (en) Stenography input system and method for conference using face recognition
JP2016021259A (en) Electronic apparatus and control program for electronic apparatus
WO2010018770A1 (en) Image display device
JP2021033200A (en) Display system and control method thereof
JP2021033908A (en) Display system and control method thereof
JP2021033909A (en) Display system and control method thereof
JP2021033906A (en) Display system and control method thereof
JP2012146216A (en) Electronic device and program for controlling the same
JP5811537B2 (en) Electronics
US20220024046A1 (en) Apparatus and method for determining interaction between human and robot
JP2009060220A (en) Communication system and communication program