JP2011033993A - Information presenting apparatus and method for presenting information - Google Patents

Information presenting apparatus and method for presenting information Download PDF

Info

Publication number
JP2011033993A
JP2011033993A JP2009182619A JP2009182619A JP2011033993A JP 2011033993 A JP2011033993 A JP 2011033993A JP 2009182619 A JP2009182619 A JP 2009182619A JP 2009182619 A JP2009182619 A JP 2009182619A JP 2011033993 A JP2011033993 A JP 2011033993A
Authority
JP
Japan
Prior art keywords
user
information
unit
candidate
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2009182619A
Other languages
Japanese (ja)
Inventor
Kenichiro Yamamoto
健一郎 山本
Makoto Otsu
誠 大津
Sumio Sato
純生 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009182619A priority Critical patent/JP2011033993A/en
Publication of JP2011033993A publication Critical patent/JP2011033993A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information presenting apparatus presenting information to a large indefinite number of users by using an information presenting unit that can present information only to the finite number of users at a time, wherein the apparatus can present information to more users. <P>SOLUTION: The information presenting apparatus presents information to the large indefinite number of users by using an information presenting unit that can present information only to the finite number of users at a time, wherein the apparatus includes: a user condition-detecting unit that detects a user's condition; and a user selecting unit that sequentially changes users as objects to which the information presenting unit presents the information on the basis of the detection result of the user condition-detecting unit. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、情報提示装置、および情報提示方法に関する。   The present invention relates to an information presentation device and an information presentation method.

街頭や店頭などにおける広告手段として、電子ディスプレイを用いて情報を提示する、いわゆるデジタルサイネージが注目されている。広告は、いかに多くの人の目を惹きつけ印象を残せるかが重要である。その一つの手段として、立体感・奥行き感のある映像提示をデジタルサイネージに組み合わせるということが考えられる。   So-called digital signage, which presents information using an electronic display, has attracted attention as an advertising means in streets and stores. It is important for advertisements to attract many people's eyes and leave an impression. One way to do this is to combine video presentation with a sense of depth and depth with digital signage.

立体感・奥行き感のある映像提示の具体的手法にはいくつかあるが、その中の一つに運動視差を再現することによって立体感・奥行き感のある映像提示を行う手法がある。運動視差とは、人間が2次元の網膜像から3次元の空間を認知するための奥行き知覚の手がかりの一つである。人間が頭部の位置や向きを変化させるとその変化に応じて見える画像は異なる。例えば図44は、手前の下方に立方体1002が、奥の上方に球1003が置いてある状況をユーザ1001が見ている様子を示したものである。ユーザ1001が中央の位置に居る場合、ユーザ1001からは図45のように、視野の中央上部に球1003が、中央下部に立方体1002があるように見える。この時、立方体1002はその正面と上面が見えている。   There are several specific methods for presenting a video with a sense of depth and depth, and one of them is a method for presenting a video with a sense of depth and depth by reproducing motion parallax. Motion parallax is one of the clues of depth perception for a human to recognize a three-dimensional space from a two-dimensional retina image. When a human changes the position and orientation of the head, the images that are visible according to the change are different. For example, FIG. 44 shows a state where the user 1001 is viewing a situation in which a cube 1002 is placed on the lower side in front and a sphere 1003 is placed on the upper side in the back. When the user 1001 is at the center position, the user 1001 seems to have a sphere 1003 at the center upper part of the field of view and a cube 1002 at the center lower part as shown in FIG. At this time, the cube 1002 has its front and top surfaces visible.

次に、図44においてユーザ1001が中央からAの位置に平行移動した場合、ユーザ1001からは図46のように、球1003と立方体1002の両方が視野の右方向に移動して見え、かつ立方体1002の方が移動量が大きい。また、立方体1002はその正面と上面に加え、左側面が新たに見えるようになる。一方、図44においてユーザ1001が中央からBの位置に平行移動した場合は、図47のように球1003と立方体1002の両方が視野の左方向に移動して見え、かつ立方体1002の方が移動量が大きい。また、立方体1002はその正面と上面に加え、右側面が新たに見えるようになる。   Next, in FIG. 44, when the user 1001 translates from the center to the position A, both the sphere 1003 and the cube 1002 appear to move to the right of the field of view as shown in FIG. 1002 has a larger movement amount. In addition to the front and top surfaces of the cube 1002, the left side surface can be newly seen. On the other hand, when the user 1001 is translated from the center to the position B in FIG. 44, both the sphere 1003 and the cube 1002 appear to move to the left of the field of view as shown in FIG. 47, and the cube 1002 moves. The amount is large. In addition to the front and top surfaces of the cube 1002, the right side surface can be newly seen.

ここからユーザ1001は、視野における移動量の大きい立方体1002の方が球1003より手前にあることを認識することができるし、立方体1002の側面の見え方の変化から、立方体1002の奥行き構造を認識することができる。このように人間は自己の運動による頭部の位置や向きの変化とその時の見え方の違いの情報を統合して判断し、3次元の空間構造、すなわち立体感や奥行き感を知覚することができる。この知覚の仕組みを利用すると、人間の頭部の位置の変化に応じてディスプレイに出力する画像を適切に変えてやることによって、2次元の画像でありながらあたかも3次元画像であるかのように知覚させることが可能である。   From here, the user 1001 can recognize that the cube 1002 having a larger amount of movement in the visual field is in front of the sphere 1003, and recognize the depth structure of the cube 1002 from the change in the appearance of the side of the cube 1002. can do. In this way, humans can judge by integrating information on changes in the position and orientation of the head due to their own movement and the difference in appearance at that time, and can perceive a three-dimensional spatial structure, that is, a three-dimensional feeling and a sense of depth. it can. By using this perceptual mechanism, the image output to the display is appropriately changed according to the change in the position of the human head, so that it looks as if it is a three-dimensional image while it is a two-dimensional image. It is possible to perceive.

運動視差を再現して映像を提示する方法はいくつかある。その一つは、何らかのセンサを用いて人間の視点位置計測を行い、その視点位置から見える映像を再現するよう映像を生成して提示する方法である。例えば特許文献1では、表示装置の上部に設置したカメラで取得した画像によって人間の頭部位置を検出し、表示装置と頭部位置の相対関係に応じた映像を出力することで、運動視差を再現した映像を提示している。   There are several methods for reproducing motion parallax and presenting images. One of them is a method of measuring a human viewpoint position using some sensor, and generating and presenting an image so as to reproduce an image seen from the viewpoint position. For example, in Patent Literature 1, a human head position is detected from an image acquired by a camera installed on the upper part of a display device, and an image corresponding to the relative relationship between the display device and the head position is output, so that motion parallax is reduced. The reproduced video is presented.

デジタルサイネージは、駅・繁華街・デパートの通路や、店舗の店頭など、多くの人が行き交う場所に設置する場合が多いと考えられる。このように人が移動している場合が多い、すなわち人の頭部移動が多いと考えられる場所においては、このような運動視差再現による立体感・奥行き感のある映像提示は、より人目を引き、またより印象の強い広告になるという利点がある。また、運動視差再現の方法では、上記のように、正面からでは見えない部分が頭部を動かすことによって見える。よって、例えば何らかの商品の広告にこの方法を用いた場合は、商品の外観を様々な方向から見ることが可能であり、商品イメージをより具体的に人に伝えられるという利点がある。   Digital signage is often installed in places where many people come and go, such as stations, busy streets, department stores, and storefronts. In such a place where people are moving in many cases, that is, where it is considered that there is a lot of human head movement, presentation of images with a three-dimensional feeling and depth feeling by reproducing such motion parallax is more eye-catching. , And has the advantage of becoming a more impressive advertisement. In the method for reproducing motion parallax, as described above, a portion that cannot be seen from the front can be seen by moving the head. Therefore, for example, when this method is used for advertising a certain product, it is possible to see the appearance of the product from various directions, and there is an advantage that the product image can be conveyed to a person more specifically.

また、特許文献2には、利用者を検知する複数のセンサと、音声再生部から出力された音声信号を変調して超指向性スピーカにより超音波として放射される信号を生成する変調部と、超指向性スピーカの向きを変化させる支持台と、センサの検知信号に応じて音声再生部から音声信号を出力させると共に支持台を制御して超指向性スピーカの向きを変化させる制御部とを備えることで、移動した利用者を検知して音声の拡声範囲を追従させると共に、容易に設置することができる音声拡声装置が記載されている。   Patent Document 2 discloses a plurality of sensors for detecting a user, a modulation unit that modulates an audio signal output from an audio reproduction unit and generates a signal emitted as an ultrasonic wave from a superdirectional speaker, A support base that changes the direction of the superdirective speaker, and a control unit that outputs the audio signal from the sound reproduction unit according to the detection signal of the sensor and controls the support base to change the direction of the superdirective speaker. Thus, a voice loudspeaker is described that can detect a user who has moved to follow the loudspeak range of the voice and can be easily installed.

また、特許文献3には、上下左右に所定角度だけ回転することが出来るディスプレイ本体と、その前面に設けられたカメラおよびマイクと、ディスプレイの表示映像を視聴するユーザが複数存在する場合、その中からいずれか一人のユーザをターゲットユーザとして特定し、該ターゲットユーザが移動すると、ディスプレイ本体の姿勢を変化させて、ターゲットユーザの移動に追従させるコントローラとを有するテレビジョン装置が記載されている。また、特許文献3には、コントローラが特定したターゲットユーザを、ユーザが変更するターゲット変更部も記載されている。   Further, in Patent Document 3, when there are a plurality of users who view a display main body, a camera and a microphone provided on the front surface of the display main body, which can be rotated up and down, left and right, and a display video on the display, Describes a television device having a controller that specifies any one user as a target user and changes the posture of the display main body to follow the movement of the target user when the target user moves. Patent Document 3 also describes a target changing unit that changes the target user specified by the controller.

特開2008−146221号公報JP 2008-146221 A 特開2006−333122号公報JP 2006-333122 A 特開2006−324952号公報JP 2006-324952 A

しかしながら、上述の特許文献1や特許文献2などの同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う装置においては、上述の特許文献3のように、ターゲットユーザを決定しても、情報を提示できるユーザ数が限られてしまうという問題がある。   However, in an apparatus that presents information to an unspecified number of users using an information presentation unit that can present information only to a limited number of users at the same time, such as Patent Document 1 and Patent Document 2 described above, As in Reference 3, there is a problem that even if the target user is determined, the number of users who can present information is limited.

本発明は、このような事情に鑑みてなされたもので、その目的は、同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置および情報提示方法であって、より多くのユーザに情報を提示することができる情報提示装置および情報提示方法を提供することにある。   The present invention has been made in view of such circumstances, and its purpose is to present information to an unspecified number of users by using an information presenting unit that can simultaneously present information to only a finite number of users. An information presentation apparatus and an information presentation method that provide an information presentation apparatus and an information presentation method capable of presenting information to more users.

(1)この発明は上述した課題を解決するためになされたもので、本発明の情報提示装置は、同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置であって、前記ユーザの状態を検出するユーザ状態検出部と、前記ユーザ状態検出部の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更するユーザ選択部とを備えることを特徴とする。 (1) The present invention has been made to solve the above-described problems, and the information presenting apparatus of the present invention uses an information presenting unit that can present information to only a finite number of users at the same time. An information presentation device for presenting information to a user, a user state detection unit that detects the state of the user, and a user to whom the information presentation unit presents information based on a detection result of the user state detection unit And a user selection unit for sequentially changing the.

(2)また、本発明の情報提示装置は、上述の情報提示装置であって、前記ユーザ選択部は、前記ユーザ状態検出部の検出結果に基づき、前記対象のユーザの選択と解放とを繰り返すことで、前記対象のユーザを順次変更することを特徴とする。 (2) Moreover, the information presentation apparatus of this invention is the above-mentioned information presentation apparatus, Comprising: The said user selection part repeats selection and release | release of the said target user based on the detection result of the said user state detection part. Thus, the target users are sequentially changed.

(3)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記ユーザ選択部は、前記情報提示部が提示する情報に対する興味の度合いを示す情報と、前記情報提示部が提示する情報の伝達され易さを示す情報と、前記情報提示部により情報を提示された回数を示す情報とのうち、少なくとも一つを、各ユーザについて、前記ユーザ状態検出部の検出結果に基づき生成し、該生成した情報に基づき、前記対象のユーザの選択を行うことを特徴とする。 (3) Moreover, the information presentation device of the present invention is any one of the information presentation devices described above, wherein the user selection unit includes information indicating a degree of interest in the information presented by the information presentation unit, and the information Detection of at least one of the information indicating the ease of transmission of the information presented by the presenting unit and the information indicating the number of times the information is presented by the information presenting unit for each user by the user state detecting unit It is generated based on the result, and the target user is selected based on the generated information.

(4)また、本発明の情報提示装置は、上述の情報提示装置であって、前記ユーザ選択部は、選択されている時間を示す情報と、前記情報提示部が提示する情報に対する興味の度合いを示す情報と、前記情報提示部が提示する情報の伝達され易さを示す情報と、前記情報提示部により情報を提示された回数を示す情報とのうち、少なくとも一つを、選択中のユーザ各々について、前記ユーザ状態検出部の検出結果に基づき生成し、該生成した情報に基づき、解放するユーザの決定を行うことを特徴とする。 (4) Moreover, the information presentation apparatus of this invention is the above-mentioned information presentation apparatus, Comprising: The said user selection part is the degree of interest with respect to the information which shows the information which the selected time shows, and the said information presentation part A user who is selecting at least one of information indicating information, information indicating ease of transmission of information presented by the information presenting unit, and information indicating the number of times information is presented by the information presenting unit Each is generated based on the detection result of the user state detection unit, and the user to be released is determined based on the generated information.

(5)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの居る位置を示す情報を含むことを特徴とする。 (5) Moreover, the information presentation apparatus according to the present invention is any one of the information presentation apparatuses described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information is a position where the user is present. It is characterized by including the information which shows.

(6)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの向きを示す情報を含むことを特徴とする。 (6) Moreover, the information presentation apparatus of the present invention is any one of the information presentation apparatuses described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information indicates the orientation of the user. It is characterized by including information to show.

(7)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザと前記情報提示部との距離を示す情報を含むことを特徴とする。 (7) Moreover, the information presentation apparatus of the present invention is the information presentation apparatus described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information includes the user, the information presentation unit, and the like. It includes the information indicating the distance.

(8)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの静止度合いを示す情報を含むことを特徴とする。 (8) Moreover, the information presentation apparatus of the present invention is the information presentation apparatus described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information is information indicating the degree of stillness of the user. It is characterized by including.

(9)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記興味の度合いを示す情報を示す情報が、前記ユーザの頭部の動きを示す情報を含むことを特徴とする。 (9) Moreover, the information presentation apparatus according to the present invention is any one of the information presentation apparatuses described above, wherein the information indicating the degree of interest includes information indicating the movement of the user's head. It is characterized by.

(10)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報が、前記ユーザが選択されていない待ち時間を示す情報を含むことを特徴とする。 (10) Moreover, the information presentation apparatus of the present invention is the information presentation apparatus described above, wherein the information indicating the degree of interest includes information indicating a waiting time during which the user is not selected. .

(11)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報が、前記情報提示部との距離の当該ユーザが選択されてからの変化を示す情報を含むことを特徴とする。 (11) Moreover, the information presentation apparatus according to the present invention is the information presentation apparatus described above, and the information indicating the degree of interest indicates a change in distance from the information presentation unit since the user is selected. It is characterized by including information.

(12)また、本発明の情報提示装置は、上述の情報提示装置であって、前記ユーザ選択部は、選択されてから予め設定された時間が経過すると、前記選択されたユーザを解放することを特徴とする。 (12) Moreover, the information presentation apparatus according to the present invention is the information presentation apparatus described above, and the user selection unit releases the selected user when a preset time has elapsed since the selection. It is characterized by.

(13)また、本発明の情報提示方法は、同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置における情報提示方法であって、前記情報提示装置が、前記ユーザの状態を検出する第1の過程と、前記情報提示装置が、前記第1の過程の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更する第2の過程とを備えることを特徴とする。 (13) Further, the information presentation method of the present invention is an information presentation method in an information presentation apparatus that presents information to an unspecified number of users using an information presentation unit that can simultaneously present information to only a finite number of users. The information presentation device includes a first process for detecting the state of the user, and the information presentation unit provides information to be presented by the information presentation unit based on a detection result of the first process. And a second step of sequentially changing the users.

この発明によれば、ユーザの状態に基づき、情報提示部が情報を提示する対象のユーザを順次変更するので、より多くのユーザに情報を提示することができる。   According to the present invention, the information presenting unit sequentially changes the users to whom information is presented based on the state of the user, so that information can be presented to more users.

本発明の第1の実施形態における運動視差再現映像提示システムのハードウェア構成を示す斜視図である。It is a perspective view which shows the hardware constitutions of the motion parallax reproduction image presentation system in the 1st Embodiment of this invention. 同実施形態における運動視差再現映像提示システムのハードウェア構成示す上面図である。It is a top view which shows the hardware constitutions of the motion parallax reproduction video presentation system in the embodiment. 同実施形態における運動視差再現映像生成装置10の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the motion parallax reproduction image generation apparatus 10 in the embodiment. 同実施形態におけるユーザ情報記録部13に記録するデータの階層構造と、その詳細を示す図である。It is a figure which shows the hierarchical structure of the data recorded on the user information recording part 13 in the embodiment, and the detail. 同実施形態におけるシステム情報記録部14に記録するデータのリストを示す図である。It is a figure which shows the list | wrist of the data recorded on the system information recording part 14 in the embodiment. 同実施形態におけるユーザ情報記録部13およびシステム情報記録部14が記憶するデータが表す情報を説明する斜視図である。It is a perspective view explaining the information which the data which the user information recording part 13 and the system information recording part 14 in the embodiment represent memorize | stores. 同実施形態におけるユーザ情報記録部13およびシステム情報記録部14が記憶するデータが表す情報を説明する上面図である。It is a top view explaining the information which the data which the user information recording part 13 in the same embodiment and the system information recording part 14 store represents. 同実施形態におけるユーザ選択・解放処理部15の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the user selection / release process part 15 in the embodiment. 同実施形態における被選択ユーザ追加処理(S2)を説明するフローチャートである。It is a flowchart explaining the selected user addition process (S2) in the embodiment. 同実施形態における被選択ユーザ解放処理(S3)を説明するフローチャートである。It is a flowchart explaining the selected user release process (S3) in the embodiment. 同実施形態における適合度F_n(t)及び被選択時間指数R_n(t)の算出に用いる中間変数の一覧を示す図である。It is a figure which shows the list of the intermediate variables used for calculation of the fitness F_n (t) and the selected time index | exponent R_n (t) in the embodiment. 同実施形態におけるユーザ正対度C_n(t)の算出方法を説明する上面図である。It is a top view explaining the calculation method of user confrontation degree C_n (t) in the embodiment. 同実施形態におけるサービスエリア適合度A_n(t)の算出方法に関する説明図(上面図)である。It is explanatory drawing (top view) regarding the calculation method of service area adaptation A_n (t) in the embodiment. 同実施形態におけるサービスエリア適合度A_n(t)の別の算出方法に関する説明図(上面図)である。It is explanatory drawing (top view) regarding another calculation method of service area suitability A_n (t) in the embodiment. 同実施形態におけるユーザ情報検出部12の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the user information detection part 12 in the embodiment. 同実施形態におけるユーザ位置・向き算出部19の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the user position and direction calculation part 19 in the embodiment. 同実施形態におけるユーザ3次元情報生成部20の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the user three-dimensional information generation part 20 in the embodiment. 同実施形態における天井に設置された距離測定カメラ91、距離測定カメラ92、距離測定カメラ93が、地面に2人の候補ユーザが立っているシーンを撮影している様子を横から見た図である。The distance measurement camera 91, the distance measurement camera 92, and the distance measurement camera 93 installed on the ceiling in the same embodiment are viewed from the side, taking a scene where two candidate users are standing on the ground. is there. 同実施形態における距離測定カメラ91によって撮影された距離データによるシルエット情報を説明する図である。It is a figure explaining the silhouette information by the distance data image | photographed with the distance measurement camera 91 in the embodiment. 同実施形態における距離測定カメラ92によって撮影された距離データによるシルエット情報を説明する図である。It is a figure explaining the silhouette information by the distance data image | photographed with the distance measurement camera 92 in the embodiment. 同実施形態における距離測定カメラ93によって撮影された距離データによるシルエット情報を説明する図である。It is a figure explaining the silhouette information by the distance data image | photographed with the distance measurement camera 93 in the embodiment. 同実施形態における3つのシルエット情報を統合し共通領域を算出した様子を示す図である。It is a figure which shows a mode that three silhouette information in the same embodiment was integrated and the common area | region was calculated. 同実施形態における統合したシルエットから床上50cm以下の領域のシルエットを削除した様子を示す図である。It is a figure which shows a mode that the silhouette of the area | region below 50 cm on a floor was deleted from the integrated silhouette in the same embodiment. 同実施形態における統合したシルエットを所定の大きさのブロックに分割した様子を示す図である。It is a figure which shows a mode that the integrated silhouette in the same embodiment was divided | segmented into the block of a predetermined size. 同実施形態におけるシルエットを分割したブロックがクラスタリングにより2つのクラスタに分類された様子を示す図である。It is a figure which shows a mode that the block which divided | segmented the silhouette in the same embodiment was classified into two clusters by clustering. 同実施形態におけるクラスタごとに上部から24cmより下のシルエットを削除した様子を示す図である。It is a figure which shows a mode that the silhouette below 24 cm from the upper part was deleted for every cluster in the same embodiment. 同実施形態におけるユーザ情報照合部21の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the user information collation part 21 in the embodiment. 同実施形態における図27のステップS51(現在の情報の統合処理)を説明するフローチャートである。It is a flowchart explaining step S51 (current information integration process) of FIG. 27 in the embodiment. 同実施形態における図27のステップS52(過去の情報との統合処理)を説明するフローチャートである。It is a flowchart explaining step S52 (integration processing with past information) of FIG. 27 in the embodiment. 同実施形態における図29のステップS72(情報更新処理)を説明するフローチャートである。It is a flowchart explaining step S72 (information update process) of FIG. 29 in the embodiment. 同実施形態における運動視差再現映像を画面の一部のみに表示する例を説明する図である。It is a figure explaining the example which displays the motion parallax reproduction image in the embodiment only on a part of screen. 同実施形態における2名の被選択ユーザに運動視差再現映像を提示する例を説明する図である。It is a figure explaining the example which shows a motion parallax reproduction image to two selected users in the embodiment. 同実施形態における画面を2つの領域に分割可能なシステムとA、B、Cの3つの視点位置を示した図である。It is the figure which showed the system which can divide | segment a screen into two area | regions, and three viewpoint positions of A, B, and C in the embodiment. 同実施形態における面を2つの領域に分割可能なシステムとA、B、Cの3つの視点位置を示した上面図である。It is the top view which showed the system which can divide | segment the surface into two area | regions, and three viewpoint positions of A, B, and C in the embodiment. 本発明の第2の実施の形態における運動視差再現映像生成装置10の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the motion parallax reproduction image generation device 10 in the 2nd Embodiment of this invention. 同実施形態におけるユーザ選択処理部26の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the user selection process part 26 in the embodiment. 同実施形態における図36のステップS91(被選択ユーザの選択処理)を説明するフローチャートである。It is a flowchart explaining step S91 (selection user selection process) of FIG. 36 in the embodiment. 本発明の第3の実施形態における広告表示システムのハードウェア構成を示す斜視図である。It is a perspective view which shows the hardware constitutions of the advertisement display system in the 3rd Embodiment of this invention. 同実施形態における広告映像再生装置27の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the advertisement video reproduction apparatus 27 in the same embodiment. 本発明の第4の実施形態における音声ガイドシステムのハードウェア構成を示す斜視図である。It is a perspective view which shows the hardware constitutions of the audio | voice guidance system in the 4th Embodiment of this invention. 同実施形態における音声再生装置31の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the audio | voice reproduction apparatus 31 in the embodiment. 同実施形態における2名に音声情報提示が可能な音声ガイドシステムとA、B、Cの3つの視点位置を示した図である。It is the figure which showed three viewpoint positions of the audio | voice guide system and A, B, and C which can present audio | voice information to two persons in the embodiment. 同実施形態における2名に音声情報提示が可能な音声ガイドシステムとA、B、Cの3つの視点位置を示した図(上面図)である。It is the figure (top view) which showed three viewpoint positions of the audio | voice guide system and A, B, and C which can present audio | voice information to two persons in the embodiment. 手前の下方に立方体1002が、奥の上方に球1003が置いてある状況をユーザ1001が見ている様子を示した図である。It is the figure which showed a mode that the user 1001 was looking at the condition where the cube 1002 has been placed in the lower front and the ball 1003 in the upper rear. ユーザ1001が中央の位置に居る場合にユーザ1001から見た立方体1002と球1003の様子を示す図である。It is a figure which shows the mode of the cube 1002 and the ball | bowl 1003 seen from the user 1001 when the user 1001 exists in the center position. ユーザ1001が中央からAの位置に異動した場合にユーザ1001から見た立方体1002と球1003の様子を示す図である。It is a figure which shows the mode of the cube 1002 and the sphere 1003 seen from the user 1001 when the user 1001 is moved to the position A from the center. ユーザ1001が中央からBの位置に異動した場合にユーザ1001から見た立方体1002と球1003の様子を示す図である。It is a figure which shows the mode of the cube 1002 and the sphere 1003 seen from the user 1001 when the user 1001 is moved from the center to the position B.

[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態について説明する。なお、以下では、本発明を実施する運動視差再現映像提示システムに選択されたユーザを被選択ユーザと呼び、該システムの周りに居て該システムに選択されうる可能性のあるユーザを、候補ユーザと呼ぶ。図1および図2は、本発明の第1の実施の形態における運動視差再現映像提示システムのハードウェア構成を示す図である。本実施形態における運動視差再現映像提示システムは、ディスプレイ6、カメラ7、複数のカメラ8、複数の距離測定カメラ9、運動視差再現映像生成装置10を備える。図1、図2では、ディスプレイ6の前面にいる2名の候補ユーザ5のうちの1名がディスプレイ6に表示されている運動視差再現映像を見ている様子を示している。なお、図1は、運動視差再現映像提示システムを斜め上方から見下ろした斜視図であり、図2は上面図である。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. Hereinafter, a user selected in the motion parallax reproduction video presentation system that implements the present invention is referred to as a selected user, and a user who is around the system and may be selected by the system is a candidate user. Call it. 1 and 2 are diagrams illustrating a hardware configuration of the motion parallax reproduction video presentation system according to the first embodiment of the present invention. The motion parallax reproduction video presentation system in this embodiment includes a display 6, a camera 7, a plurality of cameras 8, a plurality of distance measurement cameras 9, and a motion parallax reproduction video generation device 10. 1 and 2 show a state in which one of the two candidate users 5 on the front face of the display 6 is viewing the motion parallax reproduction image displayed on the display 6. 1 is a perspective view of the motion parallax reproduction video presentation system as viewed from obliquely above, and FIG. 2 is a top view.

カメラ7は、ディスプレイ6の上部に設置し、ディスプレイ6の前方近傍にいる候補ユーザを撮影する。本実施形態では1台のみ設置してあるが、複数台であってもよい。
カメラ8は、ディスプレイ6の近傍を含む領域であって、カメラ7の撮影領域より広い領域内にいる候補ユーザを様々な方向から撮影するように設置されている。図1および図2では、4方向からディスプレイ6の前方の領域をカバーするよう、4個のカメラ8を設置されているが、この数に限るものではなく、より多くあるいはより少ない数のカメラ8を設置されるようにしても良い。なお、各カメラ8は運動視差再現映像生成装置10に接続し、撮像結果を出力するが、図の煩雑さを避けるために図1、図2において接続を示す線は、図示しない。また、カメラ7は、ディスプレイ6の上部に、複数のカメラ8は、天井部分に設置されているが、これらは同一の機能を備えるものであってもよい。
The camera 7 is installed on the upper part of the display 6 and photographs candidate users in the vicinity of the front of the display 6. In the present embodiment, only one unit is installed, but a plurality of units may be provided.
The camera 8 is an area including the vicinity of the display 6 and is installed so as to photograph candidate users in an area wider than the photographing area of the camera 7 from various directions. In FIG. 1 and FIG. 2, four cameras 8 are installed so as to cover the area in front of the display 6 from four directions, but the number is not limited to this, and a larger or smaller number of cameras 8 is provided. May be installed. Note that each camera 8 is connected to the motion parallax reproduction video generation device 10 and outputs an imaging result. However, in order to avoid complication of the drawings, lines indicating connection are not shown in FIGS. 1 and 2. Moreover, although the camera 7 is installed in the upper part of the display 6 and the some camera 8 is installed in the ceiling part, these may be provided with the same function.

距離測定カメラ9は、天井から下方向に向けて設置する。通常のカメラはピクセルごとに被写体の輝度や色の情報を取得し画像データとして出力する。これに対して距離測定カメラ9は、通常の画像データと共に、あるいは通常の画像データに代えて、ピクセルごとに被写体までの距離のデータを取得し距離画像データとして出力するカメラである。このようなカメラは既に実用化・市販されており、例えばMESA社の製品「SwissRanger SR3000」は、176×144ピクセルの解像度のモノクロの通常画像と、同解像度の距離画像を取得することができる。これらの距離測定カメラ9は、ディスプレイ6の近傍を含むより広い領域内にいる候補ユーザを撮影するように設置する。図1および図2では、9個の距離測定カメラ9を設置しているが、この数に限るものではなく、より多いあるいはより少ない数の距離測定カメラ9を設置しても良い。なお、各距離測定カメラ9は運動視差再現映像生成装置10に接続するが、図の煩雑さを避けるために接続を示す線は、図示しない。   The distance measuring camera 9 is installed downward from the ceiling. A normal camera acquires information on luminance and color of a subject for each pixel and outputs it as image data. On the other hand, the distance measuring camera 9 is a camera that acquires distance data to a subject for each pixel together with normal image data or instead of normal image data and outputs it as distance image data. Such a camera has already been put into practical use and commercially available. For example, a product “SwissRanger SR3000” manufactured by MESA can acquire a monochrome normal image having a resolution of 176 × 144 pixels and a distance image having the same resolution. These distance measuring cameras 9 are installed so as to photograph candidate users in a wider area including the vicinity of the display 6. In FIG. 1 and FIG. 2, nine distance measuring cameras 9 are installed. However, the number is not limited to this number, and a larger or smaller number of distance measuring cameras 9 may be installed. Note that each distance measuring camera 9 is connected to the motion parallax reproduction video generation device 10, but a line indicating the connection is not shown in order to avoid complexity of the drawing.

運動視差再現映像生成装置10は、カメラ7、複数のカメラ8、複数の距離測定カメラ9で撮影した画像情報及び距離情報から複数の候補ユーザの位置や向きを検出する処理、複数の候補ユーザの中から1名ないし数名を選択・開放する処理、選択した候補ユーザの視点位置に応じた映像を生成してディスプレイ6に出力する処理などを行う。それらの処理の詳細は以下に順に述べる。なお、より広い範囲において候補ユーザの情報を取得する場合は、より多数の距離測定カメラ9を設置したり、より多数のカメラ8を様々な場所に様々な向きで設置したりしておく。   The motion parallax reproduction video generation device 10 performs processing for detecting the positions and orientations of a plurality of candidate users from image information and distance information captured by the camera 7, the plurality of cameras 8, and the plurality of distance measurement cameras 9. A process of selecting and releasing one or several persons from among them, a process of generating an image according to the viewpoint position of the selected candidate user, and outputting the image to the display 6 are performed. Details of these processes will be described in order below. In addition, when acquiring candidate user information in a wider range, a larger number of distance measurement cameras 9 are installed, or a larger number of cameras 8 are installed in various locations in various directions.

図3は、運動視差再現映像生成装置10の構成を示す概略ブロック図である。本実施形態では、説明を簡単にするため、三次元CGモデルによる運動視差再現映像を生成する場合を例に説明するが、その他の方法で運動視差再現映像を生成するようにしてもよい。運動視差再現映像生成装置10(情報提示装置)は、カメラ7、複数のカメラ8、複数の距離測定カメラ9からの情報を入力し、生成した映像をディスプレイ6(情報提示部)に出力する。動視差再現映像生成装置10は、カメラ関連情報保存部11、ユーザ情報検出部12、ユーザ情報記録部13、システム情報記録部14、ユーザ選択・解放処理部15、映像生成部16、ディスプレイ関連情報保存部17、三次元CGモデルデータ保存部18を備える。   FIG. 3 is a schematic block diagram illustrating a configuration of the motion parallax reproduction video generation device 10. In the present embodiment, in order to simplify the description, a case where a motion parallax reproduction image based on a three-dimensional CG model is generated will be described as an example. However, a motion parallax reproduction image may be generated by other methods. The motion parallax reproduction video generation device 10 (information presentation device) receives information from the camera 7, the plurality of cameras 8, and the plurality of distance measurement cameras 9, and outputs the generated video to the display 6 (information presentation unit). The dynamic parallax reproduction video generation device 10 includes a camera related information storage unit 11, a user information detection unit 12, a user information recording unit 13, a system information recording unit 14, a user selection / release processing unit 15, a video generation unit 16, and display related information. A storage unit 17 and a three-dimensional CG model data storage unit 18 are provided.

カメラ関連情報保存部11には、カメラ7の画角、ディスプレイ6に対するカメラ7の取り付け位置や向きの情報、カメラ8の画角、ディスプレイ6に対するカメラ8の取り付け位置や向きの情報、距離測定カメラ9の画角、ディスプレイ6に対する距離測定カメラ9の取り付け位置や向きの情報を保持している。ユーザ情報検出部12(ユーザ状態検出部)は、候補ユーザの状態を検出する。すなわち、本実施形態では、ユーザ情報検出部12は、カメラ7、カメラ8、距離測定カメラ9で取得した画像情報及び距離情報と、カメラ関連情報保存部11に保存された情報と、ユーザ情報記録部13に記録された情報から、複数の候補ユーザの状態(頭部の位置および向き)を、それぞれ算出する。さらに、ユーザ情報検出部12は、各候補ユーザの過去の頭部の位置および向きの情報と現在の情報とを照らし合わせ、同一候補ユーザの情報を特定してユーザ情報記録部13に記録する。   The camera-related information storage unit 11 includes an angle of view of the camera 7, information on the attachment position and orientation of the camera 7 with respect to the display 6, an angle of view of the camera 8, information on the attachment position and orientation of the camera 8 with respect to the display 6, and a distance measurement camera. 9, and information on the mounting position and orientation of the distance measuring camera 9 with respect to the display 6 are held. The user information detection unit 12 (user state detection unit) detects the status of the candidate user. That is, in this embodiment, the user information detection unit 12 includes image information and distance information acquired by the camera 7, the camera 8, and the distance measurement camera 9, information stored in the camera related information storage unit 11, and user information recording. From the information recorded in the unit 13, the states (head positions and orientations) of a plurality of candidate users are calculated. Further, the user information detection unit 12 compares the information on the past head position and orientation of each candidate user with the current information, specifies the information of the same candidate user, and records it in the user information recording unit 13.

ユーザ情報記録部13は、各候補ユーザの現在及び過去の情報を記憶する。システム情報記録部14は、該運動視差再現映像提示システムに関する情報を記憶する。ユーザ選択・解放処理部15(ユーザ選択部)は、ユーザ情報検出部12の検出結果に基づき、ディスプレイ6が情報を提示する対象のユーザを順次変更する。すなわち、本実施形態では、ユーザ選択・解放処理部15は、ユーザ情報検出部12の検出結果に基づき、各候補ユーザの中から適切な候補ユーザを選択して被選択ユーザを決定すると共に、被選択ユーザの中で所定の条件に合致する者を被選択ユーザから解放する処理を繰り返し行う。このとき、ユーザ選択・解放処理部15は、ユーザの選択、解放に関する情報をユーザ情報記録部13およびシステム情報記録部14に記録する。さらにユーザ選択・解放処理部15は、現在の被選択ユーザに関する情報を映像生成部16に送る。   The user information recording unit 13 stores current and past information of each candidate user. The system information recording unit 14 stores information related to the motion parallax reproduction video presentation system. The user selection / release processing unit 15 (user selection unit) sequentially changes the user to whom the display 6 presents information based on the detection result of the user information detection unit 12. That is, in the present embodiment, the user selection / release processing unit 15 selects an appropriate candidate user from each candidate user based on the detection result of the user information detection unit 12 and determines the selected user. A process of releasing a selected user who meets a predetermined condition from the selected user is repeatedly performed. At this time, the user selection / release processing unit 15 records information on user selection / release in the user information recording unit 13 and the system information recording unit 14. Further, the user selection / release processing unit 15 sends information regarding the currently selected user to the video generation unit 16.

ディスプレイ関連情報保存部17は、ディスプレイ6の表示部分の大きさ、解像度の情報を保持している。三次元CGモデルデータ保存部18は、三次元CGを表示するためのモデルに関する情報を記憶している。例えば、球と立方体とが配置された映像を表示する場合は、球と立方体のモデルデータ及びそれらのモデルの仮想的な配置の情報を予め記憶している。映像生成部16は、ユーザ選択・解放処理部15から送られた被選択ユーザに関する情報と、ディスプレイ関連情報保存部17に保存された情報と、三次元CGモデルデータ保存部18に保存された情報を用いて、被選択ユーザの視点位置から見た画像を合成し、ディスプレイ6に出力する。   The display related information storage unit 17 holds information on the size and resolution of the display portion of the display 6. The three-dimensional CG model data storage unit 18 stores information related to a model for displaying a three-dimensional CG. For example, when displaying an image in which a sphere and a cube are arranged, model data of the sphere and the cube and information on the virtual arrangement of those models are stored in advance. The video generation unit 16 includes information on the selected user sent from the user selection / release processing unit 15, information stored in the display related information storage unit 17, and information stored in the 3D CG model data storage unit 18. Is used to synthesize an image viewed from the viewpoint position of the selected user and output it to the display 6.

次に、各ブロックの処理の詳細について説明する。まず、ユーザ情報記録部13及びシステム情報記録部14が記憶するデータについて説明する。図4は、ユーザ情報記録部13が記憶するデータの階層構造と、その詳細を説明する図である。ユーザ情報記録部13は、候補ユーザのリストと、リストに記録された各候補ユーザに関する情報(候補ユーザの状態の情報)を記憶する。各候補ユーザにはID番号を付与し、それを候補ユーザのリストに記憶する。   Next, details of the processing of each block will be described. First, data stored in the user information recording unit 13 and the system information recording unit 14 will be described. FIG. 4 is a diagram for explaining the hierarchical structure of data stored in the user information recording unit 13 and its details. The user information recording unit 13 stores a list of candidate users and information (candidate user status information) regarding each candidate user recorded in the list. Each candidate user is given an ID number and stored in the candidate user list.

階層構造の最上位は候補ユーザのIDリストであり、1、2、...n、...というように、順に候補ユーザのID番号を記憶する。候補ユーザのID番号の各々に対して、現在の被選択時間T_n、現在の待ち時間W_n、過去選ばれた回数N_n、時刻リストを記憶する。現在の被選択時間T_nは、候補ユーザnが被選択ユーザとなっている場合は、被選択ユーザになってからの時間を表す情報であり、現在被選択ユーザで無い場合は、「0」である。現在の待ち時間W_nは、候補ユーザnが本システムに認識されてからの時間、ないしは、被選択ユーザから外れてからの時間を表す情報であり、候補ユーザnが被選択ユーザになっている間は、「0」にリセットされる。   At the top of the hierarchical structure is an ID list of candidate users, 1, 2,. . . n,. . . As such, the ID numbers of candidate users are stored in order. For each candidate user ID number, the current selected time T_n, the current waiting time W_n, the number N_n of past selections, and the time list are stored. The current selected time T_n is information indicating the time since becoming the selected user when the candidate user n is the selected user, and is “0” when the candidate user n is not the currently selected user. is there. The current waiting time W_n is information indicating the time after the candidate user n is recognized by the system, or the time since the candidate user n is removed from the selected user, while the candidate user n is the selected user. Is reset to “0”.

過去選ばれた回数N_nは、候補ユーザnがこれまでに被選択ユーザとして選ばれた回数を表す情報である。さらに、時刻リストはt1、t2、...t、...というように、順にデータを記録した各時刻の値を記憶する。各時刻に対して、該時刻における候補ユーザに関する情報(位置情報P_n(t)、頭部の向きD_n(t))をさらに下位の情報として記憶する。位置情報P_n(t)は、時刻tにおける候補ユーザnの頭部の中心位置を表す情報である。頭部の向きD_n(t)は、時刻tにおける顔の正面方向の単位ベクトルの値を表す情報である。   The number N_n of past selections is information representing the number of times that the candidate user n has been selected as a selected user so far. In addition, the time list is t1, t2,. . . t,. . . As described above, the time value at which the data is recorded is stored in order. For each time, information on the candidate user at that time (position information P_n (t), head orientation D_n (t)) is stored as lower information. The position information P_n (t) is information representing the center position of the head of the candidate user n at time t. The head direction D_n (t) is information representing the value of the unit vector in the front direction of the face at time t.

図5は、システム情報記録部14が記憶するデータの階層構造と、その詳細を説明する図である。システム情報記録部14は、該運動視差再現映像提示システムに関する情報を記憶する。最大選択可能人数Max、現在の選択人数U、位置Ps、向きDsを、該運動視差再現映像提示システムに関する情報として記憶する。最大選択可能人数Maxは、該運動視差再現映像提示システムが最大で対応可能なユーザの数である。例えば、ディスプレイ6の画面全部を使って1人のユーザに対して運動視差再現映像を提供する場合は、Max=1である。また例えば、ディスプレイ6の画面を左右の2つの領域に分割し、それぞれ1人ずつ、合計2名のユーザに対して運動視差再現映像を提供する場合は、Max=2である。さらに、ディスプレイ6の画面を3つの領域に分割し、それぞれ1人ずつ、合計3名のユーザに対して運動視差再現映像を提供する場合は、Max=3である。   FIG. 5 is a diagram for explaining the hierarchical structure of data stored in the system information recording unit 14 and its details. The system information recording unit 14 stores information related to the motion parallax reproduction video presentation system. The maximum selectable number of persons Max, the currently selected number of persons U, the position Ps, and the direction Ds are stored as information related to the motion parallax reproduction video presentation system. The maximum selectable number Max is the number of users that the motion parallax reproduction video presentation system can handle at the maximum. For example, when the motion parallax reproduction image is provided to one user using the entire screen of the display 6, Max = 1. Further, for example, when the screen of the display 6 is divided into two areas on the left and right sides, and each person provides motion parallax reproduction images to a total of two users, Max = 2. Furthermore, when the screen of the display 6 is divided into three regions and motion parallax reproduction images are provided to a total of three users, one each, Max = 3.

現在の選択人数Uは、現在該運動視差再現映像提示システムが何名のユーザに対して運動視差再現映像を提供しているかを示す値である。例えば、現在誰にも運動視差再現映像を提供していない場合は、U=0である。また例えば、ディスプレイ6の画面を3つの領域に分割し、それぞれ1人ずつ、合計3名のユーザに対して運動視差再現映像を提供できるシステム、すなわちMax=3のシステムにおいて、その分割された画面の領域のうち1つを用いて1人のユーザに運動視差再現映像を提供し、残りの2つの領域では誰にも運動視差再現映像を提供していない場合は、U=1である。位置Psは、該運動視差再現映像提示システムのディスプレイ6の画面の中央の座標である。向きDsは、該運動視差再現映像提示システムのディスプレイ6の画面の向いている方向をあらわすベクトルであり、ディスプレイ6の映像を出力する側を正とした単位法線ベクトルの値である。   The current number of selected people U is a value indicating how many users the motion parallax reproduction video presentation system currently provides the motion parallax reproduction video. For example, if no motion parallax reproduction video is currently provided to anyone, U = 0. Further, for example, in a system that can divide the screen of the display 6 into three regions and provide motion parallax reproduction images for each of three users, that is, a system with Max = 3, the divided screens. U = 1 when a motion parallax reproduction image is provided to one user using one of the regions, and no motion parallax reproduction image is provided to anyone in the remaining two regions. The position Ps is a coordinate at the center of the screen of the display 6 of the motion parallax reproduction video presentation system. The direction Ds is a vector that represents the direction in which the screen of the display 6 of the motion parallax reproduction video presentation system is facing, and is a unit normal vector value in which the video output side of the display 6 is positive.

図6と図7に、ユーザ情報記録部13およびシステム情報記録部14が記憶するデータの一部を図示し、その関係を説明する。図6は、ディスプレイ6の前に2名の候補ユーザが居る場面を斜め上から見た図である。このような場合において、候補ユーザnの位置P_n(t)、候補ユーザnの向きD_n(t)、システムの位置Ps、システムの向きDsは、図6に示した位置あるいは向きの情報になる。同じ場面を真上から見た図が、図7である。   FIG. 6 and FIG. 7 illustrate some of the data stored in the user information recording unit 13 and the system information recording unit 14, and their relationship will be described. FIG. 6 is a view of a scene in which there are two candidate users in front of the display 6 as viewed from diagonally above. In such a case, the position P_n (t) of the candidate user n, the direction D_n (t) of the candidate user n, the system position Ps, and the system direction Ds are information on the position or orientation shown in FIG. FIG. 7 shows the same scene viewed from directly above.

図8は、ユーザ選択・解放処理部15の処理を説明するフローチャートである。なお、以下の説明では、該運動視差再現映像提示システムの各処理は、一定の時間間隔で実行されているものとし、現在の時刻をt、それより一つ前の時点における処理によってユーザ情報記録部13が記憶しているデータの時刻を時刻t’、その差分をdt=t−t’とする。すなわちdtはある回の処理とその次の回の処理との間の時間間隔(これを以下では処理の単位時間と呼ぶ)であり、1/dtが1秒あたりの処理回数、言い換えれば処理のリフレッシュレートである。   FIG. 8 is a flowchart for explaining the processing of the user selection / release processing unit 15. In the following description, it is assumed that each process of the motion parallax reproduction video presentation system is executed at regular time intervals, and the current time is t, and the user information recording is performed by the process at the previous time. The time of the data stored in the unit 13 is time t ′, and the difference is dt = t−t ′. That is, dt is a time interval between one process and the next process (hereinafter referred to as a process unit time), and 1 / dt is the number of processes per second, in other words, the process time. Refresh rate.

ユーザ選択・解放処理部15は、前記の通り、各候補ユーザの中から適切な候補ユーザを選択して被選択ユーザを決定すると共に、被選択ユーザの中で所定の条件に合致する者を被選択ユーザから解放する処理を行い、その情報をユーザ情報記録部13およびシステム情報記録部14に記録する。さらにユーザ選択・解放処理部15は、現在の被選択ユーザに関する情報を映像生成部16に送る。   As described above, the user selection / release processing unit 15 selects an appropriate candidate user from each candidate user to determine a selected user, and selects a user who meets a predetermined condition among the selected users. A process of releasing from the selected user is performed, and the information is recorded in the user information recording unit 13 and the system information recording unit 14. Further, the user selection / release processing unit 15 sends information regarding the currently selected user to the video generation unit 16.

図8に示すように、ユーザ選択・解放処理部15は、被選択ユーザの情報更新処理(S1)と、被選択ユーザ追加処理(S2)と、被選択ユーザ解放処理(S3)と、被選択ユーザ情報送信処理(S4)を、順に繰り返す処理を行う。
まず、被選択ユーザの情報更新処理(S1)の詳細を説明する。ユーザ情報記録部13が記憶している候補ユーザの情報において、T_n≠0であるユーザが被選択ユーザであり、W_n≠0であるユーザが、被選択ユーザ以外の候補ユーザである。そこで、ユーザ選択・解放処理部15は、T_n≠0である全てのユーザ、すなわち被選択ユーザ全てに対して、T_n=T_n+(t−t’)という処理を行い、被選択時間T_nをインクリメントする。
As shown in FIG. 8, the user selection / release processing unit 15 includes a selected user information update process (S1), a selected user addition process (S2), a selected user release process (S3), and a selected user. The user information transmission process (S4) is sequentially repeated.
First, details of the information update process (S1) of the selected user will be described. In the information on candidate users stored in the user information recording unit 13, a user who has T_n ≠ 0 is a selected user, and a user who has W_n ≠ 0 is a candidate user other than the selected user. Therefore, the user selection / release processing unit 15 performs a process of T_n = T_n + (t−t ′) for all users where T_n ≠ 0, that is, all selected users, and increments the selected time T_n. .

続いて、被選択ユーザ追加処理(S2)の詳細を図9に示す。まず、ユーザ選択・解放処理部15は、被選択ユーザ以外の候補ユーザを抽出する(S11)。前記のように、ユーザ情報記録部13に記録されている候補ユーザの情報において、T_n≠0であるユーザが被選択ユーザであり、W_n≠0であるユーザが被選択ユーザ以外の候補ユーザである。よって、ユーザ選択・解放処理部15は、W_n≠0であるユーザを抽出する。この抽出したユーザを以降、「追加処理対象ユーザ」という。次に、ユーザ選択・解放処理部15は、各追加処理対象ユーザに関して適合度F_n(t)を算出する(S12)。ここで、適合度F_n(t)とは、候補ユーザnについて、システムの被選択ユーザとしての相応しさ・適合度を測るための値である。適合度F_n(t)がより高いほど、より被選択ユーザとしての相応しいことを示す。その具体的な算出方法については、後述する。   Next, details of the selected user addition process (S2) are shown in FIG. First, the user selection / release processing unit 15 extracts candidate users other than the selected user (S11). As described above, in the candidate user information recorded in the user information recording unit 13, a user who has T_n ≠ 0 is a selected user, and a user who has W_n ≠ 0 is a candidate user other than the selected user. . Therefore, the user selection / release processing unit 15 extracts users for which W_n ≠ 0. The extracted user is hereinafter referred to as “additional process target user”. Next, the user selection / release processing unit 15 calculates the fitness F_n (t) for each additional processing target user (S12). Here, the fitness F_n (t) is a value for measuring the suitability / fitness of the candidate user n as a selected user of the system. The higher the fitness F_n (t), the more suitable the user as the selected user. The specific calculation method will be described later.

次に、ユーザ選択・解放処理部15は、F_n(t)<Fconstである追加処理対象ユーザを除外する(S13)。これは、例え現在の選択人数Uが最大選択可能人数Max以下であっても、適合度が所定の閾値Fconst以下、すなわち被選択ユーザとして相応しくない追加処理対象ユーザを被選択ユーザとすることを避け、不要なサービスを行わないことを目的とする処理である。ステップS13の処理で残った追加処理対象ユーザの数をkとする。   Next, the user selection / release processing unit 15 excludes additional processing target users that satisfy F_n (t) <FConst (S13). This avoids setting the user to be selected as an additional processing target user who is not suitable as a selected user even if the current selected number U is equal to or less than the maximum selectable number Max. This is a process intended to prevent unnecessary services from being performed. Let k be the number of additional processing target users remaining in step S13.

次に、ユーザ選択・解放処理部15は、k>0であるか否かを判定する(S14)。この判定の結果がNoの場合(k>0でない場合)は、ユーザ選択・解放処理部15は、そのまま処理を終了する。また、ステップS14の判定の結果がYesの場合(k>0の場合)は、ユーザ選択・解放処理部15は、k≧(Max−U)であるか否かを判定する(S15)。この判定の結果がYesの場合(k≧(Max−U)の場合)、ユーザ選択・解放処理部15は、次に適合度F_n(t)の値の大きな順に(Max−U)名の追加処理対象ユーザを選択し被選択ユーザに追加する処理を行う(S16)。   Next, the user selection / release processing unit 15 determines whether or not k> 0 (S14). When the result of this determination is No (when k> 0 is not satisfied), the user selection / release processing unit 15 ends the processing as it is. When the determination result in step S14 is Yes (when k> 0), the user selection / release processing unit 15 determines whether or not k ≧ (Max−U) (S15). When the result of this determination is Yes (when k ≧ (Max-U)), the user selection / release processing unit 15 adds (Max-U) names in descending order of the fitness F_n (t). A processing target user is selected and added to the selected user (S16).

より具体的には、ユーザ選択・解放処理部15は、ユーザ情報記録部13に記録されている候補ユーザの情報のうち、適合度F_n(t)の値の大きな順に(Max−U)名の追加処理対象ユーザに関する情報に対して、現在の待ち時間W_n=0、現在の被選択時間T_n=t−t’、過去選ばれた回数N_n=N_n+1とする処理を行う。これはそれぞれ、選択待ち状態から脱したので現在の待ち時間W_nを0にする、被選択状態になったので被選択時間T_nの値のインクリメントをする、選択されたのでN_nに「1」を加える、ということを意味している。   More specifically, the user selection / release processing unit 15 selects (Max-U) names in descending order of the fitness F_n (t) among the candidate user information recorded in the user information recording unit 13. For the information regarding the additional processing target user, processing is performed such that the current waiting time W_n = 0, the current selected time T_n = t−t ′, and the number N_n = N_n + 1 selected in the past. In this case, the current waiting time W_n is set to 0 since the selection wait state is canceled, and the selected time T_n is incremented because the selected state is entered. Since the selection is made, “1” is added to N_n. It means that.

続いて、ユーザ選択・解放処理部15は、システム情報記録部14が記憶している該運動視差再現映像提示システムに関する情報のうち、現在の選択人数U=Maxに更新する(S17)。これは、今回被選択ユーザに(Max−U)名を追加したため、被選択ユーザが元々U名であったものが、U+(Max−U)=Max名に変化したことを意味している。以上で被選択ユーザ追加処理を終了する。   Subsequently, the user selection / release processing unit 15 updates the current selection number U = Max among the information on the motion parallax reproduction video presentation system stored in the system information recording unit 14 (S17). This means that since the (Max-U) name was added to the selected user this time, the selected user originally changed from the U name to U + (Max-U) = Max name. The selected user addition process is thus completed.

一方、ステップS15の判定においてNoであった場合(k≧(Max−U)でない場合)は、ユーザ選択・解放処理部15は、残った追加処理対象ユーザk名全員を被選択ユーザに追加する(S18)。より具体的にはステップS16における処理と同様に、ユーザ情報記録部13に記録されている候補ユーザの情報のうち、残った追加処理対象ユーザk名に関する情報に対して、現在の待ち時間W_n=0、現在の被選択時間T_n=t−t’、過去選ばれた回数N_n=N_n+1とする処理を行う。これらの意味もステップS16と同様である。続いて、ユーザ選択・解放処理部15は、システム情報記録部14が記憶している該運動視差再現映像提示システムに関する情報のうち、現在の選択人数U=U+kに更新する(S19)。この処理の意味はステップS17と同様である。以上で被選択ユーザ追加処理を終了する。   On the other hand, if the determination in step S15 is No (when k ≧ (Max-U) is not satisfied), the user selection / release processing unit 15 adds all the remaining k users to be added to the selected user. (S18). More specifically, similar to the processing in step S16, the current waiting time W_n = with respect to the information regarding the remaining additional processing target user k name among the information on the candidate users recorded in the user information recording unit 13 = 0, the current selected time T_n = t−t ′, and the number of past selections N_n = N_n + 1 are performed. These meanings are also the same as in step S16. Subsequently, the user selection / release processing unit 15 updates the current selection number U = U + k among the information on the motion parallax reproduction video presentation system stored in the system information recording unit 14 (S19). The meaning of this process is the same as in step S17. The selected user addition process is thus completed.

次に、被選択ユーザ解放処理(S3)の詳細を図10に示す。まず、ユーザ選択・解放処理部15は、現在の選択人数U>0であるか否かを判定する(S21)。Noで有る場合(U>0でない場合)は、すなわち現在の選択人数U=0であり、被選択ユーザが存在していないので、ユーザ選択・解放処理部15は、そのまま被選択ユーザ解放処理を終了する。一方、ステップS21の判定結果がYesである場合(U>0である場合)は、ユーザ選択・解放処理部15は、各被選択ユーザに関し被選択時間指数R_n(t)を算出する(S22)。ここで、被選択時間指数R_n(t)とは、各被選択ユーザにサービス提供すべき時間であるサービス提供時間を示す値であり、この値が大きければより長い時間サービスを提供し、この値が小さければより短い時間サービスを提供する。その具体的算出方法については後述する。   Next, details of the selected user release process (S3) are shown in FIG. First, the user selection / release processing unit 15 determines whether or not the current selection number U> 0 (S21). In the case of No (when U> 0 is not satisfied), that is, since the current selection number U = 0 and there is no selected user, the user selection / release processing unit 15 performs the selected user release processing as it is. finish. On the other hand, when the determination result in step S21 is Yes (when U> 0), the user selection / release processing unit 15 calculates a selected time index R_n (t) for each selected user (S22). . Here, the selected time index R_n (t) is a value indicating a service providing time that is a time for providing service to each selected user. If this value is large, a longer time service is provided. If it is small, it will provide a shorter time service. The specific calculation method will be described later.

次に、ユーザ選択・解放処理部15は、R_n(t)<T_nである被選択ユーザを被選択ユーザから解放する(S23)。より具体的には、ユーザ情報記録部13が記憶している候補ユーザの情報のうち、R_n(t)<T_nである被選択ユーザの情報に対して、現在の待ち時間W_n=t−t’、現在の被選択時間T_n=0という処理を行う。これはそれぞれ、被選択状態から解放されて選択待ち状態に戻ったので現在の待ち時間W_nのインクリメントをはじめる、被選択状態から解放されたので被選択時間T_nの値を「0」にリセットする、ということを意味している。   Next, the user selection / release processing unit 15 releases the selected user satisfying R_n (t) <T_n from the selected user (S23). More specifically, the current waiting time W_n = t−t ′ with respect to the information of the selected user satisfying R_n (t) <T_n among the candidate user information stored in the user information recording unit 13. Then, the current selection time T_n = 0 is performed. Each of these is released from the selected state and returned to the selection waiting state, so that the current waiting time W_n is incremented. Since the selected state is released, the value of the selected time T_n is reset to “0”. It means that.

被選択ユーザに関する現在の被選択時間T_nの値は、時間が経過するにつれ単調増加するので、仮に被選択時間指数R_n(t)の値が一定値であっても、やがてはR_n(t)<T_nという条件が満たされる。すなわち、基本的にはサービスを提供する時間を一定に区切るという処理を行っている。実際は、被選択時間指数R_n(t)の算出方法によってサービスを提供する時間は増減する。これについても後で詳しく述べる。   Since the value of the current selected time T_n for the selected user increases monotonously as time passes, even if the value of the selected time index R_n (t) is a constant value, R_n (t) < The condition T_n is satisfied. In other words, basically, a process of dividing a service providing time into a certain period is performed. Actually, the time for providing the service varies depending on the calculation method of the selected time index R_n (t). This will be described in detail later.

また、この時解放された被選択ユーザ数をmとする。続いて、ユーザ選択・解放処理部15は、システム情報記録部14が記憶している該運動視差再現映像提示システムに関する情報のうち、現在の選択人数U=U−mに更新する(S24)。これは、今回被選択ユーザからm名が解放されたので、被選択ユーザが元々U名であったものが、U−m名に減少したことを意味している。以上で被選択ユーザ解放処理を終了する。   The number of selected users released at this time is m. Subsequently, the user selection / release processing unit 15 updates the current selection number U = U−m among the information on the motion parallax reproduction video presentation system stored in the system information recording unit 14 (S24). This means that since m names were released from the selected user this time, what was originally the U name for the selected user has been reduced to the U-m name. The selected user release process is thus completed.

最後に、被選択ユーザ情報送信処理(S4)の詳細を説明する。ユーザ選択・解放処理部15は、ユーザ情報記録部13が記憶している候補ユーザの情報のうち、現在の被選択時間T_n≠0である全てのユーザ、すなわち被選択ユーザ全てに関して、該被選択ユーザのID番号と、その位置情報P_n(t)と、現在の被選択ユーザの数Uを映像生成部16に送る。   Finally, details of the selected user information transmission process (S4) will be described. The user selection / release processing unit 15 selects all of the selected user information stored in the user information recording unit 13 for the current selected time T_n ≠ 0, that is, all the selected users. The user ID number, the position information P_n (t), and the current number U of selected users are sent to the video generation unit 16.

続いて、ユーザ選択・解放処理部15による適合度F_n(t)の算出方法について説明する。図11は、適合度F_n(t)及び被選択時間指数R_n(t)の算出に用いる中間変数の一覧を示す図である。ユーザ選択・解放処理部15は、各候補ユーザnに関して、これらの中間変数を算出して、適合度F_n(t)及び被選択時間指数R_n(t)の算出に用いる。その概要は以下の通りである。   Next, a method for calculating the fitness F_n (t) by the user selection / release processing unit 15 will be described. FIG. 11 is a diagram showing a list of intermediate variables used for calculating the fitness F_n (t) and the selected time index R_n (t). The user selection / release processing unit 15 calculates these intermediate variables for each candidate user n and uses them to calculate the fitness F_n (t) and the selected time index R_n (t). The outline is as follows.

相対距離Dist_n(t)は、候補ユーザnと該運動視差再現映像提示システムとの相対距離である。ユーザ静止度S_n(t)は、候補ユーザnが一箇所に立ち止まって動かない状態にある度合いを数値化した変数である。ユーザ動作度M_n(t)は、候補ユーザnがどれだけ体を動かしているか、あるいは移動しているかの度合いを数値化した変数である。ユーザ正対度C_n(t)は、候補ユーザnがどれだけまっすぐディスプレイの方を向いているかを数値化した変数である。サービスエリア適合度A_n(t)は、候補ユーザnがどの程度適正にシステムのサービスエリア内にいるかの度合いを数値化した変数である。
次に、本実施形態における適合度F_n(t)の算出方法を説明する。ユーザ選択・解放処理部15は、式(1)を用いて、適合度F_n(t)を算出する。
The relative distance Dist_n (t) is a relative distance between the candidate user n and the motion parallax reproduction video presentation system. The user stillness S_n (t) is a variable obtained by quantifying the degree to which the candidate user n stops at one place and does not move. The user operation degree M_n (t) is a variable obtained by quantifying how much the candidate user n is moving or moving. The user facing degree C_n (t) is a variable obtained by quantifying how much the candidate user n is facing the display. The service area suitability A_n (t) is a variable obtained by quantifying the degree to which the candidate user n is properly in the service area of the system.
Next, a method for calculating the fitness F_n (t) in the present embodiment will be described. The user selection / release processing unit 15 calculates the fitness F_n (t) using Expression (1).

Figure 2011033993
Figure 2011033993

ここで、Dist_const、Sconst、Mconst、Wconst、Nconstはそれぞれ相対距離Dist_n(t)、ユーザ静止度S_n(t)、ユーザ動作度M_n(t)、現在の待ち時間W_n、過去選ばれた回数N_nの各中間変数ないしはデータに対して、それぞれの中間変数ないしはデータの、適合度F_n(t)に対する寄与率を調整するための、予め設定された定数である。 Here, Dist_const, Sconst, Mconst, Wconst, and Nconst are the relative distance Dist_n (t), user staticity S_n (t), user behavior M_n (t), current waiting time W_n, and past number of times N_n, respectively. It is a preset constant for adjusting the contribution ratio of each intermediate variable or data to the fitness F_n (t) for each intermediate variable or data.

続いて、各中間変数の算出例を説明しながら、それぞれの中間変数ないしはデータが適合度F_n(t)において果たす役割とその効果を説明する。
ユーザ選択・解放処理部15は、ユーザ正対度C_n(t)を、式(2)によって算出する。
Subsequently, while explaining calculation examples of each intermediate variable, the role and effect of each intermediate variable or data in the fitness F_n (t) will be described.
The user selection / release processing unit 15 calculates the user confrontation degree C_n (t) according to Expression (2).

Figure 2011033993
Figure 2011033993

ここで、(Ps−P_n(t))/||Ps−P_n(t)||は、候補ユーザnの位置P_n(t)から該運動視差再現映像提示システムの位置Psへの単位ベクトルである。この単位ベクトルと、候補ユーザnの頭部の向きD_n(t)との内積を計算したのがユーザ正対度C_n(t)である。この単位ベクトルとD_n(t)との関係を示したのが図12である。図12は上から見た図である。候補ユーザnがまっすぐディスプレイの中心を見ていればいるほど、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の成す角は小さくなる。よってその内積は1に近付く。逆に、候補ユーザnがディスプレイから顔をそらしている場合は、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の為す角は大きくなり、その内積の値は小さくなる。 Here, (Ps−P_n (t)) / || Ps−P_n (t) || is a unit vector from the position P_n (t) of the candidate user n to the position Ps of the motion parallax reproduction video presentation system. . The user's confrontation degree C_n (t) is obtained by calculating the inner product of the unit vector and the head direction D_n (t) of the candidate user n. FIG. 12 shows the relationship between this unit vector and D_n (t). FIG. 12 is a view from above. The more the candidate user n is looking straight at the center of the display, the smaller the angle formed by (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t). Therefore, the inner product approaches 1. Conversely, when candidate user n turns away from the display, the angle between (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t) increases, and the inner product thereof The value of becomes smaller.

このことから、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の内積値であるユーザ正対度C_n(t)は、候補ユーザnの向き、すなわち候補ユーザnがどれだけまっすぐディスプレイを見ているかの指標として用いることができる。候補ユーザnがまっすぐディスプレイを見ていればいるほど、ユーザ正対度C_n(t)は1に近付く。なお、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の成す角が90°を超えると、その内積値はマイナスになる。これを避けるため、式(2)のように、内積値がマイナスの場合はC_n(t)=0とする。
ユーザ選択・解放処理部15は、サービスエリア適合度A_n(t)を、式(3)によって算出する。
Therefore, the user confrontation degree C_n (t), which is the inner product value of (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t), is the direction of the candidate user n, that is, It can be used as an index of how straight the candidate user n is looking at the display. The more the candidate user n is looking straight at the display, the closer the user confrontation C_n (t) is to 1. If the angle formed by (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t) exceeds 90 °, the inner product value becomes negative. To avoid this, C_n (t) = 0 when the inner product value is negative as shown in equation (2).
The user selection / release processing unit 15 calculates the service area suitability A_n (t) by Expression (3).

Figure 2011033993
Figure 2011033993

(P_n(t)−Ps)/||P_n(t)−Ps||は、該運動視差再現映像提示システムの位置Psから候補ユーザnの位置P_n(t)への単位ベクトルである。この単位ベクトルと、該運動視差再現映像提示システムの向きDsとの内積を計算したのがサービスエリア適合度A_n(t)である。この単位ベクトルと向きDsとの関係を示したのが図13である。図13は上から見た図である。候補ユーザnの位置がディスプレイの正面に近ければ近いほど、(P_n(t)−Ps)/||P_n(t)−Ps||とDsの成す角は小さくなる。よってその内積は1に近付く。 (P_n (t) -Ps) / || P_n (t) -Ps || is a unit vector from the position Ps of the motion parallax reproduction video presentation system to the position P_n (t) of the candidate user n. The service area suitability A_n (t) is obtained by calculating the inner product of this unit vector and the direction Ds of the motion parallax reproduction video presentation system. FIG. 13 shows the relationship between the unit vector and the direction Ds. FIG. 13 is a view from above. The closer the position of candidate user n is to the front of the display, the smaller the angle formed by (P_n (t) −Ps) / || P_n (t) −Ps || and Ds. Therefore, the inner product approaches 1.

逆に、候補ユーザnがディスプレイの正面から離れて横の方向に位置している場合は(P_n(t)−Ps)/||P_n(t)−Ps||とDsの成す角は90°に近付き、その内積の値は小さくなる。さらに、仮に候補ユーザnがディスプレイの背面に回った場合は、角度は90°を超えるため、内積の値はマイナスになる。このことから、(P_n(t)−Ps)/||P_n(t)−Ps||とDsの内積値であるサービスエリア適合度A_n(t)は、候補ユーザnがどれだけディスプレイの正面方向に位置しているかの指標として用いることができる。言い換えれば、ディスプレイの正面方向が最も良いサービスエリアであり、そこから離れるにつれサービスエリアとしてはより悪くなるということを表している。候補ユーザnがディスプレイの正面方向に近い位置にいればいるほど、サービスエリア適合度A_n(t)は1に近付く。なお、前記の通り(P_n(t)−Ps)/||P_n(t)−Ps||とDsの成す角が90°を超えると、その内積値はマイナスになる。これを避けるため、式(3)のように、内積値がマイナスの場合はサービスエリア適合度A_n(t)=0とする。   Conversely, when the candidate user n is located in the horizontal direction away from the front of the display, the angle formed by (P_n (t) −Ps) / || P_n (t) −Ps || and Ds is 90 °. The inner product value becomes smaller. Furthermore, if the candidate user n turns to the back of the display, the angle exceeds 90 °, so the value of the inner product becomes negative. Therefore, the service area suitability A_n (t), which is the inner product value of (P_n (t) −Ps) / || P_n (t) −Ps || and Ds, indicates how much the candidate user n is in the front direction of the display. It can be used as an indicator of whether or not In other words, it indicates that the front direction of the display is the best service area, and the service area becomes worse as the distance from the display area increases. The closer the candidate user n is to the front direction of the display, the closer the service area suitability A_n (t) is to 1. As described above, when the angle formed by (P_n (t) −Ps) / || P_n (t) −Ps || and Ds exceeds 90 °, the inner product value becomes negative. In order to avoid this, as shown in Expression (3), when the inner product value is negative, the service area suitability A_n (t) = 0 is set.

適合度F_n(t)を算出する式(1)において、ユーザ正対度C_n(t)またはサービスエリア適合度A_n(t)の値が大きくなれば、適合度F_n(t)も大きくなり、候補ユーザnは被選択ユーザとして選ばれやすくなる。ユーザ正対度C_n(t)が大きいということは、候補ユーザnがディスプレイ方向を向いていることをあらわしており、該運動視差再現映像提示システムに興味を持っている可能性が考えられる。またもし現状では運動視差再現映像提示システムに興味を持っていないとしても、ディスプレイに表示された映像が目に入る状態にあるため、興味を持ってくれる可能性が期待できる。すなわち、ユーザ正対度C_n(t)は、候補ユーザnについての、興味の度合いを示す情報または情報の伝達され易さを示す情報である。   In Formula (1) for calculating the fitness F_n (t), if the value of the user confrontation C_n (t) or the service area fitness A_n (t) increases, the fitness F_n (t) also increases. User n is likely to be selected as a selected user. The fact that the user facing degree C_n (t) is large indicates that the candidate user n is facing the display direction, and there is a possibility that he / she is interested in the motion parallax reproduction video presentation system. Also, even if you are not interested in the motion parallax reproduction video presentation system at present, the video displayed on the display is in the eye and you can expect to be interested. That is, the user confrontation degree C_n (t) is information indicating the degree of interest or information indicating ease of transmission of information regarding the candidate user n.

また、サービスエリア適合度A_n(t)の値が大きいということは、候補ユーザnがディスプレイの正面に近い方向に位置していることをあらわしており、該運動視差再現映像提示システムに興味を持っている可能性が考えられる。またもし現状では運動視差再現映像提示システムに興味を持っていないとしても、頭部の向きによってはディスプレイがよく見える位置に居るためにディスプレイに表示された映像に目を留める可能性が期待できる。すなわち、サービスエリア適合度A_n(t)は、候補ユーザnについての、興味の度合いを示す情報または情報の伝達され易さを示す情報である。   Further, the large value of the service area suitability A_n (t) indicates that the candidate user n is located in a direction close to the front of the display, and is interested in the motion parallax reproduction video presentation system. There is a possibility that. Even if you are not interested in the motion parallax reproduction video presentation system at present, depending on the orientation of the head, you can expect to see the video displayed on the display because it is in a position where you can see it well. That is, the service area suitability A_n (t) is information indicating the degree of interest or information indicating the ease of transmission of information regarding the candidate user n.

適合度F_n(t)におけるユーザ正対度C_n(t)またはサービスエリア適合度A_n(t)の項は、このように、ディスプレイ6の方向を向いていることから該運動視差再現映像提示システムに興味を持っている可能性が考えられる候補ユーザや、ディスプレイに表示された映像が目に入る状態にあるため、興味を持ってくれる可能性が期待できる候補ユーザや、頭部の向きによってはディスプレイがよく見える位置に居るためにディスプレイに表示された映像に目を留める可能性が期待できる候補ユーザを優先して被選択ユーザとして選択することで、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。   Since the term of user confrontation C_n (t) or service area suitability A_n (t) in the suitability F_n (t) is oriented in the direction of the display 6 in this manner, the motion parallax reproduction video presentation system Candidate users who are likely to be interested, or candidates who can be expected to be interested because the video displayed on the display is in their eyes, or depending on the orientation of the head By selecting as a selected user with priority given to candidate users who can expect to see the video displayed on the display because they are in a position where they can see well, services can be provided more effectively, and advertising information The effect that the possibility of being transmitted can be increased can be realized.

なお、式(1)において、ユーザ正対度C_n(t)およびサービスエリア適合度A_n(t)はその他の変数全てに掛けられている。すなわちユーザ正対度C_n(t)とサービスエリア適合度A_n(t)とのうち、少なくとも何れかが0であれば、その他の中間変数やデータの値に関わらず、適合度F_n(t)は0になる。このようにユーザ正対度C_n(t)およびサービスエリア適合度A_n(t)は、その他の中間変数やデータの値に比べて、適合度F_n(t)の算出値に与える影響が大きい。   In Equation (1), the user confrontation degree C_n (t) and the service area suitability degree A_n (t) are multiplied by all other variables. That is, if at least one of the user confrontation degree C_n (t) and the service area conformity degree A_n (t) is 0, the conformity degree F_n (t) is set regardless of other intermediate variables and data values. 0. Thus, the degree of user confrontation C_n (t) and the service area suitability A_n (t) have a larger influence on the calculated value of the suitability F_n (t) than the values of other intermediate variables and data.

これは、ユーザ正対度C_n(t)については、候補ユーザnが、ディスプレイ6が目に入る向きを向いていなければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができず、該候補ユーザnには広告情報が伝達されないからである。また、サービスエリア適合度A_n(t)については、候補ユーザnが、ディスプレイ6が見える位置に居なければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができず、該候補ユーザnには情報が伝達されないからである。このため、式(1)のようにユーザ正対度C_n(t)およびサービスエリア適合度A_n(t)はその他の変数全てに掛けることで、広告情報が伝達されない候補ユーザを被選択ユーザとすることを避けることができる。
サービスエリア適合度A_n(t)の式(3)とは別の算出方法の例を式(4)に示す。
This is because, with respect to the degree of user confrontation C_n (t), if the candidate user n is not facing the direction in which the display 6 is in sight, the candidate user n appears on the display 6 regardless of other conditions. This is because the output video cannot be seen and advertisement information is not transmitted to the candidate user n. In addition, regarding the service area suitability A_n (t), if the candidate user n is not in a position where the display 6 can be seen, the video of the candidate user n output to the display 6 regardless of other conditions. This is because information cannot be transmitted to the candidate user n. For this reason, as shown in Expression (1), the user facing degree C_n (t) and the service area suitability A_n (t) are multiplied by all other variables, so that candidate users to whom no advertising information is transmitted are selected users. You can avoid that.
Formula (4) shows an example of a calculation method different from formula (3) for service area suitability A_n (t).

Figure 2011033993
Figure 2011033993

ここでは、ディスプレイ6が見えやすい候補ユーザの位置の範囲、すなわちサービスエリアを、図14に示すようにディスプレイの正面方向から左右上下への角度θで規定している。なお、図14は上面図のため、左右への角度θのみ図示してある。式(4)は、候補ユーザがこの範囲内に居る場合はA_n(t)=1であり、範囲外ではA_n(t)=0となる。 Here, the range of the position of the candidate user where the display 6 is easy to see, that is, the service area is defined by an angle θ from the front direction of the display to the left, right, up and down as shown in FIG. Note that FIG. 14 is a top view, and only the angle θ to the left and right is shown. In Expression (4), A_n (t) = 1 when the candidate user is within this range, and A_n (t) = 0 when the candidate user is outside the range.

式(3)を用いた場合は、前記の通り候補ユーザnがディスプレイ6の正面方向に近い位置にいればいるほど、A_n(t)は1に近付く、すなわち適合度が高いと算出され、被選択ユーザに選ばれやすくなる。このため最もディスプレイ6を見易い位置に居る候補ユーザを優先することができるという利点があるが、正面付近に居る候補ユーザばかりが選ばれ正面からずれた位置に居る候補ユーザが選ばれにくいという特性がある。これに対し式(4)では、角度θの範囲内にいる限り候補ユーザのサービスエリア適合度A_n(t)は等しく1になるため、角度θの範囲内にいる限り被選択ユーザへの選ばれやすさに差は無い。必ずしもディスプレイ6を最も見易い位置に居る候補ユーザが選ばれるとは限らないが、該運動視差再現映像提示システムの周りに居る候補ユーザがその位置に関わらず満遍なく選ばれうるという特性がある。   When Expression (3) is used, as the candidate user n is closer to the front direction of the display 6 as described above, A_n (t) is calculated to be closer to 1, that is, the fitness is higher. It becomes easy to be chosen by the selection user. For this reason, there is an advantage that priority can be given to the candidate user who is in the position where the display 6 is most easily seen, but only the candidate user in the vicinity of the front is selected, and the candidate user who is in a position shifted from the front is difficult to be selected. is there. On the other hand, in the equation (4), as long as the user is within the range of the angle θ, the service area suitability A_n (t) of the candidate user is equal to 1. Therefore, as long as the user is within the range of the angle θ, the user is selected by the selected user. There is no difference in ease. Although the candidate user who is in the position where the display 6 is most easily viewed is not necessarily selected, there is a characteristic that the candidate users around the motion parallax reproduction video presentation system can be selected uniformly regardless of the position.

角度θの値は、例えば、ディスプレイ6がLCD(Liquid Crystal Display;液晶ディスプレイ)である場合は、LCDの視野角特性に合わせて決める。これは、ディスプレイ6に表示された映像が許容範囲の画質で見える範囲をそのままサービスエリアとして考えるというものである。また例えば、45°や30°のように、角度θとして、視野角特性より狭い角度の値を用いてもかまわない。   For example, when the display 6 is an LCD (Liquid Crystal Display), the value of the angle θ is determined according to the viewing angle characteristics of the LCD. In this case, a range in which the video displayed on the display 6 can be seen with an acceptable image quality is considered as a service area as it is. Further, for example, a value of an angle narrower than the viewing angle characteristic may be used as the angle θ, such as 45 ° or 30 °.

相対距離Dist_n(t)は前記の通り候補ユーザnと該運動視差再現映像提示システムとの相対距離であり、ユーザ選択・解放処理部15は、Dist_n(t)=||Ps−P_n(t)||により算出する。
適合度F_n(t)を算出する式(1)において、相対距離Dist_n(t)は、括弧の中にDist_const/Dist_n(t)という項として挿入されている。この項は、相対距離Dist_n(t)が小さいほど大きくなる。すなわち、候補ユーザnがディスプレイに近い位置に居るほど、適合度F_n(t)の値は大きくなり、該候補ユーザnは被選択ユーザとして選ばれ易くなる。
The relative distance Dist_n (t) is the relative distance between the candidate user n and the motion parallax reproduction video presentation system as described above, and the user selection / release processing unit 15 uses the Dist_n (t) = || Ps−P_n (t) ||
In the equation (1) for calculating the fitness F_n (t), the relative distance Dist_n (t) is inserted as a term Dist_const / Dist_n (t) in parentheses. This term increases as the relative distance Dist_n (t) decreases. That is, the closer the candidate user n is to the display, the greater the value of the fitness F_n (t), and the candidate user n is likely to be selected as the selected user.

よって、興味を持ってディスプレイ6の近くまで来てくれたことが期待される候補ユーザを優先して被選択ユーザとする、あるいは、ディスプレイ6の近くに居るのでより広告を見てくれる可能性が高いと思われる候補ユーザを優先して被選択ユーザとしている。すなわち、候補ユーザと情報提示部との距離を示す情報は、興味の度合いを示す情報または情報の伝達され易さを示す情報である。これにより効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。なお、Dist_constの値を変えることで、相対距離Dist_n(t)が適合度F_n(t)に与える影響を調節することができる。Dist_constを大きくすれば相対距離Dist_n(t)の寄与も大きくなる。
ユーザ選択・解放処理部15は、ユーザ静止度S_n(t)を、式(5)によって算出する。
Therefore, a candidate user who is expected to have come close to the display 6 with interest is given priority as a selected user, or because the user is near the display 6, there is a high possibility of seeing an advertisement. A candidate user who seems to be a priority user is selected as a selected user. That is, the information indicating the distance between the candidate user and the information presenting unit is information indicating the degree of interest or information indicating how easily the information is transmitted. As a result, it is possible to effectively provide the service, and to realize the effect that the possibility that the advertisement information is transmitted can be increased. Note that the influence of the relative distance Dist_n (t) on the fitness F_n (t) can be adjusted by changing the value of Dist_const. Increasing Dist_const increases the contribution of the relative distance Dist_n (t).
The user selection / release processing unit 15 calculates the user stillness S_n (t) by Expression (5).

Figure 2011033993
Figure 2011033993

また、式(5)中のPsma_n(t)は式(6)によって算出する。 Further, Psma_n (t) in the equation (5) is calculated by the equation (6).

Figure 2011033993
Figure 2011033993

このPsma_n(t)は、候補ユーザnの位置P_n(t)の直近のl個のデータの単純移動平均を算出したもので、以下では候補ユーザnの平均位置と呼ぶ。lは、例えば前記処理のリフレッシュレートが30回/secの場合、l=30とすれば、候補ユーザnの1秒間の位置データを平均した値となる。式(5)の分母における||Psma_n(t)−Psma_n(t’)||の項は、時刻tにおける候補ユーザnの平均位置と、それより一つ前の時点における処理の時刻t’における候補ユーザnの平均位置の間の距離である。すなわち、前記処理の単位時間の間の候補ユーザnの平均的な移動距離を求める操作である。 This Psma_n (t) is obtained by calculating a simple moving average of l pieces of data nearest to the position P_n (t) of the candidate user n, and is hereinafter referred to as an average position of the candidate user n. For example, when the refresh rate of the process is 30 times / sec, l is a value obtained by averaging the position data of 1 second of the candidate user n if l = 30. The term || Psma_n (t) −Psma_n (t ′) || in the denominator of the equation (5) is the average position of the candidate user n at time t and the time t ′ of the processing at the previous time point. The distance between the average positions of candidate users n. That is, an operation for obtaining an average moving distance of the candidate user n during the processing unit time.

この値の逆数を取ることで、候補ユーザがどれだけ静止しているかを示す変数、すなわちユーザ静止度として用いる。なお、分母で+1しているのは、分母が0になることを避けるためである。このようにして求めたユーザ静止度S_n(t)は、候補ユーザnがずっと同じ位置に留まっている場合は最大値1を取り、候補ユーザnが動いている場合は、それより小さな値を取る。すなわち、ユーザ静止度S_n(t)の値が大きいほど、候補ユーザnは静止して立ち止まっている可能性が高いことがわかる。   By taking the reciprocal of this value, it is used as a variable indicating how much the candidate user is stationary, that is, the user stationary degree. The reason why the denominator is incremented by 1 is to prevent the denominator from becoming zero. The user stillness S_n (t) obtained in this way takes a maximum value of 1 when the candidate user n remains at the same position, and takes a smaller value when the candidate user n is moving. . That is, it can be seen that the larger the value of the user stationary degree S_n (t), the higher the possibility that the candidate user n is stationary and stopped.

適合度F_n(t)を算出する式(1)において、ユーザ静止度S_n(t)は、括弧の中にSconst×S_n(t)という項として挿入されている。この項は、ユーザ静止度S_n(t)が大きいほど大きくなる。すなわち、候補ユーザnが静止して立ち止まっている可能性が高いほど、適合度F_n(t)の値は大きくなり、該候補ユーザは被選択ユーザとして選ばれ易くなる。候補ユーザが立ち止まっているという状況は様々な理由が考えられるが、該運動視差再現映像提示システムに興味を持ったため立ち止まっているという可能性があり得る。またそうではなくても、該運動視差再現映像提示システムの近くを移動して通り過ぎていく候補ユーザよりは、理由はなんであれ立ち止まっている候補ユーザのほうが、ディスプレイで表示する広告を目にしてくれる可能性が高いと考えられる。   In the equation (1) for calculating the fitness F_n (t), the user stillness S_n (t) is inserted as a term “Sconst × S_n (t)” in parentheses. This term increases as the user stillness S_n (t) increases. That is, as the possibility that the candidate user n is stationary and stopped is higher, the value of the fitness F_n (t) increases, and the candidate user is easily selected as the selected user. There are various reasons why the candidate user is stopped, but there is a possibility that the candidate user is stopped because he / she is interested in the motion parallax reproduction video presentation system. Even if this is not the case, the candidate user who stops for whatever reason sees the advertisement displayed on the display rather than the candidate user who moves near the motion parallax reproduction video presentation system. The possibility is considered high.

そのような候補ユーザを優先して被選択ユーザとして選択することができ、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。すなわち、ユーザ静止度S_n(t)は、候補ユーザnについての、興味の度合いを示す情報または情報の伝達され易さを示す情報である。
なお、Sconstの値を変えることで、ユーザ静止度S_n(t)が適合度F_n(t)に与える影響を調節することができる。Sconstを大きくすればユーザ静止度S_n(t)の寄与も大きくなる。
ユーザ選択・解放処理部15は、ユーザ動作度M_n(t)を、式(7)によって算出する。
Such a candidate user can be preferentially selected as a selected user, so that the service can be provided more effectively and the possibility that advertisement information can be transmitted can be realized. That is, the user stillness S_n (t) is information indicating the degree of interest or information indicating ease of transmission of information regarding the candidate user n.
Note that by changing the value of Sconst, it is possible to adjust the influence of the user stillness S_n (t) on the fitness F_n (t). Increasing Sconst also increases the contribution of user staticity S_n (t).
The user selection / release processing unit 15 calculates the user operation degree M_n (t) by Expression (7).

Figure 2011033993
Figure 2011033993

式(7)における最初の項は、候補ユーザnの位置の前記処理の単位時間の間の移動距離||P_n(t+(1−i)・dt)−P_n(t−i・dt)||を、直近のm個の時刻においてそれぞれ算出し、それを加算した値であり、単位時間m個分の間の累積移動距離を求めるものである。mは、例えば前記処理のリフレッシュレートが30回/secの場合、m=60とすれば、候補ユーザnの2秒間の移動距離を累積して求めた値となる。 The first term in the equation (7) is a movement distance || P_n (t + (1-i) · dt) −P_n (t−i · dt) || Are calculated at the latest m times and added to each other, and the cumulative movement distance for m unit times is obtained. For example, when the refresh rate of the process is 30 times / sec and m = 60, m is a value obtained by accumulating the moving distance of candidate user n for 2 seconds.

2番目の項は、候補ユーザnの現在の頭部位置と、前記処理の単位時間m個分前の時刻での頭部位置の間の距離を求めるものであり、単位時間m個分の間に移動した直線距離を求めるものである。以上より、ユーザ動作度M_n(t)は、最初の項で計算した候補ユーザnの累積移動距離から、2番目の項で計算した直線移動距離を減じた値である。この値が意味するのは、下記の通りである。   The second term is to obtain the distance between the current head position of the candidate user n and the head position at a time m units before the processing, and between m unit times The straight line distance moved to is obtained. As described above, the user operation degree M_n (t) is a value obtained by subtracting the linear moving distance calculated in the second term from the cumulative moving distance of the candidate user n calculated in the first term. This value means the following:

例えば候補ユーザnが頭部を左右に揺り動かしている場合、候補ユーザnの位置は平均的に見るとほぼ静止しているが、頭部の移動距離は大きくなる。よって、最初の項の累積移動距離は大きくなり、2番目の項の直線移動距離は小さくなり、結果としてユーザ動作度M_n(t)の値は大きくなる。一方、例えば候補ユーザnが該運動視差再現映像提示システムの前を通り過ぎていく場合を考えると、最初の項の累積移動距離も2番目の項の直線移動距離もほぼ等しい値となり、結果としてユーザ動作度M_n(t)の値は小さくなる。このことから、ユーザ動作度M_n(t)は、候補ユーザnがどれだけ頭部を動かしているかを示す値となり、かつ単に該運動視差再現映像提示システムの前を通り過ぎたために頭部の移動が大きかった場合を除外することができる。なお、(最初の項の累積移動距離)≧(2番目の項の直線移動距離)が常に成り立つため、ユーザ動作度M_n(t)≧0が常に成り立っている。   For example, when candidate user n swings his / her head from side to side, the position of candidate user n is almost stationary when viewed on average, but the moving distance of the head increases. Accordingly, the cumulative movement distance of the first term is increased, the linear movement distance of the second term is decreased, and as a result, the value of the user operation degree M_n (t) is increased. On the other hand, for example, when the candidate user n passes in front of the motion parallax reproduction video presentation system, the cumulative movement distance of the first term and the linear movement distance of the second term are substantially equal, and as a result, the user The value of the operation degree M_n (t) becomes small. From this, the user operation level M_n (t) is a value indicating how much the candidate user n is moving the head, and the movement of the head is merely passed in front of the motion parallax reproduction video presentation system. Cases that are large can be excluded. Note that (cumulative movement distance of the first term) ≧ (linear movement distance of the second term) always holds, and therefore the user operation degree M_n (t) ≧ 0 always holds.

適合度F_n(t)を算出する式(1)において、ユーザ動作度M_n(t)は、括弧の中にMconst×M_n(t)という項として挿入されている。この項は、ユーザ動作度M_n(t)が大きいほど大きくなる。すなわち、候補ユーザnが頭部を動かしている量が大きいほど、適合度F_n(t)の値は大きくなり、該候補ユーザは被選択ユーザとして選ばれ易くなる。   In the equation (1) for calculating the fitness F_n (t), the user behavior M_n (t) is inserted as a term Mconst × M_n (t) in parentheses. This term increases as the user operation level M_n (t) increases. That is, the greater the amount that candidate user n moves his / her head, the greater the value of fitness F_n (t), making it easier for the candidate user to be selected as the selected user.

本発明が扱っている運動視差再現映像提示システムは、頭部位置に応じて適切にディスプレイ6に出力する画像を生成するものであるため、これを見るユーザは、頭を動かしたときの見え方の変化を楽しんだり、頭を動かして表示された物体等を様々な方向から見ようとしたりする、という行動を取ることが想像される。ここから、ある候補ユーザnがまだ被選択ユーザに選ばれていなくても、該候補ユーザnが、既に被選択ユーザに選ばれて広告を見ている別のユーザが頭を動かしている行動を見て、どのように見えるのかと自分も頭を動かしてみるという状況が考えられる。これはすなわち、該候補ユーザnが、該運動視差再現映像提示システムに興味を持っているということを示す。すなわち、ユーザ動作度M_n(t)は、候補ユーザnについての、興味の度合いを示す情報を示す情報である。   The motion parallax reproduction video presentation system dealt with by the present invention generates an image to be appropriately output to the display 6 in accordance with the head position, so that the user who sees it can see how the head looks when moving the head. It is envisaged to take action such as enjoying the change of the camera or moving the head to see the displayed object from various directions. From here, even if a certain candidate user n has not yet been selected as a selected user, the candidate user n has taken action that another user who has already been selected as the selected user and is watching an advertisement is moving his head. You can think of the situation as if you look at it and move your head. This indicates that the candidate user n is interested in the motion parallax reproduction video presentation system. That is, the user operation level M_n (t) is information indicating information indicating the degree of interest regarding the candidate user n.

適合度F_n(t)における、ユーザ動作度M_n(t)に関する項は、このように該運動視差再現映像提示システムに興味を持っていると思われる候補ユーザnを優先して被選択ユーザとして選択することでより効果的にサービスを提供でき、広告情報の伝達効率を高めることができる、という効果を実現できる。なお、Mconstの値を変えることで、ユーザ動作度M_n(t)が適合度F_n(t)に与える影響を調節することができる。Mconstを大きくすればユーザ動作度M_n(t)の寄与も大きくなる。   In terms of the fitness F_n (t), the term relating to the user behavior M_n (t) is selected as a selected user with priority given to the candidate user n who seems to be interested in the motion parallax reproduction video presentation system. By doing so, it is possible to provide an effect that the service can be provided more effectively and the transmission efficiency of the advertisement information can be increased. Note that by changing the value of Mconst, it is possible to adjust the influence of the user operation level M_n (t) on the fitness level F_n (t). Increasing Mconst also increases the contribution of user operability M_n (t).

適合度F_n(t)を算出する式(1)において、候補ユーザnの現在の待ち時間W_nは、括弧の中にWconst×W_nという項として挿入されている。この項は、現在の待ち時間W_nが大きいほど大きくなる。すなわち、現在の待ち時間W_nが大きな候補ユーザnほど、適合度F_n(t)の値は大きくなり、該候補ユーザは被選択ユーザとして選ばれ易くなる。現在の待ち時間W_nが大きいということは、候補ユーザnが、該運動視差再現映像提示システムの近くに長い間留まっているということを意味する。これは、該運動視差再現映像提示システムに興味を持っている可能性が考えられる。すなわち、現在の待ち時間W_nは、候補ユーザnについての、興味の度合いを示す情報である。
このように、適合度F_n(t)における、現在の待ち時間W_nに関する項は、該運動視差再現映像提示システムに興味を持っていると思われる候補ユーザnを優先して被選択ユーザとして選択することでより効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。
In Expression (1) for calculating the fitness F_n (t), the current waiting time W_n of the candidate user n is inserted as a term Wconst × W_n in parentheses. This term increases as the current waiting time W_n increases. That is, as the candidate user n has a larger current waiting time W_n, the value of the fitness F_n (t) increases, and the candidate user is easily selected as the selected user. When the current waiting time W_n is large, it means that the candidate user n stays in the vicinity of the motion parallax reproduction video presentation system for a long time. This may be an interest in the motion parallax reproduction video presentation system. That is, the current waiting time W_n is information indicating the degree of interest regarding the candidate user n.
Thus, the term regarding the current waiting time W_n in the fitness F_n (t) preferentially selects the candidate user n who seems to be interested in the motion parallax reproduction video presentation system as the selected user. Thus, it is possible to provide an effect that the service can be provided more effectively and the possibility that the advertisement information is transmitted can be increased.

さらに、より長時間待っている候補ユーザを優先することになるため、選択されるユーザが偏るのを避け、公平にサービスを提供でき、より多くのユーザに広告情報を伝達することができるという効果も実現できる。なお、Wconstの値を変えることで、現在の待ち時間W_nが適合度F_n(t)に与える影響を調節することができる。Wconstを大きくすれば現在の待ち時間W_nの寄与も大きくなる。   Furthermore, since priority is given to candidate users who have been waiting for a longer time, it is possible to avoid biasing selected users, provide services fairly, and to transmit advertising information to more users Can also be realized. Note that by changing the value of Wconst, the influence of the current waiting time W_n on the fitness F_n (t) can be adjusted. Increasing Wconst also increases the contribution of the current waiting time W_n.

適合度F_n(t)を算出する式(1)において、候補ユーザnの過去選ばれた回数N_nは、括弧の中にNconst×1/(N_n+1)という項として挿入されている。この項は、過去選ばれた回数N_nが大きいほど小さくなる。すなわち、何度も被選択ユーザになった候補ユーザほど、適合度F_n(t)の値は小さくなり、該候補ユーザは被選択ユーザとして選ばれ難くなる。該運動視差再現映像提示システムによってより多くのユーザにサービスを提供するためには、同じ候補ユーザを何度も被選択ユーザに選択してサービスを提供することは避け、一度も選択されていない候補ユーザを優先するほうが望ましい。また、仮に過去に選択されたことのある候補ユーザを再度選択する場合も、より過去に選択された回数の少ない候補ユーザを優先して選択するほうが、より多くのユーザにサービスを提供すること、すなわちより公平にサービスを提供することができる。   In the formula (1) for calculating the fitness F_n (t), the number N_n of past selections of the candidate user n is inserted as a term Nconst × 1 / (N_n + 1) in parentheses. This term becomes smaller as the number of times N_n selected in the past is larger. That is, the candidate user who has become the selected user many times has a smaller value of the fitness F_n (t), and the candidate user is less likely to be selected as the selected user. In order to provide a service to a larger number of users using the motion parallax reproduction video presentation system, it is avoided to select the same candidate user as a selected user many times and provide the service, and a candidate that has never been selected. It is better to give priority to users. Also, even when selecting candidate users that have been selected in the past again, it is better to select candidate users with a smaller number of selections in the past in order to provide services to more users. That is, the service can be provided more fairly.

このように、適合度F_n(t)における、過去選ばれた回数N_nに関する項により、過去に選ばれたことのある候補ユーザを再選択しにくく、また過去に選ばれた回数の多い候補ユーザほど再選択しにくくなり、より公平にサービスを提供することができ、より多くのユーザに広告情報を伝達できるという効果を実現できる。なお、Nconstの値を変えることで、過去選ばれた回数N_nが適合度F_n(t)に与える影響を調節することができる。Nconstを大きくすれば、過去選ばれた回数N_nの寄与も大きくなる。   As described above, it is difficult to reselect candidate users who have been selected in the past according to the term related to the number N_n selected in the past in the fitness F_n (t), and the candidate users who have been selected in the past more frequently. It becomes difficult to select again, the service can be provided more evenly, and the effect that advertisement information can be transmitted to more users can be realized. By changing the value of Nconst, it is possible to adjust the influence of the number N_n selected in the past on the fitness F_n (t). If Nconst is increased, the contribution of the number N_n selected in the past also increases.

次に、ユーザ選択・解放処理部15による被選択時間指数R_n(t)の算出方法について第1から第3の3つの例を説明する。第1の例では、ユーザ選択・解放処理部15は、被選択時間指数R_n(t)を、式(8)を用いて算出する。   Next, the first to third examples of the calculation method of the selected time index R_n (t) by the user selection / release processing unit 15 will be described. In the first example, the user selection / release processing unit 15 calculates the selected time index R_n (t) using Expression (8).

Figure 2011033993
Figure 2011033993

これは最も単純な例で、被選択時間指数R_n(t)として予め設定された所定の定数Rconstを用いる。よって、図10のステップS23の処理において、現在の被選択時間T_nがR_n(t)=Rconstを超えると候補ユーザnを被選択状態から解放することになる。すなわち、候補ユーザnが被選択ユーザに選択されてから所定の時間Rconstを越えると、被選択状態から解放されるという処理になる。これにより、どの被選択ユーザに対しても公平に一定の時間の間サービスを提供することができ、より多くのユーザに広告情報を伝達することができるという効果を実現できる。なお、Rconstが大きいほど、候補ユーザnが被選択ユーザから外されにくくなる、すなわちサービス提供時間が長くなる。
第2の例では、ユーザ選択・解放処理部15は、被選択時間指数R_n(t)を、式(9)を用いて算出する。
This is the simplest example, and uses a predetermined constant Rconst preset as the selected time index R_n (t). Therefore, in the process of step S23 of FIG. 10, if the current selected time T_n exceeds R_n (t) = Rconst, the candidate user n is released from the selected state. That is, when the predetermined time Rconst is exceeded after the candidate user n is selected by the selected user, the selected user n is released from the selected state. Thereby, it is possible to provide the service to any selected user fairly for a certain period of time, and to realize the effect that the advertising information can be transmitted to more users. In addition, as Rconst is larger, the candidate user n is less likely to be removed from the selected user, that is, the service providing time is longer.
In the second example, the user selection / release processing unit 15 calculates the selected time index R_n (t) using Expression (9).

Figure 2011033993
Figure 2011033993

式(9)の第1項は、式(8)と同じ所定の定数Rconstである。この定数により実現される効果も前記と同様である。
式(9)の第2項において、t−T_nは候補ユーザnが被選択ユーザとなった時点の時刻であり、Dist_n(t−T_n)は、候補ユーザnが被選択ユーザとなった時点でのディスプレイ6との相対距離である。よって、(Dist_n(t)−Dist_n(t−T_n))は、候補ユーザnが被選択ユーザとなった時点の時刻から現在の時刻までに、候補ユーザnがどれだけディスプレイ6に近付いたかの距離をあらわす。
The first term of Equation (9) is the same predetermined constant Rconst as in Equation (8). The effect realized by this constant is the same as described above.
In the second term of Equation (9), t−T_n is the time when candidate user n becomes the selected user, and Dist_n (t−T_n) is the time when candidate user n becomes the selected user. It is a relative distance from the display 6. Therefore, (Dist_n (t) −Dist_n (t−T_n)) is a distance indicating how close the candidate user n is to the display 6 from the time when the candidate user n becomes the selected user to the current time. Show.

候補ユーザがディスプレイ6に近付いていればこの第2項の値が大きくなり、ひいては被選択時間指数R_n(t)の値が大きくなり、候補ユーザnが被選択ユーザから解放されにくくなる。逆に候補ユーザがディスプレイ6から遠ざかっていれば、この第2項の値はマイナスになり、ひいては被選択時間指数R_n(t)の値が小さくなり、候補ユーザnが被選択ユーザから外されやすくなる。   If the candidate user is close to the display 6, the value of the second term is increased, and the value of the selected time index R_n (t) is increased, and the candidate user n is not easily released from the selected user. On the contrary, if the candidate user is away from the display 6, the value of the second term becomes negative, and consequently the value of the selected time index R_n (t) becomes small, so that the candidate user n is easily removed from the selected user. Become.

候補ユーザが被選択ユーザとなった後、ディスプレイ6の映像に興味を持てば、少なくともそれ以上ディスプレイ6から離れることなく映像を見続けるか、あるいはより興味を持てばディスプレイ6に近付いていくものと考えられる。逆に興味が無ければディスプレイ6から離れていくと考えられる。すなわち、ディスプレイ6との距離の当該被選択ユーザが選択されてからの変化を示す情報(第2項)は、興味の度合いを示す情報である。第2項は被選択ユーザのこのような挙動を考慮して、サービスを提供する時間を増減している。   After the candidate user becomes the selected user, if he / she is interested in the video on the display 6, he / she will continue to watch the video without leaving the display 6 at least any more, or he / she will approach the display 6 if he / she is more interested. Conceivable. Conversely, if there is no interest, it is considered that the user will move away from the display 6. That is, the information (second term) indicating the change in distance from the display 6 since the selected user is selected is information indicating the degree of interest. The second term takes into account such behavior of the selected user and increases or decreases the time for providing the service.

つまり、よりディスプレイ6の映像に興味を持ったと思われる被選択ユーザにはより長時間のサービスを提供し、ディスプレイ6の映像に対する興味がより少ないと思われる被選択ユーザにはより短時間のサービスとすることで、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。なお、Dist_const_rは所定の定数であり、この値を変えることで、第2項が被選択時間指数R_n(t)に与える影響を調節することができる。Dist_const_rを大きくすれば第2項の寄与も大きくなる。   In other words, a longer time service is provided to the selected user who seems to be more interested in the video on the display 6, and a shorter time service is provided to the selected user who is considered less interested in the video on the display 6. By doing so, it is possible to provide an effect that the service can be provided more effectively and the possibility that the advertisement information is transmitted can be increased. Dist_const_r is a predetermined constant, and by changing this value, the influence of the second term on the selected time index R_n (t) can be adjusted. Increasing Dist_const_r also increases the contribution of the second term.

式(9)の第3項は、ユーザ動作度M_n(t)に所定の定数Mconst_rを乗じた値である。この項は、ユーザ動作度M_n(t)が大きいほど大きくなる。すなわち、候補ユーザnが頭部を動かしている量が大きいほど、被選択時間指数R_n(t)の値は大きくなり、候補ユーザnが被選択ユーザから外されにくくなる。前記と同様、本発明が扱っている運動視差再現映像提示システムは、頭部位置に応じて適切にディスプレイ6に出力する画像を生成するものであるため、これを見るユーザは、頭を動かしたときの見え方の変化を楽しむ、という行動を取ることが想像される。被選択ユーザとなった候補ユーザnの頭部の移動量が大きいということは、該運動視差再現映像提示システムに興味を持って能動的に映像を見ている状況であると考えられる。   The third term of Equation (9) is a value obtained by multiplying the user operation degree M_n (t) by a predetermined constant Mconst_r. This term increases as the user operation level M_n (t) increases. That is, the larger the amount that the candidate user n moves his / her head, the greater the value of the selected time index R_n (t), and the more difficult the candidate user n is removed from the selected user. As described above, since the motion parallax reproduction video presentation system handled by the present invention generates an image to be output to the display 6 appropriately according to the head position, the user viewing this moved the head. Imagine taking the action of enjoying the change in the way you look. It can be considered that the moving amount of the head of the candidate user n who has become the selected user is actively watching the video with interest in the motion parallax reproduction video presentation system.

被選択時間指数R_n(t)における、ユーザ動作度M_n(t)に関する項は、このように該運動視差再現映像提示システムに興味を持っていると思われる候補ユーザnに対して、より長時間サービスを提供することで、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。なお、Mconst_rの値を変えることで、ユーザ動作度M_n(t)が被選択時間指数R_n(t)に与える影響を調節することができる。Mconstを大きくすればユーザ動作度M_n(t)の寄与も大きくなる。   In the selected time index R_n (t), the term related to the user activity M_n (t) is longer for the candidate user n who seems to be interested in the motion parallax reproduction video presentation system. By providing the service, it is possible to provide an effect that the service can be provided more effectively and the possibility that the advertisement information is transmitted can be increased. Note that by changing the value of Mconst_r, it is possible to adjust the influence of the user operation degree M_n (t) on the selected time index R_n (t). Increasing Mconst also increases the contribution of user operability M_n (t).

式(9)の第4項は、候補ユーザnの過去選ばれた回数N_nについて、1/(N_n+1)に所定の定数Nconst_rを乗じた値である。この項は、過去選ばれた回数N_nが大きいほど小さくなる。すなわち、過去に何度も被選択ユーザになったことのある候補ユーザほど、被選択時間指数R_n(t)の値は小さくなり、候補ユーザnが被選択ユーザから解放され易くなる。被選択ユーザとして選ばれるのが2度目、3度目...となる候補ユーザに対しては、サービスの提供時間を1度目よりも短くし、その結果としてその他の候補ユーザにサービスを提供する機会や時間を長くするほうが、満遍なく多くのユーザにサービスを提供するという観点からは望ましい。   The fourth term of Equation (9) is a value obtained by multiplying 1 / (N_n + 1) by a predetermined constant Nconst_r for the number N_n of past selections of candidate user n. This term becomes smaller as the number of times N_n selected in the past is larger. That is, as the candidate user who has become the selected user many times in the past, the value of the selected time index R_n (t) becomes smaller, and the candidate user n is more easily released from the selected user. The second time and the third time to be selected as the selected user. . . For the candidate users who will be, the service provision time will be shortened from the first time, and as a result, the opportunity and time to provide the service to other candidate users will be extended to provide the services to many users uniformly. It is desirable from the viewpoint.

このように、被選択時間指数R_n(t)における、過去選ばれた回数N_nに関する項は、過去に選ばれた回数の多い候補ユーザほどサービス提供時間を短くすることで、サービス提供時間を平均化でき、より公平にサービスを提供できる、という効果を実現できる。さらにその結果として他の候補ユーザへのサービスの提供の機会を増やして、より多くのユーザに満遍なく広告情報を伝達することができる、という効果を実現できる。なお、Nconst_rの値を変えることで、過去選ばれた回数N_nが被選択時間指数R_n(t)に与える影響を調節することができる。Nconst_rを大きくすれば過去選ばれた回数N_nの寄与も大きくなる。   As described above, in the selected time index R_n (t), the term related to the number N_n selected in the past is such that the service providing time is averaged by shortening the service providing time for candidate users with a large number of past selections. Can be achieved and the service can be provided more evenly. Furthermore, as a result, it is possible to increase the opportunities for providing services to other candidate users, and to realize the effect that the advertising information can be uniformly transmitted to more users. Note that by changing the value of Nconst_r, the influence of the number N_n selected in the past on the selected time index R_n (t) can be adjusted. Increasing Nconst_r also increases the contribution of the number N_n selected in the past.

第3の例では、ユーザ選択・解放処理部15は、被選択時間指数R_n(t)を、式(10)を用いて算出する。   In the third example, the user selection / release processing unit 15 calculates the selected time index R_n (t) using Expression (10).

Figure 2011033993
Figure 2011033993

この式(10)は、式(9)に、さらにユーザ正対度C_n(t)とサービスエリア適合度A_n(t)を乗じたものである。ユーザ正対度C_n(t)とサービスエリア適合度A_n(t)の値は式(2)または式(4)より、最大1、最小0である。よってユーザ正対度C_n(t)とサービスエリア適合度A_n(t)が最大値を取っている場合、すなわち被選択ユーザがディスプレイ6の方向にまっすぐ向いており、ディスプレイ6の正面に位置している場合は、式(10)の値は式(9)と等しくなる。一方、ユーザ正対度C_n(t)あるいはサービスエリア適合度A_n(t)の値が小さくなる場合、例えば、被選択ユーザがディスプレイ6以外の方向を向いてしまった場合や、被選択ユーザがディスプレイ6を見ることができない位置に移動してしまった場合は、被選択時間指数R_n(t)の値は小さくなる、すなわちサービスを提供する時間が短くなる。 This equation (10) is obtained by multiplying equation (9) by the user confrontation degree C_n (t) and the service area suitability A_n (t). The values of the user facing degree C_n (t) and the service area suitability A_n (t) are 1 at the maximum and 0 at the minimum according to the expression (2) or the expression (4). Therefore, when the user confrontation degree C_n (t) and the service area conformity degree A_n (t) are the maximum values, that is, the selected user is facing straight toward the display 6 and is located in front of the display 6. If so, the value of equation (10) is equal to equation (9). On the other hand, when the value of the user confrontation degree C_n (t) or the service area suitability A_n (t) is small, for example, when the selected user turns to a direction other than the display 6 or when the selected user displays If the user has moved to a position where 6 cannot be seen, the value of the selected time index R_n (t) becomes small, that is, the time for providing the service becomes short.

式(10)においては、被選択時間指数R_n(t)は、所定の定数Rconst以下にもなり得るし、0にもなり得る。これは、ユーザ正対度C_n(t)については、候補ユーザnがディスプレイ6が目に入る向きを向いていなければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができず、またサービスエリア適合度A_n(t)については、候補ユーザnがディスプレイ6が見える位置に居なければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができないため、いくらサービスを提供しても無駄である。また、そのような位置に非選択ユーザが移動したということは、ディスプレイ6の映像に興味を失った場合も考えられる。以上の理由により、短時間でサービス提供を止めても問題が無い。その結果として、他の候補ユーザへのサービスの機会を増やすことができ、つまりはより多くのユーザに満遍なくサービスを提供し、より多くのユーザに広告情報を伝達することができる、という効果を実現できる。
上記の適合度F_n(t)および被選択時間指数R_n(t)の計算において、ユーザ正対度C_n(t)の算出例として式(2)を挙げたが、その他の例も考えられる。その一例として式(11)を挙げる。
In equation (10), the selected time index R_n (t) can be less than or equal to a predetermined constant Rconst and can be zero. This is because the candidate user n outputs to the display 6 regardless of the other conditions for the user facing degree C_n (t) unless the candidate user n faces the eyes of the display 6. If the candidate user n is not in a position where the display 6 can be seen, the candidate user n can be viewed regardless of other conditions. Since the video output to the display 6 cannot be viewed, it is useless to provide any service. In addition, the fact that the non-selected user has moved to such a position may be a case where the user loses interest in the video on the display 6. For the above reasons, there is no problem even if service provision is stopped in a short time. As a result, it is possible to increase the service opportunities for other candidate users, that is, to provide services to more users and to transmit advertising information to more users. it can.
In the calculation of the fitness F_n (t) and the selected time index R_n (t), the formula (2) is given as an example of calculating the user confrontation degree C_n (t), but other examples are also conceivable. As an example, the following formula (11) is given.

Figure 2011033993
Figure 2011033993

これは、式(2)で算出したC_n(t)の値をさらに一定時間kの間平均を取った値である。この値C’_n(t)を、適合度F_n(t)および被選択時間指数R_n(t)の式においてC_n(t)の代わりに用いることができる。人間の頭部の向きを変える動作は、比較的頻度が高く行われると考えられる。よって、ある時刻における頭部の向きの情報だけを用いるのではなく、一定時間の平均値を用いることで、候補ユーザが短時間余所見をしたために被選択ユーザに選ばれなかった、というような現象が発生するのを防ぐことができる。 This is a value obtained by averaging the values of C_n (t) calculated by the equation (2) for a certain time k. This value C′_n (t) can be used in place of C_n (t) in the formula of the fitness F_n (t) and the selected time index R_n (t). It is considered that the operation of changing the direction of the human head is performed relatively frequently. Therefore, instead of using only the head orientation information at a certain time, a phenomenon that the candidate user was not selected as the selected user due to a short-term observation by using the average value over a certain period of time Can be prevented.

このように、本実施形態におけるユーザ選択・解放処理部15は、ユーザ情報検出部12が検出したユーザの状態に基づき、ユーザの選択と解放を繰り返すことで、被選択ユーザを順次変更する。このため、本実施形態におけるディスプレイ6のように同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置(運動視差再現映像生成装置10)は、このユーザ選択・解放処理部15を備えることで、より多くのユーザに対して情報を提示することができるという効果が得られる。さらに、ユーザを選択する際に、式(1)に示す適合度F_n(t)を用いることで、またユーザを解放する際に、式(8)から式(10)に示す被選択時間指数R_n(t)を用いることで、より多くのユーザに対して情報を提示することができるとともに、情報が伝達される可能性を高くすることができるという効果が得られる。   As described above, the user selection / release processing unit 15 according to the present embodiment sequentially changes the selected user by repeating selection and release of the user based on the user state detected by the user information detection unit 12. For this reason, an information presentation device (motion parallax reproduction video) that presents information to an unspecified number of users using an information presentation unit that can simultaneously present information to only a finite number of users, such as the display 6 in the present embodiment. Since the generation apparatus 10) includes the user selection / release processing unit 15, an effect that information can be presented to more users can be obtained. Furthermore, when the user is selected, the fitness F_n (t) shown in Expression (1) is used, and when the user is released, the selected time index R_n shown in Expression (8) to Expression (10) is used. By using (t), it is possible to present information to more users and to increase the possibility that information can be transmitted.

なお、本実施形態では、適合度F_n(t)を算出する際のパラメータとして、ユーザ正対度C_n(t)、サービスエリア適合度A_n(t)、相対距離Dist_n(t)、ユーザ静止度S_n(t)、ユーザ動作度M_n(t)、現在の待ち時間W_n、過去選ばれた回数N_nを用いるとして説明したが、例えば、サービスエリア適合度のみを用いるなど、これらのうち一部を用いて算出するようにしてもよい。   In the present embodiment, as parameters for calculating the fitness F_n (t), the user confrontation C_n (t), the service area fitness A_n (t), the relative distance Dist_n (t), and the user stillness S_n (T), user operation level M_n (t), current waiting time W_n, and the number N_n selected in the past have been used. For example, only the service area suitability level is used, and some of them are used. You may make it calculate.

また、本実施形態では、被選択時間指数R_n(t)を算出する際のパラメータとして式(10)においては、ユーザ正対度C_n(t)、サービスエリア適合度A_n(t)、候補ユーザnが被選択ユーザとなった時点の時刻から現在の時刻までにどれだけディスプレイに近付いたかの距離(Dist_n(t)−Dist_n(t−T_n))、ユーザ動作度M_n(t)、過去選ばれた回数N_nを用いるとして説明したが、例えば式(8)又は式(9)に示したように、これらのうち一部を用いて算出するようにしてもよい。   In the present embodiment, as parameters for calculating the selected time index R_n (t), in equation (10), the user confrontation degree C_n (t), the service area suitability A_n (t), and the candidate user n The distance (Dist_n (t) −Dist_n (t−T_n)), the user operation degree M_n (t), and the number of past selections from the time when the user becomes the selected user to the current time Although it has been described that N_n is used, for example, as shown in Expression (8) or Expression (9), calculation may be performed using a part of these.

図3に示した運動視差再現映像生成装置10における、その他のブロックの説明を続ける。ユーザ情報検出部12は、前記の通り、カメラ7、カメラ8、距離測定カメラ9で取得した画像情報及び距離情報と、カメラ関連情報保存部11に保存された情報と、ユーザ情報記録部13に記録された情報から、複数の候補ユーザの頭部の位置および向きを、それぞれ算出する処理を行うと共に、各候補ユーザの過去の頭部の位置および向きの情報と現在の情報を照らし合わせ、同一候補ユーザの情報を特定してユーザ情報記録部13に記録する。   The description of other blocks in the motion parallax reproduction video generation device 10 shown in FIG. 3 is continued. As described above, the user information detection unit 12 includes the image information and distance information acquired by the camera 7, the camera 8, and the distance measurement camera 9, the information stored in the camera related information storage unit 11, and the user information recording unit 13. From the recorded information, a process for calculating the positions and orientations of the heads of a plurality of candidate users is performed, and the information on past head positions and orientations of each candidate user is compared with the current information, and the same information is obtained. Candidate user information is identified and recorded in the user information recording unit 13.

図15は、ユーザ情報検出部12の構成を示す概略ブロック図である。ユーザ情報検出部12は、ユーザ位置・向き算出部19、ユーザ3次元情報生成部20、ユーザ情報照合部21から成る。ユーザ位置・向き算出部19は、カメラ関連情報保存部11に保持されたカメラ7の画角、ディスプレイ6に対するカメラ7の取り付け位置や向きの情報、カメラ8の画角、ディスプレイ6に対するカメラ8の取り付け位置や向きの情報と、カメラ7およびカメラ8による映像情報を用いて、各候補ユーザの頭部の向きと位置の情報を算出する。   FIG. 15 is a schematic block diagram illustrating the configuration of the user information detection unit 12. The user information detection unit 12 includes a user position / orientation calculation unit 19, a user three-dimensional information generation unit 20, and a user information collation unit 21. The user position / orientation calculation unit 19 includes the angle of view of the camera 7 held in the camera related information storage unit 11, information on the mounting position and orientation of the camera 7 with respect to the display 6, the angle of view of the camera 8, and the camera 8 with respect to the display 6. Information on the orientation and position of each candidate user's head is calculated using information on the attachment position and orientation and video information from the cameras 7 and 8.

ユーザ3次元情報生成部20は、カメラ関連情報保存部11に保持された、距離測定カメラ9の画角、ディスプレイ6に対する距離測定カメラ9の取り付け位置や向きの情報と、距離測定カメラ9で撮影された距離画像から、候補ユーザを含む空間の3次元情報を生成し、そこから候補ユーザの頭部位置が存在すると推定される1つ以上の領域を特定し、そこから各候補ユーザの頭部位置を算出する。ユーザ情報照合部21は、ユーザ3次元情報生成部20で得られた各候補ユーザの頭部位置の情報と、ユーザ位置・向き算出部19で得られた頭部向きと位置の情報を統合して重複を削除する処理と、その統合された候補ユーザの頭部の向きと位置の情報と、ユーザ情報記録部13に記録されている過去の情報を照合し、該統合された候補ユーザの頭部の向きと位置の情報が、過去の記録にあるどの候補ユーザの情報かを特定し、現在の情報を過去の情報に統合してユーザ情報記録部13に記録する。   The user three-dimensional information generation unit 20 captures information on the angle of view of the distance measurement camera 9, information on the attachment position and orientation of the distance measurement camera 9 with respect to the display 6, and the distance measurement camera 9, which are held in the camera related information storage unit 11. From the obtained distance image, three-dimensional information of a space including the candidate user is generated, and one or more regions where the candidate user's head position is estimated are identified therefrom, and the head of each candidate user is determined therefrom. Calculate the position. The user information matching unit 21 integrates the head position information of each candidate user obtained by the user three-dimensional information generation unit 20 and the head direction and position information obtained by the user position / orientation calculation unit 19. The duplication is deleted, the head direction and position information of the integrated candidate user and the past information recorded in the user information recording unit 13 are collated, and the head of the integrated candidate user is verified. Which candidate user information in the past record is specified as information on the direction and position of the part, and the current information is integrated into the past information and recorded in the user information recording unit 13.

図16は、ユーザ位置・向き算出部19の動作を説明するフローチャートである。まず、ユーザ位置・向き算出部19は、カメラ7あるいはカメラ8から入力された画像から、顔が写っている可能性のある領域を絞り込むため、肌色の領域を抽出する(S31)。次に、ユーザ位置・向き算出部19は、抽出された肌色の領域に対して顔領域の抽出処理を行う(S32)。これにはテンプレートマッチングを用いることができる。次に、ユーザ位置・向き算出部19は、顔の向きを推定する(S33)。例えば、顔領域からさらに目の領域を特定し、顔領域における目の位置や左右の目の大きさの違いから、顔の向きを検出することができる。   FIG. 16 is a flowchart for explaining the operation of the user position / orientation calculation unit 19. First, the user position / orientation calculation unit 19 extracts a skin color region from an image input from the camera 7 or 8 in order to narrow down a region where a face may be captured (S31). Next, the user position / orientation calculation unit 19 performs face area extraction processing on the extracted skin color area (S32). Template matching can be used for this. Next, the user position / orientation calculation unit 19 estimates the orientation of the face (S33). For example, the eye region can be further specified from the face region, and the orientation of the face can be detected from the difference between the eye position in the face region and the size of the left and right eyes.

最後に、ユーザ位置・向き算出部19は、ディスプレイ6に相対的なユーザの顔位置の座標を推定する(S34)。これは、顔がカメラから遠いほど小さく写ることから、画像における顔領域の位置や大きさと、カメラ関連情報保存部11に記録されたカメラ7の画角、ディスプレイ6に対するカメラ7の取り付け位置や向きの情報、カメラ8の画角、ディスプレイ6に対するカメラ8の取り付け位置や向きの情報を用いて算出することができる。この時、画像中に複数の候補ユーザの顔が存在する場合はそれら全てに関して各々顔の向き推定と顔位置推定を行う。また、これらの処理をカメラ7およびカメラ8による各映像情報全てに対して行う。   Finally, the user position / orientation calculation unit 19 estimates the coordinates of the user's face position relative to the display 6 (S34). This is because the face becomes smaller as the face is farther from the camera, so the position and size of the face area in the image, the angle of view of the camera 7 recorded in the camera-related information storage unit 11, and the position and orientation of the camera 7 attached to the display 6. Information, the angle of view of the camera 8, and information on the mounting position and orientation of the camera 8 with respect to the display 6 can be calculated. At this time, if there are a plurality of candidate user faces in the image, face direction estimation and face position estimation are performed for all of them. Further, these processes are performed on all the video information by the camera 7 and the camera 8.

なお、この処理においては、顔位置推定値として具体的に顔のどの位置の座標を求めるかを決めなければならないが、例えば、左右の目の中央の位置を求めればよい。また、前記の処理によって、ある候補ユーザの顔が複数のカメラ7あるいはカメラ8に撮影され、それぞれ別々に顔の向き推定と顔位置推定を行われる、すなわちある候補ユーザに関して複数の顔の向き推定値と顔位置推定値が存在する可能性がある。これについては、後で説明するユーザ情報照合部21の処理において、重複を解消する処理を行う。   In this process, it is necessary to determine the position of the face to be specifically determined as the face position estimation value. For example, the center position of the left and right eyes may be determined. Further, by the above processing, a face of a candidate user is photographed by a plurality of cameras 7 or 8, and face direction estimation and face position estimation are performed separately, that is, a plurality of face direction estimations for a certain candidate user. Values and face position estimates may exist. About this, the process which eliminates duplication is performed in the process of the user information collation part 21 demonstrated later.

図17は、ユーザ3次元情報生成部20の動作を説明するフローチャートである。まず、ユーザ3次元情報生成部20は、各距離測定カメラ9で得られた距離情報を空間に逆投影し、それぞれシルエット情報を作成する(S41)。次に、ユーザ3次元情報生成部20は、それらのシルエット情報を統合して、1つのシルエット情報を作成する(S42)。次に、ユーザ3次元情報生成部20は、該シルエット情報から床上50cm以下の領域の情報を削除する(S43)。次に、ユーザ3次元情報生成部20は、該シルエット情報を所定の大きさのブロックに分割しクラスタリングを行う(S44)。この時、各クラスタ間のユークリッド平方距離の中の最小値が所定の閾値を上回ったところでクラスタリングを終了する。この処理によりブロックは、いくつかの領域へとクラスタリングされる。次に、ユーザ3次元情報生成部20は、クラスタごとに上部から24cmより下のシルエットを削除する(S45)。最後に、ユーザ3次元情報生成部20は、各クラスタの重心位置を算出し(S46)、これを各候補ユーザの頭部中心位置とする。   FIG. 17 is a flowchart for explaining the operation of the user three-dimensional information generation unit 20. First, the user three-dimensional information generation unit 20 backprojects the distance information obtained by each distance measuring camera 9 into a space, and creates silhouette information for each (S41). Next, the user three-dimensional information generation unit 20 integrates the silhouette information and creates one silhouette information (S42). Next, the user three-dimensional information generation unit 20 deletes information on an area 50 cm or less above the floor from the silhouette information (S43). Next, the user three-dimensional information generation unit 20 performs clustering by dividing the silhouette information into blocks of a predetermined size (S44). At this time, the clustering is terminated when the minimum value in the Euclidean square distance between the clusters exceeds a predetermined threshold. By this processing, the blocks are clustered into several regions. Next, the user three-dimensional information generation unit 20 deletes the silhouette below 24 cm from the top for each cluster (S45). Finally, the user three-dimensional information generation unit 20 calculates the center of gravity position of each cluster (S46), and sets this as the head center position of each candidate user.

ユーザ3次元情報生成部20の動作のより詳細な説明を、図18から図26を用いて行う。図18は、天井に設置された距離測定カメラ91、距離測定カメラ92、距離測定カメラ93が、地面に2人の候補ユーザが立っているシーンを撮影している様子を横から見た図である。以下、説明を簡単にするため、図における奥行き方向の情報を省略し、図中左下に示したようにxyの2次元空間において説明を進める。また、距離測定カメラ91、92、93は、図1における距離測定カメラ9の一部である。   A more detailed description of the operation of the user three-dimensional information generation unit 20 will be given with reference to FIGS. FIG. 18 is a side view of a state in which the distance measuring camera 91, the distance measuring camera 92, and the distance measuring camera 93 installed on the ceiling are shooting a scene in which two candidate users are standing on the ground. is there. Hereinafter, in order to simplify the description, the information in the depth direction in the figure is omitted, and the description will proceed in the two-dimensional space of xy as shown in the lower left in the figure. The distance measuring cameras 91, 92, and 93 are part of the distance measuring camera 9 in FIG.

まず、ユーザ3次元情報生成部20は、距離画像逆投影処理(シルエット作成)(S41)の処理を行う。図19は、距離測定カメラ91によって撮影された距離データを説明する図である。距離測定カメラ91から見て一番手前に位置している物体までの距離情報が取得できるため、ユーザ3次元情報生成部20は、その情報を逆に空間に投影して、図19のようなシルエットの情報を得る。斜線で示した空間が、何らかの物体が存在する可能性のある領域である。このように、人の影になった領域の詳しい情報は分からない。同様にユーザ3次元情報生成部20は、距離測定カメラ92によって撮影された距離データを逆に空間に投影して、図20のようなシルエットの情報を得る。さらに、ユーザ3次元情報生成部20は、距離測定カメラ93によって撮影された距離データを逆に空間に投影して、図21のようなシルエットの情報を得る。このように、3台の距離測定カメラによってそれぞれ異なる3つのシルエット情報が得られる。   First, the user three-dimensional information generation unit 20 performs a distance image backprojection process (silhouette creation) (S41). FIG. 19 is a diagram for explaining distance data photographed by the distance measuring camera 91. Since the distance information to the object located closest to the distance measurement camera 91 can be acquired, the user three-dimensional information generation unit 20 projects the information on the space, as shown in FIG. Get silhouette information. A space indicated by diagonal lines is an area where some object may exist. In this way, detailed information on the shadowed area is unknown. Similarly, the user three-dimensional information generation unit 20 projects distance data photographed by the distance measurement camera 92 on the space, and obtains silhouette information as shown in FIG. Furthermore, the user three-dimensional information generation unit 20 projects distance data photographed by the distance measurement camera 93 on the space, and obtains silhouette information as shown in FIG. Thus, three different pieces of silhouette information can be obtained by the three distance measuring cameras.

次に、ユーザ3次元情報生成部20は、シルエットの統合(S42)の処理を行う。すなわち、ユーザ3次元情報生成部20は、ステップS41で得た3つのシルエット情報の共通領域を抽出することで、図22に示すように、シルエット情報を統合したものを得る。図18の元のシーンと比較すると、細部で違いは有るものの、2人の候補ユーザの存在する領域が概ね正しくシルエットとして求められていることがわかる。すなわち、図18から図20に示した、個々の距離測定カメラによるシルエット情報では人の影になって分からなかった領域が、それらを統合することによって互いに補い合って、図22のようにより正確なシルエット情報が得られる。なお、ここでは距離測定カメラ9が3台設置されている場合を例としたため、3台の距離測定カメラ91、92、93から得られた3つのシルエット情報を統合したが、距離測定カメラ9の台数が多い場合は、その台数分シルエット情報を作成し、それらを全て1つに統合すればよい。   Next, the user three-dimensional information generation unit 20 performs silhouette integration (S42). That is, the user three-dimensional information generation unit 20 extracts a common area of the three silhouette information obtained in step S41, thereby obtaining an integrated silhouette information as shown in FIG. Compared with the original scene in FIG. 18, it can be seen that although there are differences in details, the area where the two candidate users are present is generally correctly obtained as a silhouette. That is, the regions shown in FIGS. 18 to 20 that are not shadowed by the silhouette information by the individual distance measuring cameras complement each other by integrating them, and a more accurate silhouette as shown in FIG. Information is obtained. In addition, since the case where three distance measuring cameras 9 are installed is taken as an example here, the three silhouette information obtained from the three distance measuring cameras 91, 92, 93 are integrated, If there are a large number of units, it is sufficient to create silhouette information for the number of units and integrate them all into one.

次に、ユーザ3次元情報生成部20は、図23に示すように、統合したシルエットから床上50cm以下の領域のシルエットを削除(S43)する。これは、床自体の距離情報や床付近に荷物等が置かれていた場合の影響を除外し、人間の体の領域のみを取り出して処理するためである。なお、ここでは、予め設定された値として、50cmを用いているが、これのみに限る値ではなく、他の値であってもよい。   Next, as shown in FIG. 23, the user three-dimensional information generation unit 20 deletes the silhouette of the area 50 cm or less above the floor from the integrated silhouette (S43). This is because the distance information of the floor itself and the influence when luggage or the like is placed near the floor are excluded, and only the region of the human body is extracted and processed. Here, 50 cm is used as a preset value. However, the value is not limited to this, and may be another value.

次に、ユーザ3次元情報生成部20は、クラスタリング(S44)の処理を行う。すなわち、ユーザ3次元情報生成部20は、まず空間を所定の大きさのブロックに分割する。例えば、1辺5cmの立方体に分割する。図24にその様子を示す。次に、ユーザ3次元情報生成部20は、各ブロックのうち、シルエットを含む全てのブロックに対し、該ブロックの中心の座標を用いて、クラスタリングを行う。クラスタリングあるいはクラスタ解析とは、データ解析手法の1つであり、与えられたデータを自動的に分類する手法として一般的に用いられているものである。この手法を上記のようなブロック群に対して適用すると、距離の近いブロック同士を結びつけていくつかのクラスタに分類する、すなわち、シルエットを各個人ごとに分割することが可能である。   Next, the user three-dimensional information generation unit 20 performs clustering (S44) processing. That is, the user three-dimensional information generation unit 20 first divides the space into blocks having a predetermined size. For example, it is divided into cubes with a side of 5 cm. This is shown in FIG. Next, the user three-dimensional information generation unit 20 performs clustering on all blocks including silhouettes using the coordinates of the center of the blocks. Clustering or cluster analysis is one of data analysis methods and is generally used as a method for automatically classifying given data. When this method is applied to the block group as described above, it is possible to connect blocks having a short distance and classify them into several clusters, that is, to divide silhouettes for each individual.

クラスタリングには大きく分けて、データの分類が階層的になされる階層型手法と、特定のクラスタ数に分類する非階層的手法とがある。今回の場合は、シルエットに何名の候補ユーザが含まれているかが不明であることから、特定のクラスタ数に分類する非階層的手法は適用がしにくい。よって、前者の階層型手法を用いるのがより簡単である。階層型のクラスタリング手法の中には、詳細にはいくつかの方法があるが、例えば重心法、メディアン法、ウォード法といった手法を適用することができる。   Clustering is broadly divided into a hierarchical method in which data is classified hierarchically and a non-hierarchical method in which data is classified into a specific number of clusters. In this case, since it is unclear how many candidate users are included in the silhouette, it is difficult to apply the non-hierarchical method of classifying into a specific number of clusters. Therefore, it is easier to use the former hierarchical method. Among hierarchical clustering methods, there are several methods in detail. For example, methods such as a centroid method, a median method, and a Ward method can be applied.

また、人間は通常ほぼ体が垂直に近い状態の姿勢でいると仮定した場合、各ブロックの座標のうち、高さ方向のyの値はブロックの分類に寄与しない、言い換えればあるブロックがyの値の違いによって属するクラスタが変わることが無い、ということがわかる。よって、yの値は使用せず、その他の方向の座標値のみでクラスタリングしてもよい。   Also, assuming that the human body is usually in a posture that is almost vertical, the y value in the height direction of the coordinates of each block does not contribute to the block classification, in other words, a certain block has y It can be seen that the cluster to which the value belongs does not change due to the difference in value. Therefore, clustering may be performed using only the coordinate values in other directions without using the y value.

また、人と人とはある程度の距離をおいて位置している、すなわち、人の頭部中心位置同士が例えば40cm以下の近さになることはほとんど無い。よって、クラスタリングの操作において、クラスタの重心間のユークリッド平方距離をクラスタ同士の全ての組み合わせで算出し、その中の最小値が所定の閾値(例えば40cm)を上回ったところでクラスタリングを終了する。この時に残っているクラスタ数が現在の候補ユーザの数であり、各クラスタが、各候補ユーザ別のシルエットであるとする。図25にその様子を模式図で示す。シルエットは縦縞の領域P1と横縞の領域P2の2つのクラスタに分割されている。よって候補ユーザ数は2名であり、2つのクラスタP1、P2が、各候補ユーザのシルエットをあらわしている。   In addition, the person and the person are located at a certain distance, that is, the person's head center positions are rarely close to, for example, 40 cm or less. Therefore, in the clustering operation, the Euclidean square distance between the centroids of the clusters is calculated for all combinations of the clusters, and the clustering is terminated when the minimum value among them exceeds a predetermined threshold (for example, 40 cm). The number of clusters remaining at this time is the current number of candidate users, and each cluster is a silhouette for each candidate user. FIG. 25 is a schematic diagram showing the situation. The silhouette is divided into two clusters, a vertically striped region P1 and a horizontally striped region P2. Therefore, the number of candidate users is two, and the two clusters P1 and P2 represent the silhouettes of the candidate users.

次に、ユーザ3次元情報生成部20は、クラスタごとに上部から24cmより下のシルエットを削除(S45)する。すなわち、図26に示すように、図25のクラスタP1、P2ごとに上部から24cmまでの領域のシルエットP1a、P2aに対応するブロックを残し、それより下のブロックを削除する。これは、各クラスタにおいて頭部の領域のみを抽出するためである。人間の頭部の縦方向の長さ(全頭高)は平均して24cm程度であるため、この長さを用いる。この処理により、各候補ユーザの頭部領域のみが抽出され各クラスタに残る。   Next, the user three-dimensional information generation unit 20 deletes silhouettes below 24 cm from the top for each cluster (S45). That is, as shown in FIG. 26, the blocks corresponding to the silhouettes P1a and P2a of the region from the top to 24 cm are left for each of the clusters P1 and P2 in FIG. 25, and the blocks below it are deleted. This is because only the head region is extracted in each cluster. Since the length of the human head in the vertical direction (total head height) is about 24 cm on average, this length is used. By this process, only the head region of each candidate user is extracted and remains in each cluster.

最後に、ユーザ3次元情報生成部20は、各クラスタの重心位置算出(S46)の処理を行う。すなわち、図26の各クラスタP1a、P2aにおいて、クラスタに属する全ブロックの重心位置G1、G2を求める。これにより、各候補ユーザの頭部の中心座標が算出される。図26に黒丸G1、G2で示してあるのが、各候補ユーザの頭部の中心位置である。なお、カメラ関連情報保存部11に保存されている距離測定カメラ9の画角、ディスプレイ6に対する距離測定カメラ9の取り付け位置や向きの情報を用いることで、各候補ユーザの頭部の中心位置は、ディスプレイ6に相対的な値として求める。   Finally, the user three-dimensional information generation unit 20 performs the process of calculating the center of gravity of each cluster (S46). That is, in each cluster P1a, P2a of FIG. 26, the barycentric positions G1, G2 of all the blocks belonging to the cluster are obtained. Thereby, the center coordinate of the head of each candidate user is calculated. In FIG. 26, black circles G1 and G2 indicate the center positions of the heads of the candidate users. The center position of each candidate user's head can be obtained by using information on the angle of view of the distance measurement camera 9 stored in the camera-related information storage unit 11 and information on the mounting position and orientation of the distance measurement camera 9 with respect to the display 6. , As a value relative to the display 6.

以上では、ユーザ3次元情報生成部20における処理の手順を、説明を簡単にするため、図における奥行き方向の情報を省略し、図18の左下に示したようにxyの2次元空間において説明を行った。実際には、同様の処理をxyzの3次元空間において行うのは言うまでもない。その際、前記クラスタリング(S44)の処理の説明において、yの値は使用せずxの値のみでクラスタリングしてもよいと記したが、3次元の場合で同様の処理を行うには、y方向が高さ方向だとして、yの値は使用せずx、zの値のみを用いてクラスタリングすればよい。   In the above, in order to simplify the explanation of the processing procedure in the user three-dimensional information generation unit 20, the information in the depth direction in the figure is omitted, and the explanation is given in the two-dimensional space of xy as shown in the lower left of FIG. went. In practice, it goes without saying that the same processing is performed in the three-dimensional space of xyz. At this time, in the description of the clustering (S44) process, it is described that the clustering may be performed using only the value of x without using the value of y. Assuming that the direction is the height direction, the value of y is not used, and clustering may be performed using only the values of x and z.

次に、ユーザ情報照合部21における処理を説明する。ユーザ情報照合部21は、図27に示すように、現在の情報の統合処理(S51)と、過去の情報との統合処理(S52)の、大きく分けて2つの処理を行う。
まず現在の情報の統合処理(S51)の詳細を説明する。ここでは、カメラ7およびカメラ8の合計の台数をl台、そのうちi番目のカメラに関してユーザ位置・向き算出部19で検出された候補ユーザの顔の向き推定値と顔位置推定値の数がm人分、そのうちj番目の候補ユーザの顔位置推定値をPijとする。なおPijは3次元の座標値である。一方、ユーザ3次元情報生成部20によって検出された候補ユーザの数をn人、そのうちk番目の候補ユーザの頭部の中心位置をCkとする。Ckも3次元の座標値である。
Next, the process in the user information collation part 21 is demonstrated. As shown in FIG. 27, the user information collation unit 21 performs two processes, which are roughly divided into a current information integration process (S51) and a past information integration process (S52).
First, details of the current information integration process (S51) will be described. Here, the total number of cameras 7 and 8 is l, and the number of face direction estimated values and face position estimated values of the candidate user detected by the user position / orientation calculating unit 19 for the i-th camera is m. Let Pij be the estimated face position value of the jth candidate user for that person. Note that Pij is a three-dimensional coordinate value. On the other hand, the number of candidate users detected by the user three-dimensional information generation unit 20 is n, and the center position of the head of the kth candidate user is Ck. Ck is also a three-dimensional coordinate value.

ステップS51では、ユーザ3次元情報生成部20によって検出されたk番目の候補ユーザに関して、ユーザ情報照合部21は、図28に示す統合処理を行う。これは、ユーザ位置・向き算出部19における手法とユーザ3次元情報生成部20における手法の、2つの異なる手法で求められた、候補ユーザの顔位置推定値Pijと候補ユーザの頭部の中心位置Ckの値に対し、同一の候補ユーザに関する値を探して対応付けるための処理である。   In step S51, for the kth candidate user detected by the user three-dimensional information generation unit 20, the user information collation unit 21 performs the integration process illustrated in FIG. This is because the candidate user's face position estimated value Pij and the candidate user's head center position obtained by two different methods, the method in the user position / orientation calculation unit 19 and the method in the user three-dimensional information generation unit 20 This is a process for searching for a value related to the same candidate user with the value of Ck.

まず、ユーザ情報照合部21は、全てのi、jの組み合わせにおいて、||Pij−Ck||、すなわちi番目のカメラにおいて検出されたj番目の候補ユーザの顔位置推定値Pijとk番目の候補ユーザの頭部の中心位置Ckとの距離を求める(S61)。
次に、ユーザ情報照合部21は、||Pij−Ck||<Tとなるi、jの組を集める(S62)。で、ここでTは所定の閾値であり、例えば12cmという値を用いる。前記の通り、顔位置推定値として具体的には、例えば左右の目の中央の位置を求める。この場合、頭部中心位置と顔位置推定値は頭部の半径程度のずれがある。人間の頭部の半径は平均して約8cmであるので、検出誤差を勘案して12cm程度の閾値で判定すれば、k番目の候補ユーザの頭部の中心位置Ckに近い、i番目のカメラにおいて検出されたj番目の候補ユーザの顔位置推定値Pijを正しく選び出すことができると期待される。
First, the user information collating unit 21 sets || Pij−Ck ||, that is, the face position estimated value Pij of the j-th candidate user detected by the i-th camera and the k-th in all combinations of i and j. A distance from the center position Ck of the candidate user's head is obtained (S61).
Next, the user information collating unit 21 collects a set of i and j that satisfies || Pij−Ck || <T (S62). Here, T is a predetermined threshold value, for example, a value of 12 cm is used. As described above, specifically, for example, the center position of the left and right eyes is obtained as the face position estimation value. In this case, the head center position and the face position estimation value are shifted by about the radius of the head. Since the radius of the human head on average is about 8 cm, the i-th camera close to the center position Ck of the head of the k-th candidate user can be determined with a threshold of about 12 cm in consideration of detection errors. It is expected that the face position estimated value Pij of the j-th candidate user detected in step 1 can be selected correctly.

次に、ユーザ情報照合部21は、2つ以上のi、jの組が集まったかどうかを判定する(S63)。これは、ユーザ3次元情報生成部20によって検出されたk番目の候補ユーザを、ユーザ位置・向き算出部19において複数のカメラが撮影してそれぞれ顔位置推定値Pijを求めている可能性が考えられ、その結果として複数のi、jの組が集まることがあるためである。   Next, the user information collation unit 21 determines whether two or more pairs of i and j are collected (S63). This is because there is a possibility that the user position / orientation calculation unit 19 captures the k-th candidate user detected by the user three-dimensional information generation unit 20 and obtains the face position estimation value Pij, respectively. As a result, a plurality of sets of i and j may be collected.

ステップS63にて、2つ以上のi、jの組が集まった場合は、ユーザ情報照合部21は、集まった各i、jの組に対して、カメラiの向きを表す単位ベクトルと候補ユーザjの顔の向きを表す単位ベクトルとの内積を計算する(S64)。これは、集まった複数のi、jの組の中から最も信頼性が高いと期待される組を選び出すために、候補ユーザができるだけカメラに正対している状況で推定されたデータを選択するためである。なぜなら、候補ユーザができるだけカメラに正対している状況の方が、カメラは顔を正面からゆがみ無く撮影できるため、推定精度が高いと期待される。候補ユーザがどれだけカメラに正対しているかは、カメラiの向きを表す単位ベクトルと候補ユーザjの顔の向きを表す単位ベクトルとの内積から判定できる。完全に正対している場合は、カメラiの向きを表す単位ベクトルと候補ユーザjの顔の向きを表す単位ベクトルとは正反対の向きであり、その内積は−1になる。それに比べて顔の方向がずれる場合は、内積は−1より大きな値になる。
よって、ユーザ情報照合部21は、内積が最も−1に近いi、jの組を、k番目の候補ユーザに対応する組と決定する(S65)。
When two or more pairs of i and j are collected in step S63, the user information collating unit 21 sets a unit vector representing the direction of the camera i and a candidate user for each collected group of i and j. An inner product with a unit vector representing the orientation of the face of j is calculated (S64). This is to select data estimated in a situation where the candidate user is facing the camera as much as possible in order to select a pair that is expected to have the highest reliability from a plurality of sets of i and j collected. It is. This is because the estimation accuracy is expected to be higher when the candidate user faces the camera as much as possible because the camera can shoot the face from the front without distortion. How much the candidate user is facing the camera can be determined from the inner product of the unit vector representing the direction of the camera i and the unit vector representing the direction of the face of the candidate user j. When facing completely, the unit vector representing the direction of the camera i and the unit vector representing the direction of the face of the candidate user j are opposite directions, and the inner product thereof is -1. If the face direction is deviated from that, the inner product is larger than -1.
Therefore, the user information collation unit 21 determines the set of i and j whose inner product is closest to −1 as the set corresponding to the kth candidate user (S65).

一方、ステップS63において2つ以上のi、jの組が分類されていなかった場合は、ユーザ情報照合部21は、さらに、1つのi、jの組が分類されたかを判定する(S66)。
この判定の結果、1つのi、jの組が分類されていた場合は、ユーザ情報照合部21は、該1つのi、jの組をk番目の候補ユーザに対応する組と決定する(S67)。
一方、ステップS66の判定の結果、1つもi、jの組が分類されていなかった場合は、ユーザ情報照合部21は、k番目の候補ユーザに対応する組は無しと決定する(S68)。これは、ユーザ3次元情報生成部20で検出されたk番目の候補ユーザが、ユーザ位置・向き算出部19での処理においてカメラ7あるいはカメラ8のいずれからも撮影される位置に居なかった、などの場合が考えられる。
対応するi、jの組が決まった候補ユーザkに関しては、該i番目のカメラによって推定された該j番目の候補ユーザの頭部位置及び頭部向きを、該候補ユーザkの頭部位置および頭部の向きと対応付ける。
以上の処理を、ユーザ3次元情報生成部20によって検出された全ての候補ユーザに関して実行する。
On the other hand, when two or more pairs of i and j are not classified in step S63, the user information collating unit 21 further determines whether one pair of i and j is classified (S66).
If the result of this determination is that one i, j pair has been classified, the user information collating unit 21 determines that the one i, j pair is a group corresponding to the kth candidate user (S67). ).
On the other hand, as a result of the determination in step S66, if no combination of i and j is classified, the user information matching unit 21 determines that there is no combination corresponding to the kth candidate user (S68). This is because the k-th candidate user detected by the user three-dimensional information generation unit 20 was not in a position where the user position / orientation calculation unit 19 photographed from either the camera 7 or the camera 8. The case is considered.
For the candidate user k for which the corresponding i, j pair is determined, the head position and head direction of the j-th candidate user estimated by the i-th camera are represented by the head position of the candidate user k and Match with head orientation.
The above process is executed for all candidate users detected by the user three-dimensional information generation unit 20.

次に、ユーザ情報照合部21による過去の情報との統合処理(S52)の詳細を説明する。ユーザ情報照合部21による統合処理のフローを図29に示す。まず、ユーザ情報照合部21は、ユーザ情報記録部13に過去の情報があるかを判定する(S71)。この判定の結果、過去の情報が存在する場合は、ユーザ情報照合部21は、現在の情報の統合処理(S51)で作成した現在の情報と、ユーザ情報記録部13に記録されている過去の情報との統合および情報を更新する処理を行う(S72)。そのより詳細な処理については後述する。一方、ステップS71の判定の結果、ユーザ情報記録部13に過去の情報が無かった場合は、ユーザ情報照合部21は、現在の情報の統合処理(S51)で作成した現在の情報を新規の情報として記録する(S73)。通常、過去の情報が無いのは、システムが動き出した直後の1回のみである。   Next, details of integration processing (S52) with past information by the user information collating unit 21 will be described. FIG. 29 shows a flow of integration processing by the user information collation unit 21. First, the user information matching unit 21 determines whether there is past information in the user information recording unit 13 (S71). If there is past information as a result of this determination, the user information collating unit 21 uses the current information created in the current information integration process (S51) and the past recorded in the user information recording unit 13. Integration with information and processing for updating information are performed (S72). More detailed processing will be described later. On the other hand, as a result of the determination in step S71, if there is no past information in the user information recording unit 13, the user information collating unit 21 uses the current information created in the current information integration process (S51) as new information. Is recorded as (S73). Usually, there is no past information only once just after the system starts to move.

さらに、情報更新処理(S72)について、より詳細に説明する。現在の情報の統合処理(S51)における候補ユーザのIDはユーザ情報記録部13に記録されている過去の情報と統合されていないため、この説明では暫定候補ユーザと呼ぶ。この暫定候補ユーザnの頭部位置をPn、頭部の向きをDnとする。ステップS72では、現在の情報の統合処理(S51)で作成した現在すなわち時刻tにおける暫定候補ユーザnの情報と、ユーザ情報記録部13に記録されている時刻t’における候補ユーザmの情報に対して、ユーザ情報照合部21は、図30に示す情報更新処理を行う。これは、時刻t’と時刻tでは候補ユーザが移動して位置が異なることがあるため、その違いを考慮しながら、時刻t’における候補ユーザと時刻tにおける暫定候補ユーザの対応関係を求める処理である。   Further, the information update process (S72) will be described in more detail. Since the candidate user ID in the current information integration process (S51) is not integrated with past information recorded in the user information recording unit 13, it is referred to as a provisional candidate user in this description. The head position of the provisional candidate user n is Pn, and the head direction is Dn. In step S72, the current information, that is, the provisional candidate user n information at time t created in the current information integration process (S51) and the information of candidate user m at time t ′ recorded in the user information recording unit 13 are processed. Then, the user information collation unit 21 performs the information update process shown in FIG. This is because the candidate user may move and have different positions at the time t ′ and the time t, so that the correspondence between the candidate user at the time t ′ and the temporary candidate user at the time t is calculated while considering the difference. It is.

まず、ユーザ情報照合部21は、全てのm、nの組み合わせにおいて||P_m(t’)−Pn||を計算する(S81)。次に、ユーザ情報照合部21は、各mに関して、||P_m(t’)−Pn||<T2となるnを探す(S82)。ここでT2は所定の閾値である。この値は、人間の頭部の通常想定される移動速度と、本システムが候補ユーザの情報を1秒間に何回取得するか(処理のリフレッシュレート)を目安に決定することができる。   First, the user information collation unit 21 calculates || P_m (t ′) − Pn || for all combinations of m and n (S81). Next, the user information collation unit 21 searches for n that satisfies || P_m (t ′) − Pn || <T2 for each m (S82). Here, T2 is a predetermined threshold value. This value can be determined based on the normally assumed movement speed of the human head and how many times the system acquires candidate user information per second (processing refresh rate).

例えば、人間の頭部の移動速度を最大120cm/sec、処理のリフレッシュレートを30回/secと仮定する。この時、処理の単位時間はt−t’=1/30=33.33msecであり、該処理の単位時間当たりの人間の頭部の最大移動量は、120/30=4cmとなる。そこで、例えばT2=4cmと設定すれば、||P_m(t’)−Pn||<T2が成り立つP_m(t’)とPnは、同一の候補ユーザに関するデータである可能性が高い。また、T2=4cmならば、頭部の直径約16cmに比べて十分に小さい値であり、近傍の別の候補ユーザのデータと間違って認識する可能性は低い。   For example, it is assumed that the moving speed of the human head is a maximum of 120 cm / sec and the processing refresh rate is 30 times / sec. At this time, the unit time of the process is t−t ′ = 1/30 = 33.33 msec, and the maximum movement amount of the human head per unit time of the process is 120/30 = 4 cm. Therefore, for example, if T2 = 4 cm, P_m (t ′) and Pn satisfying || P_m (t ′) − Pn || <T2 are highly likely to be data relating to the same candidate user. If T2 = 4 cm, the value is sufficiently smaller than the head diameter of about 16 cm, and the possibility of erroneously recognizing data of another candidate user in the vicinity is low.

なお、このことは逆に言えば、ある程度速いリフレッシュレートでなければ、近傍の別の候補ユーザのデータと誤る可能性があることを示す。例えば処理のリフレッシュレートが5回/secの場合は、処理の単位時間当たりの人間の頭部の最大移動量は、120/5=24cmとなる。これは人間の頭部の直径約16cmより大きな値であり、誤りが発生する可能性が高いことが分かる。   In other words, this means that there is a possibility that the data may be mistaken as data of another candidate user in the vicinity unless the refresh rate is fast to some extent. For example, when the processing refresh rate is 5 times / sec, the maximum movement amount of the human head per unit time of processing is 120/5 = 24 cm. This is a value larger than the diameter of the human head of about 16 cm, and it can be seen that there is a high possibility that an error will occur.

次に、ユーザ情報照合部21は、ステップS82の処理において各mに対して条件に合致するnが存在したかを判定する(S83)。この判定の結果、存在した場合は、ユーザ情報照合部21は、そのmとnの組に関して、暫定候補ユーザnを候補ユーザmと同一人物として対応付ける(S84)。続いて、ユーザ情報照合部21は、ユーザ情報記録部13に対しP_m(t)=Pn、D_m(t)=Dnと記録する(S85)。すなわち対応付けが判明したデータを、過去のデータに関連付け、その最新のデータとして記録する。さらに、ユーザ情報照合部21は、T_mとW_mを更新する(S86)。具体的には、T_mについては、T_m=0の時は何もせず、T_m≠0の時にはT_mにT_m+(t−t’)を上書きする。W_mについても同様に、W_m=0の時は何もせず、W_m≠0の時にはW_mにW_m+(t−t’)を上書きする。   Next, the user information collation unit 21 determines whether or not n that matches the condition exists for each m in the process of step S82 (S83). As a result of this determination, if it exists, the user information matching unit 21 associates the temporary candidate user n with the candidate user m as the same person for the set of m and n (S84). Subsequently, the user information matching unit 21 records P_m (t) = Pn and D_m (t) = Dn in the user information recording unit 13 (S85). That is, data whose association is found is associated with past data and recorded as the latest data. Furthermore, the user information collation unit 21 updates T_m and W_m (S86). Specifically, for T_m, nothing is performed when T_m = 0, and T_m + (t−t ′) is overwritten on T_m when T_m ≠ 0. Similarly, for W_m, nothing is performed when W_m = 0, and W_m + (t−t ′) is overwritten on W_m when W_m ≠ 0.

一方、ステップS83の判定の結果、各mにおいて条件に合致するnが存在しなかった場合は、ユーザ情報照合部21は、それらの候補ユーザm全てに関して、情報をユーザ情報記録部13から削除する(S87)。これは、候補ユーザがシステムの検出範囲外に出てしまい、情報が得られなくなった場合に発生する。ステップS86又はステップS87の処理が終わった後は、時刻tにおけるデータで時刻t’におけるいずれのデータとも対応付けされなかった物はあるかを判定する(S88)。言い換えれば、各暫定候補ユーザnの中で、候補ユーザmのいずれとも対応付けされなかった暫定候補ユーザnが存在するかどうかを判定する。   On the other hand, as a result of the determination in step S83, if n that matches the condition does not exist in each m, the user information matching unit 21 deletes information from all the candidate users m from the user information recording unit 13. (S87). This occurs when a candidate user goes out of the detection range of the system and information cannot be obtained. After the process of step S86 or step S87 is completed, it is determined whether there is an object that is not associated with any data at time t 'in the data at time t (S88). In other words, it is determined whether or not there is a provisional candidate user n that is not associated with any of the candidate users m among the provisional candidate users n.

このステップS88の条件を満たす暫定候補ユーザnが存在した場合は、すなわち過去のデータに存在しない新たな候補ユーザであることを示しているので、ユーザ情報照合部21は、該暫定候補ユーザnの情報を、新規候補ユーザとしてユーザ情報記録部13に追加して記録する(S89)。具体的には、図4に示したユーザ情報記録部13に記録するデータにおいて、候補ユーザIDリストに新規ID番号を追加し、そのID番号に関連する情報(T_n、W_n、N_n、時刻リスト及びその下位の情報)を記録する。この時、T_n=0、W_n=t−t’、N_n=0と初期値を代入する。なお、この条件を満たす暫定候補ユーザが複数存在した場合は、その全てを新規候補ユーザとして追加して記録する。   If there is a provisional candidate user n that satisfies the condition of step S88, that is, it indicates a new candidate user that does not exist in the past data, the user information matching unit 21 determines that the provisional candidate user n Information is added and recorded in the user information recording unit 13 as a new candidate user (S89). Specifically, in the data recorded in the user information recording unit 13 shown in FIG. 4, a new ID number is added to the candidate user ID list, and information (T_n, W_n, N_n, time list and Record the subordinate information). At this time, T_n = 0, W_n = t−t ′, N_n = 0, and initial values are substituted. When there are a plurality of provisional candidate users that satisfy this condition, all of them are added and recorded as new candidate users.

図3に戻って、映像生成部16は、ユーザ選択・解放処理部15から送られてきた現在の被選択ユーザに関する情報と、ディスプレイ関連情報保存部17に保存されたディスプレイ6の表示部分の大きさ、解像度の情報と、三次元CGモデルデータ保存部18に保存された三次元CGを表示するためのモデルデータとそれらのモデルの仮想的な配置の情報を用いて、被選択ユーザの視点位置から見た画像を合成し、ディスプレイ6に出力する。   Returning to FIG. 3, the video generation unit 16 receives the information on the currently selected user sent from the user selection / release processing unit 15 and the size of the display portion of the display 6 stored in the display related information storage unit 17. The viewpoint position of the selected user using the resolution information, the model data for displaying the 3D CG stored in the 3D CG model data storage unit 18 and the virtual arrangement information of those models. Are combined and output to the display 6.

ディスプレイ6に出力する映像は、画面全体に運動視差再現映像を提示しても良いし、あるいは図31に示すように、画面中の一部分である運動視差再現映像領域22には運動視差再現映像を提示し、それ以外の通常映像領域23では、通常の映像、すなわち被選択ユーザの頭部位置によらない映像を提示するようにしても良い。後者の場合、運動視差再現映像領域22に表示された映像は被選択ユーザにしか適切には見えず、それ以外のユーザにとっては見にくいが、通常映像領域23に表示された映像は、誰にでも普通に見える。よって、例えば運動視差再現映像領域22に広告したい物品を運動視差映像処理を使って提示し、通常映像領域23には該物品の説明文を表示するようにすれば、少なくとも該物品の説明文は誰でも読むことができ、かつ被選択ユーザは該物品を様々な方向から見ることが可能となる。   The video output to the display 6 may present the motion parallax reproduction video on the entire screen, or, as shown in FIG. 31, the motion parallax reproduction video region 22 which is a part of the screen displays the motion parallax reproduction video. In the other normal video area 23, the normal video, that is, the video that does not depend on the head position of the selected user may be presented. In the latter case, the video displayed in the motion parallax reproduction video area 22 can be viewed appropriately only by the selected user and is difficult for other users to see, but the video displayed in the normal video area 23 is open to anyone. Looks normal. Thus, for example, if an article to be advertised is presented in the motion parallax reproduction video area 22 using motion parallax video processing, and an explanatory text of the article is displayed in the normal video area 23, at least the explanatory text of the article is Anyone can read it, and the selected user can see the article from various directions.

また、画面を左右の2つの領域に分割し、それぞれ1人ずつ、合計2名のユーザに対して運動視差再現映像を提供する場合の表示の例を図32を用いて説明する。図32は、ディスプレイ6の前に被選択ユーザ51と被選択ユーザ52の2名の被選択ユーザがいる状況を表す。この時、ディスプレイ6の画面を2つの領域に分割し、それぞれ部分表示領域24と部分表示領域25とする。部分表示領域24には、被選択ユーザ51の頭部位置に応じて生成した映像を提示し、部分表示領域25には、被選択ユーザ52の頭部位置に応じた映像を提示する。このようにすることで、同時に2名の被選択ユーザに運動視差再現映像を用いた広告を見せることが可能である。さらに、3分割、4分割、…と分割数を増やして、より多くの被選択ユーザに同時に運動視差再現映像を用いた広告を見せることは可能であるが、分割数を増やすと1名あたりの表示領域が小さくなり見にくくなるため、ディスプレイ6の大きさや表示内容等を考慮して適宜分割数を決める必要がある。   In addition, an example of display when the screen is divided into two left and right regions and motion parallax reproduction images are provided to a total of two users, one each, will be described with reference to FIG. FIG. 32 shows a situation where there are two selected users of the selected user 51 and the selected user 52 in front of the display 6. At this time, the screen of the display 6 is divided into two areas, which are a partial display area 24 and a partial display area 25, respectively. A video generated according to the head position of the selected user 51 is presented in the partial display area 24, and a video corresponding to the head position of the selected user 52 is presented in the partial display area 25. By doing so, it is possible to simultaneously show an advertisement using motion parallax reproduction video to two selected users. Furthermore, it is possible to increase the number of divisions, such as 3 divisions, 4 divisions,..., And to show advertisements using motion parallax reproduction images to more selected users at the same time. Since the display area becomes small and difficult to see, it is necessary to determine the number of divisions appropriately in consideration of the size of the display 6 and the display contents.

第1の実施の形態において画面を2つの領域に分割して最大で2名のユーザに対して運動視差再現映像を提供可能な運動視差再現映像提示システム、すなわち第1の実施の形態において最大選択可能人数Max=2である運動視差再現映像提示システムを例として、時間の経過に従って被選択ユーザが変わっていく場合に、具体的にどのように表示を行うかの例を説明する。図33は、図32に示した画面を2つの領域に分割可能なディスプレイと、A、B、Cの3つの視点位置を示したものであり、図34はそれを上から見た図である。これに対し、ある時刻t1、t2、t3、t4、t5(ただしt1<t2<t3<t4<t5)における被選択ユーザが次のように変化したとする。   Motion parallax reproduction video presentation system capable of providing motion parallax reproduction video to two users at maximum by dividing the screen into two areas in the first embodiment, that is, maximum selection in the first embodiment A specific example of how display is performed when the selected user changes with the passage of time will be described by taking as an example a motion parallax reproduction video presentation system in which the possible number Max = 2. FIG. 33 shows a display that can divide the screen shown in FIG. 32 into two areas, and three viewpoint positions A, B, and C, and FIG. 34 is a view from above. . On the other hand, it is assumed that the selected user at certain times t1, t2, t3, t4, and t5 (where t1 <t2 <t3 <t4 <t5) changes as follows.

(1)時刻t1:位置A、B、Cのいずれにも被選択ユーザはいない。
(2)時刻t2:位置Bに被選択ユーザU1が来た。
(3)時刻t3:位置Bに被選択ユーザU1がそのままいる。位置Aに被選択ユーザU2が新たに来た。
(4)時刻t4:位置Bに被選択ユーザU1がそのままいる。位置Aにいた被選択ユーザU2は去った。
(5)時刻t5:位置Bに被選択ユーザU1がそのままいる。位置Cに被選択ユーザU3が新たに来た。
(1) Time t1: There is no selected user at any of positions A, B, and C.
(2) Time t2: Selected user U1 comes to position B.
(3) Time t3: The selected user U1 remains at the position B. The selected user U2 has newly arrived at the position A.
(4) Time t4: The selected user U1 remains at the position B. The selected user U2 who was at position A has left.
(5) Time t5: The selected user U1 remains at the position B. The selected user U3 has newly arrived at position C.

この場合、各時刻における表示は、例えば以下のように行う。
(1)時刻t1:被選択ユーザ数Uは0。誰も被選択ユーザがいないので、運動視差再現映像の提示は行わない。例えば運動視差再現を行わない通常の広告映像を流しておく。
(2)時刻t2:被選択ユーザ数Uは1。よって画面の分割は行わず、画面全体に位置Bにいる被選択ユーザU1に向けた運動視差再現映像を提示する。
(3)時刻t3:被選択ユーザ数Uは2。よって画面を2つの領域に分割し、時刻t2において位置Bにいる被選択ユーザU1に見せていた映像は縮小あるいはトリミングして部分表示領域25に移動させる。部分表示領域24には位置Aにいる被選択ユーザU2に向けた運動視差再現映像の提示を開始する。これは、図34において左側から順に、Aの位置に被選択ユーザU2、Bの位置に被選択ユーザU1と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU2に向けた映像を、部分領域25に被選択ユーザU1に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
In this case, the display at each time is performed as follows, for example.
(1) Time t1: The number U of selected users is 0. Since no user is selected, the motion parallax reproduction video is not presented. For example, a normal advertisement video that does not reproduce motion parallax is played.
(2) Time t2: The number U of selected users is 1. Therefore, the screen is not divided, and the motion parallax reproduction video directed to the selected user U1 at the position B is presented on the entire screen.
(3) Time t3: The number of selected users U is 2. Therefore, the screen is divided into two areas, and the video shown to the selected user U1 at position B at time t2 is reduced or trimmed and moved to the partial display area 25. In the partial display area 24, presentation of the motion parallax reproduction video toward the selected user U2 at the position A is started. In FIG. 34, since the selected user U2 is located at the position A and the selected user U1 is located at the position B from the left side in FIG. 34, the screen is also displayed in the partial display area 24 from the left side to the selected user U2. This is because it is easier for both the selected users to view the directed video in the partial area 25 than to display the video directed to the selected user U1.

(4)時刻t4:被選択ユーザ数Uは1。位置Aにいた被選択ユーザU2は去ったので、部分表示領域24に提示していた運動視差再現映像は表示を停止する。時刻t3において位置Bにいる被選択ユーザU1に向けて部分表示領域25に提示していた運動視差再現映像は、画面全体に表示領域を広げて表示する。
(5)時刻t5:被選択ユーザ数Uは2。よって再び画面を2つの領域に分割し、時刻t4において位置Bにいる被選択ユーザU1に画面全体を用いて見せていた映像は縮小あるいはトリミングして部分表示領域24に移動させる。部分表示領域25には新たに位置Cに来た被選択ユーザU3に向けた運動視差再現映像の提示を開始する。これは、図34において左側から順に、Bの位置に被選択ユーザU1、Cの位置に被選択ユーザU3と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU1に向けた映像を、部分領域25に被選択ユーザU3に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
(4) Time t4: The number U of selected users is 1. Since the selected user U2 at the position A has left, the display of the motion parallax reproduction video presented in the partial display area 24 is stopped. The motion parallax reproduction video presented in the partial display area 25 toward the selected user U1 at the position B at time t3 is displayed with the display area expanded over the entire screen.
(5) Time t5: The number of selected users U is 2. Therefore, the screen is divided again into two areas, and the video shown to the selected user U1 at position B using the entire screen at time t4 is reduced or trimmed and moved to the partial display area 24. In the partial display area 25, the presentation of the motion parallax reproduction image for the selected user U3 newly coming to the position C is started. In FIG. 34, since the selected user U1 is located at the position B and the selected user U3 is located at the position C in order from the left side, the screen is also displayed in the partial display area 24 in the partial display area 24 from the left side. This is because it is easier for both the selected users to view the directed video in the partial area 25 than to display the video directed to the selected user U3.

このように、各時刻における被選択ユーザの数や位置に応じて、運動視差再現映像を表示する数や位置を変えて表示する。上記の例では、被選択ユーザU1はいずれの時刻においても常に位置Bに居るが、その他の被選択ユーザの存在やその位置によって、各時刻において画面全体、部分表示領域25、画面全体、部分領域24というように変化することになる。   In this way, the number and position of displaying the motion parallax reproduction video are changed and displayed according to the number and position of the selected users at each time. In the above example, the selected user U1 is always at the position B at any time, but depending on the presence and position of other selected users, the entire screen, the partial display area 25, the entire screen, and the partial area at each time It will change to 24.

なお、上記の実施の形態においては、簡単のため、ディスプレイに表示する映像は三次元CGモデルを用いて生成することとしたが、実写映像に対して適用することも可能である。例えば、あらかじめ多数のカメラを並べて配置したカメラアレイにより多数の映像を撮影して保存しておき、被選択ユーザの視点位置に応じて適切な映像を選び出しそれを表示するようにすればよい。あるいは、多視点画像と多視点距離画像から三次元画像データを生成し、そのデータを用いて任意の視点位置から見た映像を生成するようにしてもよい。   In the above embodiment, for the sake of simplicity, the video displayed on the display is generated using the three-dimensional CG model, but it can also be applied to a live-action video. For example, a large number of videos may be captured and stored by a camera array in which a large number of cameras are arranged in advance, and an appropriate video may be selected according to the viewpoint position of the selected user and displayed. Alternatively, three-dimensional image data may be generated from a multi-viewpoint image and a multi-viewpoint distance image, and a video viewed from an arbitrary viewpoint position may be generated using the data.

[第2の実施形態]
本発明の第2の実施形態は、第1の実施の形態と同じく運動視差再現映像提示システムであり、ハードウェア構成も第1の実施の形態と同じく図1および図2に示されるものである。異なるのは、運動視差再現映像生成装置10における処理であり、図3に示した第1の実施の形態におけるユーザ選択・解放処理部15が、第2の実施形態では、図35のようにユーザ選択処理部26(ユーザ選択部)に変わる。すなわちユーザ選択処理部26では、ユーザ選択・解放処理部15にはあった解放処理は行わない。図35において図3の各部に対応する部分には、同一の符号(6〜14、16〜18)を付け、その説明を省略する。
[Second Embodiment]
The second embodiment of the present invention is a motion parallax reproduction video presentation system similar to the first embodiment, and the hardware configuration is also shown in FIGS. 1 and 2 as in the first embodiment. . The difference is the processing in the motion parallax reproduction video generation device 10. The user selection / release processing unit 15 in the first embodiment shown in FIG. 3 is the same as the user in the second embodiment as shown in FIG. The selection processing unit 26 (user selection unit) is changed. That is, the user selection processing unit 26 does not perform the release process that was in the user selection / release processing unit 15. 35, the same reference numerals (6 to 14, 16 to 18) are assigned to portions corresponding to the respective portions in FIG. 3, and the description thereof is omitted.

ユーザ選択処理部26における処理の詳細を図36に示す。これは第1の実施の形態におけるユーザ選択・解放処理部15における処理(図8)に対応するものである。まず、ユーザ選択処理部26は、被選択ユーザの選択処理(S91)を行う。その詳細は後で説明する。次に、ユーザ選択処理部26は、選択後所定の閾値T3秒が経過したかどうかを判定する(S92)。経過した場合は処理の先頭に戻り、ユーザ選択処理部26は、再び被選択ユーザの選択処理(S91)を実行する。すなわち、予め設定された所定の時間T3秒ごとに、被選択ユーザを選びなおす処理を行う。ステップS92においてまだT3秒の時間が経過していなかった場合は、ユーザ選択処理部26は、被選択ユーザ位置情報送信処理(S93)を行う。これは、ユーザ情報記録部13に記録されている候補ユーザの情報においてT_n≠0であるユーザ、すなわち被選択ユーザ全てに関して、その位置情報P_n(t)を映像生成部16に送ると共に、現在の被選択ユーザの数Uを映像生成部16に送る処理である。   Details of processing in the user selection processing unit 26 are shown in FIG. This corresponds to the processing (FIG. 8) in the user selection / release processing unit 15 in the first embodiment. First, the user selection processing unit 26 performs a selection process for a selected user (S91). Details will be described later. Next, the user selection processing unit 26 determines whether or not a predetermined threshold T3 seconds has elapsed after selection (S92). When the time has elapsed, the process returns to the top of the process, and the user selection processing unit 26 executes the selection process of the selected user (S91) again. That is, a process of reselecting the selected user is performed every predetermined time T3 seconds set in advance. When the time of T3 seconds has not yet elapsed in step S92, the user selection processing unit 26 performs a selected user position information transmission process (S93). This is because the position information P_n (t) is sent to the video generation unit 16 for all users who have T_n ≠ 0 in the information on the candidate users recorded in the user information recording unit 13, that is, the selected users, This is processing for sending the number U of selected users to the video generation unit 16.

ユーザ選択処理部26による被選択ユーザの選択処理(S91)の詳細を図37に示す。これは第1の実施形態における被選択ユーザ追加処理(S2)の詳細(図9)に対応するものであり、その処理は似ている。よって説明の分かりやすさのため、図37において、図9と対応する処理の符号は下一桁の番号を図9と合わせたものとし、図37に対応する処理が無い場合はその符号を用いていない。まず、ユーザ選択処理部26は、全候補ユーザに関して適合度F_n(t)を算出する(S102)。ここで、適合度F_n(t)は第1の実施形態で説明したものと同一であり、その算出方法も同一のため、詳細な説明は省略する。   Details of the selection process (S91) of the selected user by the user selection processing unit 26 are shown in FIG. This corresponds to the details (FIG. 9) of the selected user addition processing (S2) in the first embodiment, and the processing is similar. Therefore, for ease of explanation, in FIG. 37, the reference numeral of the process corresponding to FIG. 9 is the same as that of FIG. 9, and the reference numeral is used when there is no corresponding process of FIG. Not. First, the user selection processing unit 26 calculates the fitness F_n (t) for all candidate users (S102). Here, the fitness F_n (t) is the same as that described in the first embodiment, and the calculation method thereof is also the same.

次に、ユーザ選択処理部26は、F_n(t)<Fconstである候補ユーザを除外する(S103)。これは、適合度が予め設定された所定の閾値Fconst以下、すなわち被選択ユーザとして相応しくない候補ユーザを被選択ユーザとすることを避け、不要なサービスを行わないことを目的とする処理である。ステップS103の処理で残った候補ユーザの数をkとする。次に、ユーザ選択処理部26は、k>0であるか否かを判定する(S104)。この判定の結果、k>0でない場合、すなわちNoの場合は、ユーザ選択処理部26は、そのまま処理を終了する。   Next, the user selection processing unit 26 excludes candidate users satisfying F_n (t) <FConst (S103). This is a process aimed at avoiding unnecessary services from avoiding a candidate user whose fitness is not more than a predetermined threshold FConst set in advance, that is, a candidate user not suitable as a selected user. Let k be the number of candidate users remaining in the process of step S103. Next, the user selection processing unit 26 determines whether or not k> 0 (S104). As a result of this determination, if k> 0 is not true, that is, if No, the user selection processing unit 26 ends the process as it is.

また、ステップS104の判定の結果、k>0である場合、すなわちYesの場合は、ユーザ選択処理部26は、k≧Maxであるか否かを判定する(S105)。この判定の結果、k≧Maxである場合、すなわちYesの場合、ユーザ選択処理部26は、適合度F_n(t)の値の大きな順にMax名の候補ユーザを選択し被選択ユーザとする処理を行う(S106)。より具体的には、ユーザ選択処理部26は、ユーザ情報記録部13に記録されている候補ユーザの情報において、適合度F_n(t)の値の大きな順にMax名の候補ユーザに関するデータに対して、W_n=0、N_n=N_n+1という処理を行う。これはそれぞれ、選択待ち状態から脱したので現在の待ち時間W_nを0にする、選択されたのでN_nに1を加える、ということを意味している。以上で、ユーザ選択処理部26は、処理を終了する。   Further, as a result of the determination in step S104, if k> 0, that is, if Yes, the user selection processing unit 26 determines whether or not k ≧ Max (S105). As a result of this determination, if k ≧ Max, that is, if Yes, the user selection processing unit 26 selects a Max name candidate user in the descending order of the fitness F_n (t) and sets it as a selected user. Perform (S106). More specifically, the user selection processing unit 26 applies the data regarding the candidate users with the Max name in the descending order of the fitness F_n (t) in the candidate user information recorded in the user information recording unit 13. , W_n = 0, N_n = N_n + 1. This means that the current waiting time W_n is set to 0 because it has left the selection waiting state, and 1 is added to N_n because it has been selected. Thus, the user selection processing unit 26 ends the process.

一方、ステップS105の判定の結果、k≧Maxでない場合、すなわちNoであった場合は、ユーザ選択処理部26は、残った候補ユーザk名全員を被選択ユーザとする(S108)。より具体的には、ステップS106における処理と同様に、ユーザ選択処理部26は、ユーザ情報記録部13に記録されている候補ユーザの情報において、残った追加処理対象ユーザk名に関するデータに対して、W_n=0、N_n=N_n+1という処理を行う。その意味もステップS106と同様である。以上で、ユーザ選択処理部26は、処理を終了する。   On the other hand, if k ≧ Max is not satisfied as a result of the determination in step S105, that is, if No, the user selection processing unit 26 sets all remaining k candidate user names as selected users (S108). More specifically, as in the processing in step S106, the user selection processing unit 26 applies the remaining data to the additional processing target user k in the candidate user information recorded in the user information recording unit 13. , W_n = 0, N_n = N_n + 1. The meaning is the same as that of step S106. Thus, the user selection processing unit 26 ends the process.

以上のように、所定の時間T3秒が経過するたびに、被選択ユーザを選びなおすという処理を行うことで、同時に有限の数のユーザにしか情報提示を行えない情報提示システムを用いて不特定多数のユーザに情報提示を行う場合において、より多くのユーザに情報を提示することができるという効果が得られる。さらに、被選択ユーザを選びなおす際に、適合度F_n(t)を指標とすることで、情報が伝達される確率をより高くすることが出来るという効果が得られる。   As described above, every time the predetermined time T3 seconds elapses, the process of reselecting the selected user is performed, so that it is not specified using the information presentation system that can present information only to a finite number of users at the same time. In the case of presenting information to a large number of users, an effect that information can be presented to a larger number of users can be obtained. Furthermore, when the selected user is reselected, by using the fitness F_n (t) as an index, it is possible to increase the probability that information is transmitted.

[第3の実施形態]
上述の第1の実施形態および第2の実施形態では、同時に有限の数のユーザにしか情報提示を行えない情報提示システムとして、運動視差再現映像提示システムを例として説明したが、第3の実施形態では、街頭における広告として一定時間の長さの広告映像(動画)を繰り返し再生する広告表示システムを例として説明する。
[Third Embodiment]
In the first embodiment and the second embodiment described above, a motion parallax reproduction video presentation system has been described as an example of an information presentation system that can present information to only a limited number of users at the same time. In the embodiment, an advertisement display system that repeatedly reproduces an advertisement video (moving image) for a certain length of time as an advertisement on the street will be described as an example.

このような広告表示システムでは、広告映像の再生途中にその場所にやってきて目を止めた人は、その映像再生が終了した後に再度冒頭から広告映像を見て、途中で見始めたところまで見るか、もう一度最後まで見るということになる。この場合、前者では広告映像の後半を見た後に前半を見ることになり、正しい順序で映像を見ていないため、広告映像の内容を理解しにくいという問題があり、後者では、広告映像の後半を見た後に再度広告映像全体を見ることになり、広告映像の内容は理解しやすいが、全部の映像を見るためにより長時間が必要になる。そこで、本実施形態では、映像広告物に近付いて興味を持っていると思われる人を認識し、その人に向けて映像の再生を開始することで、どの人も映像を冒頭から見ることができるようにする。   In such an advertisement display system, a person who came to the place during the playback of the advertisement video and watched it saw the advertisement video from the beginning again after the video playback was finished, and watched until he started watching Or it will be seen again to the end. In this case, the former will see the first half after seeing the second half of the advertising video, and it is difficult to understand the contents of the advertising video because the video is not viewed in the correct order. After viewing the video, the entire advertisement video is viewed again, and the content of the advertisement video is easy to understand, but a longer time is required to view the entire video. Therefore, in this embodiment, by recognizing a person who seems to be interested in the video advertisement, and starting playback of the video toward that person, any person can view the video from the beginning. It can be so.

図38は、本実施形態における広告表示システムのハードウェア構成を示す図である。図1に示した本発明の第1の実施形態のハードウェア構成を説明する図とほぼ同一であるが、図38の広告表示システムは、図1における運動視差再現映像生成装置10が、広告映像再生装置27(情報提示装置)に変わっている点が、図1の運動視差再現映像提示システムと異なる。
図39は、広告映像再生装置27の構成を示す概略ブロック図である。広告映像再生装置27は第1の実施形態における運動視差再現映像生成装置10(図3)に対応するものである。図39における広告映像再生装置27は、映像生成部16が映像再生部28に変わったこと、三次元CGモデルデータ保存部18が映像データ保存部29に変わったこと、ディスプレイ関連情報保存部17が無くなったことが、図3における再現運動視差映像生成装置10と異なる。その他の、図39において図3の各部に対応する部分には、同一の符号(6〜9、11〜15)を付け、その説明を省略する。
FIG. 38 is a diagram illustrating a hardware configuration of the advertisement display system according to the present embodiment. 1 is substantially the same as the hardware configuration of the first embodiment of the present invention shown in FIG. 1, but the advertisement display system in FIG. 38 is configured such that the motion parallax reproduction video generation device 10 in FIG. The difference from the motion parallax reproduction video presentation system of FIG. 1 is that the playback device 27 (information presentation device) is changed.
FIG. 39 is a schematic block diagram showing the configuration of the advertisement video reproduction device 27. As shown in FIG. The advertisement video reproduction device 27 corresponds to the motion parallax reproduction video generation device 10 (FIG. 3) in the first embodiment. 39, the advertisement video reproduction device 27 includes a change in the video generation unit 16 to a video reproduction unit 28, a change in the 3D CG model data storage unit 18 to a video data storage unit 29, and a display related information storage unit 17. It is different from the reproduction motion parallax image generation device 10 in FIG. In FIG. 39, the same reference numerals (6 to 9, 11 to 15) are assigned to the portions corresponding to the respective portions in FIG.

映像データ保存部29は、広告映像のデータを記憶している。映像再生部28は、ユーザ選択・解放処理部15から送られた被選択ユーザに関する情報を用いて、新たに被選択ユーザに選択されたユーザが居る場合は、映像データ保存部29が記憶している広告映像のデータの再生を開始し、ディスプレイ6に表示する。ユーザ選択・解放処理部15から映像データ保存部29に送る情報は、前記図8における被選択ユーザ情報送信処理(S4)の説明で述べたものと同じく、ユーザ情報記録部13に記録されている候補ユーザの情報においてT_n≠0であるユーザ、すなわち被選択ユーザ全てに関する、該被選択ユーザのIDと、その位置情報P_n(t)と、現在の被選択ユーザの数Uである。   The video data storage unit 29 stores advertisement video data. When there is a user who is newly selected as the selected user using the information related to the selected user sent from the user selection / release processing unit 15, the video reproduction unit 28 stores the video data storage unit 29. The reproduction of the advertisement video data is started and displayed on the display 6. The information sent from the user selection / release processing unit 15 to the video data storage unit 29 is recorded in the user information recording unit 13 as described in the description of the selected user information transmission process (S4) in FIG. The ID of the selected user, the position information P_n (t) thereof, and the number U of the currently selected users regarding all the users who are T_n ≠ 0 in the candidate user information, that is, the selected users.

なお、本発明は複数人の被選択ユーザを選択することも可能であるため、例えば映像を提示しているディスプレイを適宜複数の領域に分割してそれぞれ異なるタイミングで映像再生を開始できるようにしたシステムと共に本発明を用いれば、同時に複数の人に対して、それぞれ適切なタイミングで広告映像を提示することも可能となる。例えば、第3の実施形態においてディスプレイ6の画面を2つの領域に分割して最大で2名のユーザに対して広告映像を提供可能なシステム、すなわち第3の実施形態において最大選択可能人数Max=2であるシステムを例として、時間の経過に従って被選択ユーザが変わっていく場合に、具体的にどのように表示を行うかの例を説明する。この説明には、第1の実施の形態における同様の説明と同じく、図33と図34を用いる。これに対し、ある時刻t1、t2、t3、t4、t5(ただしt1<t2<t3<t4<t5)における被選択ユーザが次のように変化したとする。   In addition, since the present invention can also select a plurality of selected users, for example, a display presenting a video can be divided into a plurality of regions as appropriate so that video playback can be started at different timings. By using the present invention together with the system, it becomes possible to simultaneously present advertisement videos to a plurality of people at appropriate timings. For example, in the third embodiment, the screen of the display 6 is divided into two regions and a system that can provide advertisement video to a maximum of two users, that is, the maximum selectable number Max = 3 in the third embodiment. Taking the system 2 as an example, an example of how the display is specifically performed when the selected user changes as time passes will be described. In this description, FIG. 33 and FIG. 34 are used as in the same description in the first embodiment. On the other hand, it is assumed that the selected user at certain times t1, t2, t3, t4, and t5 (where t1 <t2 <t3 <t4 <t5) changes as follows.

(1)時刻t1:位置A、B、Cのいずれにも被選択ユーザはいない。
(2)時刻t2:位置Bに被選択ユーザU1が来た。
(3)時刻t3:位置Bに被選択ユーザU1がそのままいる。位置Aに被選択ユーザU2が新たに来た。位置Cにも候補ユーザが来たが、まだ被選択ユーザではない。
(4)時刻t4:位置Bに被選択ユーザU1がそのままいる。位置Aにいた被選択ユーザU2は去った。代わって、位置Cに居た候補ユーザが被選択ユーザU3として選択された。
(5)時刻t5:位置Bいた被選択ユーザU1に対する広告映像の再生が終了し、被選択ユーザU1は被選択ユーザから解放された。位置Cに被選択ユーザU3がそのままいる。
(1) Time t1: There is no selected user at any of positions A, B, and C.
(2) Time t2: Selected user U1 comes to position B.
(3) Time t3: The selected user U1 remains at the position B. The selected user U2 has newly arrived at the position A. A candidate user also came at position C, but is not yet a selected user.
(4) Time t4: The selected user U1 remains at the position B. The selected user U2 who was at position A has left. Instead, the candidate user who was in the position C was selected as the selected user U3.
(5) Time t5: The reproduction of the advertisement video for the selected user U1 who is at the position B is finished, and the selected user U1 is released from the selected user. The selected user U3 remains at the position C.

この場合、各時刻における表示は、例えば以下のように行う。
(1)時刻t1:被選択ユーザ数Uは0。誰も被選択ユーザがいないので、例えば静止画を表示しておく。あるいは、見る人がいなくても広告映像を流しておく。
(2)時刻t2:被選択ユーザ数Uは1。よって画面の分割は行わず、画面全体で位置Bにいる被選択ユーザU1に向けて、広告映像の再生を開始する。
(3)時刻t3:被選択ユーザ数Uは2。よって画面を2つの領域に分割し、時刻t2において位置Bにいる被選択ユーザU1に見せていた広告映像は縮小あるいはトリミングして部分表示領域25に移動させる。この時、広告映像の再生は続けながら、移動を行う。部分表示領域24では、位置Aにいる被選択ユーザU2に向けて広告映像の再生を開始する。これは、図34において左側から順に、Aの位置に被選択ユーザU2、Bの位置に被選択ユーザU1と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU2に向けた映像を、部分領域25に被選択ユーザU1に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
In this case, the display at each time is performed as follows, for example.
(1) Time t1: The number U of selected users is 0. Since no user is selected, for example, a still image is displayed. Or, even if there is no viewer, the advertisement video is played.
(2) Time t2: The number U of selected users is 1. Therefore, the division of the screen is not performed, and the reproduction of the advertisement video is started toward the selected user U1 who is at the position B in the entire screen.
(3) Time t3: The number of selected users U is 2. Therefore, the screen is divided into two areas, and the advertisement video shown to the selected user U1 at position B at time t2 is reduced or trimmed and moved to the partial display area 25. At this time, the moving is performed while the reproduction of the advertisement video is continued. In the partial display area 24, the reproduction of the advertisement video is started toward the selected user U2 in the position A. In FIG. 34, since the selected user U2 is located at the position A and the selected user U1 is located at the position B from the left side in FIG. 34, the screen is also displayed in the partial display area 24 from the left side to the selected user U2. This is because it is easier for both the selected users to view the directed video in the partial area 25 than to display the video directed to the selected user U1.

(4)時刻t4:被選択ユーザ数Uは2。位置Aにいた被選択ユーザU2は去ったので、部分表示領域24に提示していた広告映像は、再生途中であったとしても再生を停止する。時刻t3において位置Bにいる被選択ユーザU1に向けて部分表示領域25に提示していた広告映像は、部分表示領域24に移動させる。この時、広告映像の再生は続けながら、移動を行う。部分表示領域25では新たに位置Cに来た被選択ユーザU3に向けて広告映像の再生を開始する。これは、図34において左側から順に、Bの位置に被選択ユーザU1、Cの位置に被選択ユーザU3と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU1に向けた映像を、部分領域25に被選択ユーザU3に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
(5)時刻t5:被選択ユーザ数Uは1。時刻t4において位置Cにいる被選択ユーザU3に向けて部分表示領域25に提示していた広告映像は、画面全体に表示領域を広げて表示を継続する。
(4) Time t4: The number of selected users U is 2. Since the selected user U2 at the position A has left, the advertisement video presented in the partial display area 24 stops playing even if it is in the middle of playing. The advertisement video presented in the partial display area 25 toward the selected user U1 at position B at time t3 is moved to the partial display area 24. At this time, the moving is performed while the reproduction of the advertisement video is continued. In the partial display area 25, the reproduction of the advertisement video is started toward the selected user U3 newly coming to the position C. In FIG. 34, since the selected user U1 is located at the position B and the selected user U3 is located at the position C in order from the left side, the screen is also displayed in the partial display area 24 in the partial display area 24 from the left side. This is because it is easier for both the selected users to view the directed video in the partial area 25 than to display the video directed to the selected user U3.
(5) Time t5: The number of selected users U is 1. The advertisement video presented in the partial display area 25 toward the selected user U3 at the position C at time t4 continues to be displayed with the display area expanded over the entire screen.

このように、各時刻における被選択ユーザの数や位置に応じて、広告映像を表示する数や位置を変えて表示する。上記の例では、被選択ユーザU1、U2、U3のいずれも、広告映像を冒頭から見るということが実現されている。また、被選択ユーザU1はずっとその場に居たため広告映像を最初から最後まで見ることができた。一方、広告映像の再生途中で立ち去った被選択ユーザU2に関しては、再生を即座に停止し、代わりに被選択ユーザU3に対する広告映像の再生を即座に開始している。すなわち、いずれの被選択ユーザに対しても広告映像の冒頭から映像を提示でき、途中から見始めることが無いため、広告の内容を理解しやすく、ひいては情報伝達効率が高いという効果がある。また、途中で立ち去る被選択ユーザへの広告映像の再生はすぐに停止し、別の候補ユーザを選択して広告映像の再生を始めるため、該情報提示システムがユーザ全体に対するトータルでの情報伝達量をより多くすること、あるいは情報伝達効率をより高くすることができるという効果がある。   In this way, the number and position of the advertisement video are changed and displayed according to the number and position of the selected users at each time. In the above example, it is realized that all of the selected users U1, U2, U3 see the advertisement video from the beginning. Further, since the selected user U1 was always there, the advertisement video could be viewed from the beginning to the end. On the other hand, regarding the selected user U2 who left in the middle of the reproduction of the advertisement video, the reproduction is immediately stopped, and instead, the reproduction of the advertisement video for the selected user U3 is immediately started. In other words, since the video can be presented to any selected user from the beginning of the advertising video and does not start to be seen from the middle, the content of the advertisement is easy to understand, and the information transmission efficiency is high. In addition, since the reproduction of the advertisement video to the selected user who leaves on the way stops immediately, and the information presentation system selects the other candidate user and starts the reproduction of the advertisement video, the information presenting system can transmit the total amount of information to the entire user. There is an effect that it is possible to increase the amount of information or to increase the information transmission efficiency.

なお、この第3の実施の形態は、運動視差再現映像提示システムではないため、ユーザが頭を左右に動かしてそれによる見え方の変化を楽しむという状況は発生しない。よって、適合度F_n(t)を算出する式1において、ユーザ動作度M_n(t)に関する項は削除してもよい。あるいは、人垣の後ろのほうから広告を見ようとしている動作が反映されているとも考えられるので、ユーザ動作度M_n(t)に関する項を残しておいても良い。   In addition, since this 3rd Embodiment is not a motion parallax reproduction image presentation system, the situation where a user enjoys the change of appearance by moving a head to the left and right does not generate | occur | produce. Therefore, in Equation 1 for calculating the fitness F_n (t), the term related to the user behavior M_n (t) may be deleted. Alternatively, since it is considered that the action of seeing the advertisement from the back of the fence is reflected, a term relating to the user action degree M_n (t) may be left.

[第4の実施形態]
本発明の第4の実施形態では、同時に有限の数のユーザにしか情報提示を行えない情報提示システムとして、美術館や博物館などで、展示物に関する一定時間の長さの音声ガイドを繰り返し流す音声ガイドシステムを例として説明する。音声ガイドが繰り返し流されていると、音声ガイドの途中にその場所にやってきた見学者は、それが終了した後再度冒頭から聞き、途中で聞き始めたところまで聞くか、もう一度最後まで聞くということになる。この場合、前者では正しい順序で説明を聞いていないため、理解がしにくいという問題があり、後者では、全部の説明を聞くためにより長時間が必要になる。そこで、本実施形態では、展示物に近付いて興味を持っていると思われる見学者を認識し、その見学者に向けて音声ガイドの再生を開始することで、どの見学者も音声ガイドを冒頭から聞くことができるようにする。
[Fourth Embodiment]
In the fourth embodiment of the present invention, as an information presentation system capable of presenting information only to a finite number of users at the same time, an audio guide that repeatedly plays an audio guide for a certain length of time in an art museum or a museum. A system will be described as an example. If the voice guide is being played repeatedly, the visitor who came to the location in the middle of the voice guide will hear from the beginning again after it has finished, and will listen to the point where he / she started listening to the middle or to the end again become. In this case, since the former does not listen to the explanation in the correct order, there is a problem that it is difficult to understand. In the latter, a longer time is required to hear the whole explanation. Therefore, in this embodiment, by recognizing a visitor who seems to be close to the exhibition and interested in the tour, and starting playback of the voice guide for that visitor, every visitor starts the voice guide at the beginning. To be able to hear from.

本実施形態における音声ガイドシステムは、超音波を用いて非常に指向性の強い音を出力する超指向性スピーカを、向きを変えることが可能な支持台に搭載し、利用者の移動に追従させて音声の拡声方向を変更する。この音声ガイドシステムは、複数人が存在している場合においてその中からユーザを選択し、該ユーザのみに聞こえるように音声ガイドを提示することが可能である。さらには、この向きを変えることが可能な支持台に搭載した超指向性スピーカを複数用いれば、同時に複数の見学者に対して、それぞれの位置にそれぞれ適切なタイミングで音声ガイドを提示することも可能となる。   The voice guidance system according to the present embodiment is equipped with a super directional speaker that outputs a sound with very strong directivity using ultrasonic waves on a support base that can change the direction, and follows the movement of the user. To change the direction of loud sound. This voice guidance system can select a user from among a plurality of people and present the voice guide so that only the user can hear it. Furthermore, if multiple super directional speakers mounted on a support base that can change the orientation are used, voice guides can be presented to multiple visitors at the same time at appropriate timings. It becomes possible.

本発明の第4の実施形態はこのように、美術館や博物館における音声ガイドとして一定時間の長さの音声情報を繰り返し再生する音声ガイドシステムである。図40は、本実施形態における音声ガイドシステムのハードウェアの構成を示す概念図である。図1に示した本発明の第1の実施形態のハードウェア構成を説明する図とほぼ同一であるが、図40の音声ガイドシステムは、図1におけるディスプレイ6およびカメラ7が無くなったこと、運動視差再現映像生成装置10が音声再生装置31(情報提示装置)に変わったこと、支持台付きスピーカ30(情報提示部)が追加されたことが、図1の運動視差再現映像システムと異なる。なお、音声ガイドシステムを構成する要素ではないが、図40には、音声ガイドの対象となる展示物32も記載されている。また、図40において図1の各部に対応する部分には、同一の符号(5、8、9)を付け、その説明を省略する。   Thus, the fourth embodiment of the present invention is an audio guide system that repeatedly reproduces audio information of a certain length of time as an audio guide in a museum or museum. FIG. 40 is a conceptual diagram showing a hardware configuration of the voice guidance system in the present embodiment. 1 is almost the same as the diagram illustrating the hardware configuration of the first embodiment of the present invention shown in FIG. 1, but the voice guidance system in FIG. 40 has the display 6 and the camera 7 in FIG. 1 is different from the motion parallax reproduction video system in FIG. 1 in that the parallax reproduction video generation device 10 is changed to an audio reproduction device 31 (information presentation device) and a speaker 30 with a support base (information presentation unit) is added. In addition, although it is not an element which comprises an audio | voice guidance system, the display object 32 used as the object of audio | voice guidance is also described in FIG. 40, the same reference numerals (5, 8, 9) are assigned to portions corresponding to the respective portions in FIG. 1, and description thereof is omitted.

本実施形態は、美術館や博物館における展示物に関する音声ガイドシステムであるため、ディスプレイ6は不要である。またディスプレイ6の上に設置していたカメラ7も同時に除外した。前記のようにカメラ7と複数のカメラ8には機能上大きな差異は無く、カメラ7が無くても本システムの動作は可能である。
支持台付きスピーカ30は、超音波を用いて非常に指向性の強い音を出力する超指向性スピーカを、向きを変えることが可能な支持台に搭載したものであり、天井に設置する。向きは外部(音声再生装置31)から制御可能である。図が煩雑になるのを避けるため記入はしていないが、支持台付きスピーカ30は音声再生装置31に接続されている。
Since the present embodiment is an audio guide system related to exhibits in art museums and museums, the display 6 is unnecessary. The camera 7 installed on the display 6 was also excluded. As described above, there is no significant functional difference between the camera 7 and the plurality of cameras 8, and the operation of this system is possible even without the camera 7.
The speaker 30 with a support base is a super directional speaker that outputs a sound having a very strong directivity using ultrasonic waves mounted on a support base capable of changing the direction, and is installed on the ceiling. The direction can be controlled from the outside (sound reproduction device 31). Although not filled in in order to avoid complication of the figure, the speaker 30 with a support base is connected to the sound reproducing device 31.

また、図40では2台の支持台付きスピーカ30が記載されているが、その台数はこの数に限るものではない。必要に応じてより多くの、あるいは少ない数の支持台付きスピーカ30を設置すればよい。図40のように2台の支持台付きスピーカ30が設置してあり、それぞれが1名の被選択ユーザに音声を提示する場合は、最大2名の被選択ユーザに同時に音声情報を提示することが可能である、すなわち最大選択可能人数Max=2のシステムということになる。ただし、1台の支持台付きスピーカ30で必ずしも1名の被選択ユーザに向けて音声を提示するとは限らない。例えば2台の支持台付きスピーカ30を用いて1名の被選択ユーザに向けて音声を提示する場合や、さらに多くの台数の支持台付きスピーカ30を用いて1名の被選択ユーザに向けて音声を提示する場合もある。支持台付きスピーカ30の位置は固定であるため、被選択ユーザが遠くに居る場合は適切に音声を提示することが難しくなる。よって、様々な位置にある複数台の支持台付きスピーカ30を用いて1名の被選択ユーザに向けて音声を提示するほうが、被選択ユーザがどのような位置にいても対応できるようになる。   In FIG. 40, two speakers 30 with support bases are shown, but the number is not limited to this number. A larger or smaller number of speakers 30 with support bases may be installed as necessary. When two speakers 30 with support bases are installed as shown in FIG. 40 and each presents a voice to one selected user, the voice information should be simultaneously presented to a maximum of two selected users. That is, it is a system with a maximum selectable number Max = 2. However, a single speaker 30 with a support base does not necessarily present voice to one selected user. For example, when presenting a voice to one selected user using two speakers 30 with support bases, or toward one selected user using a larger number of speakers 30 with support bases. In some cases, voice is presented. Since the position of the speaker 30 with the support base is fixed, it becomes difficult to present the sound appropriately when the selected user is far away. Therefore, it is possible to respond to any position of the selected user by presenting the voice to one selected user using the plurality of speakers 30 with the support bases at various positions.

音声再生装置31は、複数のカメラ8、複数の距離測定カメラ9で撮影した画像情報及び距離情報から複数の候補ユーザの位置や向きを検出する処理を行い、複数の候補ユーザの中から1名ないし数名を選択・開放する処理を行い、さらに、選択したユーザの位置に音声を再生するよう、音声データおよび方向制御データを支持台付きスピーカ30に出力する。
なお、音声ガイドが説明を加える展示物は、展示物32として図40に示してある。これは図1におけるディスプレイ6の代わりに設置してあるものであり、ユーザが見る対象物という観点で見るとディスプレイ6に対応するものである。
The audio reproduction device 31 performs processing for detecting the positions and orientations of a plurality of candidate users from the image information and distance information captured by the plurality of cameras 8 and the plurality of distance measuring cameras 9, and one of the plurality of candidate users is selected. In addition, a process of selecting / releasing several names is performed, and voice data and direction control data are output to the speaker 30 with a support base so that voice is reproduced at the position of the selected user.
Note that the exhibit to which the audio guide adds explanation is shown in FIG. This is installed in place of the display 6 in FIG. 1 and corresponds to the display 6 from the viewpoint of an object to be viewed by the user.

図41は、音声再生装置31の構成を示す概略ブロック図である。これは第1の実施形態における運動視差再現映像生成装置10(図3)に対応するものである。図3の運動視差映像生成装置10との相違点は、カメラ7からの入力が無くなったこと、映像生成部16が音声再生部33に、ディスプレイ関連情報保存部17がスピーカ関連情報保存部34に三次元CGモデルデータ保存部18が音声データ保存部35に変わったこと、音声生成部33からの出力先が支持台付きスピーカ30に変わったことである。また、システム情報記録部14に記録するデータが、第1の実施形態における説明とは一部異なる。それらについて以下に詳細に説明する。   FIG. 41 is a schematic block diagram showing the configuration of the audio playback device 31. This corresponds to the motion parallax reproduction video generation device 10 (FIG. 3) in the first embodiment. The difference from the motion parallax video generation device 10 of FIG. 3 is that there is no input from the camera 7, the video generation unit 16 is in the audio reproduction unit 33, and the display related information storage unit 17 is in the speaker related information storage unit 34. That is, the three-dimensional CG model data storage unit 18 is changed to the voice data storage unit 35, and the output destination from the voice generation unit 33 is changed to the speaker 30 with a support base. The data recorded in the system information recording unit 14 is partly different from the description in the first embodiment. These will be described in detail below.

システム情報記録部14は、前記第1の実施の形態の説明において図5を用いて説明したのと同様に、最大選択可能人数Max、現在の選択人数U、位置Ps、向きDsを、該音声ガイドシステムに関する情報として記憶する。このうち、位置Ps、向きDsは、前記第1の実施の形態においては、ディスプレイ6に関する位置と向きの情報であり、より具体的には、位置Psは、該運動視差再現映像提示システムのディスプレイ6の画面の中央の座標であり、向きDsは、該運動視差再現映像提示システムのディスプレイ6の画面の向いている方向をあらわすベクトルであり、ディスプレイ6の映像を出力する側を正とした単位法線ベクトルの値を記録したものであった。   As described with reference to FIG. 5 in the description of the first embodiment, the system information recording unit 14 indicates the maximum selectable number Max, the currently selected number U, the position Ps, and the direction Ds in the audio. Store as information on the guide system. Among these, the position Ps and the direction Ds are information on the position and the direction regarding the display 6 in the first embodiment, and more specifically, the position Ps is the display of the motion parallax reproduction video presentation system. 6 is the coordinate of the center of the screen, and the direction Ds is a vector representing the direction in which the screen of the display 6 of the motion parallax reproduction video presentation system is facing, and the unit in which the video output side of the display 6 is positive The normal vector value was recorded.

第4の実施の形態においてはこれらに代えて、展示物32の位置と向きの情報を、位置Ps及び向きDsとして記録する。その具体的な値の求め方は、展示物の種類によっても異なる。例えば展示物が図画であった場合、例えば位置Psは図画の中央の座標とし、向きDsは図画の面の図が見える方向を正とした単位法線ベクトルとする。また例えば展示物がガラスケースに入った化石等で有った場合、例えば位置Psはガラスケースの正面の面の中央の座標とし、向きDsは該正面の面の、ガラスケースの外側に向けての方向を正とした単位法線ベクトルとする。   In the fourth embodiment, instead of these, information on the position and orientation of the exhibit 32 is recorded as the position Ps and the orientation Ds. The method of obtaining the specific value varies depending on the type of the exhibit. For example, when the exhibit is a drawing, for example, the position Ps is a coordinate at the center of the drawing, and the direction Ds is a unit normal vector in which the direction in which the drawing of the drawing can be seen is positive. For example, when the exhibit is a fossil or the like in a glass case, for example, the position Ps is set to the coordinates of the center of the front surface of the glass case, and the direction Ds is directed to the outside of the front surface of the glass case. Let the unit normal vector be positive in the direction of.

スピーカ関連情報保存部34は、支持台付きスピーカ30の位置の情報を保持している。支持台付きスピーカ30が複数台ある場合はそれぞれについて情報を保持する。
音声データ保存部35は、展示物32に関する音声ガイドの音声データを記憶する。
音声再生部33は、ユーザ選択・解放処理部15から送られた被選択ユーザに関する情報を用いて、新たに被選択ユーザに選択されたユーザが居るか否かを判定する。この判定の結果、新たに選択された被選択ユーザがいる場合は、音声再生部33は、音声データ保存部35が記憶している音声ガイドの音声データの再生を開始すると共に、その音が該被選択ユーザに聞こえるよう支持台付きスピーカ30の向きを制御する。また被選択ユーザが移動した場合はそれに合わせて支持台付きスピーカ30の向きを制御する。
The speaker related information storage unit 34 holds information on the position of the speaker 30 with a support base. When there are a plurality of speakers 30 with support bases, information is held for each of them.
The voice data storage unit 35 stores voice data of a voice guide related to the exhibit 32.
The sound reproducing unit 33 determines whether or not there is a user newly selected as the selected user by using the information regarding the selected user sent from the user selection / release processing unit 15. If the result of this determination is that there is a newly selected user, the voice playback unit 33 starts playback of the voice guide voice data stored in the voice data storage unit 35 and the sound The direction of the speaker 30 with a support base is controlled so that it can be heard by the selected user. When the selected user moves, the direction of the speaker 30 with the support base is controlled accordingly.

ユーザ選択・解放処理部15から音声再生部33に送る情報は、前記図8における被選択ユーザ情報送信処理(S4)の説明で述べたものと同じく、ユーザ情報記録部13が記憶している候補ユーザの情報においてT_n≠0であるユーザ、すなわち被選択ユーザ全てに関する、該被選択ユーザのID番号と、その位置情報P_n(t)と、現在の被選択ユーザの数Uである。   The information sent from the user selection / release processing unit 15 to the audio reproduction unit 33 is the candidate stored in the user information recording unit 13 as described in the description of the selected user information transmission processing (S4) in FIG. These are the ID number of the selected user, the position information P_n (t), and the current number U of the selected users for all users whose information is T_n ≠ 0, that is, the selected users.

ここで、第4の実施形態において、支持台付きスピーカ30を2台備え、それぞれが1名の被選択ユーザに向けて音声を提示する音声ガイドシステム、すなわち第4の実施形態において最大選択可能人数Max=2である音声ガイドシステムを例として、時間の経過に従って被選択ユーザが変わっていく場合に、具体的にどのように音声提示を行うかの例を説明する。図42は、2台の支持台付きスピーカ30(支持台付きスピーカ301及び支持台付きスピーカ302)と、展示物32と、A、B、Cの3つの視点位置を示したものであり、図43はそれを上から見た図である。2台の支持台付きスピーカはいずれも、A、B、Cの3つの視点位置のいずれに対しても音声の提示が可能であるとする。これに対し、ある時刻t1、t2、t3、t4、t5(ただしt1<t2<t3<t4<t5)における被選択ユーザが次のように変化したとする。   Here, in the fourth embodiment, a voice guide system that includes two speakers 30 with support bases, each presenting a voice to one selected user, that is, the maximum selectable number of persons in the fourth embodiment. Taking a voice guidance system with Max = 2 as an example, an example of how voice presentation is specifically performed when the selected user changes as time passes will be described. FIG. 42 shows three viewpoint positions of two speakers 30 with a support base (a speaker 301 with a support base and a speaker 302 with a support base), an exhibit 32, and A, B, and C. 43 is a view from above. It is assumed that the two speakers with support bases can present audio to any of the three viewpoint positions A, B, and C. On the other hand, it is assumed that the selected user at certain times t1, t2, t3, t4, and t5 (where t1 <t2 <t3 <t4 <t5) changes as follows.

(1)時刻t1:位置A、B、Cのいずれにも被選択ユーザはいない。
(2)時刻t2:位置Bに被選択ユーザU1が来た。
(3)時刻t3:位置Bに被選択ユーザU1がそのままいる。位置Aに被選択ユーザU2が新たに来た。位置Cにも候補ユーザが来たが、まだ被選択ユーザではない。
(4)時刻t4:位置Bに被選択ユーザU1がそのままいる。位置Aにいた被選択ユーザU2は去った。代わって、位置Cに居た候補ユーザが被選択ユーザU3として選択された。
(5)時刻t5:位置Bいた被選択ユーザU1に対する音声ガイドの再生が終了し、被選択ユーザU1は被選択ユーザから解放された。位置Cに被選択ユーザU3がそのままいる。
この場合、各時刻における音声ガイドの提示は、例えば以下のように行う。
(1) Time t1: There is no selected user at any of positions A, B, and C.
(2) Time t2: Selected user U1 comes to position B.
(3) Time t3: The selected user U1 remains at the position B. The selected user U2 has newly arrived at the position A. A candidate user also came at position C, but is not yet a selected user.
(4) Time t4: The selected user U1 remains at the position B. The selected user U2 who was at position A has left. Instead, the candidate user who was in the position C was selected as the selected user U3.
(5) Time t5: The reproduction of the voice guide for the selected user U1 at the position B is finished, and the selected user U1 is released from the selected user. The selected user U3 remains at the position C.
In this case, presentation of the voice guide at each time is performed as follows, for example.

(1)時刻t1:被選択ユーザ数Uは0。誰も被選択ユーザがいないので、音声ガイドの再生は行われていない。
(2)時刻t2:被選択ユーザ数Uは1。支持台付きスピーカ301を用いて、位置Bにいる被選択ユーザU1に向けて方向を制御し、音声ガイドの再生を開始する。
(3)時刻t3:被選択ユーザ数Uは2。時刻t2において支持台付きスピーカ301を用いて位置Bにいる被選択ユーザU1に聞かせていた音声ガイドはそのまま再生を続ける。それに加えて、支持台付きスピーカ302を用いて、位置Aにいる被選択ユーザU2に向けて方向を制御し、音声ガイドの再生を開始する。
(1) Time t1: The number U of selected users is 0. Since no user is selected, the audio guide is not reproduced.
(2) Time t2: The number U of selected users is 1. Using the speaker 301 with a support base, the direction is controlled toward the selected user U1 at the position B, and the reproduction of the voice guide is started.
(3) Time t3: The number of selected users U is 2. At time t2, the voice guide that has been sent to the selected user U1 at position B using the speaker 301 with the support base continues to be reproduced as it is. In addition, using the speaker 302 with a support base, the direction is controlled toward the selected user U2 at the position A, and the reproduction of the voice guide is started.

(4)時刻t4:被選択ユーザ数Uは2。時刻t1およびt2において支持台付きスピーカ301を用いて位置Bにいる被選択ユーザU1に聞かせていた音声ガイドはそのまま再生を続ける。位置Aにいた被選択ユーザU2は去ったので、支持台付きスピーカ302を用いて位置Aにいる被選択ユーザU2に聞かせていた音声ガイドは停止する。代わりに、同じく支持台付きスピーカ302を用いて、位置Cにいる被選択ユーザU3に向けて方向を制御し、音声ガイドの再生を開始する。
(5)時刻t5:被選択ユーザ数Uは1。時刻t4において、支持台付きスピーカ302を用いて位置Cにいる被選択ユーザU3に聞かせていた音声ガイドはそのまま再生を続ける。
(4) Time t4: The number of selected users U is 2. At time t1 and t2, the voice guide that has been sent to the selected user U1 at position B using the speaker 301 with the support base continues to be reproduced. Since the selected user U2 who has been at the position A has left, the voice guide that has been heard by the selected user U2 at the position A using the speaker 302 with the support base stops. Instead, the direction is controlled toward the selected user U3 at the position C by using the speaker 302 with the support base, and the reproduction of the voice guide is started.
(5) Time t5: The number of selected users U is 1. At time t4, the audio guide that has been sent to the selected user U3 at position C using the speaker 302 with the support base continues to be reproduced as it is.

このように、各時刻における被選択ユーザの数や位置に応じて、音声ガイドを提示する数や位置を変えて提示する。上記の例では、被選択ユーザU1、U2、U3のいずれも、音声ガイドを冒頭から聞くということが実現されている。また、被選択ユーザU1はずっとその場に居たため音声ガイドを最初から最後まで聞くことができた。一方、音声ガイドの再生途中で立ち去った被選択ユーザU2に関しては、再生を即座に停止し、代わりに被選択ユーザU3に対する音声ガイドの再生を即座に開始している。すなわち、いずれの被選択ユーザに対しても音声ガイドの冒頭から提示でき、途中から聞き始めることが無いため、音声ガイドの内容を理解しやすく、ひいては情報が伝達される確率を高くすることができるという効果がある。また、途中で立ち去る被選択ユーザへの音声ガイドの再生はすぐに停止し、別の候補ユーザを選択して音声ガイドの再生を始めるため、より多くのユーザに情報を提示することができるという効果がある。   Thus, according to the number and position of the selected users at each time, the number and position of the voice guides are changed and presented. In the above example, it is realized that all of the selected users U1, U2, U3 listen to the voice guide from the beginning. Moreover, since the selected user U1 was always there, he was able to listen to the voice guide from the beginning to the end. On the other hand, for the selected user U2 who left in the middle of the reproduction of the voice guide, the reproduction is immediately stopped, and instead, the reproduction of the voice guide for the selected user U3 is immediately started. That is, since it can be presented to the selected user from the beginning of the voice guide and does not begin to be heard in the middle, it is easy to understand the contents of the voice guide, and thus the probability that information is transmitted can be increased. There is an effect. In addition, since the reproduction of the voice guide to the selected user who leaves in the middle stops immediately, and another candidate user is selected and the reproduction of the voice guide is started, information can be presented to more users. There is.

ところで、上記の時刻t3においては、支持台付きスピーカ301が位置Bにいる被選択ユーザU1に向けて音声ガイドを提示し、支持台付きスピーカ302が位置Aにいる被選択ユーザU2に向けて音声ガイドを提示するという状況で、支持台付きスピーカと被選択ユーザの関係が交差するようになってしまっているが、動作上はこれでも問題はない。
なお、この第4の実施形態も、運動視差再現映像提示システムではないため、ユーザが頭を左右に動かしてそれによる見え方の変化を楽しむという状況は発生しない。よって、適合度F_n(t)を算出する式1において、ユーザ動作度M_n(t)に関する項は削除してもよい。あるいは、人垣の後ろのほうから展示物を見ようとしている動作が反映されているとも考えられるので、ユーザ動作度M_n(t)に関する項を残しておいても良い。
By the way, at time t3 described above, the speaker 301 with a supporting base presents a voice guide to the selected user U1 at the position B, and the speaker 302 with a supporting base speaks toward the selected user U2 at the position A. In the situation where the guide is presented, the relationship between the speaker with the support base and the selected user has crossed, but there is no problem in operation.
In addition, since this 4th Embodiment is also not a motion parallax reproduction image presentation system, the situation where a user enjoys the change of appearance by moving a head to the left and right does not generate | occur | produce. Therefore, in Equation 1 for calculating the fitness F_n (t), the term related to the user behavior M_n (t) may be deleted. Alternatively, since it is considered that the action of looking at the exhibit from the back of the fence is reflected, a term relating to the user action degree M_n (t) may be left.

また、図3におけるユーザ情報検出部12、ユーザ選択・解放処理部15、映像生成部16、および図35におけるユーザ情報検出部12、ユーザ選択処理部26、映像生成部16、および図39におけるユーザ情報検出部12、ユーザ選択・解放処理部15、映像生成部28、および図41におけるユーザ情報検出部12、ユーザ選択・解放処理部15、音声再生部33の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Also, the user information detection unit 12, the user selection / release processing unit 15, the video generation unit 16 in FIG. 3, and the user information detection unit 12, the user selection processing unit 26, the video generation unit 16, and the user in FIG. 39 in FIG. The information detection unit 12, the user selection / release processing unit 15, the video generation unit 28, and a program for realizing the functions of the user information detection unit 12, the user selection / release processing unit 15, and the audio reproduction unit 33 in FIG. The processing of each unit may be performed by recording the program on a readable recording medium, reading the program recorded on the recording medium into a computer system, and executing the program. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.

本発明は、運動視差再現映像を用いたデジタルサイネージを行なう運動視差再現映像提示システム、一定時間の長さの広告映像によるデジタルサイネージを行う広告表示システム、展示物に関する一定時間の長さの音声ガイドを繰り返し流す音声ガイドシステムに用いて好適であるが、これらに限定されない。   The present invention relates to a motion parallax reproduction video presentation system that performs digital signage using motion parallax reproduction video, an advertisement display system that performs digital signage using a certain length of advertisement video, and a voice guide of a certain time length related to exhibits However, the present invention is not limited to this.

5…候補ユーザ
6…ディスプレイ
7…カメラ
8…カメラ
9…距離測定カメラ
10…運動視差再現映像生成装置
11…カメラ関連情報保存部
12…ユーザ情報検出部
13…ユーザ情報記録部
14…システム情報記録部
15…ユーザ選択・解放処理部
16…映像生成部
17…ディスプレイ関連情報保存部
18…三次元CGモデルデータ保存部
19…ユーザ位置・向き算出部
20…ユーザ3次元情報生成部
21…ユーザ情報照合部
26…ユーザ選択処理部
27…広告映像再生装置
28…映像再生部
29…映像データ保存部
30…支持台付きスピーカ
31…音声再生装置
33…音声再生部
34…スピーカ関連情報保存部
35…音声データ保存部
DESCRIPTION OF SYMBOLS 5 ... Candidate user 6 ... Display 7 ... Camera 8 ... Camera 9 ... Distance measuring camera 10 ... Motion parallax reproduction image generation device 11 ... Camera related information storage part 12 ... User information detection part 13 ... User information recording part 14 ... System information recording Unit 15 ... User selection / release processing unit 16 ... Video generation unit 17 ... Display related information storage unit 18 ... 3D CG model data storage unit 19 ... User position / orientation calculation unit 20 ... User 3D information generation unit 21 ... User information Verification unit 26 ... User selection processing unit 27 ... Advertising video playback device 28 ... Video playback unit 29 ... Video data storage unit 30 ... Speaker with support 31 ... Audio playback device 33 ... Audio playback unit 34 ... Speaker related information storage unit 35 ... Audio data storage

Claims (13)

同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置であって、
前記ユーザの状態を検出するユーザ状態検出部と、
前記ユーザ状態検出部の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更するユーザ選択部と
を備えることを特徴とする情報提示装置。
An information presentation device that presents information to an unspecified number of users using an information presentation unit that can present information only to a finite number of users at the same time,
A user state detector for detecting the state of the user;
An information presentation apparatus comprising: a user selection unit that sequentially changes a user to whom information is presented based on a detection result of the user state detection unit.
前記ユーザ選択部は、前記ユーザ状態検出部の検出結果に基づき、前記対象のユーザの選択と解放とを繰り返すことで、前記対象のユーザを順次変更することを特徴とする請求項1に記載の情報提示装置。   2. The user selection unit according to claim 1, wherein the user selection unit sequentially changes the target user by repeatedly selecting and releasing the target user based on a detection result of the user state detection unit. Information presentation device. 前記ユーザ選択部は、前記情報提示部が提示する情報に対する興味の度合いを示す情報と、前記情報提示部が提示する情報の伝達され易さを示す情報と、前記情報提示部により情報を提示された回数を示す情報とのうち、少なくとも一つを、各ユーザについて、前記ユーザ状態検出部の検出結果に基づき生成し、該生成した情報に基づき、前記対象のユーザの選択を行うこと
を特徴とする請求項1または請求項2に記載の情報提示装置。
The user selection unit is presented with information by the information presenting unit, information indicating the degree of interest in the information presented by the information presenting unit, information indicating the ease of transmission of the information presented by the information presenting unit, and the information presenting unit. And generating at least one of the information indicating the number of times for each user based on the detection result of the user state detection unit, and selecting the target user based on the generated information. The information presentation device according to claim 1 or 2.
前記ユーザ選択部は、選択されている時間を示す情報と、前記情報提示部が提示する情報に対する興味の度合いを示す情報と、前記情報提示部が提示する情報の伝達され易さを示す情報と、前記情報提示部により情報を提示された回数を示す情報とのうち、少なくとも一つを、選択中のユーザ各々について、前記ユーザ状態検出部の検出結果に基づき生成し、該生成した情報に基づき、解放するユーザの決定を行うこと
を特徴とする請求項2に記載の情報提示装置。
The user selection unit includes information indicating a selected time, information indicating a degree of interest in information presented by the information presentation unit, and information indicating ease of transmission of information presented by the information presentation unit. Generating at least one of the information indicating the number of times the information is presented by the information presenting unit based on the detection result of the user state detecting unit for each selected user, and based on the generated information The information presentation device according to claim 2, wherein a user to be released is determined.
前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの居る位置を示す情報を含むことを特徴とする請求項3または請求項4に記載の情報提示装置。   The information presentation apparatus according to claim 3 or 4, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information includes information indicating a position where the user is present. 前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの向きを示す情報を含むことを特徴とする請求項3または請求項4に記載の情報提示装置。   The information presentation apparatus according to claim 3 or 4, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information includes information indicating the orientation of the user. 前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザと前記情報提示部との距離を示す情報を含むことを特徴とする請求項3に記載の情報提示装置。   The information presentation apparatus according to claim 3, wherein the information indicating the degree of interest or the information indicating how easily the information is transmitted includes information indicating a distance between the user and the information presentation unit. 前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの静止度合いを示す情報を含むことを特徴とする請求項3に記載の情報提示装置。   The information presentation apparatus according to claim 3, wherein the information indicating the degree of interest or the information indicating how easily the information is transmitted includes information indicating the degree of stillness of the user. 前記興味の度合いを示す情報を示す情報が、前記ユーザの頭部の動きを示す情報を含むことを特徴とする請求項3または請求項4に記載の情報提示装置。   The information presentation apparatus according to claim 3, wherein the information indicating the degree of interest includes information indicating a movement of the head of the user. 前記興味の度合いを示す情報が、前記ユーザが選択されていない待ち時間を示す情報を含むことを特徴とする請求項3に記載の情報提示装置。   The information presentation apparatus according to claim 3, wherein the information indicating the degree of interest includes information indicating a waiting time when the user is not selected. 前記興味の度合いを示す情報が、前記情報提示部との距離の当該ユーザが選択されてからの変化を示す情報を含むことを特徴とする請求項4に記載の情報提示装置。   The information indicating apparatus according to claim 4, wherein the information indicating the degree of interest includes information indicating a change in distance from the information presenting unit since the user is selected. 前記ユーザ選択部は、選択されてから予め設定された時間が経過すると、前記選択されたユーザを解放すること
を特徴とする請求項2に記載の情報提示装置。
The information presentation device according to claim 2, wherein the user selection unit releases the selected user when a preset time has elapsed since the selection.
同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置における情報提示方法であって、
前記情報提示装置が、前記ユーザの状態を検出する第1の過程と、
前記情報提示装置が、前記第1の過程の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更する第2の過程と
を備えることを特徴とする情報提示方法。
An information presentation method in an information presentation device that presents information to an unspecified number of users using an information presentation unit that can present information only to a finite number of users at the same time,
A first process in which the information presentation device detects the state of the user;
The information presentation method includes: a second process in which the information presentation unit sequentially changes a target user to present information based on a detection result of the first process.
JP2009182619A 2009-08-05 2009-08-05 Information presenting apparatus and method for presenting information Ceased JP2011033993A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009182619A JP2011033993A (en) 2009-08-05 2009-08-05 Information presenting apparatus and method for presenting information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009182619A JP2011033993A (en) 2009-08-05 2009-08-05 Information presenting apparatus and method for presenting information

Publications (1)

Publication Number Publication Date
JP2011033993A true JP2011033993A (en) 2011-02-17

Family

ID=43763104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009182619A Ceased JP2011033993A (en) 2009-08-05 2009-08-05 Information presenting apparatus and method for presenting information

Country Status (1)

Country Link
JP (1) JP2011033993A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013055683A (en) * 2012-11-01 2013-03-21 Toshiba Corp Image processing apparatus and image processing method
WO2013042324A1 (en) * 2011-09-22 2013-03-28 パナソニック株式会社 Sound reproduction device
JP2013070213A (en) * 2011-09-22 2013-04-18 Panasonic Corp Acoustic reproduction apparatus
JP2015531130A (en) * 2012-08-16 2015-10-29 アルカテル−ルーセント A method for supplying information associated with an event to a person
JP2020141427A (en) * 2020-06-15 2020-09-03 日本電気株式会社 Information processing system, information processing method, and program
US20210318547A1 (en) * 2018-06-08 2021-10-14 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
US11567324B2 (en) 2017-07-26 2023-01-31 Magic Leap, Inc. Exit pupil expander
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11598651B2 (en) 2018-07-24 2023-03-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11609645B2 (en) 2018-08-03 2023-03-21 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
US11630507B2 (en) 2018-08-02 2023-04-18 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment
US11756335B2 (en) 2015-02-26 2023-09-12 Magic Leap, Inc. Apparatus for a near-eye display
US11762222B2 (en) 2017-12-20 2023-09-19 Magic Leap, Inc. Insert for augmented reality viewing device
US11762623B2 (en) 2019-03-12 2023-09-19 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
US11776509B2 (en) 2018-03-15 2023-10-03 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11790554B2 (en) 2016-12-29 2023-10-17 Magic Leap, Inc. Systems and methods for augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11874468B2 (en) 2016-12-30 2024-01-16 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
US11953653B2 (en) 2017-12-10 2024-04-09 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
US12016719B2 (en) 2019-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124603A (en) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd Information display device and information collecting device
JP2001216527A (en) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for multi-media information space input/output and recording medium with its program recorded thereon
JP2004294637A (en) * 2003-03-26 2004-10-21 Canon Inc Display device and display control method
JP2007041866A (en) * 2005-08-03 2007-02-15 Canon Inc Information processing device, information processing method, and program
JP2007310620A (en) * 2006-05-18 2007-11-29 Sony Corp Information processor, information processing method, and program
JP2008257216A (en) * 2007-03-12 2008-10-23 Akira Tomono Information presentation device for general public

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124603A (en) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd Information display device and information collecting device
JP2001216527A (en) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for multi-media information space input/output and recording medium with its program recorded thereon
JP2004294637A (en) * 2003-03-26 2004-10-21 Canon Inc Display device and display control method
JP2007041866A (en) * 2005-08-03 2007-02-15 Canon Inc Information processing device, information processing method, and program
JP2007310620A (en) * 2006-05-18 2007-11-29 Sony Corp Information processor, information processing method, and program
JP2008257216A (en) * 2007-03-12 2008-10-23 Akira Tomono Information presentation device for general public

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042324A1 (en) * 2011-09-22 2013-03-28 パナソニック株式会社 Sound reproduction device
WO2013042326A1 (en) * 2011-09-22 2013-03-28 パナソニック株式会社 Sound reproduction device
WO2013042325A1 (en) * 2011-09-22 2013-03-28 パナソニック株式会社 Sound reproduction device
JP2013070213A (en) * 2011-09-22 2013-04-18 Panasonic Corp Acoustic reproduction apparatus
US8666106B2 (en) 2011-09-22 2014-03-04 Panasonic Corporation Sound reproducing device
JP2015531130A (en) * 2012-08-16 2015-10-29 アルカテル−ルーセント A method for supplying information associated with an event to a person
JP2017126355A (en) * 2012-08-16 2017-07-20 アルカテル−ルーセント Method for provisioning person with information associated with event
JP2013055683A (en) * 2012-11-01 2013-03-21 Toshiba Corp Image processing apparatus and image processing method
US11756335B2 (en) 2015-02-26 2023-09-12 Magic Leap, Inc. Apparatus for a near-eye display
US11790554B2 (en) 2016-12-29 2023-10-17 Magic Leap, Inc. Systems and methods for augmented reality
US11874468B2 (en) 2016-12-30 2024-01-16 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11927759B2 (en) 2017-07-26 2024-03-12 Magic Leap, Inc. Exit pupil expander
US11567324B2 (en) 2017-07-26 2023-01-31 Magic Leap, Inc. Exit pupil expander
US11953653B2 (en) 2017-12-10 2024-04-09 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
US11762222B2 (en) 2017-12-20 2023-09-19 Magic Leap, Inc. Insert for augmented reality viewing device
US11908434B2 (en) 2018-03-15 2024-02-20 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11776509B2 (en) 2018-03-15 2023-10-03 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
US20210318547A1 (en) * 2018-06-08 2021-10-14 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
US12001013B2 (en) 2018-07-02 2024-06-04 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11598651B2 (en) 2018-07-24 2023-03-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
US11630507B2 (en) 2018-08-02 2023-04-18 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US11609645B2 (en) 2018-08-03 2023-03-21 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11960661B2 (en) 2018-08-03 2024-04-16 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11762623B2 (en) 2019-03-12 2023-09-19 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
US12016719B2 (en) 2019-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment
JP2020141427A (en) * 2020-06-15 2020-09-03 日本電気株式会社 Information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2011033993A (en) Information presenting apparatus and method for presenting information
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
JP6725038B2 (en) Information processing apparatus and method, display control apparatus and method, program, and information processing system
CN106576184B (en) Information processing device, display device, information processing method, program, and information processing system
US20180143976A1 (en) Depth Sensing Camera Glasses With Gesture Interface
JP6702196B2 (en) Information processing apparatus, information processing method, and program
KR102210541B1 (en) Method and apparatus for overlaying virtual image and audio data on reproduction of real scenes, and mobile device
CN104104862A (en) Image processing device and image processing method
JP6809539B2 (en) Information processing equipment, information processing methods, and programs
CN112581627A (en) System and apparatus for user-controlled virtual camera for volumetric video
JP4517716B2 (en) Conference recording apparatus, conference recording method, design method, and program
JP7100824B2 (en) Data processing equipment, data processing methods and programs
JP2023133397A (en) Image processing device, image processing method, and image processing system
US20180124374A1 (en) System and Method for Reducing System Requirements for a Virtual Reality 360 Display
JP6359704B2 (en) A method for supplying information associated with an event to a person
JP7202935B2 (en) Attention level calculation device, attention level calculation method, and attention level calculation program
WO2009119288A1 (en) Communication system and communication program
JP5818322B2 (en) Video generation apparatus, video generation method, and computer program
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
WO2022041182A1 (en) Method and device for making music recommendation
JP2005295181A (en) Voice information generating apparatus
US20230007232A1 (en) Information processing device and information processing method
JP7105380B2 (en) Information processing system and method
JP6450305B2 (en) Information acquisition apparatus, information acquisition method, and information acquisition program
JP2022015647A (en) Information processing apparatus and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20140729