JP2011033993A - Information presenting apparatus and method for presenting information - Google Patents
Information presenting apparatus and method for presenting information Download PDFInfo
- Publication number
- JP2011033993A JP2011033993A JP2009182619A JP2009182619A JP2011033993A JP 2011033993 A JP2011033993 A JP 2011033993A JP 2009182619 A JP2009182619 A JP 2009182619A JP 2009182619 A JP2009182619 A JP 2009182619A JP 2011033993 A JP2011033993 A JP 2011033993A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- unit
- candidate
- users
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、情報提示装置、および情報提示方法に関する。 The present invention relates to an information presentation device and an information presentation method.
街頭や店頭などにおける広告手段として、電子ディスプレイを用いて情報を提示する、いわゆるデジタルサイネージが注目されている。広告は、いかに多くの人の目を惹きつけ印象を残せるかが重要である。その一つの手段として、立体感・奥行き感のある映像提示をデジタルサイネージに組み合わせるということが考えられる。 So-called digital signage, which presents information using an electronic display, has attracted attention as an advertising means in streets and stores. It is important for advertisements to attract many people's eyes and leave an impression. One way to do this is to combine video presentation with a sense of depth and depth with digital signage.
立体感・奥行き感のある映像提示の具体的手法にはいくつかあるが、その中の一つに運動視差を再現することによって立体感・奥行き感のある映像提示を行う手法がある。運動視差とは、人間が2次元の網膜像から3次元の空間を認知するための奥行き知覚の手がかりの一つである。人間が頭部の位置や向きを変化させるとその変化に応じて見える画像は異なる。例えば図44は、手前の下方に立方体1002が、奥の上方に球1003が置いてある状況をユーザ1001が見ている様子を示したものである。ユーザ1001が中央の位置に居る場合、ユーザ1001からは図45のように、視野の中央上部に球1003が、中央下部に立方体1002があるように見える。この時、立方体1002はその正面と上面が見えている。
There are several specific methods for presenting a video with a sense of depth and depth, and one of them is a method for presenting a video with a sense of depth and depth by reproducing motion parallax. Motion parallax is one of the clues of depth perception for a human to recognize a three-dimensional space from a two-dimensional retina image. When a human changes the position and orientation of the head, the images that are visible according to the change are different. For example, FIG. 44 shows a state where the
次に、図44においてユーザ1001が中央からAの位置に平行移動した場合、ユーザ1001からは図46のように、球1003と立方体1002の両方が視野の右方向に移動して見え、かつ立方体1002の方が移動量が大きい。また、立方体1002はその正面と上面に加え、左側面が新たに見えるようになる。一方、図44においてユーザ1001が中央からBの位置に平行移動した場合は、図47のように球1003と立方体1002の両方が視野の左方向に移動して見え、かつ立方体1002の方が移動量が大きい。また、立方体1002はその正面と上面に加え、右側面が新たに見えるようになる。
Next, in FIG. 44, when the
ここからユーザ1001は、視野における移動量の大きい立方体1002の方が球1003より手前にあることを認識することができるし、立方体1002の側面の見え方の変化から、立方体1002の奥行き構造を認識することができる。このように人間は自己の運動による頭部の位置や向きの変化とその時の見え方の違いの情報を統合して判断し、3次元の空間構造、すなわち立体感や奥行き感を知覚することができる。この知覚の仕組みを利用すると、人間の頭部の位置の変化に応じてディスプレイに出力する画像を適切に変えてやることによって、2次元の画像でありながらあたかも3次元画像であるかのように知覚させることが可能である。
From here, the
運動視差を再現して映像を提示する方法はいくつかある。その一つは、何らかのセンサを用いて人間の視点位置計測を行い、その視点位置から見える映像を再現するよう映像を生成して提示する方法である。例えば特許文献1では、表示装置の上部に設置したカメラで取得した画像によって人間の頭部位置を検出し、表示装置と頭部位置の相対関係に応じた映像を出力することで、運動視差を再現した映像を提示している。
There are several methods for reproducing motion parallax and presenting images. One of them is a method of measuring a human viewpoint position using some sensor, and generating and presenting an image so as to reproduce an image seen from the viewpoint position. For example, in
デジタルサイネージは、駅・繁華街・デパートの通路や、店舗の店頭など、多くの人が行き交う場所に設置する場合が多いと考えられる。このように人が移動している場合が多い、すなわち人の頭部移動が多いと考えられる場所においては、このような運動視差再現による立体感・奥行き感のある映像提示は、より人目を引き、またより印象の強い広告になるという利点がある。また、運動視差再現の方法では、上記のように、正面からでは見えない部分が頭部を動かすことによって見える。よって、例えば何らかの商品の広告にこの方法を用いた場合は、商品の外観を様々な方向から見ることが可能であり、商品イメージをより具体的に人に伝えられるという利点がある。 Digital signage is often installed in places where many people come and go, such as stations, busy streets, department stores, and storefronts. In such a place where people are moving in many cases, that is, where it is considered that there is a lot of human head movement, presentation of images with a three-dimensional feeling and depth feeling by reproducing such motion parallax is more eye-catching. , And has the advantage of becoming a more impressive advertisement. In the method for reproducing motion parallax, as described above, a portion that cannot be seen from the front can be seen by moving the head. Therefore, for example, when this method is used for advertising a certain product, it is possible to see the appearance of the product from various directions, and there is an advantage that the product image can be conveyed to a person more specifically.
また、特許文献2には、利用者を検知する複数のセンサと、音声再生部から出力された音声信号を変調して超指向性スピーカにより超音波として放射される信号を生成する変調部と、超指向性スピーカの向きを変化させる支持台と、センサの検知信号に応じて音声再生部から音声信号を出力させると共に支持台を制御して超指向性スピーカの向きを変化させる制御部とを備えることで、移動した利用者を検知して音声の拡声範囲を追従させると共に、容易に設置することができる音声拡声装置が記載されている。
また、特許文献3には、上下左右に所定角度だけ回転することが出来るディスプレイ本体と、その前面に設けられたカメラおよびマイクと、ディスプレイの表示映像を視聴するユーザが複数存在する場合、その中からいずれか一人のユーザをターゲットユーザとして特定し、該ターゲットユーザが移動すると、ディスプレイ本体の姿勢を変化させて、ターゲットユーザの移動に追従させるコントローラとを有するテレビジョン装置が記載されている。また、特許文献3には、コントローラが特定したターゲットユーザを、ユーザが変更するターゲット変更部も記載されている。 Further, in Patent Document 3, when there are a plurality of users who view a display main body, a camera and a microphone provided on the front surface of the display main body, which can be rotated up and down, left and right, and a display video on the display, Describes a television device having a controller that specifies any one user as a target user and changes the posture of the display main body to follow the movement of the target user when the target user moves. Patent Document 3 also describes a target changing unit that changes the target user specified by the controller.
しかしながら、上述の特許文献1や特許文献2などの同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う装置においては、上述の特許文献3のように、ターゲットユーザを決定しても、情報を提示できるユーザ数が限られてしまうという問題がある。
However, in an apparatus that presents information to an unspecified number of users using an information presentation unit that can present information only to a limited number of users at the same time, such as
本発明は、このような事情に鑑みてなされたもので、その目的は、同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置および情報提示方法であって、より多くのユーザに情報を提示することができる情報提示装置および情報提示方法を提供することにある。 The present invention has been made in view of such circumstances, and its purpose is to present information to an unspecified number of users by using an information presenting unit that can simultaneously present information to only a finite number of users. An information presentation apparatus and an information presentation method that provide an information presentation apparatus and an information presentation method capable of presenting information to more users.
(1)この発明は上述した課題を解決するためになされたもので、本発明の情報提示装置は、同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置であって、前記ユーザの状態を検出するユーザ状態検出部と、前記ユーザ状態検出部の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更するユーザ選択部とを備えることを特徴とする。 (1) The present invention has been made to solve the above-described problems, and the information presenting apparatus of the present invention uses an information presenting unit that can present information to only a finite number of users at the same time. An information presentation device for presenting information to a user, a user state detection unit that detects the state of the user, and a user to whom the information presentation unit presents information based on a detection result of the user state detection unit And a user selection unit for sequentially changing the.
(2)また、本発明の情報提示装置は、上述の情報提示装置であって、前記ユーザ選択部は、前記ユーザ状態検出部の検出結果に基づき、前記対象のユーザの選択と解放とを繰り返すことで、前記対象のユーザを順次変更することを特徴とする。 (2) Moreover, the information presentation apparatus of this invention is the above-mentioned information presentation apparatus, Comprising: The said user selection part repeats selection and release | release of the said target user based on the detection result of the said user state detection part. Thus, the target users are sequentially changed.
(3)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記ユーザ選択部は、前記情報提示部が提示する情報に対する興味の度合いを示す情報と、前記情報提示部が提示する情報の伝達され易さを示す情報と、前記情報提示部により情報を提示された回数を示す情報とのうち、少なくとも一つを、各ユーザについて、前記ユーザ状態検出部の検出結果に基づき生成し、該生成した情報に基づき、前記対象のユーザの選択を行うことを特徴とする。 (3) Moreover, the information presentation device of the present invention is any one of the information presentation devices described above, wherein the user selection unit includes information indicating a degree of interest in the information presented by the information presentation unit, and the information Detection of at least one of the information indicating the ease of transmission of the information presented by the presenting unit and the information indicating the number of times the information is presented by the information presenting unit for each user by the user state detecting unit It is generated based on the result, and the target user is selected based on the generated information.
(4)また、本発明の情報提示装置は、上述の情報提示装置であって、前記ユーザ選択部は、選択されている時間を示す情報と、前記情報提示部が提示する情報に対する興味の度合いを示す情報と、前記情報提示部が提示する情報の伝達され易さを示す情報と、前記情報提示部により情報を提示された回数を示す情報とのうち、少なくとも一つを、選択中のユーザ各々について、前記ユーザ状態検出部の検出結果に基づき生成し、該生成した情報に基づき、解放するユーザの決定を行うことを特徴とする。 (4) Moreover, the information presentation apparatus of this invention is the above-mentioned information presentation apparatus, Comprising: The said user selection part is the degree of interest with respect to the information which shows the information which the selected time shows, and the said information presentation part A user who is selecting at least one of information indicating information, information indicating ease of transmission of information presented by the information presenting unit, and information indicating the number of times information is presented by the information presenting unit Each is generated based on the detection result of the user state detection unit, and the user to be released is determined based on the generated information.
(5)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの居る位置を示す情報を含むことを特徴とする。 (5) Moreover, the information presentation apparatus according to the present invention is any one of the information presentation apparatuses described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information is a position where the user is present. It is characterized by including the information which shows.
(6)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの向きを示す情報を含むことを特徴とする。 (6) Moreover, the information presentation apparatus of the present invention is any one of the information presentation apparatuses described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information indicates the orientation of the user. It is characterized by including information to show.
(7)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザと前記情報提示部との距離を示す情報を含むことを特徴とする。 (7) Moreover, the information presentation apparatus of the present invention is the information presentation apparatus described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information includes the user, the information presentation unit, and the like. It includes the information indicating the distance.
(8)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報または前記情報の伝達され易さを示す情報が、前記ユーザの静止度合いを示す情報を含むことを特徴とする。 (8) Moreover, the information presentation apparatus of the present invention is the information presentation apparatus described above, wherein the information indicating the degree of interest or the information indicating the ease of transmission of the information is information indicating the degree of stillness of the user. It is characterized by including.
(9)また、本発明の情報提示装置は、上述のいずれかの情報提示装置であって、前記興味の度合いを示す情報を示す情報が、前記ユーザの頭部の動きを示す情報を含むことを特徴とする。 (9) Moreover, the information presentation apparatus according to the present invention is any one of the information presentation apparatuses described above, wherein the information indicating the degree of interest includes information indicating the movement of the user's head. It is characterized by.
(10)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報が、前記ユーザが選択されていない待ち時間を示す情報を含むことを特徴とする。 (10) Moreover, the information presentation apparatus of the present invention is the information presentation apparatus described above, wherein the information indicating the degree of interest includes information indicating a waiting time during which the user is not selected. .
(11)また、本発明の情報提示装置は、上述の情報提示装置であって、前記興味の度合いを示す情報が、前記情報提示部との距離の当該ユーザが選択されてからの変化を示す情報を含むことを特徴とする。 (11) Moreover, the information presentation apparatus according to the present invention is the information presentation apparatus described above, and the information indicating the degree of interest indicates a change in distance from the information presentation unit since the user is selected. It is characterized by including information.
(12)また、本発明の情報提示装置は、上述の情報提示装置であって、前記ユーザ選択部は、選択されてから予め設定された時間が経過すると、前記選択されたユーザを解放することを特徴とする。 (12) Moreover, the information presentation apparatus according to the present invention is the information presentation apparatus described above, and the user selection unit releases the selected user when a preset time has elapsed since the selection. It is characterized by.
(13)また、本発明の情報提示方法は、同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置における情報提示方法であって、前記情報提示装置が、前記ユーザの状態を検出する第1の過程と、前記情報提示装置が、前記第1の過程の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更する第2の過程とを備えることを特徴とする。 (13) Further, the information presentation method of the present invention is an information presentation method in an information presentation apparatus that presents information to an unspecified number of users using an information presentation unit that can simultaneously present information to only a finite number of users. The information presentation device includes a first process for detecting the state of the user, and the information presentation unit provides information to be presented by the information presentation unit based on a detection result of the first process. And a second step of sequentially changing the users.
この発明によれば、ユーザの状態に基づき、情報提示部が情報を提示する対象のユーザを順次変更するので、より多くのユーザに情報を提示することができる。 According to the present invention, the information presenting unit sequentially changes the users to whom information is presented based on the state of the user, so that information can be presented to more users.
[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態について説明する。なお、以下では、本発明を実施する運動視差再現映像提示システムに選択されたユーザを被選択ユーザと呼び、該システムの周りに居て該システムに選択されうる可能性のあるユーザを、候補ユーザと呼ぶ。図1および図2は、本発明の第1の実施の形態における運動視差再現映像提示システムのハードウェア構成を示す図である。本実施形態における運動視差再現映像提示システムは、ディスプレイ6、カメラ7、複数のカメラ8、複数の距離測定カメラ9、運動視差再現映像生成装置10を備える。図1、図2では、ディスプレイ6の前面にいる2名の候補ユーザ5のうちの1名がディスプレイ6に表示されている運動視差再現映像を見ている様子を示している。なお、図1は、運動視差再現映像提示システムを斜め上方から見下ろした斜視図であり、図2は上面図である。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. Hereinafter, a user selected in the motion parallax reproduction video presentation system that implements the present invention is referred to as a selected user, and a user who is around the system and may be selected by the system is a candidate user. Call it. 1 and 2 are diagrams illustrating a hardware configuration of the motion parallax reproduction video presentation system according to the first embodiment of the present invention. The motion parallax reproduction video presentation system in this embodiment includes a
カメラ7は、ディスプレイ6の上部に設置し、ディスプレイ6の前方近傍にいる候補ユーザを撮影する。本実施形態では1台のみ設置してあるが、複数台であってもよい。
カメラ8は、ディスプレイ6の近傍を含む領域であって、カメラ7の撮影領域より広い領域内にいる候補ユーザを様々な方向から撮影するように設置されている。図1および図2では、4方向からディスプレイ6の前方の領域をカバーするよう、4個のカメラ8を設置されているが、この数に限るものではなく、より多くあるいはより少ない数のカメラ8を設置されるようにしても良い。なお、各カメラ8は運動視差再現映像生成装置10に接続し、撮像結果を出力するが、図の煩雑さを避けるために図1、図2において接続を示す線は、図示しない。また、カメラ7は、ディスプレイ6の上部に、複数のカメラ8は、天井部分に設置されているが、これらは同一の機能を備えるものであってもよい。
The
The
距離測定カメラ9は、天井から下方向に向けて設置する。通常のカメラはピクセルごとに被写体の輝度や色の情報を取得し画像データとして出力する。これに対して距離測定カメラ9は、通常の画像データと共に、あるいは通常の画像データに代えて、ピクセルごとに被写体までの距離のデータを取得し距離画像データとして出力するカメラである。このようなカメラは既に実用化・市販されており、例えばMESA社の製品「SwissRanger SR3000」は、176×144ピクセルの解像度のモノクロの通常画像と、同解像度の距離画像を取得することができる。これらの距離測定カメラ9は、ディスプレイ6の近傍を含むより広い領域内にいる候補ユーザを撮影するように設置する。図1および図2では、9個の距離測定カメラ9を設置しているが、この数に限るものではなく、より多いあるいはより少ない数の距離測定カメラ9を設置しても良い。なお、各距離測定カメラ9は運動視差再現映像生成装置10に接続するが、図の煩雑さを避けるために接続を示す線は、図示しない。
The
運動視差再現映像生成装置10は、カメラ7、複数のカメラ8、複数の距離測定カメラ9で撮影した画像情報及び距離情報から複数の候補ユーザの位置や向きを検出する処理、複数の候補ユーザの中から1名ないし数名を選択・開放する処理、選択した候補ユーザの視点位置に応じた映像を生成してディスプレイ6に出力する処理などを行う。それらの処理の詳細は以下に順に述べる。なお、より広い範囲において候補ユーザの情報を取得する場合は、より多数の距離測定カメラ9を設置したり、より多数のカメラ8を様々な場所に様々な向きで設置したりしておく。
The motion parallax reproduction
図3は、運動視差再現映像生成装置10の構成を示す概略ブロック図である。本実施形態では、説明を簡単にするため、三次元CGモデルによる運動視差再現映像を生成する場合を例に説明するが、その他の方法で運動視差再現映像を生成するようにしてもよい。運動視差再現映像生成装置10(情報提示装置)は、カメラ7、複数のカメラ8、複数の距離測定カメラ9からの情報を入力し、生成した映像をディスプレイ6(情報提示部)に出力する。動視差再現映像生成装置10は、カメラ関連情報保存部11、ユーザ情報検出部12、ユーザ情報記録部13、システム情報記録部14、ユーザ選択・解放処理部15、映像生成部16、ディスプレイ関連情報保存部17、三次元CGモデルデータ保存部18を備える。
FIG. 3 is a schematic block diagram illustrating a configuration of the motion parallax reproduction
カメラ関連情報保存部11には、カメラ7の画角、ディスプレイ6に対するカメラ7の取り付け位置や向きの情報、カメラ8の画角、ディスプレイ6に対するカメラ8の取り付け位置や向きの情報、距離測定カメラ9の画角、ディスプレイ6に対する距離測定カメラ9の取り付け位置や向きの情報を保持している。ユーザ情報検出部12(ユーザ状態検出部)は、候補ユーザの状態を検出する。すなわち、本実施形態では、ユーザ情報検出部12は、カメラ7、カメラ8、距離測定カメラ9で取得した画像情報及び距離情報と、カメラ関連情報保存部11に保存された情報と、ユーザ情報記録部13に記録された情報から、複数の候補ユーザの状態(頭部の位置および向き)を、それぞれ算出する。さらに、ユーザ情報検出部12は、各候補ユーザの過去の頭部の位置および向きの情報と現在の情報とを照らし合わせ、同一候補ユーザの情報を特定してユーザ情報記録部13に記録する。
The camera-related
ユーザ情報記録部13は、各候補ユーザの現在及び過去の情報を記憶する。システム情報記録部14は、該運動視差再現映像提示システムに関する情報を記憶する。ユーザ選択・解放処理部15(ユーザ選択部)は、ユーザ情報検出部12の検出結果に基づき、ディスプレイ6が情報を提示する対象のユーザを順次変更する。すなわち、本実施形態では、ユーザ選択・解放処理部15は、ユーザ情報検出部12の検出結果に基づき、各候補ユーザの中から適切な候補ユーザを選択して被選択ユーザを決定すると共に、被選択ユーザの中で所定の条件に合致する者を被選択ユーザから解放する処理を繰り返し行う。このとき、ユーザ選択・解放処理部15は、ユーザの選択、解放に関する情報をユーザ情報記録部13およびシステム情報記録部14に記録する。さらにユーザ選択・解放処理部15は、現在の被選択ユーザに関する情報を映像生成部16に送る。
The user
ディスプレイ関連情報保存部17は、ディスプレイ6の表示部分の大きさ、解像度の情報を保持している。三次元CGモデルデータ保存部18は、三次元CGを表示するためのモデルに関する情報を記憶している。例えば、球と立方体とが配置された映像を表示する場合は、球と立方体のモデルデータ及びそれらのモデルの仮想的な配置の情報を予め記憶している。映像生成部16は、ユーザ選択・解放処理部15から送られた被選択ユーザに関する情報と、ディスプレイ関連情報保存部17に保存された情報と、三次元CGモデルデータ保存部18に保存された情報を用いて、被選択ユーザの視点位置から見た画像を合成し、ディスプレイ6に出力する。
The display related
次に、各ブロックの処理の詳細について説明する。まず、ユーザ情報記録部13及びシステム情報記録部14が記憶するデータについて説明する。図4は、ユーザ情報記録部13が記憶するデータの階層構造と、その詳細を説明する図である。ユーザ情報記録部13は、候補ユーザのリストと、リストに記録された各候補ユーザに関する情報(候補ユーザの状態の情報)を記憶する。各候補ユーザにはID番号を付与し、それを候補ユーザのリストに記憶する。
Next, details of the processing of each block will be described. First, data stored in the user
階層構造の最上位は候補ユーザのIDリストであり、1、2、...n、...というように、順に候補ユーザのID番号を記憶する。候補ユーザのID番号の各々に対して、現在の被選択時間T_n、現在の待ち時間W_n、過去選ばれた回数N_n、時刻リストを記憶する。現在の被選択時間T_nは、候補ユーザnが被選択ユーザとなっている場合は、被選択ユーザになってからの時間を表す情報であり、現在被選択ユーザで無い場合は、「0」である。現在の待ち時間W_nは、候補ユーザnが本システムに認識されてからの時間、ないしは、被選択ユーザから外れてからの時間を表す情報であり、候補ユーザnが被選択ユーザになっている間は、「0」にリセットされる。 At the top of the hierarchical structure is an ID list of candidate users, 1, 2,. . . n,. . . As such, the ID numbers of candidate users are stored in order. For each candidate user ID number, the current selected time T_n, the current waiting time W_n, the number N_n of past selections, and the time list are stored. The current selected time T_n is information indicating the time since becoming the selected user when the candidate user n is the selected user, and is “0” when the candidate user n is not the currently selected user. is there. The current waiting time W_n is information indicating the time after the candidate user n is recognized by the system, or the time since the candidate user n is removed from the selected user, while the candidate user n is the selected user. Is reset to “0”.
過去選ばれた回数N_nは、候補ユーザnがこれまでに被選択ユーザとして選ばれた回数を表す情報である。さらに、時刻リストはt1、t2、...t、...というように、順にデータを記録した各時刻の値を記憶する。各時刻に対して、該時刻における候補ユーザに関する情報(位置情報P_n(t)、頭部の向きD_n(t))をさらに下位の情報として記憶する。位置情報P_n(t)は、時刻tにおける候補ユーザnの頭部の中心位置を表す情報である。頭部の向きD_n(t)は、時刻tにおける顔の正面方向の単位ベクトルの値を表す情報である。 The number N_n of past selections is information representing the number of times that the candidate user n has been selected as a selected user so far. In addition, the time list is t1, t2,. . . t,. . . As described above, the time value at which the data is recorded is stored in order. For each time, information on the candidate user at that time (position information P_n (t), head orientation D_n (t)) is stored as lower information. The position information P_n (t) is information representing the center position of the head of the candidate user n at time t. The head direction D_n (t) is information representing the value of the unit vector in the front direction of the face at time t.
図5は、システム情報記録部14が記憶するデータの階層構造と、その詳細を説明する図である。システム情報記録部14は、該運動視差再現映像提示システムに関する情報を記憶する。最大選択可能人数Max、現在の選択人数U、位置Ps、向きDsを、該運動視差再現映像提示システムに関する情報として記憶する。最大選択可能人数Maxは、該運動視差再現映像提示システムが最大で対応可能なユーザの数である。例えば、ディスプレイ6の画面全部を使って1人のユーザに対して運動視差再現映像を提供する場合は、Max=1である。また例えば、ディスプレイ6の画面を左右の2つの領域に分割し、それぞれ1人ずつ、合計2名のユーザに対して運動視差再現映像を提供する場合は、Max=2である。さらに、ディスプレイ6の画面を3つの領域に分割し、それぞれ1人ずつ、合計3名のユーザに対して運動視差再現映像を提供する場合は、Max=3である。
FIG. 5 is a diagram for explaining the hierarchical structure of data stored in the system
現在の選択人数Uは、現在該運動視差再現映像提示システムが何名のユーザに対して運動視差再現映像を提供しているかを示す値である。例えば、現在誰にも運動視差再現映像を提供していない場合は、U=0である。また例えば、ディスプレイ6の画面を3つの領域に分割し、それぞれ1人ずつ、合計3名のユーザに対して運動視差再現映像を提供できるシステム、すなわちMax=3のシステムにおいて、その分割された画面の領域のうち1つを用いて1人のユーザに運動視差再現映像を提供し、残りの2つの領域では誰にも運動視差再現映像を提供していない場合は、U=1である。位置Psは、該運動視差再現映像提示システムのディスプレイ6の画面の中央の座標である。向きDsは、該運動視差再現映像提示システムのディスプレイ6の画面の向いている方向をあらわすベクトルであり、ディスプレイ6の映像を出力する側を正とした単位法線ベクトルの値である。
The current number of selected people U is a value indicating how many users the motion parallax reproduction video presentation system currently provides the motion parallax reproduction video. For example, if no motion parallax reproduction video is currently provided to anyone, U = 0. Further, for example, in a system that can divide the screen of the
図6と図7に、ユーザ情報記録部13およびシステム情報記録部14が記憶するデータの一部を図示し、その関係を説明する。図6は、ディスプレイ6の前に2名の候補ユーザが居る場面を斜め上から見た図である。このような場合において、候補ユーザnの位置P_n(t)、候補ユーザnの向きD_n(t)、システムの位置Ps、システムの向きDsは、図6に示した位置あるいは向きの情報になる。同じ場面を真上から見た図が、図7である。
FIG. 6 and FIG. 7 illustrate some of the data stored in the user
図8は、ユーザ選択・解放処理部15の処理を説明するフローチャートである。なお、以下の説明では、該運動視差再現映像提示システムの各処理は、一定の時間間隔で実行されているものとし、現在の時刻をt、それより一つ前の時点における処理によってユーザ情報記録部13が記憶しているデータの時刻を時刻t’、その差分をdt=t−t’とする。すなわちdtはある回の処理とその次の回の処理との間の時間間隔(これを以下では処理の単位時間と呼ぶ)であり、1/dtが1秒あたりの処理回数、言い換えれば処理のリフレッシュレートである。
FIG. 8 is a flowchart for explaining the processing of the user selection /
ユーザ選択・解放処理部15は、前記の通り、各候補ユーザの中から適切な候補ユーザを選択して被選択ユーザを決定すると共に、被選択ユーザの中で所定の条件に合致する者を被選択ユーザから解放する処理を行い、その情報をユーザ情報記録部13およびシステム情報記録部14に記録する。さらにユーザ選択・解放処理部15は、現在の被選択ユーザに関する情報を映像生成部16に送る。
As described above, the user selection /
図8に示すように、ユーザ選択・解放処理部15は、被選択ユーザの情報更新処理(S1)と、被選択ユーザ追加処理(S2)と、被選択ユーザ解放処理(S3)と、被選択ユーザ情報送信処理(S4)を、順に繰り返す処理を行う。
まず、被選択ユーザの情報更新処理(S1)の詳細を説明する。ユーザ情報記録部13が記憶している候補ユーザの情報において、T_n≠0であるユーザが被選択ユーザであり、W_n≠0であるユーザが、被選択ユーザ以外の候補ユーザである。そこで、ユーザ選択・解放処理部15は、T_n≠0である全てのユーザ、すなわち被選択ユーザ全てに対して、T_n=T_n+(t−t’)という処理を行い、被選択時間T_nをインクリメントする。
As shown in FIG. 8, the user selection /
First, details of the information update process (S1) of the selected user will be described. In the information on candidate users stored in the user
続いて、被選択ユーザ追加処理(S2)の詳細を図9に示す。まず、ユーザ選択・解放処理部15は、被選択ユーザ以外の候補ユーザを抽出する(S11)。前記のように、ユーザ情報記録部13に記録されている候補ユーザの情報において、T_n≠0であるユーザが被選択ユーザであり、W_n≠0であるユーザが被選択ユーザ以外の候補ユーザである。よって、ユーザ選択・解放処理部15は、W_n≠0であるユーザを抽出する。この抽出したユーザを以降、「追加処理対象ユーザ」という。次に、ユーザ選択・解放処理部15は、各追加処理対象ユーザに関して適合度F_n(t)を算出する(S12)。ここで、適合度F_n(t)とは、候補ユーザnについて、システムの被選択ユーザとしての相応しさ・適合度を測るための値である。適合度F_n(t)がより高いほど、より被選択ユーザとしての相応しいことを示す。その具体的な算出方法については、後述する。
Next, details of the selected user addition process (S2) are shown in FIG. First, the user selection /
次に、ユーザ選択・解放処理部15は、F_n(t)<Fconstである追加処理対象ユーザを除外する(S13)。これは、例え現在の選択人数Uが最大選択可能人数Max以下であっても、適合度が所定の閾値Fconst以下、すなわち被選択ユーザとして相応しくない追加処理対象ユーザを被選択ユーザとすることを避け、不要なサービスを行わないことを目的とする処理である。ステップS13の処理で残った追加処理対象ユーザの数をkとする。
Next, the user selection /
次に、ユーザ選択・解放処理部15は、k>0であるか否かを判定する(S14)。この判定の結果がNoの場合(k>0でない場合)は、ユーザ選択・解放処理部15は、そのまま処理を終了する。また、ステップS14の判定の結果がYesの場合(k>0の場合)は、ユーザ選択・解放処理部15は、k≧(Max−U)であるか否かを判定する(S15)。この判定の結果がYesの場合(k≧(Max−U)の場合)、ユーザ選択・解放処理部15は、次に適合度F_n(t)の値の大きな順に(Max−U)名の追加処理対象ユーザを選択し被選択ユーザに追加する処理を行う(S16)。
Next, the user selection /
より具体的には、ユーザ選択・解放処理部15は、ユーザ情報記録部13に記録されている候補ユーザの情報のうち、適合度F_n(t)の値の大きな順に(Max−U)名の追加処理対象ユーザに関する情報に対して、現在の待ち時間W_n=0、現在の被選択時間T_n=t−t’、過去選ばれた回数N_n=N_n+1とする処理を行う。これはそれぞれ、選択待ち状態から脱したので現在の待ち時間W_nを0にする、被選択状態になったので被選択時間T_nの値のインクリメントをする、選択されたのでN_nに「1」を加える、ということを意味している。
More specifically, the user selection /
続いて、ユーザ選択・解放処理部15は、システム情報記録部14が記憶している該運動視差再現映像提示システムに関する情報のうち、現在の選択人数U=Maxに更新する(S17)。これは、今回被選択ユーザに(Max−U)名を追加したため、被選択ユーザが元々U名であったものが、U+(Max−U)=Max名に変化したことを意味している。以上で被選択ユーザ追加処理を終了する。
Subsequently, the user selection /
一方、ステップS15の判定においてNoであった場合(k≧(Max−U)でない場合)は、ユーザ選択・解放処理部15は、残った追加処理対象ユーザk名全員を被選択ユーザに追加する(S18)。より具体的にはステップS16における処理と同様に、ユーザ情報記録部13に記録されている候補ユーザの情報のうち、残った追加処理対象ユーザk名に関する情報に対して、現在の待ち時間W_n=0、現在の被選択時間T_n=t−t’、過去選ばれた回数N_n=N_n+1とする処理を行う。これらの意味もステップS16と同様である。続いて、ユーザ選択・解放処理部15は、システム情報記録部14が記憶している該運動視差再現映像提示システムに関する情報のうち、現在の選択人数U=U+kに更新する(S19)。この処理の意味はステップS17と同様である。以上で被選択ユーザ追加処理を終了する。
On the other hand, if the determination in step S15 is No (when k ≧ (Max-U) is not satisfied), the user selection /
次に、被選択ユーザ解放処理(S3)の詳細を図10に示す。まず、ユーザ選択・解放処理部15は、現在の選択人数U>0であるか否かを判定する(S21)。Noで有る場合(U>0でない場合)は、すなわち現在の選択人数U=0であり、被選択ユーザが存在していないので、ユーザ選択・解放処理部15は、そのまま被選択ユーザ解放処理を終了する。一方、ステップS21の判定結果がYesである場合(U>0である場合)は、ユーザ選択・解放処理部15は、各被選択ユーザに関し被選択時間指数R_n(t)を算出する(S22)。ここで、被選択時間指数R_n(t)とは、各被選択ユーザにサービス提供すべき時間であるサービス提供時間を示す値であり、この値が大きければより長い時間サービスを提供し、この値が小さければより短い時間サービスを提供する。その具体的算出方法については後述する。
Next, details of the selected user release process (S3) are shown in FIG. First, the user selection /
次に、ユーザ選択・解放処理部15は、R_n(t)<T_nである被選択ユーザを被選択ユーザから解放する(S23)。より具体的には、ユーザ情報記録部13が記憶している候補ユーザの情報のうち、R_n(t)<T_nである被選択ユーザの情報に対して、現在の待ち時間W_n=t−t’、現在の被選択時間T_n=0という処理を行う。これはそれぞれ、被選択状態から解放されて選択待ち状態に戻ったので現在の待ち時間W_nのインクリメントをはじめる、被選択状態から解放されたので被選択時間T_nの値を「0」にリセットする、ということを意味している。
Next, the user selection /
被選択ユーザに関する現在の被選択時間T_nの値は、時間が経過するにつれ単調増加するので、仮に被選択時間指数R_n(t)の値が一定値であっても、やがてはR_n(t)<T_nという条件が満たされる。すなわち、基本的にはサービスを提供する時間を一定に区切るという処理を行っている。実際は、被選択時間指数R_n(t)の算出方法によってサービスを提供する時間は増減する。これについても後で詳しく述べる。 Since the value of the current selected time T_n for the selected user increases monotonously as time passes, even if the value of the selected time index R_n (t) is a constant value, R_n (t) < The condition T_n is satisfied. In other words, basically, a process of dividing a service providing time into a certain period is performed. Actually, the time for providing the service varies depending on the calculation method of the selected time index R_n (t). This will be described in detail later.
また、この時解放された被選択ユーザ数をmとする。続いて、ユーザ選択・解放処理部15は、システム情報記録部14が記憶している該運動視差再現映像提示システムに関する情報のうち、現在の選択人数U=U−mに更新する(S24)。これは、今回被選択ユーザからm名が解放されたので、被選択ユーザが元々U名であったものが、U−m名に減少したことを意味している。以上で被選択ユーザ解放処理を終了する。
The number of selected users released at this time is m. Subsequently, the user selection /
最後に、被選択ユーザ情報送信処理(S4)の詳細を説明する。ユーザ選択・解放処理部15は、ユーザ情報記録部13が記憶している候補ユーザの情報のうち、現在の被選択時間T_n≠0である全てのユーザ、すなわち被選択ユーザ全てに関して、該被選択ユーザのID番号と、その位置情報P_n(t)と、現在の被選択ユーザの数Uを映像生成部16に送る。
Finally, details of the selected user information transmission process (S4) will be described. The user selection /
続いて、ユーザ選択・解放処理部15による適合度F_n(t)の算出方法について説明する。図11は、適合度F_n(t)及び被選択時間指数R_n(t)の算出に用いる中間変数の一覧を示す図である。ユーザ選択・解放処理部15は、各候補ユーザnに関して、これらの中間変数を算出して、適合度F_n(t)及び被選択時間指数R_n(t)の算出に用いる。その概要は以下の通りである。
Next, a method for calculating the fitness F_n (t) by the user selection /
相対距離Dist_n(t)は、候補ユーザnと該運動視差再現映像提示システムとの相対距離である。ユーザ静止度S_n(t)は、候補ユーザnが一箇所に立ち止まって動かない状態にある度合いを数値化した変数である。ユーザ動作度M_n(t)は、候補ユーザnがどれだけ体を動かしているか、あるいは移動しているかの度合いを数値化した変数である。ユーザ正対度C_n(t)は、候補ユーザnがどれだけまっすぐディスプレイの方を向いているかを数値化した変数である。サービスエリア適合度A_n(t)は、候補ユーザnがどの程度適正にシステムのサービスエリア内にいるかの度合いを数値化した変数である。
次に、本実施形態における適合度F_n(t)の算出方法を説明する。ユーザ選択・解放処理部15は、式(1)を用いて、適合度F_n(t)を算出する。
The relative distance Dist_n (t) is a relative distance between the candidate user n and the motion parallax reproduction video presentation system. The user stillness S_n (t) is a variable obtained by quantifying the degree to which the candidate user n stops at one place and does not move. The user operation degree M_n (t) is a variable obtained by quantifying how much the candidate user n is moving or moving. The user facing degree C_n (t) is a variable obtained by quantifying how much the candidate user n is facing the display. The service area suitability A_n (t) is a variable obtained by quantifying the degree to which the candidate user n is properly in the service area of the system.
Next, a method for calculating the fitness F_n (t) in the present embodiment will be described. The user selection /
ここで、Dist_const、Sconst、Mconst、Wconst、Nconstはそれぞれ相対距離Dist_n(t)、ユーザ静止度S_n(t)、ユーザ動作度M_n(t)、現在の待ち時間W_n、過去選ばれた回数N_nの各中間変数ないしはデータに対して、それぞれの中間変数ないしはデータの、適合度F_n(t)に対する寄与率を調整するための、予め設定された定数である。 Here, Dist_const, Sconst, Mconst, Wconst, and Nconst are the relative distance Dist_n (t), user staticity S_n (t), user behavior M_n (t), current waiting time W_n, and past number of times N_n, respectively. It is a preset constant for adjusting the contribution ratio of each intermediate variable or data to the fitness F_n (t) for each intermediate variable or data.
続いて、各中間変数の算出例を説明しながら、それぞれの中間変数ないしはデータが適合度F_n(t)において果たす役割とその効果を説明する。
ユーザ選択・解放処理部15は、ユーザ正対度C_n(t)を、式(2)によって算出する。
Subsequently, while explaining calculation examples of each intermediate variable, the role and effect of each intermediate variable or data in the fitness F_n (t) will be described.
The user selection /
ここで、(Ps−P_n(t))/||Ps−P_n(t)||は、候補ユーザnの位置P_n(t)から該運動視差再現映像提示システムの位置Psへの単位ベクトルである。この単位ベクトルと、候補ユーザnの頭部の向きD_n(t)との内積を計算したのがユーザ正対度C_n(t)である。この単位ベクトルとD_n(t)との関係を示したのが図12である。図12は上から見た図である。候補ユーザnがまっすぐディスプレイの中心を見ていればいるほど、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の成す角は小さくなる。よってその内積は1に近付く。逆に、候補ユーザnがディスプレイから顔をそらしている場合は、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の為す角は大きくなり、その内積の値は小さくなる。 Here, (Ps−P_n (t)) / || Ps−P_n (t) || is a unit vector from the position P_n (t) of the candidate user n to the position Ps of the motion parallax reproduction video presentation system. . The user's confrontation degree C_n (t) is obtained by calculating the inner product of the unit vector and the head direction D_n (t) of the candidate user n. FIG. 12 shows the relationship between this unit vector and D_n (t). FIG. 12 is a view from above. The more the candidate user n is looking straight at the center of the display, the smaller the angle formed by (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t). Therefore, the inner product approaches 1. Conversely, when candidate user n turns away from the display, the angle between (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t) increases, and the inner product thereof The value of becomes smaller.
このことから、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の内積値であるユーザ正対度C_n(t)は、候補ユーザnの向き、すなわち候補ユーザnがどれだけまっすぐディスプレイを見ているかの指標として用いることができる。候補ユーザnがまっすぐディスプレイを見ていればいるほど、ユーザ正対度C_n(t)は1に近付く。なお、(Ps−P_n(t))/||Ps−P_n(t)||とD_n(t)の成す角が90°を超えると、その内積値はマイナスになる。これを避けるため、式(2)のように、内積値がマイナスの場合はC_n(t)=0とする。
ユーザ選択・解放処理部15は、サービスエリア適合度A_n(t)を、式(3)によって算出する。
Therefore, the user confrontation degree C_n (t), which is the inner product value of (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t), is the direction of the candidate user n, that is, It can be used as an index of how straight the candidate user n is looking at the display. The more the candidate user n is looking straight at the display, the closer the user confrontation C_n (t) is to 1. If the angle formed by (Ps−P_n (t)) / || Ps−P_n (t) || and D_n (t) exceeds 90 °, the inner product value becomes negative. To avoid this, C_n (t) = 0 when the inner product value is negative as shown in equation (2).
The user selection /
(P_n(t)−Ps)/||P_n(t)−Ps||は、該運動視差再現映像提示システムの位置Psから候補ユーザnの位置P_n(t)への単位ベクトルである。この単位ベクトルと、該運動視差再現映像提示システムの向きDsとの内積を計算したのがサービスエリア適合度A_n(t)である。この単位ベクトルと向きDsとの関係を示したのが図13である。図13は上から見た図である。候補ユーザnの位置がディスプレイの正面に近ければ近いほど、(P_n(t)−Ps)/||P_n(t)−Ps||とDsの成す角は小さくなる。よってその内積は1に近付く。 (P_n (t) -Ps) / || P_n (t) -Ps || is a unit vector from the position Ps of the motion parallax reproduction video presentation system to the position P_n (t) of the candidate user n. The service area suitability A_n (t) is obtained by calculating the inner product of this unit vector and the direction Ds of the motion parallax reproduction video presentation system. FIG. 13 shows the relationship between the unit vector and the direction Ds. FIG. 13 is a view from above. The closer the position of candidate user n is to the front of the display, the smaller the angle formed by (P_n (t) −Ps) / || P_n (t) −Ps || and Ds. Therefore, the inner product approaches 1.
逆に、候補ユーザnがディスプレイの正面から離れて横の方向に位置している場合は(P_n(t)−Ps)/||P_n(t)−Ps||とDsの成す角は90°に近付き、その内積の値は小さくなる。さらに、仮に候補ユーザnがディスプレイの背面に回った場合は、角度は90°を超えるため、内積の値はマイナスになる。このことから、(P_n(t)−Ps)/||P_n(t)−Ps||とDsの内積値であるサービスエリア適合度A_n(t)は、候補ユーザnがどれだけディスプレイの正面方向に位置しているかの指標として用いることができる。言い換えれば、ディスプレイの正面方向が最も良いサービスエリアであり、そこから離れるにつれサービスエリアとしてはより悪くなるということを表している。候補ユーザnがディスプレイの正面方向に近い位置にいればいるほど、サービスエリア適合度A_n(t)は1に近付く。なお、前記の通り(P_n(t)−Ps)/||P_n(t)−Ps||とDsの成す角が90°を超えると、その内積値はマイナスになる。これを避けるため、式(3)のように、内積値がマイナスの場合はサービスエリア適合度A_n(t)=0とする。 Conversely, when the candidate user n is located in the horizontal direction away from the front of the display, the angle formed by (P_n (t) −Ps) / || P_n (t) −Ps || and Ds is 90 °. The inner product value becomes smaller. Furthermore, if the candidate user n turns to the back of the display, the angle exceeds 90 °, so the value of the inner product becomes negative. Therefore, the service area suitability A_n (t), which is the inner product value of (P_n (t) −Ps) / || P_n (t) −Ps || and Ds, indicates how much the candidate user n is in the front direction of the display. It can be used as an indicator of whether or not In other words, it indicates that the front direction of the display is the best service area, and the service area becomes worse as the distance from the display area increases. The closer the candidate user n is to the front direction of the display, the closer the service area suitability A_n (t) is to 1. As described above, when the angle formed by (P_n (t) −Ps) / || P_n (t) −Ps || and Ds exceeds 90 °, the inner product value becomes negative. In order to avoid this, as shown in Expression (3), when the inner product value is negative, the service area suitability A_n (t) = 0 is set.
適合度F_n(t)を算出する式(1)において、ユーザ正対度C_n(t)またはサービスエリア適合度A_n(t)の値が大きくなれば、適合度F_n(t)も大きくなり、候補ユーザnは被選択ユーザとして選ばれやすくなる。ユーザ正対度C_n(t)が大きいということは、候補ユーザnがディスプレイ方向を向いていることをあらわしており、該運動視差再現映像提示システムに興味を持っている可能性が考えられる。またもし現状では運動視差再現映像提示システムに興味を持っていないとしても、ディスプレイに表示された映像が目に入る状態にあるため、興味を持ってくれる可能性が期待できる。すなわち、ユーザ正対度C_n(t)は、候補ユーザnについての、興味の度合いを示す情報または情報の伝達され易さを示す情報である。 In Formula (1) for calculating the fitness F_n (t), if the value of the user confrontation C_n (t) or the service area fitness A_n (t) increases, the fitness F_n (t) also increases. User n is likely to be selected as a selected user. The fact that the user facing degree C_n (t) is large indicates that the candidate user n is facing the display direction, and there is a possibility that he / she is interested in the motion parallax reproduction video presentation system. Also, even if you are not interested in the motion parallax reproduction video presentation system at present, the video displayed on the display is in the eye and you can expect to be interested. That is, the user confrontation degree C_n (t) is information indicating the degree of interest or information indicating ease of transmission of information regarding the candidate user n.
また、サービスエリア適合度A_n(t)の値が大きいということは、候補ユーザnがディスプレイの正面に近い方向に位置していることをあらわしており、該運動視差再現映像提示システムに興味を持っている可能性が考えられる。またもし現状では運動視差再現映像提示システムに興味を持っていないとしても、頭部の向きによってはディスプレイがよく見える位置に居るためにディスプレイに表示された映像に目を留める可能性が期待できる。すなわち、サービスエリア適合度A_n(t)は、候補ユーザnについての、興味の度合いを示す情報または情報の伝達され易さを示す情報である。 Further, the large value of the service area suitability A_n (t) indicates that the candidate user n is located in a direction close to the front of the display, and is interested in the motion parallax reproduction video presentation system. There is a possibility that. Even if you are not interested in the motion parallax reproduction video presentation system at present, depending on the orientation of the head, you can expect to see the video displayed on the display because it is in a position where you can see it well. That is, the service area suitability A_n (t) is information indicating the degree of interest or information indicating the ease of transmission of information regarding the candidate user n.
適合度F_n(t)におけるユーザ正対度C_n(t)またはサービスエリア適合度A_n(t)の項は、このように、ディスプレイ6の方向を向いていることから該運動視差再現映像提示システムに興味を持っている可能性が考えられる候補ユーザや、ディスプレイに表示された映像が目に入る状態にあるため、興味を持ってくれる可能性が期待できる候補ユーザや、頭部の向きによってはディスプレイがよく見える位置に居るためにディスプレイに表示された映像に目を留める可能性が期待できる候補ユーザを優先して被選択ユーザとして選択することで、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。
Since the term of user confrontation C_n (t) or service area suitability A_n (t) in the suitability F_n (t) is oriented in the direction of the
なお、式(1)において、ユーザ正対度C_n(t)およびサービスエリア適合度A_n(t)はその他の変数全てに掛けられている。すなわちユーザ正対度C_n(t)とサービスエリア適合度A_n(t)とのうち、少なくとも何れかが0であれば、その他の中間変数やデータの値に関わらず、適合度F_n(t)は0になる。このようにユーザ正対度C_n(t)およびサービスエリア適合度A_n(t)は、その他の中間変数やデータの値に比べて、適合度F_n(t)の算出値に与える影響が大きい。 In Equation (1), the user confrontation degree C_n (t) and the service area suitability degree A_n (t) are multiplied by all other variables. That is, if at least one of the user confrontation degree C_n (t) and the service area conformity degree A_n (t) is 0, the conformity degree F_n (t) is set regardless of other intermediate variables and data values. 0. Thus, the degree of user confrontation C_n (t) and the service area suitability A_n (t) have a larger influence on the calculated value of the suitability F_n (t) than the values of other intermediate variables and data.
これは、ユーザ正対度C_n(t)については、候補ユーザnが、ディスプレイ6が目に入る向きを向いていなければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができず、該候補ユーザnには広告情報が伝達されないからである。また、サービスエリア適合度A_n(t)については、候補ユーザnが、ディスプレイ6が見える位置に居なければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができず、該候補ユーザnには情報が伝達されないからである。このため、式(1)のようにユーザ正対度C_n(t)およびサービスエリア適合度A_n(t)はその他の変数全てに掛けることで、広告情報が伝達されない候補ユーザを被選択ユーザとすることを避けることができる。
サービスエリア適合度A_n(t)の式(3)とは別の算出方法の例を式(4)に示す。
This is because, with respect to the degree of user confrontation C_n (t), if the candidate user n is not facing the direction in which the
Formula (4) shows an example of a calculation method different from formula (3) for service area suitability A_n (t).
ここでは、ディスプレイ6が見えやすい候補ユーザの位置の範囲、すなわちサービスエリアを、図14に示すようにディスプレイの正面方向から左右上下への角度θで規定している。なお、図14は上面図のため、左右への角度θのみ図示してある。式(4)は、候補ユーザがこの範囲内に居る場合はA_n(t)=1であり、範囲外ではA_n(t)=0となる。
Here, the range of the position of the candidate user where the
式(3)を用いた場合は、前記の通り候補ユーザnがディスプレイ6の正面方向に近い位置にいればいるほど、A_n(t)は1に近付く、すなわち適合度が高いと算出され、被選択ユーザに選ばれやすくなる。このため最もディスプレイ6を見易い位置に居る候補ユーザを優先することができるという利点があるが、正面付近に居る候補ユーザばかりが選ばれ正面からずれた位置に居る候補ユーザが選ばれにくいという特性がある。これに対し式(4)では、角度θの範囲内にいる限り候補ユーザのサービスエリア適合度A_n(t)は等しく1になるため、角度θの範囲内にいる限り被選択ユーザへの選ばれやすさに差は無い。必ずしもディスプレイ6を最も見易い位置に居る候補ユーザが選ばれるとは限らないが、該運動視差再現映像提示システムの周りに居る候補ユーザがその位置に関わらず満遍なく選ばれうるという特性がある。
When Expression (3) is used, as the candidate user n is closer to the front direction of the
角度θの値は、例えば、ディスプレイ6がLCD(Liquid Crystal Display;液晶ディスプレイ)である場合は、LCDの視野角特性に合わせて決める。これは、ディスプレイ6に表示された映像が許容範囲の画質で見える範囲をそのままサービスエリアとして考えるというものである。また例えば、45°や30°のように、角度θとして、視野角特性より狭い角度の値を用いてもかまわない。
For example, when the
相対距離Dist_n(t)は前記の通り候補ユーザnと該運動視差再現映像提示システムとの相対距離であり、ユーザ選択・解放処理部15は、Dist_n(t)=||Ps−P_n(t)||により算出する。
適合度F_n(t)を算出する式(1)において、相対距離Dist_n(t)は、括弧の中にDist_const/Dist_n(t)という項として挿入されている。この項は、相対距離Dist_n(t)が小さいほど大きくなる。すなわち、候補ユーザnがディスプレイに近い位置に居るほど、適合度F_n(t)の値は大きくなり、該候補ユーザnは被選択ユーザとして選ばれ易くなる。
The relative distance Dist_n (t) is the relative distance between the candidate user n and the motion parallax reproduction video presentation system as described above, and the user selection /
In the equation (1) for calculating the fitness F_n (t), the relative distance Dist_n (t) is inserted as a term Dist_const / Dist_n (t) in parentheses. This term increases as the relative distance Dist_n (t) decreases. That is, the closer the candidate user n is to the display, the greater the value of the fitness F_n (t), and the candidate user n is likely to be selected as the selected user.
よって、興味を持ってディスプレイ6の近くまで来てくれたことが期待される候補ユーザを優先して被選択ユーザとする、あるいは、ディスプレイ6の近くに居るのでより広告を見てくれる可能性が高いと思われる候補ユーザを優先して被選択ユーザとしている。すなわち、候補ユーザと情報提示部との距離を示す情報は、興味の度合いを示す情報または情報の伝達され易さを示す情報である。これにより効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。なお、Dist_constの値を変えることで、相対距離Dist_n(t)が適合度F_n(t)に与える影響を調節することができる。Dist_constを大きくすれば相対距離Dist_n(t)の寄与も大きくなる。
ユーザ選択・解放処理部15は、ユーザ静止度S_n(t)を、式(5)によって算出する。
Therefore, a candidate user who is expected to have come close to the
The user selection /
また、式(5)中のPsma_n(t)は式(6)によって算出する。 Further, Psma_n (t) in the equation (5) is calculated by the equation (6).
このPsma_n(t)は、候補ユーザnの位置P_n(t)の直近のl個のデータの単純移動平均を算出したもので、以下では候補ユーザnの平均位置と呼ぶ。lは、例えば前記処理のリフレッシュレートが30回/secの場合、l=30とすれば、候補ユーザnの1秒間の位置データを平均した値となる。式(5)の分母における||Psma_n(t)−Psma_n(t’)||の項は、時刻tにおける候補ユーザnの平均位置と、それより一つ前の時点における処理の時刻t’における候補ユーザnの平均位置の間の距離である。すなわち、前記処理の単位時間の間の候補ユーザnの平均的な移動距離を求める操作である。 This Psma_n (t) is obtained by calculating a simple moving average of l pieces of data nearest to the position P_n (t) of the candidate user n, and is hereinafter referred to as an average position of the candidate user n. For example, when the refresh rate of the process is 30 times / sec, l is a value obtained by averaging the position data of 1 second of the candidate user n if l = 30. The term || Psma_n (t) −Psma_n (t ′) || in the denominator of the equation (5) is the average position of the candidate user n at time t and the time t ′ of the processing at the previous time point. The distance between the average positions of candidate users n. That is, an operation for obtaining an average moving distance of the candidate user n during the processing unit time.
この値の逆数を取ることで、候補ユーザがどれだけ静止しているかを示す変数、すなわちユーザ静止度として用いる。なお、分母で+1しているのは、分母が0になることを避けるためである。このようにして求めたユーザ静止度S_n(t)は、候補ユーザnがずっと同じ位置に留まっている場合は最大値1を取り、候補ユーザnが動いている場合は、それより小さな値を取る。すなわち、ユーザ静止度S_n(t)の値が大きいほど、候補ユーザnは静止して立ち止まっている可能性が高いことがわかる。 By taking the reciprocal of this value, it is used as a variable indicating how much the candidate user is stationary, that is, the user stationary degree. The reason why the denominator is incremented by 1 is to prevent the denominator from becoming zero. The user stillness S_n (t) obtained in this way takes a maximum value of 1 when the candidate user n remains at the same position, and takes a smaller value when the candidate user n is moving. . That is, it can be seen that the larger the value of the user stationary degree S_n (t), the higher the possibility that the candidate user n is stationary and stopped.
適合度F_n(t)を算出する式(1)において、ユーザ静止度S_n(t)は、括弧の中にSconst×S_n(t)という項として挿入されている。この項は、ユーザ静止度S_n(t)が大きいほど大きくなる。すなわち、候補ユーザnが静止して立ち止まっている可能性が高いほど、適合度F_n(t)の値は大きくなり、該候補ユーザは被選択ユーザとして選ばれ易くなる。候補ユーザが立ち止まっているという状況は様々な理由が考えられるが、該運動視差再現映像提示システムに興味を持ったため立ち止まっているという可能性があり得る。またそうではなくても、該運動視差再現映像提示システムの近くを移動して通り過ぎていく候補ユーザよりは、理由はなんであれ立ち止まっている候補ユーザのほうが、ディスプレイで表示する広告を目にしてくれる可能性が高いと考えられる。 In the equation (1) for calculating the fitness F_n (t), the user stillness S_n (t) is inserted as a term “Sconst × S_n (t)” in parentheses. This term increases as the user stillness S_n (t) increases. That is, as the possibility that the candidate user n is stationary and stopped is higher, the value of the fitness F_n (t) increases, and the candidate user is easily selected as the selected user. There are various reasons why the candidate user is stopped, but there is a possibility that the candidate user is stopped because he / she is interested in the motion parallax reproduction video presentation system. Even if this is not the case, the candidate user who stops for whatever reason sees the advertisement displayed on the display rather than the candidate user who moves near the motion parallax reproduction video presentation system. The possibility is considered high.
そのような候補ユーザを優先して被選択ユーザとして選択することができ、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。すなわち、ユーザ静止度S_n(t)は、候補ユーザnについての、興味の度合いを示す情報または情報の伝達され易さを示す情報である。
なお、Sconstの値を変えることで、ユーザ静止度S_n(t)が適合度F_n(t)に与える影響を調節することができる。Sconstを大きくすればユーザ静止度S_n(t)の寄与も大きくなる。
ユーザ選択・解放処理部15は、ユーザ動作度M_n(t)を、式(7)によって算出する。
Such a candidate user can be preferentially selected as a selected user, so that the service can be provided more effectively and the possibility that advertisement information can be transmitted can be realized. That is, the user stillness S_n (t) is information indicating the degree of interest or information indicating ease of transmission of information regarding the candidate user n.
Note that by changing the value of Sconst, it is possible to adjust the influence of the user stillness S_n (t) on the fitness F_n (t). Increasing Sconst also increases the contribution of user staticity S_n (t).
The user selection /
式(7)における最初の項は、候補ユーザnの位置の前記処理の単位時間の間の移動距離||P_n(t+(1−i)・dt)−P_n(t−i・dt)||を、直近のm個の時刻においてそれぞれ算出し、それを加算した値であり、単位時間m個分の間の累積移動距離を求めるものである。mは、例えば前記処理のリフレッシュレートが30回/secの場合、m=60とすれば、候補ユーザnの2秒間の移動距離を累積して求めた値となる。 The first term in the equation (7) is a movement distance || P_n (t + (1-i) · dt) −P_n (t−i · dt) || Are calculated at the latest m times and added to each other, and the cumulative movement distance for m unit times is obtained. For example, when the refresh rate of the process is 30 times / sec and m = 60, m is a value obtained by accumulating the moving distance of candidate user n for 2 seconds.
2番目の項は、候補ユーザnの現在の頭部位置と、前記処理の単位時間m個分前の時刻での頭部位置の間の距離を求めるものであり、単位時間m個分の間に移動した直線距離を求めるものである。以上より、ユーザ動作度M_n(t)は、最初の項で計算した候補ユーザnの累積移動距離から、2番目の項で計算した直線移動距離を減じた値である。この値が意味するのは、下記の通りである。 The second term is to obtain the distance between the current head position of the candidate user n and the head position at a time m units before the processing, and between m unit times The straight line distance moved to is obtained. As described above, the user operation degree M_n (t) is a value obtained by subtracting the linear moving distance calculated in the second term from the cumulative moving distance of the candidate user n calculated in the first term. This value means the following:
例えば候補ユーザnが頭部を左右に揺り動かしている場合、候補ユーザnの位置は平均的に見るとほぼ静止しているが、頭部の移動距離は大きくなる。よって、最初の項の累積移動距離は大きくなり、2番目の項の直線移動距離は小さくなり、結果としてユーザ動作度M_n(t)の値は大きくなる。一方、例えば候補ユーザnが該運動視差再現映像提示システムの前を通り過ぎていく場合を考えると、最初の項の累積移動距離も2番目の項の直線移動距離もほぼ等しい値となり、結果としてユーザ動作度M_n(t)の値は小さくなる。このことから、ユーザ動作度M_n(t)は、候補ユーザnがどれだけ頭部を動かしているかを示す値となり、かつ単に該運動視差再現映像提示システムの前を通り過ぎたために頭部の移動が大きかった場合を除外することができる。なお、(最初の項の累積移動距離)≧(2番目の項の直線移動距離)が常に成り立つため、ユーザ動作度M_n(t)≧0が常に成り立っている。 For example, when candidate user n swings his / her head from side to side, the position of candidate user n is almost stationary when viewed on average, but the moving distance of the head increases. Accordingly, the cumulative movement distance of the first term is increased, the linear movement distance of the second term is decreased, and as a result, the value of the user operation degree M_n (t) is increased. On the other hand, for example, when the candidate user n passes in front of the motion parallax reproduction video presentation system, the cumulative movement distance of the first term and the linear movement distance of the second term are substantially equal, and as a result, the user The value of the operation degree M_n (t) becomes small. From this, the user operation level M_n (t) is a value indicating how much the candidate user n is moving the head, and the movement of the head is merely passed in front of the motion parallax reproduction video presentation system. Cases that are large can be excluded. Note that (cumulative movement distance of the first term) ≧ (linear movement distance of the second term) always holds, and therefore the user operation degree M_n (t) ≧ 0 always holds.
適合度F_n(t)を算出する式(1)において、ユーザ動作度M_n(t)は、括弧の中にMconst×M_n(t)という項として挿入されている。この項は、ユーザ動作度M_n(t)が大きいほど大きくなる。すなわち、候補ユーザnが頭部を動かしている量が大きいほど、適合度F_n(t)の値は大きくなり、該候補ユーザは被選択ユーザとして選ばれ易くなる。 In the equation (1) for calculating the fitness F_n (t), the user behavior M_n (t) is inserted as a term Mconst × M_n (t) in parentheses. This term increases as the user operation level M_n (t) increases. That is, the greater the amount that candidate user n moves his / her head, the greater the value of fitness F_n (t), making it easier for the candidate user to be selected as the selected user.
本発明が扱っている運動視差再現映像提示システムは、頭部位置に応じて適切にディスプレイ6に出力する画像を生成するものであるため、これを見るユーザは、頭を動かしたときの見え方の変化を楽しんだり、頭を動かして表示された物体等を様々な方向から見ようとしたりする、という行動を取ることが想像される。ここから、ある候補ユーザnがまだ被選択ユーザに選ばれていなくても、該候補ユーザnが、既に被選択ユーザに選ばれて広告を見ている別のユーザが頭を動かしている行動を見て、どのように見えるのかと自分も頭を動かしてみるという状況が考えられる。これはすなわち、該候補ユーザnが、該運動視差再現映像提示システムに興味を持っているということを示す。すなわち、ユーザ動作度M_n(t)は、候補ユーザnについての、興味の度合いを示す情報を示す情報である。
The motion parallax reproduction video presentation system dealt with by the present invention generates an image to be appropriately output to the
適合度F_n(t)における、ユーザ動作度M_n(t)に関する項は、このように該運動視差再現映像提示システムに興味を持っていると思われる候補ユーザnを優先して被選択ユーザとして選択することでより効果的にサービスを提供でき、広告情報の伝達効率を高めることができる、という効果を実現できる。なお、Mconstの値を変えることで、ユーザ動作度M_n(t)が適合度F_n(t)に与える影響を調節することができる。Mconstを大きくすればユーザ動作度M_n(t)の寄与も大きくなる。 In terms of the fitness F_n (t), the term relating to the user behavior M_n (t) is selected as a selected user with priority given to the candidate user n who seems to be interested in the motion parallax reproduction video presentation system. By doing so, it is possible to provide an effect that the service can be provided more effectively and the transmission efficiency of the advertisement information can be increased. Note that by changing the value of Mconst, it is possible to adjust the influence of the user operation level M_n (t) on the fitness level F_n (t). Increasing Mconst also increases the contribution of user operability M_n (t).
適合度F_n(t)を算出する式(1)において、候補ユーザnの現在の待ち時間W_nは、括弧の中にWconst×W_nという項として挿入されている。この項は、現在の待ち時間W_nが大きいほど大きくなる。すなわち、現在の待ち時間W_nが大きな候補ユーザnほど、適合度F_n(t)の値は大きくなり、該候補ユーザは被選択ユーザとして選ばれ易くなる。現在の待ち時間W_nが大きいということは、候補ユーザnが、該運動視差再現映像提示システムの近くに長い間留まっているということを意味する。これは、該運動視差再現映像提示システムに興味を持っている可能性が考えられる。すなわち、現在の待ち時間W_nは、候補ユーザnについての、興味の度合いを示す情報である。
このように、適合度F_n(t)における、現在の待ち時間W_nに関する項は、該運動視差再現映像提示システムに興味を持っていると思われる候補ユーザnを優先して被選択ユーザとして選択することでより効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。
In Expression (1) for calculating the fitness F_n (t), the current waiting time W_n of the candidate user n is inserted as a term Wconst × W_n in parentheses. This term increases as the current waiting time W_n increases. That is, as the candidate user n has a larger current waiting time W_n, the value of the fitness F_n (t) increases, and the candidate user is easily selected as the selected user. When the current waiting time W_n is large, it means that the candidate user n stays in the vicinity of the motion parallax reproduction video presentation system for a long time. This may be an interest in the motion parallax reproduction video presentation system. That is, the current waiting time W_n is information indicating the degree of interest regarding the candidate user n.
Thus, the term regarding the current waiting time W_n in the fitness F_n (t) preferentially selects the candidate user n who seems to be interested in the motion parallax reproduction video presentation system as the selected user. Thus, it is possible to provide an effect that the service can be provided more effectively and the possibility that the advertisement information is transmitted can be increased.
さらに、より長時間待っている候補ユーザを優先することになるため、選択されるユーザが偏るのを避け、公平にサービスを提供でき、より多くのユーザに広告情報を伝達することができるという効果も実現できる。なお、Wconstの値を変えることで、現在の待ち時間W_nが適合度F_n(t)に与える影響を調節することができる。Wconstを大きくすれば現在の待ち時間W_nの寄与も大きくなる。 Furthermore, since priority is given to candidate users who have been waiting for a longer time, it is possible to avoid biasing selected users, provide services fairly, and to transmit advertising information to more users Can also be realized. Note that by changing the value of Wconst, the influence of the current waiting time W_n on the fitness F_n (t) can be adjusted. Increasing Wconst also increases the contribution of the current waiting time W_n.
適合度F_n(t)を算出する式(1)において、候補ユーザnの過去選ばれた回数N_nは、括弧の中にNconst×1/(N_n+1)という項として挿入されている。この項は、過去選ばれた回数N_nが大きいほど小さくなる。すなわち、何度も被選択ユーザになった候補ユーザほど、適合度F_n(t)の値は小さくなり、該候補ユーザは被選択ユーザとして選ばれ難くなる。該運動視差再現映像提示システムによってより多くのユーザにサービスを提供するためには、同じ候補ユーザを何度も被選択ユーザに選択してサービスを提供することは避け、一度も選択されていない候補ユーザを優先するほうが望ましい。また、仮に過去に選択されたことのある候補ユーザを再度選択する場合も、より過去に選択された回数の少ない候補ユーザを優先して選択するほうが、より多くのユーザにサービスを提供すること、すなわちより公平にサービスを提供することができる。 In the formula (1) for calculating the fitness F_n (t), the number N_n of past selections of the candidate user n is inserted as a term Nconst × 1 / (N_n + 1) in parentheses. This term becomes smaller as the number of times N_n selected in the past is larger. That is, the candidate user who has become the selected user many times has a smaller value of the fitness F_n (t), and the candidate user is less likely to be selected as the selected user. In order to provide a service to a larger number of users using the motion parallax reproduction video presentation system, it is avoided to select the same candidate user as a selected user many times and provide the service, and a candidate that has never been selected. It is better to give priority to users. Also, even when selecting candidate users that have been selected in the past again, it is better to select candidate users with a smaller number of selections in the past in order to provide services to more users. That is, the service can be provided more fairly.
このように、適合度F_n(t)における、過去選ばれた回数N_nに関する項により、過去に選ばれたことのある候補ユーザを再選択しにくく、また過去に選ばれた回数の多い候補ユーザほど再選択しにくくなり、より公平にサービスを提供することができ、より多くのユーザに広告情報を伝達できるという効果を実現できる。なお、Nconstの値を変えることで、過去選ばれた回数N_nが適合度F_n(t)に与える影響を調節することができる。Nconstを大きくすれば、過去選ばれた回数N_nの寄与も大きくなる。 As described above, it is difficult to reselect candidate users who have been selected in the past according to the term related to the number N_n selected in the past in the fitness F_n (t), and the candidate users who have been selected in the past more frequently. It becomes difficult to select again, the service can be provided more evenly, and the effect that advertisement information can be transmitted to more users can be realized. By changing the value of Nconst, it is possible to adjust the influence of the number N_n selected in the past on the fitness F_n (t). If Nconst is increased, the contribution of the number N_n selected in the past also increases.
次に、ユーザ選択・解放処理部15による被選択時間指数R_n(t)の算出方法について第1から第3の3つの例を説明する。第1の例では、ユーザ選択・解放処理部15は、被選択時間指数R_n(t)を、式(8)を用いて算出する。
Next, the first to third examples of the calculation method of the selected time index R_n (t) by the user selection /
これは最も単純な例で、被選択時間指数R_n(t)として予め設定された所定の定数Rconstを用いる。よって、図10のステップS23の処理において、現在の被選択時間T_nがR_n(t)=Rconstを超えると候補ユーザnを被選択状態から解放することになる。すなわち、候補ユーザnが被選択ユーザに選択されてから所定の時間Rconstを越えると、被選択状態から解放されるという処理になる。これにより、どの被選択ユーザに対しても公平に一定の時間の間サービスを提供することができ、より多くのユーザに広告情報を伝達することができるという効果を実現できる。なお、Rconstが大きいほど、候補ユーザnが被選択ユーザから外されにくくなる、すなわちサービス提供時間が長くなる。
第2の例では、ユーザ選択・解放処理部15は、被選択時間指数R_n(t)を、式(9)を用いて算出する。
This is the simplest example, and uses a predetermined constant Rconst preset as the selected time index R_n (t). Therefore, in the process of step S23 of FIG. 10, if the current selected time T_n exceeds R_n (t) = Rconst, the candidate user n is released from the selected state. That is, when the predetermined time Rconst is exceeded after the candidate user n is selected by the selected user, the selected user n is released from the selected state. Thereby, it is possible to provide the service to any selected user fairly for a certain period of time, and to realize the effect that the advertising information can be transmitted to more users. In addition, as Rconst is larger, the candidate user n is less likely to be removed from the selected user, that is, the service providing time is longer.
In the second example, the user selection /
式(9)の第1項は、式(8)と同じ所定の定数Rconstである。この定数により実現される効果も前記と同様である。
式(9)の第2項において、t−T_nは候補ユーザnが被選択ユーザとなった時点の時刻であり、Dist_n(t−T_n)は、候補ユーザnが被選択ユーザとなった時点でのディスプレイ6との相対距離である。よって、(Dist_n(t)−Dist_n(t−T_n))は、候補ユーザnが被選択ユーザとなった時点の時刻から現在の時刻までに、候補ユーザnがどれだけディスプレイ6に近付いたかの距離をあらわす。
The first term of Equation (9) is the same predetermined constant Rconst as in Equation (8). The effect realized by this constant is the same as described above.
In the second term of Equation (9), t−T_n is the time when candidate user n becomes the selected user, and Dist_n (t−T_n) is the time when candidate user n becomes the selected user. It is a relative distance from the
候補ユーザがディスプレイ6に近付いていればこの第2項の値が大きくなり、ひいては被選択時間指数R_n(t)の値が大きくなり、候補ユーザnが被選択ユーザから解放されにくくなる。逆に候補ユーザがディスプレイ6から遠ざかっていれば、この第2項の値はマイナスになり、ひいては被選択時間指数R_n(t)の値が小さくなり、候補ユーザnが被選択ユーザから外されやすくなる。
If the candidate user is close to the
候補ユーザが被選択ユーザとなった後、ディスプレイ6の映像に興味を持てば、少なくともそれ以上ディスプレイ6から離れることなく映像を見続けるか、あるいはより興味を持てばディスプレイ6に近付いていくものと考えられる。逆に興味が無ければディスプレイ6から離れていくと考えられる。すなわち、ディスプレイ6との距離の当該被選択ユーザが選択されてからの変化を示す情報(第2項)は、興味の度合いを示す情報である。第2項は被選択ユーザのこのような挙動を考慮して、サービスを提供する時間を増減している。
After the candidate user becomes the selected user, if he / she is interested in the video on the
つまり、よりディスプレイ6の映像に興味を持ったと思われる被選択ユーザにはより長時間のサービスを提供し、ディスプレイ6の映像に対する興味がより少ないと思われる被選択ユーザにはより短時間のサービスとすることで、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。なお、Dist_const_rは所定の定数であり、この値を変えることで、第2項が被選択時間指数R_n(t)に与える影響を調節することができる。Dist_const_rを大きくすれば第2項の寄与も大きくなる。
In other words, a longer time service is provided to the selected user who seems to be more interested in the video on the
式(9)の第3項は、ユーザ動作度M_n(t)に所定の定数Mconst_rを乗じた値である。この項は、ユーザ動作度M_n(t)が大きいほど大きくなる。すなわち、候補ユーザnが頭部を動かしている量が大きいほど、被選択時間指数R_n(t)の値は大きくなり、候補ユーザnが被選択ユーザから外されにくくなる。前記と同様、本発明が扱っている運動視差再現映像提示システムは、頭部位置に応じて適切にディスプレイ6に出力する画像を生成するものであるため、これを見るユーザは、頭を動かしたときの見え方の変化を楽しむ、という行動を取ることが想像される。被選択ユーザとなった候補ユーザnの頭部の移動量が大きいということは、該運動視差再現映像提示システムに興味を持って能動的に映像を見ている状況であると考えられる。
The third term of Equation (9) is a value obtained by multiplying the user operation degree M_n (t) by a predetermined constant Mconst_r. This term increases as the user operation level M_n (t) increases. That is, the larger the amount that the candidate user n moves his / her head, the greater the value of the selected time index R_n (t), and the more difficult the candidate user n is removed from the selected user. As described above, since the motion parallax reproduction video presentation system handled by the present invention generates an image to be output to the
被選択時間指数R_n(t)における、ユーザ動作度M_n(t)に関する項は、このように該運動視差再現映像提示システムに興味を持っていると思われる候補ユーザnに対して、より長時間サービスを提供することで、より効果的にサービスを提供でき、広告情報が伝達される可能性を高めることができる、という効果を実現できる。なお、Mconst_rの値を変えることで、ユーザ動作度M_n(t)が被選択時間指数R_n(t)に与える影響を調節することができる。Mconstを大きくすればユーザ動作度M_n(t)の寄与も大きくなる。 In the selected time index R_n (t), the term related to the user activity M_n (t) is longer for the candidate user n who seems to be interested in the motion parallax reproduction video presentation system. By providing the service, it is possible to provide an effect that the service can be provided more effectively and the possibility that the advertisement information is transmitted can be increased. Note that by changing the value of Mconst_r, it is possible to adjust the influence of the user operation degree M_n (t) on the selected time index R_n (t). Increasing Mconst also increases the contribution of user operability M_n (t).
式(9)の第4項は、候補ユーザnの過去選ばれた回数N_nについて、1/(N_n+1)に所定の定数Nconst_rを乗じた値である。この項は、過去選ばれた回数N_nが大きいほど小さくなる。すなわち、過去に何度も被選択ユーザになったことのある候補ユーザほど、被選択時間指数R_n(t)の値は小さくなり、候補ユーザnが被選択ユーザから解放され易くなる。被選択ユーザとして選ばれるのが2度目、3度目...となる候補ユーザに対しては、サービスの提供時間を1度目よりも短くし、その結果としてその他の候補ユーザにサービスを提供する機会や時間を長くするほうが、満遍なく多くのユーザにサービスを提供するという観点からは望ましい。 The fourth term of Equation (9) is a value obtained by multiplying 1 / (N_n + 1) by a predetermined constant Nconst_r for the number N_n of past selections of candidate user n. This term becomes smaller as the number of times N_n selected in the past is larger. That is, as the candidate user who has become the selected user many times in the past, the value of the selected time index R_n (t) becomes smaller, and the candidate user n is more easily released from the selected user. The second time and the third time to be selected as the selected user. . . For the candidate users who will be, the service provision time will be shortened from the first time, and as a result, the opportunity and time to provide the service to other candidate users will be extended to provide the services to many users uniformly. It is desirable from the viewpoint.
このように、被選択時間指数R_n(t)における、過去選ばれた回数N_nに関する項は、過去に選ばれた回数の多い候補ユーザほどサービス提供時間を短くすることで、サービス提供時間を平均化でき、より公平にサービスを提供できる、という効果を実現できる。さらにその結果として他の候補ユーザへのサービスの提供の機会を増やして、より多くのユーザに満遍なく広告情報を伝達することができる、という効果を実現できる。なお、Nconst_rの値を変えることで、過去選ばれた回数N_nが被選択時間指数R_n(t)に与える影響を調節することができる。Nconst_rを大きくすれば過去選ばれた回数N_nの寄与も大きくなる。 As described above, in the selected time index R_n (t), the term related to the number N_n selected in the past is such that the service providing time is averaged by shortening the service providing time for candidate users with a large number of past selections. Can be achieved and the service can be provided more evenly. Furthermore, as a result, it is possible to increase the opportunities for providing services to other candidate users, and to realize the effect that the advertising information can be uniformly transmitted to more users. Note that by changing the value of Nconst_r, the influence of the number N_n selected in the past on the selected time index R_n (t) can be adjusted. Increasing Nconst_r also increases the contribution of the number N_n selected in the past.
第3の例では、ユーザ選択・解放処理部15は、被選択時間指数R_n(t)を、式(10)を用いて算出する。
In the third example, the user selection /
この式(10)は、式(9)に、さらにユーザ正対度C_n(t)とサービスエリア適合度A_n(t)を乗じたものである。ユーザ正対度C_n(t)とサービスエリア適合度A_n(t)の値は式(2)または式(4)より、最大1、最小0である。よってユーザ正対度C_n(t)とサービスエリア適合度A_n(t)が最大値を取っている場合、すなわち被選択ユーザがディスプレイ6の方向にまっすぐ向いており、ディスプレイ6の正面に位置している場合は、式(10)の値は式(9)と等しくなる。一方、ユーザ正対度C_n(t)あるいはサービスエリア適合度A_n(t)の値が小さくなる場合、例えば、被選択ユーザがディスプレイ6以外の方向を向いてしまった場合や、被選択ユーザがディスプレイ6を見ることができない位置に移動してしまった場合は、被選択時間指数R_n(t)の値は小さくなる、すなわちサービスを提供する時間が短くなる。
This equation (10) is obtained by multiplying equation (9) by the user confrontation degree C_n (t) and the service area suitability A_n (t). The values of the user facing degree C_n (t) and the service area suitability A_n (t) are 1 at the maximum and 0 at the minimum according to the expression (2) or the expression (4). Therefore, when the user confrontation degree C_n (t) and the service area conformity degree A_n (t) are the maximum values, that is, the selected user is facing straight toward the
式(10)においては、被選択時間指数R_n(t)は、所定の定数Rconst以下にもなり得るし、0にもなり得る。これは、ユーザ正対度C_n(t)については、候補ユーザnがディスプレイ6が目に入る向きを向いていなければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができず、またサービスエリア適合度A_n(t)については、候補ユーザnがディスプレイ6が見える位置に居なければ、その他の条件がいかなるものであろうとも、候補ユーザnがディスプレイ6に出力された映像を見ることができないため、いくらサービスを提供しても無駄である。また、そのような位置に非選択ユーザが移動したということは、ディスプレイ6の映像に興味を失った場合も考えられる。以上の理由により、短時間でサービス提供を止めても問題が無い。その結果として、他の候補ユーザへのサービスの機会を増やすことができ、つまりはより多くのユーザに満遍なくサービスを提供し、より多くのユーザに広告情報を伝達することができる、という効果を実現できる。
上記の適合度F_n(t)および被選択時間指数R_n(t)の計算において、ユーザ正対度C_n(t)の算出例として式(2)を挙げたが、その他の例も考えられる。その一例として式(11)を挙げる。
In equation (10), the selected time index R_n (t) can be less than or equal to a predetermined constant Rconst and can be zero. This is because the candidate user n outputs to the
In the calculation of the fitness F_n (t) and the selected time index R_n (t), the formula (2) is given as an example of calculating the user confrontation degree C_n (t), but other examples are also conceivable. As an example, the following formula (11) is given.
これは、式(2)で算出したC_n(t)の値をさらに一定時間kの間平均を取った値である。この値C’_n(t)を、適合度F_n(t)および被選択時間指数R_n(t)の式においてC_n(t)の代わりに用いることができる。人間の頭部の向きを変える動作は、比較的頻度が高く行われると考えられる。よって、ある時刻における頭部の向きの情報だけを用いるのではなく、一定時間の平均値を用いることで、候補ユーザが短時間余所見をしたために被選択ユーザに選ばれなかった、というような現象が発生するのを防ぐことができる。 This is a value obtained by averaging the values of C_n (t) calculated by the equation (2) for a certain time k. This value C′_n (t) can be used in place of C_n (t) in the formula of the fitness F_n (t) and the selected time index R_n (t). It is considered that the operation of changing the direction of the human head is performed relatively frequently. Therefore, instead of using only the head orientation information at a certain time, a phenomenon that the candidate user was not selected as the selected user due to a short-term observation by using the average value over a certain period of time Can be prevented.
このように、本実施形態におけるユーザ選択・解放処理部15は、ユーザ情報検出部12が検出したユーザの状態に基づき、ユーザの選択と解放を繰り返すことで、被選択ユーザを順次変更する。このため、本実施形態におけるディスプレイ6のように同時に有限の数のユーザにしか情報提示を行えない情報提示部を用いて、不特定多数のユーザに情報提示を行う情報提示装置(運動視差再現映像生成装置10)は、このユーザ選択・解放処理部15を備えることで、より多くのユーザに対して情報を提示することができるという効果が得られる。さらに、ユーザを選択する際に、式(1)に示す適合度F_n(t)を用いることで、またユーザを解放する際に、式(8)から式(10)に示す被選択時間指数R_n(t)を用いることで、より多くのユーザに対して情報を提示することができるとともに、情報が伝達される可能性を高くすることができるという効果が得られる。
As described above, the user selection /
なお、本実施形態では、適合度F_n(t)を算出する際のパラメータとして、ユーザ正対度C_n(t)、サービスエリア適合度A_n(t)、相対距離Dist_n(t)、ユーザ静止度S_n(t)、ユーザ動作度M_n(t)、現在の待ち時間W_n、過去選ばれた回数N_nを用いるとして説明したが、例えば、サービスエリア適合度のみを用いるなど、これらのうち一部を用いて算出するようにしてもよい。 In the present embodiment, as parameters for calculating the fitness F_n (t), the user confrontation C_n (t), the service area fitness A_n (t), the relative distance Dist_n (t), and the user stillness S_n (T), user operation level M_n (t), current waiting time W_n, and the number N_n selected in the past have been used. For example, only the service area suitability level is used, and some of them are used. You may make it calculate.
また、本実施形態では、被選択時間指数R_n(t)を算出する際のパラメータとして式(10)においては、ユーザ正対度C_n(t)、サービスエリア適合度A_n(t)、候補ユーザnが被選択ユーザとなった時点の時刻から現在の時刻までにどれだけディスプレイに近付いたかの距離(Dist_n(t)−Dist_n(t−T_n))、ユーザ動作度M_n(t)、過去選ばれた回数N_nを用いるとして説明したが、例えば式(8)又は式(9)に示したように、これらのうち一部を用いて算出するようにしてもよい。 In the present embodiment, as parameters for calculating the selected time index R_n (t), in equation (10), the user confrontation degree C_n (t), the service area suitability A_n (t), and the candidate user n The distance (Dist_n (t) −Dist_n (t−T_n)), the user operation degree M_n (t), and the number of past selections from the time when the user becomes the selected user to the current time Although it has been described that N_n is used, for example, as shown in Expression (8) or Expression (9), calculation may be performed using a part of these.
図3に示した運動視差再現映像生成装置10における、その他のブロックの説明を続ける。ユーザ情報検出部12は、前記の通り、カメラ7、カメラ8、距離測定カメラ9で取得した画像情報及び距離情報と、カメラ関連情報保存部11に保存された情報と、ユーザ情報記録部13に記録された情報から、複数の候補ユーザの頭部の位置および向きを、それぞれ算出する処理を行うと共に、各候補ユーザの過去の頭部の位置および向きの情報と現在の情報を照らし合わせ、同一候補ユーザの情報を特定してユーザ情報記録部13に記録する。
The description of other blocks in the motion parallax reproduction
図15は、ユーザ情報検出部12の構成を示す概略ブロック図である。ユーザ情報検出部12は、ユーザ位置・向き算出部19、ユーザ3次元情報生成部20、ユーザ情報照合部21から成る。ユーザ位置・向き算出部19は、カメラ関連情報保存部11に保持されたカメラ7の画角、ディスプレイ6に対するカメラ7の取り付け位置や向きの情報、カメラ8の画角、ディスプレイ6に対するカメラ8の取り付け位置や向きの情報と、カメラ7およびカメラ8による映像情報を用いて、各候補ユーザの頭部の向きと位置の情報を算出する。
FIG. 15 is a schematic block diagram illustrating the configuration of the user
ユーザ3次元情報生成部20は、カメラ関連情報保存部11に保持された、距離測定カメラ9の画角、ディスプレイ6に対する距離測定カメラ9の取り付け位置や向きの情報と、距離測定カメラ9で撮影された距離画像から、候補ユーザを含む空間の3次元情報を生成し、そこから候補ユーザの頭部位置が存在すると推定される1つ以上の領域を特定し、そこから各候補ユーザの頭部位置を算出する。ユーザ情報照合部21は、ユーザ3次元情報生成部20で得られた各候補ユーザの頭部位置の情報と、ユーザ位置・向き算出部19で得られた頭部向きと位置の情報を統合して重複を削除する処理と、その統合された候補ユーザの頭部の向きと位置の情報と、ユーザ情報記録部13に記録されている過去の情報を照合し、該統合された候補ユーザの頭部の向きと位置の情報が、過去の記録にあるどの候補ユーザの情報かを特定し、現在の情報を過去の情報に統合してユーザ情報記録部13に記録する。
The user three-dimensional
図16は、ユーザ位置・向き算出部19の動作を説明するフローチャートである。まず、ユーザ位置・向き算出部19は、カメラ7あるいはカメラ8から入力された画像から、顔が写っている可能性のある領域を絞り込むため、肌色の領域を抽出する(S31)。次に、ユーザ位置・向き算出部19は、抽出された肌色の領域に対して顔領域の抽出処理を行う(S32)。これにはテンプレートマッチングを用いることができる。次に、ユーザ位置・向き算出部19は、顔の向きを推定する(S33)。例えば、顔領域からさらに目の領域を特定し、顔領域における目の位置や左右の目の大きさの違いから、顔の向きを検出することができる。
FIG. 16 is a flowchart for explaining the operation of the user position /
最後に、ユーザ位置・向き算出部19は、ディスプレイ6に相対的なユーザの顔位置の座標を推定する(S34)。これは、顔がカメラから遠いほど小さく写ることから、画像における顔領域の位置や大きさと、カメラ関連情報保存部11に記録されたカメラ7の画角、ディスプレイ6に対するカメラ7の取り付け位置や向きの情報、カメラ8の画角、ディスプレイ6に対するカメラ8の取り付け位置や向きの情報を用いて算出することができる。この時、画像中に複数の候補ユーザの顔が存在する場合はそれら全てに関して各々顔の向き推定と顔位置推定を行う。また、これらの処理をカメラ7およびカメラ8による各映像情報全てに対して行う。
Finally, the user position /
なお、この処理においては、顔位置推定値として具体的に顔のどの位置の座標を求めるかを決めなければならないが、例えば、左右の目の中央の位置を求めればよい。また、前記の処理によって、ある候補ユーザの顔が複数のカメラ7あるいはカメラ8に撮影され、それぞれ別々に顔の向き推定と顔位置推定を行われる、すなわちある候補ユーザに関して複数の顔の向き推定値と顔位置推定値が存在する可能性がある。これについては、後で説明するユーザ情報照合部21の処理において、重複を解消する処理を行う。
In this process, it is necessary to determine the position of the face to be specifically determined as the face position estimation value. For example, the center position of the left and right eyes may be determined. Further, by the above processing, a face of a candidate user is photographed by a plurality of
図17は、ユーザ3次元情報生成部20の動作を説明するフローチャートである。まず、ユーザ3次元情報生成部20は、各距離測定カメラ9で得られた距離情報を空間に逆投影し、それぞれシルエット情報を作成する(S41)。次に、ユーザ3次元情報生成部20は、それらのシルエット情報を統合して、1つのシルエット情報を作成する(S42)。次に、ユーザ3次元情報生成部20は、該シルエット情報から床上50cm以下の領域の情報を削除する(S43)。次に、ユーザ3次元情報生成部20は、該シルエット情報を所定の大きさのブロックに分割しクラスタリングを行う(S44)。この時、各クラスタ間のユークリッド平方距離の中の最小値が所定の閾値を上回ったところでクラスタリングを終了する。この処理によりブロックは、いくつかの領域へとクラスタリングされる。次に、ユーザ3次元情報生成部20は、クラスタごとに上部から24cmより下のシルエットを削除する(S45)。最後に、ユーザ3次元情報生成部20は、各クラスタの重心位置を算出し(S46)、これを各候補ユーザの頭部中心位置とする。
FIG. 17 is a flowchart for explaining the operation of the user three-dimensional
ユーザ3次元情報生成部20の動作のより詳細な説明を、図18から図26を用いて行う。図18は、天井に設置された距離測定カメラ91、距離測定カメラ92、距離測定カメラ93が、地面に2人の候補ユーザが立っているシーンを撮影している様子を横から見た図である。以下、説明を簡単にするため、図における奥行き方向の情報を省略し、図中左下に示したようにxyの2次元空間において説明を進める。また、距離測定カメラ91、92、93は、図1における距離測定カメラ9の一部である。
A more detailed description of the operation of the user three-dimensional
まず、ユーザ3次元情報生成部20は、距離画像逆投影処理(シルエット作成)(S41)の処理を行う。図19は、距離測定カメラ91によって撮影された距離データを説明する図である。距離測定カメラ91から見て一番手前に位置している物体までの距離情報が取得できるため、ユーザ3次元情報生成部20は、その情報を逆に空間に投影して、図19のようなシルエットの情報を得る。斜線で示した空間が、何らかの物体が存在する可能性のある領域である。このように、人の影になった領域の詳しい情報は分からない。同様にユーザ3次元情報生成部20は、距離測定カメラ92によって撮影された距離データを逆に空間に投影して、図20のようなシルエットの情報を得る。さらに、ユーザ3次元情報生成部20は、距離測定カメラ93によって撮影された距離データを逆に空間に投影して、図21のようなシルエットの情報を得る。このように、3台の距離測定カメラによってそれぞれ異なる3つのシルエット情報が得られる。
First, the user three-dimensional
次に、ユーザ3次元情報生成部20は、シルエットの統合(S42)の処理を行う。すなわち、ユーザ3次元情報生成部20は、ステップS41で得た3つのシルエット情報の共通領域を抽出することで、図22に示すように、シルエット情報を統合したものを得る。図18の元のシーンと比較すると、細部で違いは有るものの、2人の候補ユーザの存在する領域が概ね正しくシルエットとして求められていることがわかる。すなわち、図18から図20に示した、個々の距離測定カメラによるシルエット情報では人の影になって分からなかった領域が、それらを統合することによって互いに補い合って、図22のようにより正確なシルエット情報が得られる。なお、ここでは距離測定カメラ9が3台設置されている場合を例としたため、3台の距離測定カメラ91、92、93から得られた3つのシルエット情報を統合したが、距離測定カメラ9の台数が多い場合は、その台数分シルエット情報を作成し、それらを全て1つに統合すればよい。
Next, the user three-dimensional
次に、ユーザ3次元情報生成部20は、図23に示すように、統合したシルエットから床上50cm以下の領域のシルエットを削除(S43)する。これは、床自体の距離情報や床付近に荷物等が置かれていた場合の影響を除外し、人間の体の領域のみを取り出して処理するためである。なお、ここでは、予め設定された値として、50cmを用いているが、これのみに限る値ではなく、他の値であってもよい。
Next, as shown in FIG. 23, the user three-dimensional
次に、ユーザ3次元情報生成部20は、クラスタリング(S44)の処理を行う。すなわち、ユーザ3次元情報生成部20は、まず空間を所定の大きさのブロックに分割する。例えば、1辺5cmの立方体に分割する。図24にその様子を示す。次に、ユーザ3次元情報生成部20は、各ブロックのうち、シルエットを含む全てのブロックに対し、該ブロックの中心の座標を用いて、クラスタリングを行う。クラスタリングあるいはクラスタ解析とは、データ解析手法の1つであり、与えられたデータを自動的に分類する手法として一般的に用いられているものである。この手法を上記のようなブロック群に対して適用すると、距離の近いブロック同士を結びつけていくつかのクラスタに分類する、すなわち、シルエットを各個人ごとに分割することが可能である。
Next, the user three-dimensional
クラスタリングには大きく分けて、データの分類が階層的になされる階層型手法と、特定のクラスタ数に分類する非階層的手法とがある。今回の場合は、シルエットに何名の候補ユーザが含まれているかが不明であることから、特定のクラスタ数に分類する非階層的手法は適用がしにくい。よって、前者の階層型手法を用いるのがより簡単である。階層型のクラスタリング手法の中には、詳細にはいくつかの方法があるが、例えば重心法、メディアン法、ウォード法といった手法を適用することができる。 Clustering is broadly divided into a hierarchical method in which data is classified hierarchically and a non-hierarchical method in which data is classified into a specific number of clusters. In this case, since it is unclear how many candidate users are included in the silhouette, it is difficult to apply the non-hierarchical method of classifying into a specific number of clusters. Therefore, it is easier to use the former hierarchical method. Among hierarchical clustering methods, there are several methods in detail. For example, methods such as a centroid method, a median method, and a Ward method can be applied.
また、人間は通常ほぼ体が垂直に近い状態の姿勢でいると仮定した場合、各ブロックの座標のうち、高さ方向のyの値はブロックの分類に寄与しない、言い換えればあるブロックがyの値の違いによって属するクラスタが変わることが無い、ということがわかる。よって、yの値は使用せず、その他の方向の座標値のみでクラスタリングしてもよい。 Also, assuming that the human body is usually in a posture that is almost vertical, the y value in the height direction of the coordinates of each block does not contribute to the block classification, in other words, a certain block has y It can be seen that the cluster to which the value belongs does not change due to the difference in value. Therefore, clustering may be performed using only the coordinate values in other directions without using the y value.
また、人と人とはある程度の距離をおいて位置している、すなわち、人の頭部中心位置同士が例えば40cm以下の近さになることはほとんど無い。よって、クラスタリングの操作において、クラスタの重心間のユークリッド平方距離をクラスタ同士の全ての組み合わせで算出し、その中の最小値が所定の閾値(例えば40cm)を上回ったところでクラスタリングを終了する。この時に残っているクラスタ数が現在の候補ユーザの数であり、各クラスタが、各候補ユーザ別のシルエットであるとする。図25にその様子を模式図で示す。シルエットは縦縞の領域P1と横縞の領域P2の2つのクラスタに分割されている。よって候補ユーザ数は2名であり、2つのクラスタP1、P2が、各候補ユーザのシルエットをあらわしている。 In addition, the person and the person are located at a certain distance, that is, the person's head center positions are rarely close to, for example, 40 cm or less. Therefore, in the clustering operation, the Euclidean square distance between the centroids of the clusters is calculated for all combinations of the clusters, and the clustering is terminated when the minimum value among them exceeds a predetermined threshold (for example, 40 cm). The number of clusters remaining at this time is the current number of candidate users, and each cluster is a silhouette for each candidate user. FIG. 25 is a schematic diagram showing the situation. The silhouette is divided into two clusters, a vertically striped region P1 and a horizontally striped region P2. Therefore, the number of candidate users is two, and the two clusters P1 and P2 represent the silhouettes of the candidate users.
次に、ユーザ3次元情報生成部20は、クラスタごとに上部から24cmより下のシルエットを削除(S45)する。すなわち、図26に示すように、図25のクラスタP1、P2ごとに上部から24cmまでの領域のシルエットP1a、P2aに対応するブロックを残し、それより下のブロックを削除する。これは、各クラスタにおいて頭部の領域のみを抽出するためである。人間の頭部の縦方向の長さ(全頭高)は平均して24cm程度であるため、この長さを用いる。この処理により、各候補ユーザの頭部領域のみが抽出され各クラスタに残る。
Next, the user three-dimensional
最後に、ユーザ3次元情報生成部20は、各クラスタの重心位置算出(S46)の処理を行う。すなわち、図26の各クラスタP1a、P2aにおいて、クラスタに属する全ブロックの重心位置G1、G2を求める。これにより、各候補ユーザの頭部の中心座標が算出される。図26に黒丸G1、G2で示してあるのが、各候補ユーザの頭部の中心位置である。なお、カメラ関連情報保存部11に保存されている距離測定カメラ9の画角、ディスプレイ6に対する距離測定カメラ9の取り付け位置や向きの情報を用いることで、各候補ユーザの頭部の中心位置は、ディスプレイ6に相対的な値として求める。
Finally, the user three-dimensional
以上では、ユーザ3次元情報生成部20における処理の手順を、説明を簡単にするため、図における奥行き方向の情報を省略し、図18の左下に示したようにxyの2次元空間において説明を行った。実際には、同様の処理をxyzの3次元空間において行うのは言うまでもない。その際、前記クラスタリング(S44)の処理の説明において、yの値は使用せずxの値のみでクラスタリングしてもよいと記したが、3次元の場合で同様の処理を行うには、y方向が高さ方向だとして、yの値は使用せずx、zの値のみを用いてクラスタリングすればよい。
In the above, in order to simplify the explanation of the processing procedure in the user three-dimensional
次に、ユーザ情報照合部21における処理を説明する。ユーザ情報照合部21は、図27に示すように、現在の情報の統合処理(S51)と、過去の情報との統合処理(S52)の、大きく分けて2つの処理を行う。
まず現在の情報の統合処理(S51)の詳細を説明する。ここでは、カメラ7およびカメラ8の合計の台数をl台、そのうちi番目のカメラに関してユーザ位置・向き算出部19で検出された候補ユーザの顔の向き推定値と顔位置推定値の数がm人分、そのうちj番目の候補ユーザの顔位置推定値をPijとする。なおPijは3次元の座標値である。一方、ユーザ3次元情報生成部20によって検出された候補ユーザの数をn人、そのうちk番目の候補ユーザの頭部の中心位置をCkとする。Ckも3次元の座標値である。
Next, the process in the user
First, details of the current information integration process (S51) will be described. Here, the total number of
ステップS51では、ユーザ3次元情報生成部20によって検出されたk番目の候補ユーザに関して、ユーザ情報照合部21は、図28に示す統合処理を行う。これは、ユーザ位置・向き算出部19における手法とユーザ3次元情報生成部20における手法の、2つの異なる手法で求められた、候補ユーザの顔位置推定値Pijと候補ユーザの頭部の中心位置Ckの値に対し、同一の候補ユーザに関する値を探して対応付けるための処理である。
In step S51, for the kth candidate user detected by the user three-dimensional
まず、ユーザ情報照合部21は、全てのi、jの組み合わせにおいて、||Pij−Ck||、すなわちi番目のカメラにおいて検出されたj番目の候補ユーザの顔位置推定値Pijとk番目の候補ユーザの頭部の中心位置Ckとの距離を求める(S61)。
次に、ユーザ情報照合部21は、||Pij−Ck||<Tとなるi、jの組を集める(S62)。で、ここでTは所定の閾値であり、例えば12cmという値を用いる。前記の通り、顔位置推定値として具体的には、例えば左右の目の中央の位置を求める。この場合、頭部中心位置と顔位置推定値は頭部の半径程度のずれがある。人間の頭部の半径は平均して約8cmであるので、検出誤差を勘案して12cm程度の閾値で判定すれば、k番目の候補ユーザの頭部の中心位置Ckに近い、i番目のカメラにおいて検出されたj番目の候補ユーザの顔位置推定値Pijを正しく選び出すことができると期待される。
First, the user
Next, the user
次に、ユーザ情報照合部21は、2つ以上のi、jの組が集まったかどうかを判定する(S63)。これは、ユーザ3次元情報生成部20によって検出されたk番目の候補ユーザを、ユーザ位置・向き算出部19において複数のカメラが撮影してそれぞれ顔位置推定値Pijを求めている可能性が考えられ、その結果として複数のi、jの組が集まることがあるためである。
Next, the user
ステップS63にて、2つ以上のi、jの組が集まった場合は、ユーザ情報照合部21は、集まった各i、jの組に対して、カメラiの向きを表す単位ベクトルと候補ユーザjの顔の向きを表す単位ベクトルとの内積を計算する(S64)。これは、集まった複数のi、jの組の中から最も信頼性が高いと期待される組を選び出すために、候補ユーザができるだけカメラに正対している状況で推定されたデータを選択するためである。なぜなら、候補ユーザができるだけカメラに正対している状況の方が、カメラは顔を正面からゆがみ無く撮影できるため、推定精度が高いと期待される。候補ユーザがどれだけカメラに正対しているかは、カメラiの向きを表す単位ベクトルと候補ユーザjの顔の向きを表す単位ベクトルとの内積から判定できる。完全に正対している場合は、カメラiの向きを表す単位ベクトルと候補ユーザjの顔の向きを表す単位ベクトルとは正反対の向きであり、その内積は−1になる。それに比べて顔の方向がずれる場合は、内積は−1より大きな値になる。
よって、ユーザ情報照合部21は、内積が最も−1に近いi、jの組を、k番目の候補ユーザに対応する組と決定する(S65)。
When two or more pairs of i and j are collected in step S63, the user
Therefore, the user
一方、ステップS63において2つ以上のi、jの組が分類されていなかった場合は、ユーザ情報照合部21は、さらに、1つのi、jの組が分類されたかを判定する(S66)。
この判定の結果、1つのi、jの組が分類されていた場合は、ユーザ情報照合部21は、該1つのi、jの組をk番目の候補ユーザに対応する組と決定する(S67)。
一方、ステップS66の判定の結果、1つもi、jの組が分類されていなかった場合は、ユーザ情報照合部21は、k番目の候補ユーザに対応する組は無しと決定する(S68)。これは、ユーザ3次元情報生成部20で検出されたk番目の候補ユーザが、ユーザ位置・向き算出部19での処理においてカメラ7あるいはカメラ8のいずれからも撮影される位置に居なかった、などの場合が考えられる。
対応するi、jの組が決まった候補ユーザkに関しては、該i番目のカメラによって推定された該j番目の候補ユーザの頭部位置及び頭部向きを、該候補ユーザkの頭部位置および頭部の向きと対応付ける。
以上の処理を、ユーザ3次元情報生成部20によって検出された全ての候補ユーザに関して実行する。
On the other hand, when two or more pairs of i and j are not classified in step S63, the user
If the result of this determination is that one i, j pair has been classified, the user
On the other hand, as a result of the determination in step S66, if no combination of i and j is classified, the user
For the candidate user k for which the corresponding i, j pair is determined, the head position and head direction of the j-th candidate user estimated by the i-th camera are represented by the head position of the candidate user k and Match with head orientation.
The above process is executed for all candidate users detected by the user three-dimensional
次に、ユーザ情報照合部21による過去の情報との統合処理(S52)の詳細を説明する。ユーザ情報照合部21による統合処理のフローを図29に示す。まず、ユーザ情報照合部21は、ユーザ情報記録部13に過去の情報があるかを判定する(S71)。この判定の結果、過去の情報が存在する場合は、ユーザ情報照合部21は、現在の情報の統合処理(S51)で作成した現在の情報と、ユーザ情報記録部13に記録されている過去の情報との統合および情報を更新する処理を行う(S72)。そのより詳細な処理については後述する。一方、ステップS71の判定の結果、ユーザ情報記録部13に過去の情報が無かった場合は、ユーザ情報照合部21は、現在の情報の統合処理(S51)で作成した現在の情報を新規の情報として記録する(S73)。通常、過去の情報が無いのは、システムが動き出した直後の1回のみである。
Next, details of integration processing (S52) with past information by the user
さらに、情報更新処理(S72)について、より詳細に説明する。現在の情報の統合処理(S51)における候補ユーザのIDはユーザ情報記録部13に記録されている過去の情報と統合されていないため、この説明では暫定候補ユーザと呼ぶ。この暫定候補ユーザnの頭部位置をPn、頭部の向きをDnとする。ステップS72では、現在の情報の統合処理(S51)で作成した現在すなわち時刻tにおける暫定候補ユーザnの情報と、ユーザ情報記録部13に記録されている時刻t’における候補ユーザmの情報に対して、ユーザ情報照合部21は、図30に示す情報更新処理を行う。これは、時刻t’と時刻tでは候補ユーザが移動して位置が異なることがあるため、その違いを考慮しながら、時刻t’における候補ユーザと時刻tにおける暫定候補ユーザの対応関係を求める処理である。
Further, the information update process (S72) will be described in more detail. Since the candidate user ID in the current information integration process (S51) is not integrated with past information recorded in the user
まず、ユーザ情報照合部21は、全てのm、nの組み合わせにおいて||P_m(t’)−Pn||を計算する(S81)。次に、ユーザ情報照合部21は、各mに関して、||P_m(t’)−Pn||<T2となるnを探す(S82)。ここでT2は所定の閾値である。この値は、人間の頭部の通常想定される移動速度と、本システムが候補ユーザの情報を1秒間に何回取得するか(処理のリフレッシュレート)を目安に決定することができる。
First, the user
例えば、人間の頭部の移動速度を最大120cm/sec、処理のリフレッシュレートを30回/secと仮定する。この時、処理の単位時間はt−t’=1/30=33.33msecであり、該処理の単位時間当たりの人間の頭部の最大移動量は、120/30=4cmとなる。そこで、例えばT2=4cmと設定すれば、||P_m(t’)−Pn||<T2が成り立つP_m(t’)とPnは、同一の候補ユーザに関するデータである可能性が高い。また、T2=4cmならば、頭部の直径約16cmに比べて十分に小さい値であり、近傍の別の候補ユーザのデータと間違って認識する可能性は低い。 For example, it is assumed that the moving speed of the human head is a maximum of 120 cm / sec and the processing refresh rate is 30 times / sec. At this time, the unit time of the process is t−t ′ = 1/30 = 33.33 msec, and the maximum movement amount of the human head per unit time of the process is 120/30 = 4 cm. Therefore, for example, if T2 = 4 cm, P_m (t ′) and Pn satisfying || P_m (t ′) − Pn || <T2 are highly likely to be data relating to the same candidate user. If T2 = 4 cm, the value is sufficiently smaller than the head diameter of about 16 cm, and the possibility of erroneously recognizing data of another candidate user in the vicinity is low.
なお、このことは逆に言えば、ある程度速いリフレッシュレートでなければ、近傍の別の候補ユーザのデータと誤る可能性があることを示す。例えば処理のリフレッシュレートが5回/secの場合は、処理の単位時間当たりの人間の頭部の最大移動量は、120/5=24cmとなる。これは人間の頭部の直径約16cmより大きな値であり、誤りが発生する可能性が高いことが分かる。 In other words, this means that there is a possibility that the data may be mistaken as data of another candidate user in the vicinity unless the refresh rate is fast to some extent. For example, when the processing refresh rate is 5 times / sec, the maximum movement amount of the human head per unit time of processing is 120/5 = 24 cm. This is a value larger than the diameter of the human head of about 16 cm, and it can be seen that there is a high possibility that an error will occur.
次に、ユーザ情報照合部21は、ステップS82の処理において各mに対して条件に合致するnが存在したかを判定する(S83)。この判定の結果、存在した場合は、ユーザ情報照合部21は、そのmとnの組に関して、暫定候補ユーザnを候補ユーザmと同一人物として対応付ける(S84)。続いて、ユーザ情報照合部21は、ユーザ情報記録部13に対しP_m(t)=Pn、D_m(t)=Dnと記録する(S85)。すなわち対応付けが判明したデータを、過去のデータに関連付け、その最新のデータとして記録する。さらに、ユーザ情報照合部21は、T_mとW_mを更新する(S86)。具体的には、T_mについては、T_m=0の時は何もせず、T_m≠0の時にはT_mにT_m+(t−t’)を上書きする。W_mについても同様に、W_m=0の時は何もせず、W_m≠0の時にはW_mにW_m+(t−t’)を上書きする。
Next, the user
一方、ステップS83の判定の結果、各mにおいて条件に合致するnが存在しなかった場合は、ユーザ情報照合部21は、それらの候補ユーザm全てに関して、情報をユーザ情報記録部13から削除する(S87)。これは、候補ユーザがシステムの検出範囲外に出てしまい、情報が得られなくなった場合に発生する。ステップS86又はステップS87の処理が終わった後は、時刻tにおけるデータで時刻t’におけるいずれのデータとも対応付けされなかった物はあるかを判定する(S88)。言い換えれば、各暫定候補ユーザnの中で、候補ユーザmのいずれとも対応付けされなかった暫定候補ユーザnが存在するかどうかを判定する。
On the other hand, as a result of the determination in step S83, if n that matches the condition does not exist in each m, the user
このステップS88の条件を満たす暫定候補ユーザnが存在した場合は、すなわち過去のデータに存在しない新たな候補ユーザであることを示しているので、ユーザ情報照合部21は、該暫定候補ユーザnの情報を、新規候補ユーザとしてユーザ情報記録部13に追加して記録する(S89)。具体的には、図4に示したユーザ情報記録部13に記録するデータにおいて、候補ユーザIDリストに新規ID番号を追加し、そのID番号に関連する情報(T_n、W_n、N_n、時刻リスト及びその下位の情報)を記録する。この時、T_n=0、W_n=t−t’、N_n=0と初期値を代入する。なお、この条件を満たす暫定候補ユーザが複数存在した場合は、その全てを新規候補ユーザとして追加して記録する。
If there is a provisional candidate user n that satisfies the condition of step S88, that is, it indicates a new candidate user that does not exist in the past data, the user
図3に戻って、映像生成部16は、ユーザ選択・解放処理部15から送られてきた現在の被選択ユーザに関する情報と、ディスプレイ関連情報保存部17に保存されたディスプレイ6の表示部分の大きさ、解像度の情報と、三次元CGモデルデータ保存部18に保存された三次元CGを表示するためのモデルデータとそれらのモデルの仮想的な配置の情報を用いて、被選択ユーザの視点位置から見た画像を合成し、ディスプレイ6に出力する。
Returning to FIG. 3, the
ディスプレイ6に出力する映像は、画面全体に運動視差再現映像を提示しても良いし、あるいは図31に示すように、画面中の一部分である運動視差再現映像領域22には運動視差再現映像を提示し、それ以外の通常映像領域23では、通常の映像、すなわち被選択ユーザの頭部位置によらない映像を提示するようにしても良い。後者の場合、運動視差再現映像領域22に表示された映像は被選択ユーザにしか適切には見えず、それ以外のユーザにとっては見にくいが、通常映像領域23に表示された映像は、誰にでも普通に見える。よって、例えば運動視差再現映像領域22に広告したい物品を運動視差映像処理を使って提示し、通常映像領域23には該物品の説明文を表示するようにすれば、少なくとも該物品の説明文は誰でも読むことができ、かつ被選択ユーザは該物品を様々な方向から見ることが可能となる。
The video output to the
また、画面を左右の2つの領域に分割し、それぞれ1人ずつ、合計2名のユーザに対して運動視差再現映像を提供する場合の表示の例を図32を用いて説明する。図32は、ディスプレイ6の前に被選択ユーザ51と被選択ユーザ52の2名の被選択ユーザがいる状況を表す。この時、ディスプレイ6の画面を2つの領域に分割し、それぞれ部分表示領域24と部分表示領域25とする。部分表示領域24には、被選択ユーザ51の頭部位置に応じて生成した映像を提示し、部分表示領域25には、被選択ユーザ52の頭部位置に応じた映像を提示する。このようにすることで、同時に2名の被選択ユーザに運動視差再現映像を用いた広告を見せることが可能である。さらに、3分割、4分割、…と分割数を増やして、より多くの被選択ユーザに同時に運動視差再現映像を用いた広告を見せることは可能であるが、分割数を増やすと1名あたりの表示領域が小さくなり見にくくなるため、ディスプレイ6の大きさや表示内容等を考慮して適宜分割数を決める必要がある。
In addition, an example of display when the screen is divided into two left and right regions and motion parallax reproduction images are provided to a total of two users, one each, will be described with reference to FIG. FIG. 32 shows a situation where there are two selected users of the selected
第1の実施の形態において画面を2つの領域に分割して最大で2名のユーザに対して運動視差再現映像を提供可能な運動視差再現映像提示システム、すなわち第1の実施の形態において最大選択可能人数Max=2である運動視差再現映像提示システムを例として、時間の経過に従って被選択ユーザが変わっていく場合に、具体的にどのように表示を行うかの例を説明する。図33は、図32に示した画面を2つの領域に分割可能なディスプレイと、A、B、Cの3つの視点位置を示したものであり、図34はそれを上から見た図である。これに対し、ある時刻t1、t2、t3、t4、t5(ただしt1<t2<t3<t4<t5)における被選択ユーザが次のように変化したとする。 Motion parallax reproduction video presentation system capable of providing motion parallax reproduction video to two users at maximum by dividing the screen into two areas in the first embodiment, that is, maximum selection in the first embodiment A specific example of how display is performed when the selected user changes with the passage of time will be described by taking as an example a motion parallax reproduction video presentation system in which the possible number Max = 2. FIG. 33 shows a display that can divide the screen shown in FIG. 32 into two areas, and three viewpoint positions A, B, and C, and FIG. 34 is a view from above. . On the other hand, it is assumed that the selected user at certain times t1, t2, t3, t4, and t5 (where t1 <t2 <t3 <t4 <t5) changes as follows.
(1)時刻t1:位置A、B、Cのいずれにも被選択ユーザはいない。
(2)時刻t2:位置Bに被選択ユーザU1が来た。
(3)時刻t3:位置Bに被選択ユーザU1がそのままいる。位置Aに被選択ユーザU2が新たに来た。
(4)時刻t4:位置Bに被選択ユーザU1がそのままいる。位置Aにいた被選択ユーザU2は去った。
(5)時刻t5:位置Bに被選択ユーザU1がそのままいる。位置Cに被選択ユーザU3が新たに来た。
(1) Time t1: There is no selected user at any of positions A, B, and C.
(2) Time t2: Selected user U1 comes to position B.
(3) Time t3: The selected user U1 remains at the position B. The selected user U2 has newly arrived at the position A.
(4) Time t4: The selected user U1 remains at the position B. The selected user U2 who was at position A has left.
(5) Time t5: The selected user U1 remains at the position B. The selected user U3 has newly arrived at position C.
この場合、各時刻における表示は、例えば以下のように行う。
(1)時刻t1:被選択ユーザ数Uは0。誰も被選択ユーザがいないので、運動視差再現映像の提示は行わない。例えば運動視差再現を行わない通常の広告映像を流しておく。
(2)時刻t2:被選択ユーザ数Uは1。よって画面の分割は行わず、画面全体に位置Bにいる被選択ユーザU1に向けた運動視差再現映像を提示する。
(3)時刻t3:被選択ユーザ数Uは2。よって画面を2つの領域に分割し、時刻t2において位置Bにいる被選択ユーザU1に見せていた映像は縮小あるいはトリミングして部分表示領域25に移動させる。部分表示領域24には位置Aにいる被選択ユーザU2に向けた運動視差再現映像の提示を開始する。これは、図34において左側から順に、Aの位置に被選択ユーザU2、Bの位置に被選択ユーザU1と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU2に向けた映像を、部分領域25に被選択ユーザU1に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
In this case, the display at each time is performed as follows, for example.
(1) Time t1: The number U of selected users is 0. Since no user is selected, the motion parallax reproduction video is not presented. For example, a normal advertisement video that does not reproduce motion parallax is played.
(2) Time t2: The number U of selected users is 1. Therefore, the screen is not divided, and the motion parallax reproduction video directed to the selected user U1 at the position B is presented on the entire screen.
(3) Time t3: The number of selected users U is 2. Therefore, the screen is divided into two areas, and the video shown to the selected user U1 at position B at time t2 is reduced or trimmed and moved to the
(4)時刻t4:被選択ユーザ数Uは1。位置Aにいた被選択ユーザU2は去ったので、部分表示領域24に提示していた運動視差再現映像は表示を停止する。時刻t3において位置Bにいる被選択ユーザU1に向けて部分表示領域25に提示していた運動視差再現映像は、画面全体に表示領域を広げて表示する。
(5)時刻t5:被選択ユーザ数Uは2。よって再び画面を2つの領域に分割し、時刻t4において位置Bにいる被選択ユーザU1に画面全体を用いて見せていた映像は縮小あるいはトリミングして部分表示領域24に移動させる。部分表示領域25には新たに位置Cに来た被選択ユーザU3に向けた運動視差再現映像の提示を開始する。これは、図34において左側から順に、Bの位置に被選択ユーザU1、Cの位置に被選択ユーザU3と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU1に向けた映像を、部分領域25に被選択ユーザU3に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
(4) Time t4: The number U of selected users is 1. Since the selected user U2 at the position A has left, the display of the motion parallax reproduction video presented in the
(5) Time t5: The number of selected users U is 2. Therefore, the screen is divided again into two areas, and the video shown to the selected user U1 at position B using the entire screen at time t4 is reduced or trimmed and moved to the
このように、各時刻における被選択ユーザの数や位置に応じて、運動視差再現映像を表示する数や位置を変えて表示する。上記の例では、被選択ユーザU1はいずれの時刻においても常に位置Bに居るが、その他の被選択ユーザの存在やその位置によって、各時刻において画面全体、部分表示領域25、画面全体、部分領域24というように変化することになる。
In this way, the number and position of displaying the motion parallax reproduction video are changed and displayed according to the number and position of the selected users at each time. In the above example, the selected user U1 is always at the position B at any time, but depending on the presence and position of other selected users, the entire screen, the
なお、上記の実施の形態においては、簡単のため、ディスプレイに表示する映像は三次元CGモデルを用いて生成することとしたが、実写映像に対して適用することも可能である。例えば、あらかじめ多数のカメラを並べて配置したカメラアレイにより多数の映像を撮影して保存しておき、被選択ユーザの視点位置に応じて適切な映像を選び出しそれを表示するようにすればよい。あるいは、多視点画像と多視点距離画像から三次元画像データを生成し、そのデータを用いて任意の視点位置から見た映像を生成するようにしてもよい。 In the above embodiment, for the sake of simplicity, the video displayed on the display is generated using the three-dimensional CG model, but it can also be applied to a live-action video. For example, a large number of videos may be captured and stored by a camera array in which a large number of cameras are arranged in advance, and an appropriate video may be selected according to the viewpoint position of the selected user and displayed. Alternatively, three-dimensional image data may be generated from a multi-viewpoint image and a multi-viewpoint distance image, and a video viewed from an arbitrary viewpoint position may be generated using the data.
[第2の実施形態]
本発明の第2の実施形態は、第1の実施の形態と同じく運動視差再現映像提示システムであり、ハードウェア構成も第1の実施の形態と同じく図1および図2に示されるものである。異なるのは、運動視差再現映像生成装置10における処理であり、図3に示した第1の実施の形態におけるユーザ選択・解放処理部15が、第2の実施形態では、図35のようにユーザ選択処理部26(ユーザ選択部)に変わる。すなわちユーザ選択処理部26では、ユーザ選択・解放処理部15にはあった解放処理は行わない。図35において図3の各部に対応する部分には、同一の符号(6〜14、16〜18)を付け、その説明を省略する。
[Second Embodiment]
The second embodiment of the present invention is a motion parallax reproduction video presentation system similar to the first embodiment, and the hardware configuration is also shown in FIGS. 1 and 2 as in the first embodiment. . The difference is the processing in the motion parallax reproduction
ユーザ選択処理部26における処理の詳細を図36に示す。これは第1の実施の形態におけるユーザ選択・解放処理部15における処理(図8)に対応するものである。まず、ユーザ選択処理部26は、被選択ユーザの選択処理(S91)を行う。その詳細は後で説明する。次に、ユーザ選択処理部26は、選択後所定の閾値T3秒が経過したかどうかを判定する(S92)。経過した場合は処理の先頭に戻り、ユーザ選択処理部26は、再び被選択ユーザの選択処理(S91)を実行する。すなわち、予め設定された所定の時間T3秒ごとに、被選択ユーザを選びなおす処理を行う。ステップS92においてまだT3秒の時間が経過していなかった場合は、ユーザ選択処理部26は、被選択ユーザ位置情報送信処理(S93)を行う。これは、ユーザ情報記録部13に記録されている候補ユーザの情報においてT_n≠0であるユーザ、すなわち被選択ユーザ全てに関して、その位置情報P_n(t)を映像生成部16に送ると共に、現在の被選択ユーザの数Uを映像生成部16に送る処理である。
Details of processing in the user
ユーザ選択処理部26による被選択ユーザの選択処理(S91)の詳細を図37に示す。これは第1の実施形態における被選択ユーザ追加処理(S2)の詳細(図9)に対応するものであり、その処理は似ている。よって説明の分かりやすさのため、図37において、図9と対応する処理の符号は下一桁の番号を図9と合わせたものとし、図37に対応する処理が無い場合はその符号を用いていない。まず、ユーザ選択処理部26は、全候補ユーザに関して適合度F_n(t)を算出する(S102)。ここで、適合度F_n(t)は第1の実施形態で説明したものと同一であり、その算出方法も同一のため、詳細な説明は省略する。
Details of the selection process (S91) of the selected user by the user
次に、ユーザ選択処理部26は、F_n(t)<Fconstである候補ユーザを除外する(S103)。これは、適合度が予め設定された所定の閾値Fconst以下、すなわち被選択ユーザとして相応しくない候補ユーザを被選択ユーザとすることを避け、不要なサービスを行わないことを目的とする処理である。ステップS103の処理で残った候補ユーザの数をkとする。次に、ユーザ選択処理部26は、k>0であるか否かを判定する(S104)。この判定の結果、k>0でない場合、すなわちNoの場合は、ユーザ選択処理部26は、そのまま処理を終了する。
Next, the user
また、ステップS104の判定の結果、k>0である場合、すなわちYesの場合は、ユーザ選択処理部26は、k≧Maxであるか否かを判定する(S105)。この判定の結果、k≧Maxである場合、すなわちYesの場合、ユーザ選択処理部26は、適合度F_n(t)の値の大きな順にMax名の候補ユーザを選択し被選択ユーザとする処理を行う(S106)。より具体的には、ユーザ選択処理部26は、ユーザ情報記録部13に記録されている候補ユーザの情報において、適合度F_n(t)の値の大きな順にMax名の候補ユーザに関するデータに対して、W_n=0、N_n=N_n+1という処理を行う。これはそれぞれ、選択待ち状態から脱したので現在の待ち時間W_nを0にする、選択されたのでN_nに1を加える、ということを意味している。以上で、ユーザ選択処理部26は、処理を終了する。
Further, as a result of the determination in step S104, if k> 0, that is, if Yes, the user
一方、ステップS105の判定の結果、k≧Maxでない場合、すなわちNoであった場合は、ユーザ選択処理部26は、残った候補ユーザk名全員を被選択ユーザとする(S108)。より具体的には、ステップS106における処理と同様に、ユーザ選択処理部26は、ユーザ情報記録部13に記録されている候補ユーザの情報において、残った追加処理対象ユーザk名に関するデータに対して、W_n=0、N_n=N_n+1という処理を行う。その意味もステップS106と同様である。以上で、ユーザ選択処理部26は、処理を終了する。
On the other hand, if k ≧ Max is not satisfied as a result of the determination in step S105, that is, if No, the user
以上のように、所定の時間T3秒が経過するたびに、被選択ユーザを選びなおすという処理を行うことで、同時に有限の数のユーザにしか情報提示を行えない情報提示システムを用いて不特定多数のユーザに情報提示を行う場合において、より多くのユーザに情報を提示することができるという効果が得られる。さらに、被選択ユーザを選びなおす際に、適合度F_n(t)を指標とすることで、情報が伝達される確率をより高くすることが出来るという効果が得られる。 As described above, every time the predetermined time T3 seconds elapses, the process of reselecting the selected user is performed, so that it is not specified using the information presentation system that can present information only to a finite number of users at the same time. In the case of presenting information to a large number of users, an effect that information can be presented to a larger number of users can be obtained. Furthermore, when the selected user is reselected, by using the fitness F_n (t) as an index, it is possible to increase the probability that information is transmitted.
[第3の実施形態]
上述の第1の実施形態および第2の実施形態では、同時に有限の数のユーザにしか情報提示を行えない情報提示システムとして、運動視差再現映像提示システムを例として説明したが、第3の実施形態では、街頭における広告として一定時間の長さの広告映像(動画)を繰り返し再生する広告表示システムを例として説明する。
[Third Embodiment]
In the first embodiment and the second embodiment described above, a motion parallax reproduction video presentation system has been described as an example of an information presentation system that can present information to only a limited number of users at the same time. In the embodiment, an advertisement display system that repeatedly reproduces an advertisement video (moving image) for a certain length of time as an advertisement on the street will be described as an example.
このような広告表示システムでは、広告映像の再生途中にその場所にやってきて目を止めた人は、その映像再生が終了した後に再度冒頭から広告映像を見て、途中で見始めたところまで見るか、もう一度最後まで見るということになる。この場合、前者では広告映像の後半を見た後に前半を見ることになり、正しい順序で映像を見ていないため、広告映像の内容を理解しにくいという問題があり、後者では、広告映像の後半を見た後に再度広告映像全体を見ることになり、広告映像の内容は理解しやすいが、全部の映像を見るためにより長時間が必要になる。そこで、本実施形態では、映像広告物に近付いて興味を持っていると思われる人を認識し、その人に向けて映像の再生を開始することで、どの人も映像を冒頭から見ることができるようにする。 In such an advertisement display system, a person who came to the place during the playback of the advertisement video and watched it saw the advertisement video from the beginning again after the video playback was finished, and watched until he started watching Or it will be seen again to the end. In this case, the former will see the first half after seeing the second half of the advertising video, and it is difficult to understand the contents of the advertising video because the video is not viewed in the correct order. After viewing the video, the entire advertisement video is viewed again, and the content of the advertisement video is easy to understand, but a longer time is required to view the entire video. Therefore, in this embodiment, by recognizing a person who seems to be interested in the video advertisement, and starting playback of the video toward that person, any person can view the video from the beginning. It can be so.
図38は、本実施形態における広告表示システムのハードウェア構成を示す図である。図1に示した本発明の第1の実施形態のハードウェア構成を説明する図とほぼ同一であるが、図38の広告表示システムは、図1における運動視差再現映像生成装置10が、広告映像再生装置27(情報提示装置)に変わっている点が、図1の運動視差再現映像提示システムと異なる。
図39は、広告映像再生装置27の構成を示す概略ブロック図である。広告映像再生装置27は第1の実施形態における運動視差再現映像生成装置10(図3)に対応するものである。図39における広告映像再生装置27は、映像生成部16が映像再生部28に変わったこと、三次元CGモデルデータ保存部18が映像データ保存部29に変わったこと、ディスプレイ関連情報保存部17が無くなったことが、図3における再現運動視差映像生成装置10と異なる。その他の、図39において図3の各部に対応する部分には、同一の符号(6〜9、11〜15)を付け、その説明を省略する。
FIG. 38 is a diagram illustrating a hardware configuration of the advertisement display system according to the present embodiment. 1 is substantially the same as the hardware configuration of the first embodiment of the present invention shown in FIG. 1, but the advertisement display system in FIG. 38 is configured such that the motion parallax reproduction
FIG. 39 is a schematic block diagram showing the configuration of the advertisement
映像データ保存部29は、広告映像のデータを記憶している。映像再生部28は、ユーザ選択・解放処理部15から送られた被選択ユーザに関する情報を用いて、新たに被選択ユーザに選択されたユーザが居る場合は、映像データ保存部29が記憶している広告映像のデータの再生を開始し、ディスプレイ6に表示する。ユーザ選択・解放処理部15から映像データ保存部29に送る情報は、前記図8における被選択ユーザ情報送信処理(S4)の説明で述べたものと同じく、ユーザ情報記録部13に記録されている候補ユーザの情報においてT_n≠0であるユーザ、すなわち被選択ユーザ全てに関する、該被選択ユーザのIDと、その位置情報P_n(t)と、現在の被選択ユーザの数Uである。
The video
なお、本発明は複数人の被選択ユーザを選択することも可能であるため、例えば映像を提示しているディスプレイを適宜複数の領域に分割してそれぞれ異なるタイミングで映像再生を開始できるようにしたシステムと共に本発明を用いれば、同時に複数の人に対して、それぞれ適切なタイミングで広告映像を提示することも可能となる。例えば、第3の実施形態においてディスプレイ6の画面を2つの領域に分割して最大で2名のユーザに対して広告映像を提供可能なシステム、すなわち第3の実施形態において最大選択可能人数Max=2であるシステムを例として、時間の経過に従って被選択ユーザが変わっていく場合に、具体的にどのように表示を行うかの例を説明する。この説明には、第1の実施の形態における同様の説明と同じく、図33と図34を用いる。これに対し、ある時刻t1、t2、t3、t4、t5(ただしt1<t2<t3<t4<t5)における被選択ユーザが次のように変化したとする。
In addition, since the present invention can also select a plurality of selected users, for example, a display presenting a video can be divided into a plurality of regions as appropriate so that video playback can be started at different timings. By using the present invention together with the system, it becomes possible to simultaneously present advertisement videos to a plurality of people at appropriate timings. For example, in the third embodiment, the screen of the
(1)時刻t1:位置A、B、Cのいずれにも被選択ユーザはいない。
(2)時刻t2:位置Bに被選択ユーザU1が来た。
(3)時刻t3:位置Bに被選択ユーザU1がそのままいる。位置Aに被選択ユーザU2が新たに来た。位置Cにも候補ユーザが来たが、まだ被選択ユーザではない。
(4)時刻t4:位置Bに被選択ユーザU1がそのままいる。位置Aにいた被選択ユーザU2は去った。代わって、位置Cに居た候補ユーザが被選択ユーザU3として選択された。
(5)時刻t5:位置Bいた被選択ユーザU1に対する広告映像の再生が終了し、被選択ユーザU1は被選択ユーザから解放された。位置Cに被選択ユーザU3がそのままいる。
(1) Time t1: There is no selected user at any of positions A, B, and C.
(2) Time t2: Selected user U1 comes to position B.
(3) Time t3: The selected user U1 remains at the position B. The selected user U2 has newly arrived at the position A. A candidate user also came at position C, but is not yet a selected user.
(4) Time t4: The selected user U1 remains at the position B. The selected user U2 who was at position A has left. Instead, the candidate user who was in the position C was selected as the selected user U3.
(5) Time t5: The reproduction of the advertisement video for the selected user U1 who is at the position B is finished, and the selected user U1 is released from the selected user. The selected user U3 remains at the position C.
この場合、各時刻における表示は、例えば以下のように行う。
(1)時刻t1:被選択ユーザ数Uは0。誰も被選択ユーザがいないので、例えば静止画を表示しておく。あるいは、見る人がいなくても広告映像を流しておく。
(2)時刻t2:被選択ユーザ数Uは1。よって画面の分割は行わず、画面全体で位置Bにいる被選択ユーザU1に向けて、広告映像の再生を開始する。
(3)時刻t3:被選択ユーザ数Uは2。よって画面を2つの領域に分割し、時刻t2において位置Bにいる被選択ユーザU1に見せていた広告映像は縮小あるいはトリミングして部分表示領域25に移動させる。この時、広告映像の再生は続けながら、移動を行う。部分表示領域24では、位置Aにいる被選択ユーザU2に向けて広告映像の再生を開始する。これは、図34において左側から順に、Aの位置に被選択ユーザU2、Bの位置に被選択ユーザU1と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU2に向けた映像を、部分領域25に被選択ユーザU1に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
In this case, the display at each time is performed as follows, for example.
(1) Time t1: The number U of selected users is 0. Since no user is selected, for example, a still image is displayed. Or, even if there is no viewer, the advertisement video is played.
(2) Time t2: The number U of selected users is 1. Therefore, the division of the screen is not performed, and the reproduction of the advertisement video is started toward the selected user U1 who is at the position B in the entire screen.
(3) Time t3: The number of selected users U is 2. Therefore, the screen is divided into two areas, and the advertisement video shown to the selected user U1 at position B at time t2 is reduced or trimmed and moved to the
(4)時刻t4:被選択ユーザ数Uは2。位置Aにいた被選択ユーザU2は去ったので、部分表示領域24に提示していた広告映像は、再生途中であったとしても再生を停止する。時刻t3において位置Bにいる被選択ユーザU1に向けて部分表示領域25に提示していた広告映像は、部分表示領域24に移動させる。この時、広告映像の再生は続けながら、移動を行う。部分表示領域25では新たに位置Cに来た被選択ユーザU3に向けて広告映像の再生を開始する。これは、図34において左側から順に、Bの位置に被選択ユーザU1、Cの位置に被選択ユーザU3と位置しているため、画面も左側から順に、部分表示領域24に被選択ユーザU1に向けた映像を、部分領域25に被選択ユーザU3に向けた映像を表示するほうがその逆にするよりも、両方の被選択ユーザにとって見易いためである。
(5)時刻t5:被選択ユーザ数Uは1。時刻t4において位置Cにいる被選択ユーザU3に向けて部分表示領域25に提示していた広告映像は、画面全体に表示領域を広げて表示を継続する。
(4) Time t4: The number of selected users U is 2. Since the selected user U2 at the position A has left, the advertisement video presented in the
(5) Time t5: The number of selected users U is 1. The advertisement video presented in the
このように、各時刻における被選択ユーザの数や位置に応じて、広告映像を表示する数や位置を変えて表示する。上記の例では、被選択ユーザU1、U2、U3のいずれも、広告映像を冒頭から見るということが実現されている。また、被選択ユーザU1はずっとその場に居たため広告映像を最初から最後まで見ることができた。一方、広告映像の再生途中で立ち去った被選択ユーザU2に関しては、再生を即座に停止し、代わりに被選択ユーザU3に対する広告映像の再生を即座に開始している。すなわち、いずれの被選択ユーザに対しても広告映像の冒頭から映像を提示でき、途中から見始めることが無いため、広告の内容を理解しやすく、ひいては情報伝達効率が高いという効果がある。また、途中で立ち去る被選択ユーザへの広告映像の再生はすぐに停止し、別の候補ユーザを選択して広告映像の再生を始めるため、該情報提示システムがユーザ全体に対するトータルでの情報伝達量をより多くすること、あるいは情報伝達効率をより高くすることができるという効果がある。 In this way, the number and position of the advertisement video are changed and displayed according to the number and position of the selected users at each time. In the above example, it is realized that all of the selected users U1, U2, U3 see the advertisement video from the beginning. Further, since the selected user U1 was always there, the advertisement video could be viewed from the beginning to the end. On the other hand, regarding the selected user U2 who left in the middle of the reproduction of the advertisement video, the reproduction is immediately stopped, and instead, the reproduction of the advertisement video for the selected user U3 is immediately started. In other words, since the video can be presented to any selected user from the beginning of the advertising video and does not start to be seen from the middle, the content of the advertisement is easy to understand, and the information transmission efficiency is high. In addition, since the reproduction of the advertisement video to the selected user who leaves on the way stops immediately, and the information presentation system selects the other candidate user and starts the reproduction of the advertisement video, the information presenting system can transmit the total amount of information to the entire user. There is an effect that it is possible to increase the amount of information or to increase the information transmission efficiency.
なお、この第3の実施の形態は、運動視差再現映像提示システムではないため、ユーザが頭を左右に動かしてそれによる見え方の変化を楽しむという状況は発生しない。よって、適合度F_n(t)を算出する式1において、ユーザ動作度M_n(t)に関する項は削除してもよい。あるいは、人垣の後ろのほうから広告を見ようとしている動作が反映されているとも考えられるので、ユーザ動作度M_n(t)に関する項を残しておいても良い。
In addition, since this 3rd Embodiment is not a motion parallax reproduction image presentation system, the situation where a user enjoys the change of appearance by moving a head to the left and right does not generate | occur | produce. Therefore, in
[第4の実施形態]
本発明の第4の実施形態では、同時に有限の数のユーザにしか情報提示を行えない情報提示システムとして、美術館や博物館などで、展示物に関する一定時間の長さの音声ガイドを繰り返し流す音声ガイドシステムを例として説明する。音声ガイドが繰り返し流されていると、音声ガイドの途中にその場所にやってきた見学者は、それが終了した後再度冒頭から聞き、途中で聞き始めたところまで聞くか、もう一度最後まで聞くということになる。この場合、前者では正しい順序で説明を聞いていないため、理解がしにくいという問題があり、後者では、全部の説明を聞くためにより長時間が必要になる。そこで、本実施形態では、展示物に近付いて興味を持っていると思われる見学者を認識し、その見学者に向けて音声ガイドの再生を開始することで、どの見学者も音声ガイドを冒頭から聞くことができるようにする。
[Fourth Embodiment]
In the fourth embodiment of the present invention, as an information presentation system capable of presenting information only to a finite number of users at the same time, an audio guide that repeatedly plays an audio guide for a certain length of time in an art museum or a museum. A system will be described as an example. If the voice guide is being played repeatedly, the visitor who came to the location in the middle of the voice guide will hear from the beginning again after it has finished, and will listen to the point where he / she started listening to the middle or to the end again become. In this case, since the former does not listen to the explanation in the correct order, there is a problem that it is difficult to understand. In the latter, a longer time is required to hear the whole explanation. Therefore, in this embodiment, by recognizing a visitor who seems to be close to the exhibition and interested in the tour, and starting playback of the voice guide for that visitor, every visitor starts the voice guide at the beginning. To be able to hear from.
本実施形態における音声ガイドシステムは、超音波を用いて非常に指向性の強い音を出力する超指向性スピーカを、向きを変えることが可能な支持台に搭載し、利用者の移動に追従させて音声の拡声方向を変更する。この音声ガイドシステムは、複数人が存在している場合においてその中からユーザを選択し、該ユーザのみに聞こえるように音声ガイドを提示することが可能である。さらには、この向きを変えることが可能な支持台に搭載した超指向性スピーカを複数用いれば、同時に複数の見学者に対して、それぞれの位置にそれぞれ適切なタイミングで音声ガイドを提示することも可能となる。 The voice guidance system according to the present embodiment is equipped with a super directional speaker that outputs a sound with very strong directivity using ultrasonic waves on a support base that can change the direction, and follows the movement of the user. To change the direction of loud sound. This voice guidance system can select a user from among a plurality of people and present the voice guide so that only the user can hear it. Furthermore, if multiple super directional speakers mounted on a support base that can change the orientation are used, voice guides can be presented to multiple visitors at the same time at appropriate timings. It becomes possible.
本発明の第4の実施形態はこのように、美術館や博物館における音声ガイドとして一定時間の長さの音声情報を繰り返し再生する音声ガイドシステムである。図40は、本実施形態における音声ガイドシステムのハードウェアの構成を示す概念図である。図1に示した本発明の第1の実施形態のハードウェア構成を説明する図とほぼ同一であるが、図40の音声ガイドシステムは、図1におけるディスプレイ6およびカメラ7が無くなったこと、運動視差再現映像生成装置10が音声再生装置31(情報提示装置)に変わったこと、支持台付きスピーカ30(情報提示部)が追加されたことが、図1の運動視差再現映像システムと異なる。なお、音声ガイドシステムを構成する要素ではないが、図40には、音声ガイドの対象となる展示物32も記載されている。また、図40において図1の各部に対応する部分には、同一の符号(5、8、9)を付け、その説明を省略する。
Thus, the fourth embodiment of the present invention is an audio guide system that repeatedly reproduces audio information of a certain length of time as an audio guide in a museum or museum. FIG. 40 is a conceptual diagram showing a hardware configuration of the voice guidance system in the present embodiment. 1 is almost the same as the diagram illustrating the hardware configuration of the first embodiment of the present invention shown in FIG. 1, but the voice guidance system in FIG. 40 has the
本実施形態は、美術館や博物館における展示物に関する音声ガイドシステムであるため、ディスプレイ6は不要である。またディスプレイ6の上に設置していたカメラ7も同時に除外した。前記のようにカメラ7と複数のカメラ8には機能上大きな差異は無く、カメラ7が無くても本システムの動作は可能である。
支持台付きスピーカ30は、超音波を用いて非常に指向性の強い音を出力する超指向性スピーカを、向きを変えることが可能な支持台に搭載したものであり、天井に設置する。向きは外部(音声再生装置31)から制御可能である。図が煩雑になるのを避けるため記入はしていないが、支持台付きスピーカ30は音声再生装置31に接続されている。
Since the present embodiment is an audio guide system related to exhibits in art museums and museums, the
The
また、図40では2台の支持台付きスピーカ30が記載されているが、その台数はこの数に限るものではない。必要に応じてより多くの、あるいは少ない数の支持台付きスピーカ30を設置すればよい。図40のように2台の支持台付きスピーカ30が設置してあり、それぞれが1名の被選択ユーザに音声を提示する場合は、最大2名の被選択ユーザに同時に音声情報を提示することが可能である、すなわち最大選択可能人数Max=2のシステムということになる。ただし、1台の支持台付きスピーカ30で必ずしも1名の被選択ユーザに向けて音声を提示するとは限らない。例えば2台の支持台付きスピーカ30を用いて1名の被選択ユーザに向けて音声を提示する場合や、さらに多くの台数の支持台付きスピーカ30を用いて1名の被選択ユーザに向けて音声を提示する場合もある。支持台付きスピーカ30の位置は固定であるため、被選択ユーザが遠くに居る場合は適切に音声を提示することが難しくなる。よって、様々な位置にある複数台の支持台付きスピーカ30を用いて1名の被選択ユーザに向けて音声を提示するほうが、被選択ユーザがどのような位置にいても対応できるようになる。
In FIG. 40, two
音声再生装置31は、複数のカメラ8、複数の距離測定カメラ9で撮影した画像情報及び距離情報から複数の候補ユーザの位置や向きを検出する処理を行い、複数の候補ユーザの中から1名ないし数名を選択・開放する処理を行い、さらに、選択したユーザの位置に音声を再生するよう、音声データおよび方向制御データを支持台付きスピーカ30に出力する。
なお、音声ガイドが説明を加える展示物は、展示物32として図40に示してある。これは図1におけるディスプレイ6の代わりに設置してあるものであり、ユーザが見る対象物という観点で見るとディスプレイ6に対応するものである。
The
Note that the exhibit to which the audio guide adds explanation is shown in FIG. This is installed in place of the
図41は、音声再生装置31の構成を示す概略ブロック図である。これは第1の実施形態における運動視差再現映像生成装置10(図3)に対応するものである。図3の運動視差映像生成装置10との相違点は、カメラ7からの入力が無くなったこと、映像生成部16が音声再生部33に、ディスプレイ関連情報保存部17がスピーカ関連情報保存部34に三次元CGモデルデータ保存部18が音声データ保存部35に変わったこと、音声生成部33からの出力先が支持台付きスピーカ30に変わったことである。また、システム情報記録部14に記録するデータが、第1の実施形態における説明とは一部異なる。それらについて以下に詳細に説明する。
FIG. 41 is a schematic block diagram showing the configuration of the
システム情報記録部14は、前記第1の実施の形態の説明において図5を用いて説明したのと同様に、最大選択可能人数Max、現在の選択人数U、位置Ps、向きDsを、該音声ガイドシステムに関する情報として記憶する。このうち、位置Ps、向きDsは、前記第1の実施の形態においては、ディスプレイ6に関する位置と向きの情報であり、より具体的には、位置Psは、該運動視差再現映像提示システムのディスプレイ6の画面の中央の座標であり、向きDsは、該運動視差再現映像提示システムのディスプレイ6の画面の向いている方向をあらわすベクトルであり、ディスプレイ6の映像を出力する側を正とした単位法線ベクトルの値を記録したものであった。
As described with reference to FIG. 5 in the description of the first embodiment, the system
第4の実施の形態においてはこれらに代えて、展示物32の位置と向きの情報を、位置Ps及び向きDsとして記録する。その具体的な値の求め方は、展示物の種類によっても異なる。例えば展示物が図画であった場合、例えば位置Psは図画の中央の座標とし、向きDsは図画の面の図が見える方向を正とした単位法線ベクトルとする。また例えば展示物がガラスケースに入った化石等で有った場合、例えば位置Psはガラスケースの正面の面の中央の座標とし、向きDsは該正面の面の、ガラスケースの外側に向けての方向を正とした単位法線ベクトルとする。
In the fourth embodiment, instead of these, information on the position and orientation of the
スピーカ関連情報保存部34は、支持台付きスピーカ30の位置の情報を保持している。支持台付きスピーカ30が複数台ある場合はそれぞれについて情報を保持する。
音声データ保存部35は、展示物32に関する音声ガイドの音声データを記憶する。
音声再生部33は、ユーザ選択・解放処理部15から送られた被選択ユーザに関する情報を用いて、新たに被選択ユーザに選択されたユーザが居るか否かを判定する。この判定の結果、新たに選択された被選択ユーザがいる場合は、音声再生部33は、音声データ保存部35が記憶している音声ガイドの音声データの再生を開始すると共に、その音が該被選択ユーザに聞こえるよう支持台付きスピーカ30の向きを制御する。また被選択ユーザが移動した場合はそれに合わせて支持台付きスピーカ30の向きを制御する。
The speaker related
The voice
The
ユーザ選択・解放処理部15から音声再生部33に送る情報は、前記図8における被選択ユーザ情報送信処理(S4)の説明で述べたものと同じく、ユーザ情報記録部13が記憶している候補ユーザの情報においてT_n≠0であるユーザ、すなわち被選択ユーザ全てに関する、該被選択ユーザのID番号と、その位置情報P_n(t)と、現在の被選択ユーザの数Uである。
The information sent from the user selection /
ここで、第4の実施形態において、支持台付きスピーカ30を2台備え、それぞれが1名の被選択ユーザに向けて音声を提示する音声ガイドシステム、すなわち第4の実施形態において最大選択可能人数Max=2である音声ガイドシステムを例として、時間の経過に従って被選択ユーザが変わっていく場合に、具体的にどのように音声提示を行うかの例を説明する。図42は、2台の支持台付きスピーカ30(支持台付きスピーカ301及び支持台付きスピーカ302)と、展示物32と、A、B、Cの3つの視点位置を示したものであり、図43はそれを上から見た図である。2台の支持台付きスピーカはいずれも、A、B、Cの3つの視点位置のいずれに対しても音声の提示が可能であるとする。これに対し、ある時刻t1、t2、t3、t4、t5(ただしt1<t2<t3<t4<t5)における被選択ユーザが次のように変化したとする。
Here, in the fourth embodiment, a voice guide system that includes two
(1)時刻t1:位置A、B、Cのいずれにも被選択ユーザはいない。
(2)時刻t2:位置Bに被選択ユーザU1が来た。
(3)時刻t3:位置Bに被選択ユーザU1がそのままいる。位置Aに被選択ユーザU2が新たに来た。位置Cにも候補ユーザが来たが、まだ被選択ユーザではない。
(4)時刻t4:位置Bに被選択ユーザU1がそのままいる。位置Aにいた被選択ユーザU2は去った。代わって、位置Cに居た候補ユーザが被選択ユーザU3として選択された。
(5)時刻t5:位置Bいた被選択ユーザU1に対する音声ガイドの再生が終了し、被選択ユーザU1は被選択ユーザから解放された。位置Cに被選択ユーザU3がそのままいる。
この場合、各時刻における音声ガイドの提示は、例えば以下のように行う。
(1) Time t1: There is no selected user at any of positions A, B, and C.
(2) Time t2: Selected user U1 comes to position B.
(3) Time t3: The selected user U1 remains at the position B. The selected user U2 has newly arrived at the position A. A candidate user also came at position C, but is not yet a selected user.
(4) Time t4: The selected user U1 remains at the position B. The selected user U2 who was at position A has left. Instead, the candidate user who was in the position C was selected as the selected user U3.
(5) Time t5: The reproduction of the voice guide for the selected user U1 at the position B is finished, and the selected user U1 is released from the selected user. The selected user U3 remains at the position C.
In this case, presentation of the voice guide at each time is performed as follows, for example.
(1)時刻t1:被選択ユーザ数Uは0。誰も被選択ユーザがいないので、音声ガイドの再生は行われていない。
(2)時刻t2:被選択ユーザ数Uは1。支持台付きスピーカ301を用いて、位置Bにいる被選択ユーザU1に向けて方向を制御し、音声ガイドの再生を開始する。
(3)時刻t3:被選択ユーザ数Uは2。時刻t2において支持台付きスピーカ301を用いて位置Bにいる被選択ユーザU1に聞かせていた音声ガイドはそのまま再生を続ける。それに加えて、支持台付きスピーカ302を用いて、位置Aにいる被選択ユーザU2に向けて方向を制御し、音声ガイドの再生を開始する。
(1) Time t1: The number U of selected users is 0. Since no user is selected, the audio guide is not reproduced.
(2) Time t2: The number U of selected users is 1. Using the
(3) Time t3: The number of selected users U is 2. At time t2, the voice guide that has been sent to the selected user U1 at position B using the
(4)時刻t4:被選択ユーザ数Uは2。時刻t1およびt2において支持台付きスピーカ301を用いて位置Bにいる被選択ユーザU1に聞かせていた音声ガイドはそのまま再生を続ける。位置Aにいた被選択ユーザU2は去ったので、支持台付きスピーカ302を用いて位置Aにいる被選択ユーザU2に聞かせていた音声ガイドは停止する。代わりに、同じく支持台付きスピーカ302を用いて、位置Cにいる被選択ユーザU3に向けて方向を制御し、音声ガイドの再生を開始する。
(5)時刻t5:被選択ユーザ数Uは1。時刻t4において、支持台付きスピーカ302を用いて位置Cにいる被選択ユーザU3に聞かせていた音声ガイドはそのまま再生を続ける。
(4) Time t4: The number of selected users U is 2. At time t1 and t2, the voice guide that has been sent to the selected user U1 at position B using the
(5) Time t5: The number of selected users U is 1. At time t4, the audio guide that has been sent to the selected user U3 at position C using the
このように、各時刻における被選択ユーザの数や位置に応じて、音声ガイドを提示する数や位置を変えて提示する。上記の例では、被選択ユーザU1、U2、U3のいずれも、音声ガイドを冒頭から聞くということが実現されている。また、被選択ユーザU1はずっとその場に居たため音声ガイドを最初から最後まで聞くことができた。一方、音声ガイドの再生途中で立ち去った被選択ユーザU2に関しては、再生を即座に停止し、代わりに被選択ユーザU3に対する音声ガイドの再生を即座に開始している。すなわち、いずれの被選択ユーザに対しても音声ガイドの冒頭から提示でき、途中から聞き始めることが無いため、音声ガイドの内容を理解しやすく、ひいては情報が伝達される確率を高くすることができるという効果がある。また、途中で立ち去る被選択ユーザへの音声ガイドの再生はすぐに停止し、別の候補ユーザを選択して音声ガイドの再生を始めるため、より多くのユーザに情報を提示することができるという効果がある。 Thus, according to the number and position of the selected users at each time, the number and position of the voice guides are changed and presented. In the above example, it is realized that all of the selected users U1, U2, U3 listen to the voice guide from the beginning. Moreover, since the selected user U1 was always there, he was able to listen to the voice guide from the beginning to the end. On the other hand, for the selected user U2 who left in the middle of the reproduction of the voice guide, the reproduction is immediately stopped, and instead, the reproduction of the voice guide for the selected user U3 is immediately started. That is, since it can be presented to the selected user from the beginning of the voice guide and does not begin to be heard in the middle, it is easy to understand the contents of the voice guide, and thus the probability that information is transmitted can be increased. There is an effect. In addition, since the reproduction of the voice guide to the selected user who leaves in the middle stops immediately, and another candidate user is selected and the reproduction of the voice guide is started, information can be presented to more users. There is.
ところで、上記の時刻t3においては、支持台付きスピーカ301が位置Bにいる被選択ユーザU1に向けて音声ガイドを提示し、支持台付きスピーカ302が位置Aにいる被選択ユーザU2に向けて音声ガイドを提示するという状況で、支持台付きスピーカと被選択ユーザの関係が交差するようになってしまっているが、動作上はこれでも問題はない。
なお、この第4の実施形態も、運動視差再現映像提示システムではないため、ユーザが頭を左右に動かしてそれによる見え方の変化を楽しむという状況は発生しない。よって、適合度F_n(t)を算出する式1において、ユーザ動作度M_n(t)に関する項は削除してもよい。あるいは、人垣の後ろのほうから展示物を見ようとしている動作が反映されているとも考えられるので、ユーザ動作度M_n(t)に関する項を残しておいても良い。
By the way, at time t3 described above, the
In addition, since this 4th Embodiment is also not a motion parallax reproduction image presentation system, the situation where a user enjoys the change of appearance by moving a head to the left and right does not generate | occur | produce. Therefore, in
また、図3におけるユーザ情報検出部12、ユーザ選択・解放処理部15、映像生成部16、および図35におけるユーザ情報検出部12、ユーザ選択処理部26、映像生成部16、および図39におけるユーザ情報検出部12、ユーザ選択・解放処理部15、映像生成部28、および図41におけるユーザ情報検出部12、ユーザ選択・解放処理部15、音声再生部33の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
Also, the user
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.
本発明は、運動視差再現映像を用いたデジタルサイネージを行なう運動視差再現映像提示システム、一定時間の長さの広告映像によるデジタルサイネージを行う広告表示システム、展示物に関する一定時間の長さの音声ガイドを繰り返し流す音声ガイドシステムに用いて好適であるが、これらに限定されない。 The present invention relates to a motion parallax reproduction video presentation system that performs digital signage using motion parallax reproduction video, an advertisement display system that performs digital signage using a certain length of advertisement video, and a voice guide of a certain time length related to exhibits However, the present invention is not limited to this.
5…候補ユーザ
6…ディスプレイ
7…カメラ
8…カメラ
9…距離測定カメラ
10…運動視差再現映像生成装置
11…カメラ関連情報保存部
12…ユーザ情報検出部
13…ユーザ情報記録部
14…システム情報記録部
15…ユーザ選択・解放処理部
16…映像生成部
17…ディスプレイ関連情報保存部
18…三次元CGモデルデータ保存部
19…ユーザ位置・向き算出部
20…ユーザ3次元情報生成部
21…ユーザ情報照合部
26…ユーザ選択処理部
27…広告映像再生装置
28…映像再生部
29…映像データ保存部
30…支持台付きスピーカ
31…音声再生装置
33…音声再生部
34…スピーカ関連情報保存部
35…音声データ保存部
DESCRIPTION OF
Claims (13)
前記ユーザの状態を検出するユーザ状態検出部と、
前記ユーザ状態検出部の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更するユーザ選択部と
を備えることを特徴とする情報提示装置。 An information presentation device that presents information to an unspecified number of users using an information presentation unit that can present information only to a finite number of users at the same time,
A user state detector for detecting the state of the user;
An information presentation apparatus comprising: a user selection unit that sequentially changes a user to whom information is presented based on a detection result of the user state detection unit.
を特徴とする請求項1または請求項2に記載の情報提示装置。 The user selection unit is presented with information by the information presenting unit, information indicating the degree of interest in the information presented by the information presenting unit, information indicating the ease of transmission of the information presented by the information presenting unit, and the information presenting unit. And generating at least one of the information indicating the number of times for each user based on the detection result of the user state detection unit, and selecting the target user based on the generated information. The information presentation device according to claim 1 or 2.
を特徴とする請求項2に記載の情報提示装置。 The user selection unit includes information indicating a selected time, information indicating a degree of interest in information presented by the information presentation unit, and information indicating ease of transmission of information presented by the information presentation unit. Generating at least one of the information indicating the number of times the information is presented by the information presenting unit based on the detection result of the user state detecting unit for each selected user, and based on the generated information The information presentation device according to claim 2, wherein a user to be released is determined.
を特徴とする請求項2に記載の情報提示装置。 The information presentation device according to claim 2, wherein the user selection unit releases the selected user when a preset time has elapsed since the selection.
前記情報提示装置が、前記ユーザの状態を検出する第1の過程と、
前記情報提示装置が、前記第1の過程の検出結果に基づき、前記情報提示部が情報を提示する対象のユーザを順次変更する第2の過程と
を備えることを特徴とする情報提示方法。 An information presentation method in an information presentation device that presents information to an unspecified number of users using an information presentation unit that can present information only to a finite number of users at the same time,
A first process in which the information presentation device detects the state of the user;
The information presentation method includes: a second process in which the information presentation unit sequentially changes a target user to present information based on a detection result of the first process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009182619A JP2011033993A (en) | 2009-08-05 | 2009-08-05 | Information presenting apparatus and method for presenting information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009182619A JP2011033993A (en) | 2009-08-05 | 2009-08-05 | Information presenting apparatus and method for presenting information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011033993A true JP2011033993A (en) | 2011-02-17 |
Family
ID=43763104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009182619A Ceased JP2011033993A (en) | 2009-08-05 | 2009-08-05 | Information presenting apparatus and method for presenting information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011033993A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013055683A (en) * | 2012-11-01 | 2013-03-21 | Toshiba Corp | Image processing apparatus and image processing method |
WO2013042324A1 (en) * | 2011-09-22 | 2013-03-28 | パナソニック株式会社 | Sound reproduction device |
JP2013070213A (en) * | 2011-09-22 | 2013-04-18 | Panasonic Corp | Acoustic reproduction apparatus |
JP2015531130A (en) * | 2012-08-16 | 2015-10-29 | アルカテル−ルーセント | A method for supplying information associated with an event to a person |
JP2020141427A (en) * | 2020-06-15 | 2020-09-03 | 日本電気株式会社 | Information processing system, information processing method, and program |
US20210318547A1 (en) * | 2018-06-08 | 2021-10-14 | Magic Leap, Inc. | Augmented reality viewer with automated surface selection placement and content orientation placement |
US11567324B2 (en) | 2017-07-26 | 2023-01-31 | Magic Leap, Inc. | Exit pupil expander |
US11579441B2 (en) | 2018-07-02 | 2023-02-14 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11598651B2 (en) | 2018-07-24 | 2023-03-07 | Magic Leap, Inc. | Temperature dependent calibration of movement detection devices |
US11609645B2 (en) | 2018-08-03 | 2023-03-21 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
US11624929B2 (en) | 2018-07-24 | 2023-04-11 | Magic Leap, Inc. | Viewing device with dust seal integration |
US11630507B2 (en) | 2018-08-02 | 2023-04-18 | Magic Leap, Inc. | Viewing system with interpupillary distance compensation based on head motion |
US11737832B2 (en) | 2019-11-15 | 2023-08-29 | Magic Leap, Inc. | Viewing system for use in a surgical environment |
US11756335B2 (en) | 2015-02-26 | 2023-09-12 | Magic Leap, Inc. | Apparatus for a near-eye display |
US11762222B2 (en) | 2017-12-20 | 2023-09-19 | Magic Leap, Inc. | Insert for augmented reality viewing device |
US11762623B2 (en) | 2019-03-12 | 2023-09-19 | Magic Leap, Inc. | Registration of local content between first and second augmented reality viewers |
US11776509B2 (en) | 2018-03-15 | 2023-10-03 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
US11790554B2 (en) | 2016-12-29 | 2023-10-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
US11874468B2 (en) | 2016-12-30 | 2024-01-16 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US11885871B2 (en) | 2018-05-31 | 2024-01-30 | Magic Leap, Inc. | Radar head pose localization |
US11953653B2 (en) | 2017-12-10 | 2024-04-09 | Magic Leap, Inc. | Anti-reflective coatings on optical waveguides |
US12016719B2 (en) | 2019-08-22 | 2024-06-25 | Magic Leap, Inc. | Patient viewing system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124603A (en) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | Information display device and information collecting device |
JP2001216527A (en) * | 2000-02-04 | 2001-08-10 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for multi-media information space input/output and recording medium with its program recorded thereon |
JP2004294637A (en) * | 2003-03-26 | 2004-10-21 | Canon Inc | Display device and display control method |
JP2007041866A (en) * | 2005-08-03 | 2007-02-15 | Canon Inc | Information processing device, information processing method, and program |
JP2007310620A (en) * | 2006-05-18 | 2007-11-29 | Sony Corp | Information processor, information processing method, and program |
JP2008257216A (en) * | 2007-03-12 | 2008-10-23 | Akira Tomono | Information presentation device for general public |
-
2009
- 2009-08-05 JP JP2009182619A patent/JP2011033993A/en not_active Ceased
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124603A (en) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | Information display device and information collecting device |
JP2001216527A (en) * | 2000-02-04 | 2001-08-10 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for multi-media information space input/output and recording medium with its program recorded thereon |
JP2004294637A (en) * | 2003-03-26 | 2004-10-21 | Canon Inc | Display device and display control method |
JP2007041866A (en) * | 2005-08-03 | 2007-02-15 | Canon Inc | Information processing device, information processing method, and program |
JP2007310620A (en) * | 2006-05-18 | 2007-11-29 | Sony Corp | Information processor, information processing method, and program |
JP2008257216A (en) * | 2007-03-12 | 2008-10-23 | Akira Tomono | Information presentation device for general public |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013042324A1 (en) * | 2011-09-22 | 2013-03-28 | パナソニック株式会社 | Sound reproduction device |
WO2013042326A1 (en) * | 2011-09-22 | 2013-03-28 | パナソニック株式会社 | Sound reproduction device |
WO2013042325A1 (en) * | 2011-09-22 | 2013-03-28 | パナソニック株式会社 | Sound reproduction device |
JP2013070213A (en) * | 2011-09-22 | 2013-04-18 | Panasonic Corp | Acoustic reproduction apparatus |
US8666106B2 (en) | 2011-09-22 | 2014-03-04 | Panasonic Corporation | Sound reproducing device |
JP2015531130A (en) * | 2012-08-16 | 2015-10-29 | アルカテル−ルーセント | A method for supplying information associated with an event to a person |
JP2017126355A (en) * | 2012-08-16 | 2017-07-20 | アルカテル−ルーセント | Method for provisioning person with information associated with event |
JP2013055683A (en) * | 2012-11-01 | 2013-03-21 | Toshiba Corp | Image processing apparatus and image processing method |
US11756335B2 (en) | 2015-02-26 | 2023-09-12 | Magic Leap, Inc. | Apparatus for a near-eye display |
US11790554B2 (en) | 2016-12-29 | 2023-10-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
US11874468B2 (en) | 2016-12-30 | 2024-01-16 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US11927759B2 (en) | 2017-07-26 | 2024-03-12 | Magic Leap, Inc. | Exit pupil expander |
US11567324B2 (en) | 2017-07-26 | 2023-01-31 | Magic Leap, Inc. | Exit pupil expander |
US11953653B2 (en) | 2017-12-10 | 2024-04-09 | Magic Leap, Inc. | Anti-reflective coatings on optical waveguides |
US11762222B2 (en) | 2017-12-20 | 2023-09-19 | Magic Leap, Inc. | Insert for augmented reality viewing device |
US11908434B2 (en) | 2018-03-15 | 2024-02-20 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
US11776509B2 (en) | 2018-03-15 | 2023-10-03 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
US11885871B2 (en) | 2018-05-31 | 2024-01-30 | Magic Leap, Inc. | Radar head pose localization |
US20210318547A1 (en) * | 2018-06-08 | 2021-10-14 | Magic Leap, Inc. | Augmented reality viewer with automated surface selection placement and content orientation placement |
US12001013B2 (en) | 2018-07-02 | 2024-06-04 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11579441B2 (en) | 2018-07-02 | 2023-02-14 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
US11598651B2 (en) | 2018-07-24 | 2023-03-07 | Magic Leap, Inc. | Temperature dependent calibration of movement detection devices |
US11624929B2 (en) | 2018-07-24 | 2023-04-11 | Magic Leap, Inc. | Viewing device with dust seal integration |
US11630507B2 (en) | 2018-08-02 | 2023-04-18 | Magic Leap, Inc. | Viewing system with interpupillary distance compensation based on head motion |
US11609645B2 (en) | 2018-08-03 | 2023-03-21 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
US11960661B2 (en) | 2018-08-03 | 2024-04-16 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
US11762623B2 (en) | 2019-03-12 | 2023-09-19 | Magic Leap, Inc. | Registration of local content between first and second augmented reality viewers |
US12016719B2 (en) | 2019-08-22 | 2024-06-25 | Magic Leap, Inc. | Patient viewing system |
US11737832B2 (en) | 2019-11-15 | 2023-08-29 | Magic Leap, Inc. | Viewing system for use in a surgical environment |
JP2020141427A (en) * | 2020-06-15 | 2020-09-03 | 日本電気株式会社 | Information processing system, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011033993A (en) | Information presenting apparatus and method for presenting information | |
US11217006B2 (en) | Methods and systems for performing 3D simulation based on a 2D video image | |
JP6725038B2 (en) | Information processing apparatus and method, display control apparatus and method, program, and information processing system | |
CN106576184B (en) | Information processing device, display device, information processing method, program, and information processing system | |
US20180143976A1 (en) | Depth Sensing Camera Glasses With Gesture Interface | |
JP6702196B2 (en) | Information processing apparatus, information processing method, and program | |
KR102210541B1 (en) | Method and apparatus for overlaying virtual image and audio data on reproduction of real scenes, and mobile device | |
CN104104862A (en) | Image processing device and image processing method | |
JP6809539B2 (en) | Information processing equipment, information processing methods, and programs | |
CN112581627A (en) | System and apparatus for user-controlled virtual camera for volumetric video | |
JP4517716B2 (en) | Conference recording apparatus, conference recording method, design method, and program | |
JP7100824B2 (en) | Data processing equipment, data processing methods and programs | |
JP2023133397A (en) | Image processing device, image processing method, and image processing system | |
US20180124374A1 (en) | System and Method for Reducing System Requirements for a Virtual Reality 360 Display | |
JP6359704B2 (en) | A method for supplying information associated with an event to a person | |
JP7202935B2 (en) | Attention level calculation device, attention level calculation method, and attention level calculation program | |
WO2009119288A1 (en) | Communication system and communication program | |
JP5818322B2 (en) | Video generation apparatus, video generation method, and computer program | |
US20190281280A1 (en) | Parallax Display using Head-Tracking and Light-Field Display | |
WO2022041182A1 (en) | Method and device for making music recommendation | |
JP2005295181A (en) | Voice information generating apparatus | |
US20230007232A1 (en) | Information processing device and information processing method | |
JP7105380B2 (en) | Information processing system and method | |
JP6450305B2 (en) | Information acquisition apparatus, information acquisition method, and information acquisition program | |
JP2022015647A (en) | Information processing apparatus and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130402 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140325 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20140729 |