JP2012103746A - Method for display control for fascinating viewer, digital signage system, and computer program - Google Patents

Method for display control for fascinating viewer, digital signage system, and computer program Download PDF

Info

Publication number
JP2012103746A
JP2012103746A JP2010248871A JP2010248871A JP2012103746A JP 2012103746 A JP2012103746 A JP 2012103746A JP 2010248871 A JP2010248871 A JP 2010248871A JP 2010248871 A JP2010248871 A JP 2010248871A JP 2012103746 A JP2012103746 A JP 2012103746A
Authority
JP
Japan
Prior art keywords
face
image
display screen
display
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010248871A
Other languages
Japanese (ja)
Inventor
kazuaki Kumakura
和昭 熊倉
Toyotaro Tokimoto
豊太郎 時本
Masamichi Igawa
正道 井川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avix Inc
Original Assignee
Avix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avix Inc filed Critical Avix Inc
Priority to JP2010248871A priority Critical patent/JP2012103746A/en
Publication of JP2012103746A publication Critical patent/JP2012103746A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a novel display technique letting a person nearby a display screen of digital signage approach the screen on getting interested in display while involuntarily thinking of "what is it?".SOLUTION: (1) An image conversion process sets a view point in front of a foreground plane, and generates projection image data obtained by seeing through a background plane behind the foreground plate from the viewpoint. (2) The projection image data includes an image of the background plane after hidden surface removal with the image of the foreground plane. (3) An image display process sequentially displays the projection image data sequentially generated by the image conversion process on the display screen. (4) A face recognition process photographs the face of a person who views the display screen by a camera, and generates face position data corresponding to the interval distance between the display screen and face. (5) The image conversion process sets the view point based upon the face position data when the face recognition process generates the face position data, and generates the projection image data based upon the view point.

Description

この発明は、デジタルサイネージ(電子広告システム)の分野における表示制御技術に関し、とくに、ディスプレイ画面を見る人の関心を惹きつける表示技法に関する。   The present invention relates to a display control technique in the field of digital signage (electronic advertising system), and more particularly to a display technique that attracts the interest of a person who views a display screen.

デジタルサイネージにとっては、店舗や公共の場所において、表示する広告作品を周囲の人々に関心を持って見てもらうことがまず最初の使命であり、そして見た人に好感を持って受け入れられる広告作品であることが望まれる。   For digital signage, the first mission is to have the people in the store or public places see the advertising work to display with interest, and the advertising work that can be accepted with a good impression by the viewer It is desirable that

特開2009−128498号公報「電子広告システム」の発明では、ディスプレイ画面の周辺にいる人の携帯端末がダウンロードした広告概要に基づいて、その概要に対応した広告詳細を表示する。特開2010−176648号「携帯端末とサイネージの連携による情報処理システム及び方法」の発明では、ディスプレイ画面を見ている人の携帯端末からの信号を受信して表示内容を変化させる。   In the invention of Japanese Patent Laid-Open No. 2009-128498 “Electronic Advertising System”, based on an advertisement summary downloaded by a mobile terminal of a person around the display screen, advertisement details corresponding to the summary are displayed. In the invention of Japanese Patent Application Laid-Open No. 2010-176648 “Information Processing System and Method by Cooperation of Mobile Terminal and Signage”, a signal from a mobile terminal of a person watching the display screen is received to change display contents.

特開2010−218489号公報「デジタルサイネージシステム」の発明では、ディスプレイ画面にタッチパネルを付設し、広告表示と、これを見る人のタッチ入力によりアンケートなどを行う。特開2010−113691号公報「行動分析装置及び行動分析方法並びにプログラム」の発明では、広告作品を見る人をディスプレイ画面に付設したカメラで撮影し、その人の特徴と見た広告作品とを紐付けして記録する。   In the invention of “Digital Signage System” in Japanese Patent Application Laid-Open No. 2010-218489, a touch panel is attached to a display screen, and an advertisement is displayed, and a questionnaire or the like is performed by a touch input of a person who views the advertisement. In the invention of Japanese Patent Application Laid-Open No. 2010-111361, “Behavior Analysis Device, Behavior Analysis Method, and Program”, a person viewing an advertisement work is photographed with a camera attached to a display screen, and the characteristics of the person and the advertisement work viewed are linked. And record.

特開2010−113693号「顔画像抽出装置・方法及び電子広告装置並びにプログラム」の発明では、ディスプレイ画面に付設したカメラで画面に顔を向けている人々を撮影し、偶然そこに居合わせただけの人と、関心を持って表示内容を見ている人とを区別して抽出する。   In the invention of Japanese Patent Application Laid-Open No. 2010-111363 “Facial Image Extraction Device / Method and Electronic Advertising Device and Program”, people who faced the screen with a camera attached to the display screen were photographed, and they were there by chance. Extraction is performed by distinguishing people from those who are interested in viewing the displayed content.

たとえば、駅構内やショッピングモールのような環境にて40〜80インチ程度のディスプレイ画面を設置したデジタルサイネージの場合、画面の前を多くの人が歩きすぎるとともに、画面の近くにたたずんでいる人もまた多い。人々とディスプレイ画面の距離は数メートル程度あるいはそれ以下と接近しており、人々は、表示内容に関心を持てば、画面に近づいて細かな表示内容を読み取ろうとする。   For example, in the case of a digital signage with a display screen of about 40 to 80 inches in an environment such as a station or a shopping mall, many people walk too much in front of the screen and some people are standing close to the screen. Also many. The distance between people and the display screen is as close as several meters or less, and if people are interested in the display content, they will approach the screen and read the detailed display content.

この発明は、上述したような設置環境のデジタルサイネージにおいて、ディスプレイ画面の周辺にいる人が思わず「あれっ何だろう」と表示に気を惹かれて画面に近づいて来るような、いわゆるアイキャッチャーの能力に長けた、新規な表示技法を提供することを目的として創作されたものである。   This digital signage of the installation environment as described above is a so-called eye catcher in which a person around the display screen is unintentionally attracted to the display and approaches the screen. It was created for the purpose of providing a new display technique that is excellent in ability.

この発明の核心部分は、つぎの事項(1)〜(6)により特定されるコンピューターを用いた表示制御の方法である。
(1)原画像データは、三次元座標系において、所定間隔をおいて配置された前景プレーンおよび後景プレーンを少なくとも含んでいること
(2)画像変換プロセスは、前景プレーンの前方に視点を設定し、当該視点から前景プレーンとその奧にある後景プレーンを透視した投影画像データを作成すること
(3)投影画像データは、前景プレーンの画像により隠面消去された後景プレーンの画像を含むこと
(4)画像表示プロセスは、画像変換プロセスにより逐次作成される投影画像データをディスプレイ画面に逐次表示すること
(5)顔認識プロセスは、前記ディスプレイ画面を見る人の顔をカメラにより撮影し、当該ディスプレイ画面と顔との間隔距離に対応した顔位置データを作成すること
(6)画像変換プロセスは、顔認識プロセスが顔位置データを作成した際、当該顔位置データに基づいて前記視点を設定し、当該視点に基づいて投影画像データを作成すること
The core of the present invention is a display control method using a computer specified by the following items (1) to (6).
(1) The original image data includes at least a foreground plane and a foreground plane arranged at a predetermined interval in the three-dimensional coordinate system. (2) The image conversion process sets a viewpoint in front of the foreground plane. (3) The projection image data includes an image of the foreground plane from which the hidden surface is erased by the image of the foreground plane. (4) The image display process sequentially displays the projection image data sequentially generated by the image conversion process on the display screen. (5) The face recognition process captures the face of the person viewing the display screen with a camera. Creating face position data corresponding to the distance between the display screen and the face. (6) The image conversion process is a face recognition process. When you create a face position data, and set the viewpoint based on the face position data, to create a projection image data based on the viewpoint

この発明の方法を実施するコンピューターシステムの概要を示す。1 shows an overview of a computer system that implements the method of the present invention. この発明の方法における原画像データの構成と画像変換プロセスの処理概要を示す。The structure of the original image data and the processing outline of the image conversion process in the method of the present invention will be shown. ディスプレイ画面を見る人の顔位置が画面からたとえば2メートルほど離れている状況での投影画像の表示例。The example of a projection image display in the situation where the face position of the person who looks at a display screen is about 2 meters away from the screen. 顔位置が画面から1メートルほどに近づいた状況での投影画像の表示例。A display example of a projected image when the face position is about 1 meter from the screen. 顔位置が画面から約50センチメートルまで接近した状況での投影画像の表示例Display example of projected image when face position is close to 50 centimeters from the screen 50センチメートルまで画面に近づいた人が顔の位置を変えて視線を右に振った状況での表示例。A display example in a situation where a person who has approached the screen up to 50 centimeters changes the position of his face and shakes his gaze to the right.

この発明の方法を実施するコンピューターシステムの概要を図1に示している。デジタルサイネージのコンピューターシステムとしての基本的な構成は、周知の既存システムと大きく相違するものではない。ディスプレイ1の画面サイズは40〜80インチ程度であり、駅構内やショッピングモールのような環境において周辺の人々に画面が見やすいように設置されている。   An outline of a computer system for implementing the method of the present invention is shown in FIG. The basic configuration of a digital signage as a computer system is not significantly different from a known existing system. The display 1 has a screen size of about 40 to 80 inches, and is installed so that people in the vicinity can easily see the screen in an environment such as a station yard or a shopping mall.

ディスプレイ1はコンピューター2に接続され、コンピューター2から供給される画像がディスプレイ1に表示される。ディスプレイ1にはカメラ3が付設されており、画面を正面から見る人の顔をカメラ3により撮影するように配置関係が設定されている。   The display 1 is connected to the computer 2 and an image supplied from the computer 2 is displayed on the display 1. A camera 3 is attached to the display 1, and an arrangement relationship is set so that the camera 3 captures the face of a person viewing the screen from the front.

カメラ3の映像出力はコンピューター2に取り込まれ、顔認識プロセスにより周知のアルゴリズムにより処理される。顔認識プロセスは、カメラ1の映像出力中から画面を見る人の顔画像を認識して抽出するとともに、ディスプレイ画面に対するその人の顔の位置に対応した顔位置データを計算する。   The video output of the camera 3 is taken into the computer 2 and processed by a known algorithm by a face recognition process. The face recognition process recognizes and extracts a face image of a person watching the screen from the video output of the camera 1 and calculates face position data corresponding to the position of the person's face with respect to the display screen.

顔位置データは、ディスプレイ画面と顔との間隔距離に対応したZデータと、ディスプレイ画面と平行な面内における顔の二次元位置に対応したXYデータとを含んでいる。カメラ3が立体視可能な二眼カメラ(2台のカメラ)ではなく1台のカメラである場合、認識した顔画像中の両目の間隔寸法あるいは顔画像の寸法からディスプレイ画面と顔との間隔距離を計算することができる。   The face position data includes Z data corresponding to the distance between the display screen and the face, and XY data corresponding to the two-dimensional position of the face in a plane parallel to the display screen. When the camera 3 is not a two-lens camera (two cameras) capable of stereoscopic viewing but a single camera, the distance between the display screen and the face is determined from the distance between the eyes in the recognized face image or the face image. Can be calculated.

コンピューター1におけるシステム統御プロセスは、あらかじめプログラムされた表示スケジュールに基づいて、画像データベースに格納された種々の画像データの中から表示すべき画像データを抽出し、その画像データを直接的に、あるいは適宜に編集加工して、画像表示プロセスを介してディスプレイ1により表示出力させる。この発明の方法は、コンピューター2によりディスプレイ1に画像を表示させる1つの形態として実施される。   The system management process in the computer 1 extracts image data to be displayed from various image data stored in the image database based on a preprogrammed display schedule, and directly or appropriately selects the image data. The image is edited and processed and displayed on the display 1 through an image display process. The method of the present invention is implemented as one form in which an image is displayed on the display 1 by the computer 2.

この発明の方法を実施するにあたり、コンピューター2は、画像データベースから表示対象の原画像データを抽出し、その原画像データを画像変換プロセスにより透視投影の処理を行い、その処理により作成した投影画像データを画像表示プロセスに渡す。   In carrying out the method of the present invention, the computer 2 extracts original image data to be displayed from the image database, performs perspective projection processing on the original image data by an image conversion process, and generates projection image data generated by the processing. To the image display process.

この発明の方法における原画像データの構成と画像変換プロセスの処理概要を図2に示している。原画像データは、三次元座標系において、所定間隔をおいて配置された前景プレーンおよび後景プレーンを少なくとも含んでいる。画像変換プロセスは、前景プレーンの前方に視点を設定し、周知のアルゴリズムにより、当該視点から前景プレーンとその奧にある後景プレーンを投影プレーン上に透視した投影画像データを作成し、この投影画像データを画像表示プロセスを介してディスプレイ1に表示させる。表示される投影画像データは、前景プレーンの画像により隠面消去された後景プレーンの画像を含んでいる。   FIG. 2 shows the configuration of the original image data and the processing outline of the image conversion process in the method of the present invention. The original image data includes at least a foreground plane and a background plane arranged at a predetermined interval in the three-dimensional coordinate system. The image conversion process sets a viewpoint in front of the foreground plane, creates projection image data in which the foreground plane and the background plane behind it are projected from the viewpoint on the projection plane by using a known algorithm. Data is displayed on the display 1 through an image display process. The projected image data to be displayed includes an image of the background plane that has been hidden by the foreground plane image.

さきに説明した顔認識プロセスは、カメラ3の映像出力からディスプレイ画面を見る人の顔画像を抽出した場合、前記の顔位置データを計算し、このデータを画像変換プロセスに渡す。しかし、ディスプレイ画面を見る人の顔画像を検出していない期間は、顔認識プロセスは画像変換プロセスにその旨を通知する。   In the face recognition process described above, when a face image of a person viewing the display screen is extracted from the video output of the camera 3, the face position data is calculated and this data is passed to the image conversion process. However, during the period when the face image of the person who looks at the display screen is not detected, the face recognition process notifies the image conversion process accordingly.

顔認識プロセスがディスプレイ画面を見る人の顔画像を検出していない期間、画像変換プロセスは、前記原画像データに合わせてあらかじめ設定された初期位置を視点として投影画像データを作成し、ディスプレイ1に表示させる。この初期位置は、たとえば、ディスプレイ画面を見る人の顔位置データに換算すると、画面との間隔距離(Zデータ)が3メートル、ディスプレイ画面と平行な面内における顔の二次元位置(XYデータ)が画面中心に対応する位置とする。   During the period when the face recognition process does not detect the face image of the person who looks at the display screen, the image conversion process creates projection image data with the initial position preset in accordance with the original image data as a viewpoint, and displays it on the display 1. Display. When this initial position is converted into, for example, face position data of a person viewing the display screen, the distance from the screen (Z data) is 3 meters, and the two-dimensional position of the face (XY data) in a plane parallel to the display screen Is the position corresponding to the center of the screen.

視点を上記の初期位置として計算した投影画像データを表示している状態において、顔認識プロセスがディスプレイ画面を見る人の顔画像を検出して顔位置データを出力した際、画像変換プロセスは、その顔位置データを視点に設定しなおして投影画像データを作成し、それをディスプレイ1に表示させる。ディスプレイ画面を見る人がさらに画面に近づいたり左右上下に身体を動かすと顔位置データが変化し、画像変換プロセスは、逐次変化する顔位置データを視点として投影画像データを作成しなおす。これによりディスプレイ1に表示される画像が変化する。   When the projected image data calculated with the viewpoint as the initial position is displayed, when the face recognition process detects the face image of the person viewing the display screen and outputs the face position data, the image conversion process Projection image data is created by resetting the face position data as a viewpoint, and is displayed on the display 1. When a person who looks at the display screen further approaches the screen or moves his / her body left / right / up / down, the face position data changes, and the image conversion process recreates projection image data using the successively changing face position data as a viewpoint. As a result, the image displayed on the display 1 changes.

この発明の方法を実施している場合において、ディスプレイ画面を見る人の顔位置が画面からたとえば2メートルほど離れている状況での投影画像の表示例を図3に示し、顔位置が画面から1メートルほどに近づいた状況での投影画像の表示例を図4に示し、顔位置が画面から約50センチメートルまで接近した状況での投影画像の表示例を図5に示し、50センチメートルまで画面に近づいた人が顔の位置を変えて視線を左に振った状況での表示例を図6に示している。この例では、前景プレーンは丸穴のあいた無地の板であり、その丸穴から後景プレーンの犬の絵を見るのに相当する投影画像が表示される。   In the case where the method of the present invention is implemented, a display example of a projected image in a situation where the face position of the person viewing the display screen is separated from the screen by, for example, about 2 meters is shown in FIG. FIG. 4 shows a display example of a projected image when the face is close to about a meter, and FIG. 5 shows a display example of a projected image when the face position is close to about 50 centimeters from the screen. FIG. 6 shows a display example in a situation where a person approaching the position changes the face position and swings his / her line of sight to the left. In this example, the foreground plane is a plain board with a round hole, and a projection image corresponding to viewing a picture of a dog on the background plane is displayed from the round hole.

この発明の方法によりディスプレイ1に表示されている画像を何げなく目にした人が、ディスプレイ画面に近づいていき正面から画面を見ると、視点を上記初期位置として作成された投影画像が、近づいた人の顔位置データを視点として作成された投影画像に変化する。つまり、初期状態では後景プレーン画像が遠く離れていて小さく表示され、かつ、前景プレーン画像により後景プレーン画像の多くが隠れていたのに、人が画面に近づくと、前景プレーン画像越しに後景プレーン画像の多くの部分が大きく見えるようになり、見る人の関心をいっそう惹きつける。そして人がさらに画面に近づくと、後景プレーン画像のさらに多くの部分がさらに大きく見えるようになる。   When a person who has seen the image displayed on the display 1 by the method of the present invention approaches the display screen and looks at the screen from the front, the projection image created with the viewpoint as the initial position approaches. Changes to a projected image created with the face position data of the person as the viewpoint. In other words, in the initial state, the foreground plane image is displayed far away and small, and most of the foreground plane image is hidden by the foreground plane image. Many parts of the scene plane image become larger and attract more viewer interest. As the person gets closer to the screen, more parts of the background plane image appear larger.

画面に近づいて表示を見ている人が、前景プレーン画像に隠されている後景プレーン画像を見たくなり、顔を少し動かして視線を上下左右いずれかに変えると、後景プレーン画像の隠れていた部分が見えるようになる。以上のようにして、ディスプレイ画面の周辺にいる人が思わず「あれっ何だろう」と表示に気を惹かれて画面に近づいて来るような、いわゆるアイキャッチャーの能力に長けた、新規な表示技法を提供するという発明の目的を達成することができる。   If a person who is approaching the screen and sees the display wants to see the backplane image hidden in the foreground plane image and moves his / her face slightly to change his / her line of sight up / down / left / right, the background plane image is hidden. You can see the part you had. In this way, a new display technique that excels at the ability of the so-called eye catcher, in which people around the display screen are attracted to the display and approach the screen unintentionally. The object of the invention to provide the above can be achieved.

この発明の方法を実施するにあたり、以下の態様を採用することができる。
(1)ディスプレイ画面を見る人の顔画像を検出できない期間において視点となる初期位置を固定するのではなく、規則的あるいは不規則に変化させる。
(2)原画像データにおける前景プレーンの画像を動画(アニメーションなど)とする。
(3)原画像データにおける後景プレーンの画像を動画(アニメーションなど)とする。
In carrying out the method of the present invention, the following modes can be adopted.
(1) The initial position as the viewpoint is not fixed in a period in which the face image of the person who looks at the display screen cannot be detected, but is changed regularly or irregularly.
(2) The foreground plane image in the original image data is a moving image (animation, etc.).
(3) The image of the background plane in the original image data is a moving image (animation, etc.).

Claims (5)

つぎの事項(1)〜(6)により特定されるコンピューターを用いた表示制御の方法。
(1)原画像データは、三次元座標系において、所定間隔をおいて配置された前景プレーンおよび後景プレーンを少なくとも含んでいること
(2)画像変換プロセスは、前景プレーンの前方に視点を設定し、当該視点から前景プレーンとその奧にある後景プレーンを透視した投影画像データを作成すること
(3)投影画像データは、前景プレーンの画像により隠面消去された後景プレーンの画像を含むこと
(4)画像表示プロセスは、画像変換プロセスにより逐次作成される投影画像データをディスプレイ画面に逐次表示すること
(5)顔認識プロセスは、前記ディスプレイ画面を見る人の顔をカメラにより撮影し、当該ディスプレイ画面と顔との間隔距離に対応した顔位置データを作成すること
(6)画像変換プロセスは、顔認識プロセスが顔位置データを作成した際、当該顔位置データに基づいて前記視点を設定し、当該視点に基づいて投影画像データを作成すること
A display control method using a computer specified by the following items (1) to (6).
(1) The original image data includes at least a foreground plane and a foreground plane arranged at a predetermined interval in the three-dimensional coordinate system. (2) The image conversion process sets a viewpoint in front of the foreground plane. (3) The projection image data includes an image of the foreground plane from which the hidden surface is erased by the image of the foreground plane. (4) The image display process sequentially displays the projection image data sequentially generated by the image conversion process on the display screen. (5) The face recognition process captures the face of the person viewing the display screen with a camera. Creating face position data corresponding to the distance between the display screen and the face. (6) The image conversion process is a face recognition process. When you create a face position data, and set the viewpoint based on the face position data, to create a projection image data based on the viewpoint
顔認識プロセスは、ディスプレイ画面と顔との間隔距離と、ディスプレイ画面と平行な面内における顔の二次元位置情報とを含んだ顔位置データを作成し、
前記視点は、作成された顔位置データにおける前記間隔距離と前記二次元位置情報に基づいて設定される
請求項1に記載の方法。
The face recognition process creates face position data including the distance between the display screen and the face and the two-dimensional position information of the face in a plane parallel to the display screen.
The method according to claim 1, wherein the viewpoint is set based on the interval distance and the two-dimensional position information in the created face position data.
画像変換プロセスは、顔認識プロセスが顔位置データを作成しない期間、あらかじめ設定された所定の視点に基づいて投影画像データを作成する
請求項1または2に記載の方法。
The method according to claim 1, wherein the image conversion process creates projection image data based on a predetermined viewpoint set in advance during a period in which the face recognition process does not create face position data.
ディスプレイ画面と当該画面を見る人を撮影するカメラを備えたコンピューターにより請求項1〜3のいずれかに記載の方法を実行するデジタルサイネージシステム。   The digital signage system which performs the method in any one of Claims 1-3 with the computer provided with the camera which image | photographs the person who watches a display screen and the said screen. ディスプレイ画面と当該画面を見る人を撮影するカメラを備えたコンピューターにより請求項1〜3のいずれかに記載の方法を実行させるコンピュータープログラム。   The computer program which performs the method in any one of Claims 1-3 with the computer provided with the camera which image | photographs the person who watches a display screen and the said screen.
JP2010248871A 2010-11-05 2010-11-05 Method for display control for fascinating viewer, digital signage system, and computer program Pending JP2012103746A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010248871A JP2012103746A (en) 2010-11-05 2010-11-05 Method for display control for fascinating viewer, digital signage system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010248871A JP2012103746A (en) 2010-11-05 2010-11-05 Method for display control for fascinating viewer, digital signage system, and computer program

Publications (1)

Publication Number Publication Date
JP2012103746A true JP2012103746A (en) 2012-05-31

Family

ID=46394105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010248871A Pending JP2012103746A (en) 2010-11-05 2010-11-05 Method for display control for fascinating viewer, digital signage system, and computer program

Country Status (1)

Country Link
JP (1) JP2012103746A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026040A (en) * 2012-07-25 2014-02-06 Toshiba Tec Corp Display controller and display control program

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6229542B1 (en) * 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
JP2001319217A (en) * 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd Image display method
JP2003271283A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Information display apparatus
JP2005182589A (en) * 2003-12-22 2005-07-07 Avix Inc Public display management system
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2010070882A (en) * 2008-09-19 2010-04-02 Toko Bridge Co Ltd Method for terminating rope end
WO2010041557A1 (en) * 2008-10-07 2010-04-15 株式会社コナミデジタルエンタテインメント Display device, display method, information recording medium, and program
US20100123772A1 (en) * 2008-11-19 2010-05-20 Sony Ericsson Mobile Communications Japan, Inc. Terminal apparatus, display control method, and display control program
JP2010112979A (en) * 2008-11-04 2010-05-20 Advanced Telecommunication Research Institute International Interactive signboard system
JP2010160274A (en) * 2009-01-07 2010-07-22 Oki Electric Ind Co Ltd Image display apparatus and image display method
JP2010191487A (en) * 2009-02-13 2010-09-02 Sony Corp Information processing apparatus and information processing method
WO2010121945A2 (en) * 2009-04-21 2010-10-28 International Business Machines Corporation Method and system for interaction with unmodified 3d graphics applications
US20110216060A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Maintaining Multiple Views on a Shared Stable Virtual Space

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6229542B1 (en) * 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
JP2001319217A (en) * 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd Image display method
JP2003271283A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Information display apparatus
JP2005182589A (en) * 2003-12-22 2005-07-07 Avix Inc Public display management system
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2010070882A (en) * 2008-09-19 2010-04-02 Toko Bridge Co Ltd Method for terminating rope end
WO2010041557A1 (en) * 2008-10-07 2010-04-15 株式会社コナミデジタルエンタテインメント Display device, display method, information recording medium, and program
JP2010112979A (en) * 2008-11-04 2010-05-20 Advanced Telecommunication Research Institute International Interactive signboard system
US20100123772A1 (en) * 2008-11-19 2010-05-20 Sony Ericsson Mobile Communications Japan, Inc. Terminal apparatus, display control method, and display control program
JP2010122879A (en) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab Terminal device, display control method, and display control program
JP2010160274A (en) * 2009-01-07 2010-07-22 Oki Electric Ind Co Ltd Image display apparatus and image display method
JP2010191487A (en) * 2009-02-13 2010-09-02 Sony Corp Information processing apparatus and information processing method
WO2010121945A2 (en) * 2009-04-21 2010-10-28 International Business Machines Corporation Method and system for interaction with unmodified 3d graphics applications
US20110216060A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Maintaining Multiple Views on a Shared Stable Virtual Space

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
COLIN WARE, KEVIN ARTHUR, AND KELLOGG S. BOOTH.: "FISH TANK VIRTUAL REALITY", PROCEEDINGS OF THE INTERACT '93 AND CHI '93 CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS (CHI '9, JPN7014002228, 1993, US, pages 37 - 42, XP058086238, ISSN: 0002860570, DOI: 10.1145/169059.169066 *
田中 悠、他: "壁とパーソナル空間の交わりを情報環境にするシステムi−wall", 映像情報メディア学会誌, vol. 第56巻 第9号, JPN6014030484, 1 September 2002 (2002-09-01), JP, pages 1500 - 1505, ISSN: 0002860572 *
筧 康明、他: "人物軌跡を利用した空間演出インタラクティブシステム i-trace", 日本バーチャルリアリティ学会 10周年記念DVD−ROM [DVD−ROM], JPN6014030483, 30 September 2002 (2002-09-30), JP, ISSN: 0002860571 *
飯尾 淳: "観測位置に対応した3次元物体の実時間表示 より自然なユーザインタフェースの実現を目指して", 画像ラボ, vol. 第14巻 第1号, JPN6014030486, 1 January 2003 (2003-01-01), JP, pages 26 - 29, ISSN: 0002860573 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026040A (en) * 2012-07-25 2014-02-06 Toshiba Tec Corp Display controller and display control program

Similar Documents

Publication Publication Date Title
US10685496B2 (en) Saving augmented realities
CN106462233B (en) The method and apparatus attracted for showing equipment viewer's sight
US9595127B2 (en) Three-dimensional collaboration
US20120162384A1 (en) Three-Dimensional Collaboration
CN102540464A (en) Head-mounted display device which provides surround video
JP5379200B2 (en) Mobile terminal and operation control method thereof
US20160320833A1 (en) Location-based system for sharing augmented reality content
CN111833458A (en) Image display method and device, equipment and computer readable storage medium
CN104516492A (en) Man-machine interaction technology based on 3D (three dimensional) holographic projection
CN206178657U (en) Interactive display system of AR and interactive display system of museum's historical relic
US20200233489A1 (en) Gazed virtual object identification module, a system for implementing gaze translucency, and a related method
CN210609485U (en) Real-time interactive virtual reality view sharing system
CN203706134U (en) 360-degree panoramic display motion sensing interactive system
JP6359704B2 (en) A method for supplying information associated with an event to a person
CN113382224B (en) Interactive handle display method and device based on holographic sand table
CN112381955A (en) Activity and exhibition display system based on three-dimensional space
CN112684893A (en) Information display method and device, electronic equipment and storage medium
JP6559375B1 (en) Content distribution system, content distribution method, and content distribution program
JP2012103746A (en) Method for display control for fascinating viewer, digital signage system, and computer program
CN208283895U (en) For the virtual reality system shown of giving a lecture
CN110956702A (en) 3D visual editor and editing method based on time axis
JP2020162084A (en) Content distribution system, content distribution method, and content distribution program
CN117010965A (en) Interaction method, device, equipment and medium based on information stream advertisement
CN105894581B (en) Method and device for presenting multimedia information
Yadav et al. Augmented Reality and its Science

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141125