JP4859876B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP4859876B2
JP4859876B2 JP2008128854A JP2008128854A JP4859876B2 JP 4859876 B2 JP4859876 B2 JP 4859876B2 JP 2008128854 A JP2008128854 A JP 2008128854A JP 2008128854 A JP2008128854 A JP 2008128854A JP 4859876 B2 JP4859876 B2 JP 4859876B2
Authority
JP
Japan
Prior art keywords
sensor
information
volume
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008128854A
Other languages
Japanese (ja)
Other versions
JP2009277097A (en
Inventor
史光 三浦
浩志 渡邉
民雄 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008128854A priority Critical patent/JP4859876B2/en
Publication of JP2009277097A publication Critical patent/JP2009277097A/en
Application granted granted Critical
Publication of JP4859876B2 publication Critical patent/JP4859876B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報処理装置に係り、特に、ディスプレイやスピーカ等の出力機器の周辺に人に対して、当該出力機器を用いて広告情報等を提供するための情報処理装置に関する。   The present invention relates to an information processing apparatus, and more particularly to an information processing apparatus for providing advertisement information and the like to a person around an output device such as a display or a speaker using the output device.

近年では、表示装置やスピーカ等を用いて情報を提示する装置が普及している。   In recent years, devices that present information using a display device, a speaker, or the like have become widespread.

また、人感センサやカメラなどを用いて近くに人がいることを検知し、近くに人がいることを検知したときに検出状況に応じた動作を行う装置も使われるようになってきている(例えば、非特許文献1参照)。
(URL:http://www.microsoft.com/presspass/press/2008/feb08/02-05AdLabsDemoPR.mspx> Microsoft adCenter Labpress release
In addition, devices that detect people nearby using human sensors and cameras, etc., and operate according to the detection status when people are nearby are also being used. (For example, refer nonpatent literature 1).
(URL: http: //www.microsoft.com/presspass/press/2008/feb08/02-05AdLabsDemoPR.mspx> Microsoft adCenter Labpress release

しかしながら、上記従来技術のある対象の知覚に人がいることを検知する技術を、検知された時点で広告出力に適用したとしても、広告を視聴する人の移動速度や表示装置やスピーカから距離を考慮に入れないため、急いで移動する人に把握できない量の情報を提供したり、立ち止まって見てくれている人に細かい情報を提供できなかったりする。   However, even if the technology for detecting the presence of a person in the perception of an object with the above-described prior art is applied to the advertisement output at the time of detection, the moving speed of the person viewing the advertisement and the distance from the display device or the speaker are reduced. Because it is not taken into account, it may provide an unacceptable amount of information to a person who moves in a hurry, or may not provide detailed information to a person who stops and watches.

また、出力装置から対象者までの距離を考慮しないため、表示装置等から遠い人に読めない大きさの字を提示したり、スピーカから聞こえない音を出力してしまうことがある。   In addition, since the distance from the output device to the subject is not taken into consideration, a character that cannot be read by a person far from the display device or the like may be presented, or a sound that cannot be heard from the speaker may be output.

一方、表示装置等に近い人には大きすぎる文字を提示して、更なる情報を提供する機会を逸してしまったり、大きすぎる音を出力したことにより、対象者を足早に立ち去らせ手しまうことがある。   On the other hand, too close to a display device, etc., a letter that is too large may be missed, and the opportunity to provide further information may be missed, or too much noise may be output, causing the target person to leave quickly. There is.

このように、非特許文献1の技術をそのまま広告の出力に適用してしまうと、広告提供の機会を有効に生かせないと言う問題がある。   Thus, if the technique of Non-Patent Document 1 is applied to the output of an advertisement as it is, there is a problem that the opportunity of providing an advertisement cannot be effectively used.

本発明は、上記の点に鑑みなされたもので、画像・音声等による広告情報を出力する際に、出力機器と情報提供対象者との距離や、情報提供対象者の動きの方向等に基づいて、表示できる情報量を最適化することが可能な情報処理装置を提供することを目的とする。   The present invention has been made in view of the above points, and is based on the distance between the output device and the information provision target, the direction of movement of the information provision target, and the like when outputting advertisement information such as images and sounds. An object of the present invention is to provide an information processing apparatus that can optimize the amount of information that can be displayed.

図1は、本発明の原理構成図である。   FIG. 1 is a principle configuration diagram of the present invention.

本発明(請求項1)は、センサの検出結果に基づいて、ディスプレイやスピーカを含む出力手段から、情報を提供する対象となる人間に対して情報を提供するための情報処理装置であって
センサ110から取得した検出結果を解析し、該センサ110の周囲に存在する物体(以下、情報提供対象者と記す)の位置及び移動方向を解析し、該センサの識別子を付与してセンサ解析結果を出力するセンサ結果処理手段122と
ンサ解析結果に基づいて、情報提供対象者からディスプレイまでの距離を取得し、該情報提供対象者が近付いてきていることを検出した場合には、該距離に基づいて、該情報提供対象者に聞こえる音量を算出し、該音量が前回情報提供者に聞こえた音量に所定の音量を加えた音量よりも減少しないように、該情報提供対象者に聞こえる該音量を制御し、出力手段から情報を出力する出力制御手段250と、
情報提供者に聞こえた音量を記録する記憶手段と、
からなる。
The present invention (Claim 1) is an information processing apparatus for providing information to a person who is an object of providing information from an output unit including a display and a speaker based on a detection result of a sensor ,
The detection result obtained from the sensor 110 is analyzed , the position and moving direction of an object (hereinafter referred to as information provider ) around the sensor 110 is analyzed, and the sensor identifier is assigned to the sensor. Sensor result processing means 122 for outputting an analysis result ;
Based on the sensor analysis result, obtains the distance from the information providing subject to display, when it is detected that the information providing subject is approaching, based on the distance, the information providing subject The volume that can be heard by the information provider is controlled so that the volume does not decrease below the volume obtained by adding a predetermined volume to the volume that was previously heard by the information provider. Output control means 250 for outputting
Storage means for recording the volume heard by the information provider;
Consists of.

これにより、センサ手段からのセンサ解析結果の人数や位置に基づいて、情報提供対象者に対して、出力手段260(ディスプレイやスピーカ)から映像や音声を出力することができる。   Thereby, based on the number and positions of the sensor analysis results from the sensor means, it is possible to output video and audio from the output means 260 (display or speaker) to the information providing target person.

また、本発明(請求項)は、請求項の出力制御手段250において、
情報提供対象者からディスプレイまでの距離に基づいて該情報提供対象者に聞こえる音量が別途定められた最大値を超えないように制御する手段を含む。
Further, the present invention (Claim 2 ) is characterized in that in the output control means 250 of Claim 1 ,
A means for controlling the volume of sound heard by the information providing target person so as not to exceed a separately determined maximum value based on the distance from the information providing target person to the display is included.

上記のように本発明によれば、センサにより測定された結果を解析し、その解析結果と動作ルールとを照合し、出力手段(ディスプレイ)に出力する適切なコンテンツを選択すると共に、距離に応じて表示サイズを変更することにより表示する情報量を最適化することができる。また、視聴者との距離に応じてスピーカへの出力音声の音量を調整する等、情報提供対象者にとって最も効果的で、体感的にも適切な表示方法及び音声再生が可能となる。   As described above, according to the present invention, the result measured by the sensor is analyzed, the analysis result and the operation rule are collated, the appropriate content to be output to the output means (display) is selected, and according to the distance. The amount of information to be displayed can be optimized by changing the display size. In addition, a display method and sound reproduction that are most effective for the information providing target, such as adjusting the volume of sound output to the speaker in accordance with the distance to the viewer, can be realized.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は、本発明の一実施の形態におけるシステム構成を示す。   FIG. 2 shows a system configuration in an embodiment of the present invention.

同図に示すシステムは、ネットワーク500を介して、複数のセンサ部100と表示部200が接続されている。   In the system shown in the figure, a plurality of sensor units 100 and a display unit 200 are connected via a network 500.

センサ部100は、1つ以上のセンサ110、CPU120、センサ位置情報記憶部130、測定結果メモリ131から構成される。センサ位置情報記憶部130は、メモリ、ハードディスク等の記憶媒体である。   The sensor unit 100 includes one or more sensors 110, a CPU 120, a sensor position information storage unit 130, and a measurement result memory 131. The sensor position information storage unit 130 is a storage medium such as a memory or a hard disk.

センサ110として、カメラを用いている場合は、カメラで撮影された静止画・動画及び撮影時刻を、また、人感センサを用いている場合はその測定結果及び測定時刻を当該センサ毎に一意に付与されているセンサ識別子を付与してCPU120に出力する。   If a camera is used as the sensor 110, the still image / moving image and the shooting time taken by the camera are unique, and if a human sensor is used, the measurement result and measurement time are uniquely assigned to each sensor. The given sensor identifier is assigned and output to the CPU 120.

センサ位置情報記憶部130は、メモリやハードディスク等の記憶媒体であり、情報を表示するディスプレイの位置と向き、及び、各センサ毎のセンサ識別子と装置全体中でのセンサ部110の位置と向きを座標として格納している。なお、センサ部100と表示部200が同一筺体にある場合には、いずれか一方の位置情報でもよい。   The sensor position information storage unit 130 is a storage medium such as a memory or a hard disk, and displays the position and orientation of a display for displaying information, the sensor identifier for each sensor, and the position and orientation of the sensor unit 110 in the entire apparatus. Stored as coordinates. In addition, when the sensor part 100 and the display part 200 are in the same housing, any one positional information may be sufficient.

CPU120は、センサ結果取得部121、センサ結果処理部122、算出結果出力部123から構成される。   The CPU 120 includes a sensor result acquisition unit 121, a sensor result processing unit 122, and a calculation result output unit 123.

センサ結果取得部121は、センサ110A(カメラ)から取得した静止画・動画または、センサ110B(人感センサ)から取得した検出結果を取得して、センサ毎にセンサ識別子と共に測定結果メモリ131に一旦格納する。   The sensor result acquisition unit 121 acquires a still image / moving image acquired from the sensor 110A (camera) or a detection result acquired from the sensor 110B (human sensor), and temporarily stores it in the measurement result memory 131 together with a sensor identifier for each sensor. Store.

センサ結果処理部122は、測定結果メモリ131に格納されている検出結果を解析し、検出結果に含まれるセンサ識別子に基づいて、センサ位置情報記憶部130を検索し、センサの位置情報を取得し、当該位置情報と検出結果の内容から周囲の人の位置及び移動速度及び移動方向を求める。また、全体の中でどこに何人の人がいるか等を算出する。   The sensor result processing unit 122 analyzes the detection result stored in the measurement result memory 131, searches the sensor position information storage unit 130 based on the sensor identifier included in the detection result, and acquires the sensor position information. Then, the position, moving speed and moving direction of the surrounding person are obtained from the position information and the contents of the detection result. In addition, it calculates how many people are in the total.

ここで、解析方法として、例えば、測定結果メモリ131から映像を連続的にカメラで撮影した静止画、または、動画を取得し、時系列的に、映像毎の差分から上下左右の移動方向、または、移動速度を求める方法や、予めどこに人がいるときにどのように移動するかを調べて、メモリ(図示せず)に格納しておき、その映像と照合することにより求めることが可能である。その例を図3に示す。カメラからの視野をマトリックス状に分割して管理し、時間軸上における人の大きさの変化から動きと距離の変化を算出する。距離については、センサ識別子に基づいてセンサ位置情報記憶部130を参照して、センサ位置からの距離を算出する。また、カメラの視野内での拡大・縮小を用いて、カメラの視線方向の移動方向または、移動速度を求める。また、カメラ視野内においてある人を特定し、移動がない(滞留)時間を求める。   Here, as an analysis method, for example, a still image or a moving image obtained by continuously capturing images with a camera is acquired from the measurement result memory 131, and a moving direction of up / down / left / right from a difference for each image in time series, or , a method of obtaining the moving speed in advance where to examine how to move when there are people, may be stored in a memory (not shown), can be determined by comparing its image . An example is shown in FIG. The field of view from the camera is divided and managed in a matrix, and changes in movement and distance are calculated from changes in the size of the person on the time axis. For the distance, the distance from the sensor position is calculated with reference to the sensor position information storage unit 130 based on the sensor identifier. Further, the moving direction or moving speed of the camera's line-of-sight direction is obtained using enlargement / reduction in the field of view of the camera. Also, a certain person is identified within the camera field of view, and the time during which there is no movement (dwell) is obtained.

センサ110の計測結果はセンサ110の位置と向きに対する相対位置であるので、計測結果と当該センサ110がどこに位置し、どのような向きであるかが記録されているセンサ位置情報記憶部130の情報と合成することで、各センサ相対ではなく、全体構成に対する座標系に変換することができる。   Since the measurement result of the sensor 110 is a relative position with respect to the position and orientation of the sensor 110, information on the sensor position information storage unit 130 in which the measurement result, where the sensor 110 is located, and in what direction is recorded. Can be converted into a coordinate system for the entire configuration rather than relative to each sensor.

また、センサが人感センサ110Bである場合は、当該人感センサ110Bを配置した位置と当該センサ110Bにおける感度を取得し、解析する。   When the sensor is the human sensor 110B, the position where the human sensor 110B is arranged and the sensitivity of the sensor 110B are acquired and analyzed.

上記のようにして求められたセンサ解析結果を算出結果出力部123に出力する。   The sensor analysis result obtained as described above is output to the calculation result output unit 123.

算出結果出力部123は、ネットワーク500を介して、センサ結果処理部122で求められたセンサ解析結果を表示部200に出力する。   The calculation result output unit 123 outputs the sensor analysis result obtained by the sensor result processing unit 122 to the display unit 200 via the network 500.

表示部200は、算出結果取得部210、解析結果メモリ211、動作ルール記憶部230、映像・音声データ記憶部240、出力制御部250、ディスプレイやスピーカ等の出力部260から構成される。動作ルール記憶部230、映像・音声データ記憶部240は、メモリ、ハードディスク等の記憶媒体である。   The display unit 200 includes a calculation result acquisition unit 210, an analysis result memory 211, an operation rule storage unit 230, a video / audio data storage unit 240, an output control unit 250, and an output unit 260 such as a display or a speaker. The operation rule storage unit 230 and the video / audio data storage unit 240 are storage media such as a memory and a hard disk.

動作ルール記憶部230は、動画像・静止画像・文字等をディスプレイに表示するためのルールである表示ルール、音声を再生する際のルールである音声再生ルールを有する。   The operation rule storage unit 230 includes a display rule that is a rule for displaying moving images, still images, characters, and the like on a display, and an audio reproduction rule that is a rule for reproducing audio.

図4に表示ルール示す。同図に示すように、表示ルールは、移動方向(左から来た人・右から来た人)、表示装置に近寄ってきた/遠ざかっている、ある場所に所定時間留まっている、複数の人間がいる、大きい人と小さい人がいる、等の条件からなり、これらの条件を組み合わせてとるべき動作が決定できるよう設定されている。   A display rule is shown in FIG. As shown in the figure, the display rules are the direction of movement (people coming from the left and people coming from the right), multiple people who are approaching or moving away from the display device and stay in a certain place for a predetermined time. It is set to be able to determine the action to be taken by combining these conditions.

音声ルールは、距離毎の音量、スピーカの最大出力、及び、法律で規制されている出力等が設定される。また、スピーカと情報提供対象者間の距離毎の音声情報再生速度が設定される。当該音声再生ルールを参照することにより、興味を示してスピーカに情報提供対象者が近寄ってきた場合に、音量を若干大きくすることが可能である。   The sound rule is set with a volume for each distance, a maximum output of the speaker, an output regulated by law, and the like. Also, the audio information playback speed is set for each distance between the speaker and the information providing target person. By referring to the voice reproduction rule, it is possible to slightly increase the volume when the information providing target approaches the speaker with interest.

映像・音声データ記憶部240は、表示するための映像データ及びスピーカから出力するための音声データ及び映像・音声出力のための指示情報が格納されている。例えばMPEG規格の動画及び音声、あるいは、SMIL等の指示情報が格納されている。当該指示情報として、映像データの表示を制御するための映像指示情報、音声データの再生を制御するための音声指示情報がある。例えば、映像指示情報は、視線方向の移動方向がディスプレイに近寄ってきている場合には、動画像・静止画像、文字等の表示の大きさを小さくし、遠ざかっている場合には表示を大きくする。また、センサ部100から取得したセンサ解析結果の距離が所定の距離以下になった場合には、それまで表示していた大きさから小さくならないようにする等が設定される。   The video / audio data storage unit 240 stores video data for display, audio data for output from a speaker, and instruction information for video / audio output. For example, instruction information such as MPEG video and audio or SMIL is stored. As the instruction information, there are video instruction information for controlling display of video data and voice instruction information for controlling reproduction of audio data. For example, in the video instruction information, when the moving direction of the line of sight is approaching the display, the display size of moving images / still images, characters, etc. is reduced, and the display is increased when moving away from the display direction. . In addition, when the distance of the sensor analysis result acquired from the sensor unit 100 is equal to or less than a predetermined distance, a setting is made so as not to decrease from the size displayed so far.

音声指示情報としては、視線方向の移動方向がスピーカに近寄ってきている場合には、対応する動作として、再生音量を小さくし、遠ざかっている場合には大きくする。また、センサ部100から取得したセンサ解析結果の距離が所定の距離以下になった場合には、それまで再生していた音量以下にならないように、音量を固定する等の指示情報が設定される。   As the voice instruction information, when the moving direction of the line-of-sight direction is approaching the speaker, as a corresponding operation, the reproduction volume is decreased and is increased when the movement is away. In addition, when the distance of the sensor analysis result acquired from the sensor unit 100 is equal to or less than a predetermined distance, instruction information such as fixing the volume is set so as not to be equal to or lower than the volume that has been reproduced so far. .

算出結果取得部210は、ネットワーク500を介して、1つ以上のセンサ部100から出力部(ディスプレイ)260の視聴可能範囲のどこに人がいて、どちらの方向にどのような速度で移動しているか等のセンサ解析結果を取得する。   The calculation result acquisition unit 210 is located in the viewable range of the output unit (display) 260 from one or more sensor units 100 via the network 500, and in which direction and at what speed. The sensor analysis results such as are acquired.

出力制御部250は、取得したセンサ解析結果と図4に示す動作ルール記憶部230に格納されている表示ルールと照合し、出力部(ディスプレイ)260に対して行うべき動作を決定する。図4に示す表示ルールを参照した場合、例えば、「左から人が来た」「3秒以上立ち止まっている」という検知結果である場合、とるべき動作として「動作A」が選択される。当該動作が表示に関する場合には、映像・音声データ記憶部230から映像データを取得し、当該映像データを当該映像データに対応する映像・音声データ記憶部240の表示指示情報に基づいて出力部(ディスプレイ)260に表示する。また、選択された動作が音声データの再生に関する場合には、出力部(スピーカ)260に映像・音声データ記憶部230から音声データを読み出して音声指示情報に基づいて再生する。   The output control unit 250 collates the acquired sensor analysis result with the display rules stored in the operation rule storage unit 230 illustrated in FIG. 4 and determines an operation to be performed on the output unit (display) 260. When the display rule shown in FIG. 4 is referred to, for example, when the detection result is “a person has come from the left” or “stops for 3 seconds or more”, “action A” is selected as the action to be taken. When the operation relates to display, the video data is acquired from the video / audio data storage unit 230, and the video data is output based on the display instruction information of the video / audio data storage unit 240 corresponding to the video data. Display) 260. If the selected operation is related to reproduction of audio data, the audio data is read from the video / audio data storage unit 230 to the output unit (speaker) 260 and reproduced based on the audio instruction information.

なお、選択すべき動作が動作ルール記憶部230にない場合には、予め規定されている動作を行う。当該動作としては、何も提示しないことや、風景映像やバックグランドミュージックの再生、あるいは、映像・音声データ記憶部230に蓄積されている広告をランダムに表示する、あるいは、これらの組み合わせにより出力することが可能である。   If there is no operation to be selected in the operation rule storage unit 230, a predetermined operation is performed. As the operation, nothing is presented, landscape video or background music is reproduced, advertisements stored in the video / audio data storage unit 230 are randomly displayed, or a combination thereof is output. It is possible.

また、動作ルール記憶部230を参照した結果、選択すべき動作が複数ある場合には、その中の1つを選択する。選択方法としては、ランダムに選択する、提示回数の多い/少ないものを選択する、直前に表示したコンテンツ以外のものを選択する、または、これらを組み合わせて選択しても良い。   When there are a plurality of operations to be selected as a result of referring to the operation rule storage unit 230, one of them is selected. As a selection method, you may select at random, select an item with a large or small number of presentations, select an item other than the content displayed immediately before, or a combination thereof.

なお、上記で選択した動作をディスプレイやスピーカで提示中に、情報提供対象者の位置や移動方向や移動速度が変化した場合には、逐次センサからそれらの情報を取得して、動作を切り替えることが可能である。   In addition, when the position, movement direction, and movement speed of the information providing target change while the operation selected above is presented on the display or speaker, the information is sequentially acquired from the sensor and the operation is switched. Is possible.

上記センサ部100の測定は、表示部200における状況に則した広告の選定に用いられるので、正確さは厳密を要しないが、センサの検知・応答速度は充分高速な機器を用いることが望ましい。なぜなら、測定結果に誤りがあった場合には、最適ではない広告を表示してしまう可能性があるが、その場合でも何らかの広告を提示しているので、広告効果はゼロではない。しかし、測定が遅かった場合には、情報提供対象者が立ち去ってから広告を提示してしまう可能性が多分にあるからである。   The measurement of the sensor unit 100 is used to select an advertisement in accordance with the situation on the display unit 200. Therefore, the accuracy is not strictly required, but it is desirable to use a device with sufficiently high sensor detection / response speed. This is because, if there is an error in the measurement result, a non-optimal advertisement may be displayed, but even in that case, since some advertisement is presented, the advertising effect is not zero. However, if the measurement is slow, there is a possibility that the information provision target person will leave and present an advertisement.

上記の構成における動作を説明する。   The operation in the above configuration will be described.

まず、距離に応じて表示内容を変化させる例について説明する。   First, an example in which the display content is changed according to the distance will be described.

図5は、本発明の一実施の形態における距離に応じて表示内容を変化させる場合のフローチャートである。   FIG. 5 is a flowchart in the case where the display content is changed according to the distance according to the embodiment of the present invention.

ステップ101) センサ部100のセンサ110A(カメラ)で情報提供対象者を撮影し、その動画像または、静止画像をセンサ結果取得部121に出力する。センサ結果取得部121は、所定の閾値内の時間における動画像または、静止画像をセンサ識別子と共に測定結果メモリ131に格納する。   Step 101) The information providing person is photographed by the sensor 110A (camera) of the sensor unit 100, and the moving image or the still image is output to the sensor result acquisition unit 121. The sensor result acquisition unit 121 stores a moving image or a still image at a time within a predetermined threshold in the measurement result memory 131 together with a sensor identifier.

ステップ102) センサ結果処理部122は、測定結果メモリ131からデータを読み込み、センサ識別子に基づいてセンサ位置情報記憶部130を参照し、センサ110Aの位置情報を取得し、当該位置情報と測定結果メモリ131の測定結果を用いて、当該センサ110Aの位置から情報提供対象者の位置までの距離を算出し、算出結果出力部123に送る。このとき、だんだん情報提供対象者の大きさが大きくなっている場合はセンサ110Aに近付いていることを示し、小さくなっている場合は遠ざかっていることを示すため、所定時間内の画像中の情報提供対象者の位置について、ある時間閾値(t,…,tn−1,t)内でのそれぞれの距離を求めてセンサ解析結果とする。これにより、算出結果出力部123は、当該センサ回折結果(情報提供対象者までのn個の距離データ)をネットワーク500を介して表示部20に送る。 Step 102) The sensor result processing unit 122 reads data from the measurement result memory 131, refers to the sensor position information storage unit 130 based on the sensor identifier, acquires the position information of the sensor 110A, and acquires the position information and the measurement result memory. Using the measurement result 131, the distance from the position of the sensor 110 </ b> A to the position of the information providing target person is calculated and sent to the calculation result output unit 123. At this time, if the size of the information provision target is gradually increasing, it indicates that the person is approaching the sensor 110A, and if it is decreasing, it indicates that the person is moving away. With respect to the position of the provision target person, respective distances within a certain time threshold value (t,..., T n− 1, t n ) are obtained and used as sensor analysis results. Thereby, the calculation result output unit 123 sends the sensor diffraction result (n distance data to the information providing target person) to the display unit 20 via the network 500.

ステップ103) 表示部20の算出結果取得部210は、センサ部100からセンサ解析結果を取得し、出力制御部250において、センサ解析結果の情報提供対象者までの距離と、予めメモリ(図示せず)に格納されている視角や描画の大きさを参照して、視認可能になる視角の最小値から文字や図形の描画の大きさの下限値を算出する。   Step 103) The calculation result acquisition unit 210 of the display unit 20 acquires the sensor analysis result from the sensor unit 100, and in the output control unit 250, the distance to the information provider of the sensor analysis result and a memory (not shown) in advance. ), The lower limit value of the drawing size of characters and figures is calculated from the minimum value of the viewing angle that can be viewed.

ステップ104) さらに、出力制御部250は、予めメモリ(図示せず)に格納されているディスプレイの機能情報を参照して、ディスプレイの描画の上限・下限値を取得して、描画の下限値と出力部(ディスプレイ)260の大きさから表示できる情報量の条件を算出する。   Step 104) Further, the output control unit 250 refers to the function information of the display stored in advance in a memory (not shown), obtains the upper and lower limits of drawing on the display, and sets the lower limit of drawing. A condition for the amount of information that can be displayed is calculated from the size of the output unit (display) 260.

ステップ105) 出力制御部250は、図3の動作ルール記憶部230の表示ルールを参照し、とるべき動作を決定する。センサ110が、情報提供対象者が当該センサの位置に近付いて来ていることを検知した場合(距離データが時間(t,…,tn−1,t)の範囲で減少している場合)は、ステップ106に移行し、そうでない場合(距離データが時間(t,…,tn−1,t)の範囲で増加している場合)はステップ107に移行する。 Step 105) The output control unit 250 refers to the display rule of the operation rule storage unit 230 in FIG. 3 and determines an operation to be taken. When the sensor 110 detects that the information providing target is approaching the position of the sensor (when the distance data decreases in the time (t,..., T n− 1, t n ) range. ) Goes to Step 106, and if not (if the distance data increases in the range of time (t,..., T n− 1, t n )), goes to Step 107.

ステップ106) 出力制御部250は、映像・音声データ記憶部240の指示情報を参照して、ステップ104で算出された情報量の上限以下の情報量の広告であり、且つ、表示する文字や図形の描画の大きさの最小値が今提示している広告よりも小さくならない広告(映像データ・音声データ)を選定して出力部(ディスプレイ)260に表示し、処理を終了する。このように、情報提供対象者との距離が近くなれば、文字を小さくすることにより、多数の情報を提示することが可能となる。   Step 106) The output control unit 250 refers to the instruction information in the video / audio data storage unit 240, is an advertisement with an information amount equal to or less than the upper limit of the information amount calculated in Step 104, and displays characters and graphics. An advertisement (video data / audio data) whose minimum drawing size is not smaller than the currently presented advertisement is selected and displayed on the output unit (display) 260, and the process ends. As described above, when the distance to the information providing target is short, a large amount of information can be presented by reducing the characters.

ステップ107) 情報提供対象者が遠ざかっている場合は、出力制御部250は、映像・音声データ記憶部240からステップ104で算出された情報量の上限以下の情報量である広告を選定し、出力部(ディスプレイ)260に表示し、処理を終了する。このように、情報提供対象者との距離が遠くなっていく場合には、見易い大きな広告を提示することにより、遠くに離れていても広告情報を認識させることが可能となる。   Step 107) When the information provision target is away, the output control unit 250 selects an advertisement whose information amount is equal to or less than the upper limit of the information amount calculated in Step 104 from the video / audio data storage unit 240, and outputs it. Displayed on the unit (display) 260, and the process ends. As described above, when the distance to the information providing target is increased, it is possible to recognize the advertisement information even if the user is far away by presenting a large advertisement that is easy to see.

次に、位置に応じて表示位置を変化させる場合について説明する。   Next, a case where the display position is changed according to the position will be described.

図6は、本発明の一実施の形態における位置に応じて表示位置を変化させる場合のフローチャートである。   FIG. 6 is a flowchart for changing the display position in accordance with the position according to the embodiment of the present invention.

ステップ201) センサ部100のセンサ110A(カメラ)で情報提供対象者を撮影し、その動画像または静止画像、当該センサの識別子と共にセンサ結果取得部121に出力する。センサ結果取得部121は、所定の閾値内の時間における画像を測定結果メモリ131に格納する。   Step 201) The information target person is photographed by the sensor 110A (camera) of the sensor unit 100, and is output to the sensor result acquisition unit 121 together with the moving image or the still image and the identifier of the sensor. The sensor result acquisition unit 121 stores an image at a time within a predetermined threshold in the measurement result memory 131.

ステップ202) センサ結果処理部122は、測定結果メモリ131から所定の時間内の画像から情報提供対象者の移動方向を、図3に示す方法により求め、その情報提供対象者の位置を求める。   Step 202) The sensor result processing unit 122 obtains the movement direction of the information providing target person from the image within the predetermined time from the measurement result memory 131 by the method shown in FIG. 3, and obtains the position of the information providing target person.

ステップ203) センサ結果処理部122は、センサ識別子に基づいてセンサ位置情報記憶部130を参照して、取得したディスプレイの位置情報と、ステップ202で求められた情報提供対象者の位置に基づいて表示位置を算出し、その位置を座標に変換する。詳しくは、図7に示すように、情報提供対象者の位置と、センサ位置情報記憶部130に格納されているディスプレイの位置情報から3頂点の位置を決定し、情報提供対象者の位置の角の二等分線を算出し、当該二等分線がディスプレイの位置と交わる点を表示する場所とし、これをセンサ解析結果として算出結果出力部123から出力する。   Step 203) The sensor result processing unit 122 refers to the sensor position information storage unit 130 based on the sensor identifier, and displays based on the acquired position information of the display and the position of the information providing target obtained in Step 202. The position is calculated and the position is converted into coordinates. Specifically, as shown in FIG. 7, the positions of the three vertices are determined from the position of the information providing target person and the position information of the display stored in the sensor position information storage unit 130, and the angle of the information providing target person position is determined. The bisector is calculated as a place where a point where the bisector intersects the position of the display is displayed, and this is output from the calculation result output unit 123 as a sensor analysis result.

ステップ204) 表示部200の算出結果取得部210において、センサ部100において決定された出力部(ディスプレイ)260上の表示する場所を取得すると、出力制御部250は、映像データ及び指示情報記憶部240から広告を選定し、ディスプレイ260の表示位置に表示し、処理を終了する。   Step 204) When the calculation result acquisition unit 210 of the display unit 200 acquires the display location on the output unit (display) 260 determined by the sensor unit 100, the output control unit 250 displays the video data and instruction information storage unit 240. Then, an advertisement is selected and displayed on the display position of the display 260, and the process is terminated.

次に、距離に応じて音量または、映像を再生する音声を変化させる場合について説明する。   Next, a case where the volume or the sound for reproducing the video is changed according to the distance will be described.

図8は、本発明の一実施の形態における距離に応じて音量または、再生する音声を変える場合のフローチャート(その1)である。   FIG. 8 is a flowchart (part 1) in the case where the volume or the sound to be reproduced is changed according to the distance in the embodiment of the present invention.

ステップ301) 図5のステップ101と同様である。   Step 301) Same as step 101 in FIG.

ステップ302) 図5のステップ102と同様である。   Step 302) The same as step 102 in FIG.

ステップ303) 表示部20の算出結果取得部210は、センサ部100からセンサ解析結果を取得し、出力制御部250において、センサ解析結果の情報提供対象者までの距離と、予め設定され、動作ルール記憶部230の音声再生ルールの距離毎の音量に基づいて、情報提供対象者に音が聞こえるために必要な音量の最小値を算出する。   Step 303) The calculation result acquisition unit 210 of the display unit 20 acquires the sensor analysis result from the sensor unit 100, and the output control unit 250 presets the distance to the information providing target person of the sensor analysis result and the operation rule. Based on the sound volume for each distance of the sound reproduction rule in the storage unit 230, the minimum value of the sound volume necessary for the information providing target person to hear the sound is calculated.

ステップ304) また、出力制御部250は、予めメモリ(図示せず)に格納されているスピーカの能力情報を参照して、音が聞こえるために必要な音量の最小値がスピーカの能力を超えていないか、もしくは、動作ルール記憶部230の音声再生ルールを参照して、法律的に許されない大きさであるかを判定する。いずれかである場合は、ステップ305に移行し、そうでない場合はステップ307に移行する。   Step 304) Further, the output control unit 250 refers to speaker capability information stored in advance in a memory (not shown), and the minimum value of the volume necessary to hear the sound exceeds the speaker capability. Whether or not the size is legally not permitted is determined by referring to the audio reproduction rule in the operation rule storage unit 230. If it is either, the process proceeds to step 305, and if not, the process proceeds to step 307.

ステップ305) 出力制御部250は、再生できる最大の音量と情報提供対象者までの距離から、情報提供対象者に理解できる情報提示速度の上限を決定する。   Step 305) The output control unit 250 determines the upper limit of the information presentation speed that can be understood by the information providing target person from the maximum volume that can be reproduced and the distance to the information providing target person.

ステップ306) 出力制御部250は、映像・音声データ記憶部240から決定した音声情報再生速度以下の広告(音声データ)を選定し、当該広告に対応する音声指示情報に基づいて、当該音声データを出力部260(スピーカ)に出力し、処理を終了する。   Step 306) The output control unit 250 selects an advertisement (audio data) that is equal to or less than the audio information reproduction speed determined from the video / audio data storage unit 240, and based on the audio instruction information corresponding to the advertisement, It outputs to the output part 260 (speaker), and complete | finishes a process.

ステップ307) ステップ304において、スピーカの能力を超えておらず、また、法律の範囲内である場合は、情報提供対象者が近付きつつあるかを判定する。判定方法は、図5のステップ106と同様である。近付きつつある場合は、ステップ308に移行し、遠ざかっている場合はステップ309に移行する。   Step 307) In step 304, if the capacity of the speaker is not exceeded and is within the scope of the law, it is determined whether the information providing subject is approaching. The determination method is the same as step 106 in FIG. If it is approaching, the process proceeds to step 308, and if it is moving away, the process proceeds to step 309.

ステップ308) 出力制御部250は、映像・音声データ記憶部240から出力する広告(音声データ)を選択し、ステップ303で算出された音量より所定の音量だけ大きい音量でスピーカ260から出力し、処理を終了する。   Step 308) The output control unit 250 selects an advertisement (audio data) to be output from the video / audio data storage unit 240, and outputs the advertisement (audio data) from the speaker 260 at a volume that is higher than the volume calculated in step 303 by a predetermined volume. Exit.

当該処理は、スピーカに近寄ってきている情報提供対象者は音声が聞き取りにくいと考えられるため、所定の音量だけ大きな音量で出力するものである。   In this process, since the information providing target who is approaching the speaker is considered to be difficult to hear the sound, the information is output at a predetermined volume.

ステップ309) 情報提供対象者が遠ざかっている場合は、映像・音声データ記憶部240から出力するコンテンツを選択し、ステップ303で算出された音量で出力部(スピーカ)260から出力し、処理を終了する。   Step 309) If the information providing target is away, select the content to be output from the video / audio data storage unit 240, output it from the output unit (speaker) 260 at the volume calculated in Step 303, and terminate the process. To do.

上記では、スピーカ260に近寄ってきた情報提供対象者に聞こえる音量が減少しないように制御する例を示したが、以下では、当該情報提供者に対して出力する音量が最大値を超えないように制御する例を説明する。   In the above, an example is shown in which the volume that can be heard by the information providing target person approaching the speaker 260 is controlled so as not to decrease, but in the following, the volume that is output to the information provider does not exceed the maximum value. An example of control will be described.

図9は、本発明の一実施の形態における距離に応じて音量または、再生する音声を変える場合のフローチャート(その2)である。上記の図8のフローチャートと同様の処理については同一のステップ番号を付与し、その説明を省略する。   FIG. 9 is a flowchart (part 2) when the volume or the sound to be reproduced is changed according to the distance according to the embodiment of the present invention. The same steps as those in the flowchart of FIG. 8 are given the same step numbers, and descriptions thereof are omitted.

ステップ401) 出力制御部250は、ステップ302で算出された距離に基づいて、情報提供対象者に音が聞こえるために必要な音量と、当該音量で広告音声を再生した場合に当該情報提供対象者に聞こえる音量を算出する。   Step 401) Based on the distance calculated in Step 302, the output control unit 250 determines the volume necessary for the information providing target person to hear the sound and the information providing target person when the advertisement sound is reproduced at the sound volume. Calculate the audible volume.

ステップ402) ステップ307において、情報提供対象者が近付きつつある場合には、前回の情報提供対象者に聞こえた音量より所定の音量だけ大きい音量(初回の広告再生の場合は0)の方がステップ401で算出した情報提供対象者に聞こえる音量より大きいかを判定し、大きい場合はステップ404に移行し、小さい場合はステップ403に移行する。なお、上記の「前回の情報提供対象者に聞こえた音量」とは、前回の出力した音量(初回の場合には0)を出力後に記憶手段(図示せず)に格納しておいた音量を指す。   Step 402) In Step 307, when the information providing target is approaching, the volume that is larger than the volume heard by the previous information providing target by a predetermined volume (0 in the case of the first advertisement reproduction) is the step. It is determined whether it is larger than the volume that can be heard by the information providing target calculated in 401. If it is larger, the process proceeds to step 404. If it is smaller, the process proceeds to step 403. In addition, the above-mentioned “volume heard by the previous information providing target” means the volume stored in the storage means (not shown) after outputting the previously output volume (0 in the first time). Point to.

ステップ403) ステップ401で算出した音量で広告音声をスピーカ260で再生し、ステップ405に移行する。   Step 403) The advertisement sound is reproduced by the speaker 260 at the volume calculated in Step 401, and the process proceeds to Step 405.

ステップ404) 前回情報提供対象者に聞こえた音量より所定の音量だけ大きい音量(初回の広告再生の場合は0)で広告音声を再生する。   Step 404) The advertisement sound is reproduced at a volume (0 in the case of the first advertisement reproduction) that is higher than the volume heard by the information provision target last time by a predetermined volume.

ステップ405) 情報提供対象者に聞こえた音量を記憶手段(図示せず)に記録する。   Step 405) The sound volume heard by the information providing subject is recorded in a storage means (not shown).

図9に示す処理を行うことで、広告音声を視聴しようとして近寄ってきた情報提供対象者に対して大きすぎる音量で不快にさせることを回避することができる。   By performing the process shown in FIG. 9, it is possible to avoid discomfort at an excessively loud volume for the information providing target person who has approached to view the advertisement sound.

上記の実施の形態では、センサとしてカメラを利用した例を示しているが、人感センサを用いてもよい。人感センサを用いても、センサと情報提供対象者との距離、移動方向、移動速度等のセンサ解析結果を取得することが可能であるため、表示部200では、上記と同様の処理を行うことができる。   In the above embodiment, an example is shown in which a camera is used as a sensor, but a human sensor may be used. Even if a human sensor is used, it is possible to obtain sensor analysis results such as the distance between the sensor and the information providing target, the moving direction, and the moving speed. Therefore, the display unit 200 performs the same processing as described above. be able to.

なお、上記の実施の形態では、センサ部100と表示部200をネットワーク50を介して接続する構成として説明したが、この例に限定されることなく、センサ部100と表示部200を1つの筺体に設けることも可能である。   In the above embodiment, the sensor unit 100 and the display unit 200 have been described as being connected via the network 50. However, the present invention is not limited to this example, and the sensor unit 100 and the display unit 200 are combined into one casing. It is also possible to provide it.

また、上記の図2に示すセンサ部100、表示部200の構成要素の動作をプログラムとして構築し、センサ部、表示部、及びそれら両者を合わせた装置として利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。   Further, the operation of the components of the sensor unit 100 and the display unit 200 shown in FIG. 2 is constructed as a program, and is installed and executed on a computer used as a device that combines the sensor unit, the display unit, and both. Or can be distributed via a network.

また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。   Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed in a computer.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、ディスプレイ広告、音声による広告、または、各種コンテンツを出力する技術に適用可能である。   The present invention can be applied to a technology for outputting a display advertisement, a sound advertisement, or various contents.

本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の一実施の形態におけるシステム構成図である。1 is a system configuration diagram according to an embodiment of the present invention. 本発明の一実施の形態におけるセンサ部を説明するための図である。It is a figure for demonstrating the sensor part in one embodiment of this invention. 本発明の一実施の形態における表示ルールの例である。It is an example of the display rule in one embodiment of this invention. 本発明の一実施の形態における距離に応じて表示内容を変化させる例のフローチャートである。It is a flowchart of the example which changes a display content according to the distance in one embodiment of this invention. 本発明の一実施の形態における位置に応じて表示位置を変化させる例である。It is an example which changes a display position according to the position in one embodiment of the present invention. 本発明の一実施の形態における視聴者の位置から表示位置を決定する方法を示す図である。It is a figure which shows the method of determining a display position from the position of the viewer in one embodiment of this invention. 本発明の一実施の形態における距離に応じて音量または、再生する音声を変える場合のフローチャート(その1)である。It is a flowchart (the 1) in the case of changing a sound volume or the audio | voice to reproduce | regenerate according to the distance in one embodiment of this invention. 本発明の一実施の形態における距離に応じて音量または、再生する音声を変える場合のフローチャート(その2)である。It is a flowchart (the 2) in the case of changing a sound volume or the audio | voice to reproduce | regenerate according to the distance in one embodiment of this invention.

符号の説明Explanation of symbols

100 センサ手段、センサ部
110 センサ
110A センサ(カメラ)
110B センサ(人感センサ)
120 CPU
121 センサ結果取得部
122 センサ結果処理手段、センサ結果処理部
123 算出結果出力部
130 センサ位置情報記憶部
131 測定結果メモリ
200 表示手段、表示部
210 センサ解析結果取得部
211 解析結果メモリ
230 ルール記憶手段、動作ルール記憶部
240 映像・音声データ記憶手段
250 出力制御手段、出力制御部
260 出力手段、出力部
DESCRIPTION OF SYMBOLS 100 Sensor means, sensor part 110 Sensor 110A Sensor (camera)
110B sensor (human sensor)
120 CPU
121 sensor result acquisition unit 122 sensor result processing unit, sensor result processing unit 123 calculation result output unit 130 sensor position information storage unit 131 measurement result memory 200 display unit, display unit 210 sensor analysis result acquisition unit 211 analysis result memory 230 rule storage unit , Operation rule storage unit 240 video / audio data storage unit 250 output control unit, output control unit 260 output unit, output unit

Claims (2)

センサの検出結果に基づいて、ディスプレイやスピーカを含む出力手段から、情報を提供する対象となる人間に対して情報を提供するための情報処理装置であって
記センサから取得した検出結果を解析し、該センサの周囲に存在する物体(以下、情報提供対象者と記す)の位置及び移動方向を解析し、該センサの識別子を付与してセンサ解析結果を出力するセンサ結果処理手段と
前記センサ解析結果に基づいて、前記情報提供対象者から前記ディスプレイまでの距離を取得し、該情報提供対象者が近付いてきていることを検出した場合には、該距離に基づいて、該情報提供対象者に聞こえる音量を算出し、該音量が前回情報提供者に聞こえた音量に所定の音量を加えた音量よりも減少しないように、該情報提供対象者に聞こえる該音量を制御し、前記出力手段から情報を出力する出力制御手段と、
前記情報提供者に聞こえた音量を記録する記憶手段と、
からなることを特徴とする情報処理装置。
An information processing apparatus for providing information to a person who provides information from an output unit including a display and a speaker based on a detection result of a sensor ,
Analyzing the detection result obtained from the previous SL sensor, objects present around the sensor (hereinafter, referred to as "information providing subject") by analyzing the position and direction of movement of, and imparts an identifier of the sensor sensor Sensor result processing means for outputting an analysis result ;
Based on the sensor analysis result, we obtain the distance from the information provider subject to the display, when it is detected that the information providing subject is approaching, based on the distance, providing the information Calculating the volume that can be heard by the target person, controlling the volume that can be heard by the information providing target so that the volume does not decrease below the volume obtained by adding a predetermined volume to the volume that was previously heard by the information provider, and the output Output control means for outputting information from the means;
Storage means for recording the volume heard by the information provider;
An information processing apparatus comprising:
前記出力制御手段は、
前記情報提供対象者から前記ディスプレイまでの距離に基づいて該情報提供対象者に聞こえる音量が別途定められた最大値を超えないように制御する手段を含む請求項記載の情報処理装置。
The output control means includes
The information processing apparatus of claim 1 further comprising means for controlling so as not to exceed the maximum volume has been determined separately audible to the information providing subject based on the distance from the information provider subject to the display.
JP2008128854A 2008-05-15 2008-05-15 Information processing device Active JP4859876B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008128854A JP4859876B2 (en) 2008-05-15 2008-05-15 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008128854A JP4859876B2 (en) 2008-05-15 2008-05-15 Information processing device

Publications (2)

Publication Number Publication Date
JP2009277097A JP2009277097A (en) 2009-11-26
JP4859876B2 true JP4859876B2 (en) 2012-01-25

Family

ID=41442451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008128854A Active JP4859876B2 (en) 2008-05-15 2008-05-15 Information processing device

Country Status (1)

Country Link
JP (1) JP4859876B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5643543B2 (en) * 2010-05-20 2014-12-17 キヤノン株式会社 Information presentation system, control method therefor, and program
JP5468991B2 (en) * 2010-05-25 2014-04-09 日本電信電話株式会社 Information presentation system, server in information presentation system, and information presentation program
JP5731890B2 (en) * 2011-04-26 2015-06-10 日本電信電話株式会社 Information presenting apparatus, information presenting method, and information presenting program
JP5863423B2 (en) 2011-11-30 2016-02-16 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP5635559B2 (en) * 2012-05-28 2014-12-03 ヤフー株式会社 Display device, display method, and display program
JP6108713B2 (en) * 2012-08-09 2017-04-05 キヤノン株式会社 Image display apparatus and control method thereof
KR101471412B1 (en) * 2013-01-30 2014-12-10 주식회사 엘지씨엔에스 Advertising method and device with transparent display
JP5797233B2 (en) * 2013-06-19 2015-10-21 ヤフー株式会社 Distribution device, terminal device, distribution system, distribution method, and transmission program
JP6315085B2 (en) * 2014-05-12 2018-04-25 富士通株式会社 Product information display system, control device, control program, and control method
JP6240648B2 (en) * 2015-11-27 2017-11-29 株式会社ネクスティ エレクトロニクス Information providing apparatus, information providing system, terminal, and program
JP6850740B2 (en) * 2018-01-26 2021-03-31 日本電信電話株式会社 Information output device, method and program
JP2022049055A (en) 2020-09-16 2022-03-29 富士フイルムビジネスイノベーション株式会社 Display control device and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049656A (en) * 2003-07-29 2005-02-24 Nec Plasma Display Corp Display system and position conjecture system
JP2007322452A (en) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd Image display device and its method, and storage medium

Also Published As

Publication number Publication date
JP2009277097A (en) 2009-11-26

Similar Documents

Publication Publication Date Title
JP4859876B2 (en) Information processing device
US10679676B2 (en) Automatic generation of video and directional audio from spherical content
KR102025334B1 (en) Determining user interest through detected physical indicia
JP6932206B2 (en) Equipment and related methods for the presentation of spatial audio
US9536161B1 (en) Visual and audio recognition for scene change events
EP3264222B1 (en) An apparatus and associated methods
CN109154862B (en) Apparatus, method, and computer-readable medium for processing virtual reality content
JP2020520576A5 (en)
EP3422145B1 (en) Provision of virtual reality content
KR20140112527A (en) A method, an apparatus and a computer program for determination of an audio track
JP2009111833A (en) Information presenting device
JP7056339B2 (en) User support programs, user support devices and user support methods
WO2018230105A1 (en) Advertising information processing system, advertising display region evaluation method, and advertising information processing program
JP6359704B2 (en) A method for supplying information associated with an event to a person
US9575960B1 (en) Auditory enhancement using word analysis
US11257116B2 (en) Method and apparatus for providing advertisement content and recording medium
WO2017137658A1 (en) Methods and apparatuses relating to the handling of visual virtual reality content
US8737812B2 (en) Content playback apparatus and content playback method
US8786752B2 (en) Digital device and method for controlling the same
TW202005407A (en) System for displaying hint in augmented reality to play continuing film and method thereof
TWI762830B (en) System for displaying hint in augmented reality to play continuing film and method thereof
JP7284401B2 (en) Line-of-sight information processing program, information processing device, and line-of-sight information processing method
US20230101693A1 (en) Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program
JP2015069201A (en) Control device, content reproduction device, content distribution server, content reproduction method, and content reproduction program
JP2004287004A (en) Display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111101

R150 Certificate of patent or registration of utility model

Ref document number: 4859876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350