JP2011227510A - Display control device, display control method, display control program, and display - Google Patents

Display control device, display control method, display control program, and display Download PDF

Info

Publication number
JP2011227510A
JP2011227510A JP2011131584A JP2011131584A JP2011227510A JP 2011227510 A JP2011227510 A JP 2011227510A JP 2011131584 A JP2011131584 A JP 2011131584A JP 2011131584 A JP2011131584 A JP 2011131584A JP 2011227510 A JP2011227510 A JP 2011227510A
Authority
JP
Japan
Prior art keywords
display
video
display control
detection unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011131584A
Other languages
Japanese (ja)
Other versions
JP5478559B2 (en
Inventor
Yukari Katayama
ゆかり 片山
Masakatsu Mori
正勝 森
Shinya Iguchi
慎也 井口
Toshiyuki Morita
俊之 森多
Yasushi Nagano
裕史 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011131584A priority Critical patent/JP5478559B2/en
Publication of JP2011227510A publication Critical patent/JP2011227510A/en
Application granted granted Critical
Publication of JP5478559B2 publication Critical patent/JP5478559B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide usability to users and to efficiently manage a display with low cost.SOLUTION: A display control device controls a display 20. The display control device includes: an image acquisition unit 110 acquiring an image in front of the display; an object detection unit 111 detecting whether an object exists in front of the display; and an output change processing unit 112 performing processing of output form change of a content 30 on the display 20, which is triggered by the existence of the object detected by the object detection unit 111, when an image acquired by the image acquisition unit 110 is an image of a predetermined object.

Description

本発明は、ディスプレイ制御装置、ディスプレイ制御方法、ディスプレイ制御プログラム、およびディスプレイに関する。   The present invention relates to a display control device, a display control method, a display control program, and a display.

従来から、街頭やショッピングモール、デパートに大型の高精細ディスプレイを設置し、広告用の掲示板として使用するということが行われている。こうしたディスプレイの制御に関する種々の技術が提案されている。   Conventionally, large high-definition displays are installed in streets, shopping malls, and department stores and used as bulletin boards for advertisements. Various techniques relating to such display control have been proposed.

例えば、ディスプレイで表示される広告に関連する、より詳細な情報の提供を行うとして、広告と連絡番号が表示された表示手段と、前記広告及び前記連絡番号を見て前記連絡番号によってアクセスしてきた広告受給者の携帯型端末に前記広告に対応したデジタル情報を供給する管理手段とを有する広告装置(特許文献1参照)が提案されている。   For example, in order to provide more detailed information related to an advertisement displayed on the display, the display means displaying the advertisement and the contact number, and accessing the contact number after seeing the advertisement and the contact number There has been proposed an advertising device (see Patent Document 1) having a management means for supplying digital information corresponding to the advertisement to the mobile terminal of the advertisement recipient.

また、ユーザが接触してくることによるディスプレイの劣化を防止する技術として、例えば、ビデオカメラによりユーザを撮影し、そのユーザが体の部位を用いて指し示した先の、撮影空間内の位置もしくは実物体を認識するインタフェース方法であって、基準カメラを含む複数のビデオカメラを用いて、実空間を撮影した画像を入力する段階と、前記基準カメラから撮影物体までの距離情報を、前記撮影画像を用いたステレオ法により生成する段階と、前記基準カメラで撮影した画像である基準画像からの前記距離情報を用いてボクセル空間を生成する段階と、前記基準カメラからの撮影画像上で、ユーザの体の予め定めた部位2箇所を始点と終点として検出し、該画像上でのそれらの2次元座標を算出する段階と、前記距離情報と、前記始点・終点の画像上での2次元座標とから、実空間上における前記始点・終点の3次元座標を算出し、ユーザが指し示す実空間上での方向情報を算出する段階と、前記生成されたボクセル空間上の任意の3次元位置に、実空間上に存在する実物体の情報である、一部もしくは全体に渡る3次元位置情報およびその付加情報を登録する段階と、前記ユーザの指し示す実空間上での方向情報と、登録されている物体の3次元位置情報とを照合し、操作者が指し示す3次元指示位置情報である、ユーザが指し示す方向の延長線と、登録された物体との交点に関する情報を検出する段階と、前記生成されたボクセル空間、前記登録過程および結果、前記3次元指示方向情報、および指示された物体の情報と撮影画像とを重畳表示する段階とを有するインタフェース方法(特許文献2参照)が提案されている。   In addition, as a technique for preventing display deterioration due to contact with the user, for example, a video camera captures the user, and the position pointed to by the user using the body part in the imaging space or the actual object An interface method for recognizing a body, wherein a plurality of video cameras including a reference camera are used to input an image obtained by photographing a real space; distance information from the reference camera to a photographed object; Generating using the stereo method used, generating a voxel space using the distance information from a reference image that is an image captured by the reference camera, and a user's body on the captured image from the reference camera Detecting two predetermined parts of the image as a start point and an end point, calculating their two-dimensional coordinates on the image, the distance information, Calculating the three-dimensional coordinates of the start point / end point in real space from the two-dimensional coordinates on the point / end point image, calculating direction information on the real space indicated by the user, and the generated Registering a part or the whole of three-dimensional position information and its additional information, which is information of a real object existing in the real space, in an arbitrary three-dimensional position on the voxel space, and the real space indicated by the user The intersection between the extension line in the direction pointed to by the user, which is the three-dimensional pointed position information pointed by the operator, by collating the above direction information with the three-dimensional position information of the registered object, and the registered object And a step of superimposing and displaying the generated voxel space, the registration process and result, the three-dimensional indication direction information, and the information of the indicated object and the photographed image. Interface method (see Patent Document 2) are proposed.

また、カメラで撮影した画像から人物の存在を識別する技術として、例えば、人物の顔を含む動画像から顔の動きを検出する装置において、ある時刻に撮影された画像を輝度・色差表現に変換する第一の輝度・色差変換手段と、前記ある時刻に撮影された輝度・色差表現された画像から閾値処理により肌色領域を定める肌色領域閾値処理手段と、次の時刻に撮影された画像を輝度・色差表現に変換する第二の輝度・色差変換手段と、前記ある時刻に撮影された画像の輝度成分と前記次の時刻に撮影された画像の輝度成分とから前記肌色領域内だけで動き量を表す画像を計算するマスク領域輝度差分計算手段とを備えることを特徴とする人物動き領域検出装置(特許文献3参照)が提案されている。   In addition, as a technique for identifying the presence of a person from an image photographed by a camera, for example, in an apparatus that detects the movement of a face from a moving image including a human face, the image photographed at a certain time is converted into a luminance / color difference expression. A first luminance / color difference converting means, a skin color area threshold processing means for determining a skin color area by threshold processing from the luminance / color difference expressed image taken at a certain time, and a luminance of the image taken at the next time The amount of movement only in the skin color area from the second luminance / color difference conversion means for converting to color difference expression, the luminance component of the image taken at the certain time and the luminance component of the image taken at the next time There has been proposed a human motion region detection apparatus (see Patent Document 3) characterized by comprising a mask region luminance difference calculation means for calculating an image representing

また同様な技術として、例えば、人物の顔が撮影されている画像中を、画像の天地方向に調べた時に、明るさが明から暗そして明に変化する点と、暗から明に変化する点で挟まれる領域を検出する手段と、該領域から、該領域の形状特徴と領域内の輝度特徴が人物の目に近い領域を目候補領域として取り出す手段と、上記領域から、上記領域の形状特徴と領域内の輝度特徴が人物の口に近い領域を口候補領域として取り出す手段と、上記目候補領域から2つ、上記口候補領域から1つを重複せずに任意に組み合わせ、人物の顔らしい配置を為している組み合わせを取り出して顔候補領域として検出する手段とを有することを特徴とする顔検出装置(特許文献4参照)が提案されている。   In addition, as a similar technique, for example, when an image of a person's face is taken in the vertical direction of the image, the brightness changes from light to dark and light, and the brightness changes from dark to light. Means for detecting a region sandwiched between, a means for extracting from the region a shape feature of the region and a region whose luminance feature is close to the eyes of a person as an eye candidate region, and a shape feature of the region from the region And a means for extracting a region whose luminance feature is close to a person's mouth as a mouth candidate region, and two of the eye candidate regions and one of the mouth candidate regions may be arbitrarily combined without overlapping, and it may be a human face There has been proposed a face detection device (see Patent Document 4) characterized by having means for taking out a combination of arrangement and detecting it as a face candidate region.

また、ディスプレイの劣化、破損を防ぐためにディスプレイをガラスケース(ショーウィンドウ)の中に収める一方で、このガラスケースをユーザ等が叩いた音を解析し入力信号と認識する技術が提案されている(非特許文献1参照)。   In addition, a technique has been proposed in which a display is placed in a glass case (show window) in order to prevent the display from being deteriorated or damaged, and a sound generated by a user or the like is analyzed and recognized as an input signal. Non-patent document 1).

特開2002−32652号公報JP 2002-32652 A 特開2004−272515号公報JP 2004-272515 A 特許第2663878号公報Japanese Patent No. 2663878 特開平7−311833号公報JP 7-311833 A

Joseph A.Paradiso,“TRACKING CONTACT AND FREE GESTURE ACROSS LARGE INTE-RACTIVE SURFACES”,Vol.46,No.7 COMMUNICATIONS OF THE ACM,July 2003Joseph A. Paradiso, “TRACKING CONTACT AND FREE GESTURE ACROSS LARGE INTER-RACTIVE SURFACES”, Vol. 46, no. 7 COMMUNICATIONS OF THE ACM, July 2003

しかしながら、従来技術においては、ディスプレイに表示したコンテンツに関連する詳細な情報をユーザに提供する際に、当該ユーザに特定装置の所有やその操作を要求し、ユーザ側に負担を強いてしまうという課題があった。また、ディスプレイ画面において撮影中のユーザを表示する必要があるなど、ディスプレイ上の表示エリアの有効活用が図られないといった課題があった。また、ユーザの接触動作によるディスプレイの劣化や損傷を防ぐ従来技術では、実現に際して煩雑な手間やコスト増大を招来するといった課題があった。   However, in the related art, when providing the user with detailed information related to the content displayed on the display, the user is required to own or operate the specific device, which imposes a burden on the user side. there were. In addition, there is a problem that the display area on the display cannot be effectively used, for example, it is necessary to display the user who is shooting on the display screen. In addition, the conventional technique for preventing display deterioration and damage due to a user's contact operation has a problem in that it is complicated and requires an increase in cost.

そこで本発明は上記課題を鑑みてなされたものであり、ユーザの利便性を図ると共に、ディスプレイの効率的で低コストな管理を可能とすることを主たる目的とする。   SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has as its main objects to improve the convenience for the user and enable efficient and low-cost management of the display.

上記課題を解決する本発明のディスプレイ制御装置は、ディスプレイの制御を行う装置であって、ディスプレイ前方の映像を取得する映像取得部と、ディスプレイ前方における物体の存在有無を感知する物体検出部と、前記映像取得部が得た映像が所定物体の映像である場合に、前記物体検出部における物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行する、出力変化処理部と、を備える。   The display control device of the present invention that solves the above problems is a device that controls a display, a video acquisition unit that acquires a video in front of the display, an object detection unit that senses the presence or absence of an object in front of the display, An output change processing unit that executes processing for changing the output form of the content on the display triggered by the presence detection of the object in the object detection unit when the video obtained by the video acquisition unit is a video of a predetermined object; Is provided.

また、本発明のディスプレイ制御装置において、前記出力変化処理部は、前記映像取得部が得た映像が人物映像である場合に、前期物体検出部における物体の存在感知を人物の存在と認識し、ディスプレイにおけるコンテンツの出力形態変化の契機とするものであると好適である。   In the display control apparatus of the present invention, the output change processing unit recognizes the presence of the object in the previous object detection unit as the presence of a person when the video obtained by the video acquisition unit is a human video, It is preferable that the content output form changes on the display.

また、本発明のディスプレイ制御装置において、前記出力変化処理部は、前記映像取得部が得た映像が人物映像であって、当該人物映像がディスプレイに対向した顔映像である場合に、前期物体検出部における物体の存在感知をディスプレイに顔を向けた人物の存在と認識し、ディスプレイにおけるコンテンツの出力形態変化の契機とするものであるとすれば好適である。   In the display control device of the present invention, the output change processing unit may detect the previous object when the video obtained by the video acquisition unit is a human video and the human video is a face video facing the display. It is preferable that the presence detection of the object in the unit is recognized as the presence of a person who turns his face to the display and is used as a trigger for a change in the output form of the content on the display.

また、本発明のディスプレイ制御装置において、前記物体検出部は、ディスプレイ前方における物体の存在有無および存在位置を感知するものであり、前記出力変化処理部は、前記映像取得部が得た映像が所定物体の映像である場合に、前記物体検出部における物体の存在感知に際し、当該物体の存在位置の情報を、物体存在位置に応じたコンテンツの出力形態変化を定めた表示テーブルに照合し、前記存在位置の情報に応じたディスプレイにおけるコンテンツの出力形態変化の処理を実行するものであるとすれば好適である。   In the display control apparatus of the present invention, the object detection unit senses the presence / absence and location of an object in front of the display, and the output change processing unit receives a predetermined image obtained by the image acquisition unit. When the object is detected by the object detector in the case of an image of the object, the information on the position of the object is checked against a display table that defines a change in the output form of the content according to the object position. It is preferable that the process of changing the output form of the content on the display according to the position information is executed.

また、本発明のディスプレイ制御装置は、前記物体検出部が、赤外線センサまたは超音波センサのいずれかであるとすれば好適である。   In the display control device of the present invention, it is preferable that the object detection unit is an infrared sensor or an ultrasonic sensor.

また、本発明のディスプレイ制御方法は、ディスプレイの制御をコンピュータにて行う方法であって、ディスプレイ前方の映像を取得し、ディスプレイ前方における物体の存在有無を感知し、前記ディスプレイ前方における映像が所定物体の映像である場合に、前記物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行する。   The display control method of the present invention is a method for controlling a display by a computer, acquires an image in front of the display, senses the presence or absence of an object in front of the display, and the image in front of the display is a predetermined object. In the case of the video, the processing for changing the output form of the content on the display is executed with the detection of the presence of the object.

また、本発明のディスプレイ制御プログラムは、ディスプレイの制御方法をコンピュータに実行させるためのプログラムであって、ディスプレイ前方の映像を取得するステップと、ディスプレイ前方における物体の存在有無を感知するステップと、前記映像取得部が得た映像情報が所定物体の映像である場合に、前記物体検出部における物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行するステップと、を含む。   The display control program of the present invention is a program for causing a computer to execute a display control method, the step of acquiring an image in front of the display, the step of sensing the presence or absence of an object in front of the display, And a step of executing content output form change processing on the display in response to sensing of the presence of the object in the object detection unit when the video information obtained by the video acquisition unit is a video of a predetermined object.

また、本発明のディスプレイは、ディスプレイ前方の映像を取得する映像取得部と、ディスプレイ前方における物体の存在有無を感知する物体検出部と、前記映像取得部が得た映像情報が所定物体の映像である場合に、前記物体検出部における物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行する、出力変化処理部とを有するディスプレイ制御装置を備える。   The display according to the present invention includes a video acquisition unit that acquires a video in front of the display, an object detection unit that detects presence or absence of an object in front of the display, and video information obtained by the video acquisition unit is a video of a predetermined object. In some cases, the apparatus includes a display control device having an output change processing unit that executes processing for changing the output form of content on the display in response to sensing of the presence of an object in the object detection unit.

また、本発明のディスプレイ制御装置は、ディスプレイに表示されたプロンプトに対する入力に応じて処理を実行するディスプレイ制御装置であって、前記ディスプレイ前方の映像を取得する映像取得部と、前記ディスプレイ前方における物体を検知する物体検出部と、前記物体検出部の前記物体の検知に対応する前記プロンプトに対する入力に応じて処理を実行する処理部とを備え、前記処理部は、前記映像取得部から得た前記映像が所定物体の映像である場合に、前記物体検出部による前記物体の検知を有効化するものである。   The display control device of the present invention is a display control device that executes processing in response to an input to a prompt displayed on a display, and includes a video acquisition unit that acquires a video in front of the display, and an object in front of the display An object detection unit that detects the object, and a processing unit that executes processing in response to an input to the prompt corresponding to the detection of the object of the object detection unit, the processing unit obtained from the video acquisition unit When the video is a video of a predetermined object, the detection of the object by the object detection unit is validated.

また、本発明のディスプレイ制御装置は、プロンプトを表示するディスプレイと、前記ディスプレイ前方の映像を取得する映像取得部と、前記ディスプレイ前方における物体を検知する物体検出部と、前記物体検出部の前記物体の検知に対応する前記プロンプトに対する入力に応じて処理を実行する処理部とを備え、前記処理部は、前記映像取得部から得た前記映像が所定物体の映像である場合に、前記物体検出部による前記物体の検知を有効化するものである。   The display control device of the present invention includes a display that displays a prompt, a video acquisition unit that acquires a video in front of the display, an object detection unit that detects an object in front of the display, and the object in the object detection unit. A processing unit that executes a process in response to an input to the prompt corresponding to the detection of the image, and the processing unit detects the object when the video obtained from the video acquisition unit is a video of a predetermined object. Enables the detection of the object.

本発明によれば、ユーザの利便性を図れると共に、ディスプレイの効率的で低コストな管理が可能となる。   According to the present invention, the convenience of the user can be achieved, and the display can be managed efficiently and at low cost.

本実施形態のディスプレイおよびディスプレイ制御装置の概要を示す図である。It is a figure which shows the outline | summary of the display and display control apparatus of this embodiment. 本実施形態のディスプレイおよびディスプレイ制御装置のブロック図である。It is a block diagram of the display and display control apparatus of this embodiment. 本実施形態の超音波センサの概要を示す図である。It is a figure which shows the outline | summary of the ultrasonic sensor of this embodiment. 本実施形態の超音波センサの出力特性を示す図である。It is a figure which shows the output characteristic of the ultrasonic sensor of this embodiment. 本実施形態における表示テーブルのデータ構造例を示す図である。It is a figure which shows the example of a data structure of the display table in this embodiment. 本実施形態のディスプレイにユーザがアクセスしたときの画面遷移を表す図である。It is a figure showing a screen transition when a user accesses the display of this embodiment. 本実施形態のディスプレイ制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the display control apparatus of this embodiment. 本実施形態のカメラで撮影した、ある時刻Tの静止画を示す図である。It is a figure which shows the still image of a certain time T image | photographed with the camera of this embodiment. 本実施形態のカメラで撮影したある時刻Tの静止画から、肌色領域を抽出した画像を示す図である。It is a figure which shows the image which extracted the skin color area | region from the still image of the certain time T image | photographed with the camera of this embodiment. 本実施形態のカメラで撮影したある時刻Tの静止画から、肌色領域中の微小領域を肌色で塗りつぶした画像を示す図である。It is a figure which shows the image which filled the micro area | region in the skin color area | region with the skin color from the still image of the certain time T image | photographed with the camera of this embodiment. 本実施形態のカメラで撮影したある時刻Tの静止画から、ある一定値よりも画素数の小さな肌色領域を削除した画像を示す図である。It is a figure which shows the image which deleted the skin color area | region where the pixel number is smaller than a certain fixed value from the still image of the certain time T image | photographed with the camera of this embodiment. 本実施形態のカメラで撮影したある時刻Tの静止画から、目を検出した画像を示す図である。It is a figure which shows the image which detected eyes from the still image of the certain time T image | photographed with the camera of this embodiment. 本実施形態のカメラで撮影したある時刻Tの静止画から、目が2つ存在しない肌色領域を削除した画像を示す図である。It is a figure which shows the image which deleted the skin color area | region where two eyes do not exist from the still image of the certain time T image | photographed with the camera of this embodiment. 本実施形態のディスプレイ制御装置における、顔検出動作を示すフローチャートである。It is a flowchart which shows the face detection operation | movement in the display control apparatus of this embodiment.

−−−ディスプレイ設置形態の例−−−
以下に本発明の実施形態について図面を用いて詳細に説明する。図1は、本発明のディスプレイ制御装置10とディスプレイ20を示す図である。本発明のディスプレイ制御装置10が制御対象とするディスプレイ20は、例えばデパートやショッピングモールなどに設置され、館内の店舗案内をする表示板として利用される状況が想定できる。こうした表示板には各階の店舗の名前や扱う商品属性、雰囲気など、店舗の概略を示す概略表示情報がコンテンツ30として表示される。図1に示す例では、例えばデパートの各階ごとに、1階の店舗1−A、1−B、1−C、1−D、2階の店舗2−A、2−B、2−C、2−D、・・・と概略表示情報31が表示されている。
--- Examples of display installation mode ---
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a diagram showing a display control apparatus 10 and a display 20 according to the present invention. The display 20 to be controlled by the display control device 10 of the present invention can be assumed to be installed in a department store or a shopping mall, for example, and used as a display board for in-store shop guidance. On such a display board, summary display information indicating the outline of the store, such as the name of the store on each floor, the product attributes handled, and the atmosphere, is displayed as the content 30. In the example shown in FIG. 1, for example, for each floor of a department store, stores 1-A, 1-B, 1-C, 1-D on the first floor, stores 2-A, 2-B, 2-C on the second floor, 2-D,... And general display information 31 are displayed.

ディスプレイ制御装置10は、前記表示板たるディスプレイ20の前方を撮影するためのビデオカメラ101と、ディスプレイ20の前方にて入力や選択の指示を行うユーザの有無やその位置を検出するための超音波センサ104〜107を備えている。なお、前記ビデオカメラ101や超音波センサ104〜107は、インターフェイスバス102を介して接続される。   The display control apparatus 10 includes a video camera 101 for photographing the front of the display 20 serving as the display board, and an ultrasonic wave for detecting the presence / absence and position of a user who performs an input or selection instruction in front of the display 20. Sensors 104 to 107 are provided. The video camera 101 and the ultrasonic sensors 104 to 107 are connected via the interface bus 102.

前記ビデオカメラ101は、例えばディスプレイ20の頂部21に居てディスプレイ20の前方を撮影方向として設置され、ディスプレイ20の画面22から前方に約30cm離れた位置で、ディスプレイ20の画面の幅および高さに対応した範囲108が撮影できるよう設定されているものとする。また、前記超音波センサ104〜107は、前記各店舗に対応した概略表示情報31の配置マトリクス33に対応して、当該配置マトリクス33の列ごとに少なくとも1つづつ、前記ディスプレイ20の頂部21付近に設置される。この超音波センサ104〜107により、ディスプレイ20の画面22付近にて人物等の物体を検出できる領域は、図1で示す範囲109となる。   The video camera 101 is, for example, located at the top 21 of the display 20 with the front of the display 20 as the shooting direction, and the width and height of the screen of the display 20 at a position about 30 cm away from the screen 22 of the display 20. It is assumed that the range 108 corresponding to is set so that it can be photographed. Further, the ultrasonic sensors 104 to 107 correspond to the arrangement matrix 33 of the outline display information 31 corresponding to each store, and at least one for each column of the arrangement matrix 33, near the top portion 21 of the display 20. Installed. An area where an object such as a person can be detected near the screen 22 of the display 20 by the ultrasonic sensors 104 to 107 is a range 109 shown in FIG.

−−−システム構成例−−−
図2は、本実施形態のディスプレイ20およびディスプレイ制御装置10のブロック図である。前記ディスプレイ制御装置10は、演算処理を実行するCPU201、ディスプレイとしての大型ディスプレイパネル20、メモリ203、磁気ディスクなどの記憶装置204などにより構成され、それぞれが内部バス205により接続されている。また、この内部バス205には、前記ビデオカメラ101と接続するためのインターフェイスバス102と内部バス205との変換を行うIF(インターフェイス)変換206と、超音波センサ104〜107の制御基盤210と接続するためのインターフェイスバス209と内部バス205との変換を行うIF(インターフェイス)変換207が接続されている。
--- System configuration example ---
FIG. 2 is a block diagram of the display 20 and the display control device 10 of the present embodiment. The display control device 10 includes a CPU 201 that executes arithmetic processing, a large display panel 20 as a display, a memory 203, a storage device 204 such as a magnetic disk, and the like, which are connected by an internal bus 205. The internal bus 205 is connected to the interface bus 102 for connecting to the video camera 101 and the IF (interface) conversion 206 for converting between the internal bus 205 and the control board 210 of the ultrasonic sensors 104 to 107. An IF (interface) conversion 207 for converting between the interface bus 209 and the internal bus 205 is connected.

なお、前記ディスプレイ20たる大型ディスプレイパネルは、ディスプレイ制御装置10に含まれる場合(図中実線で囲んだディスプレイ制御装置10)と、含まれない場合(図中破線で囲んだディスプレイ制御装置10)の両方を想定できる。また、ディスプレイ制御装置10として、前記ビデオカメラ101および超音波センサ104〜107、ならびにそれに付帯する制御基盤210、インターフェイス信号線215〜218を含まない例も想定できる。この場合、ビデオカメラ101および超音波センサ104〜107から、ディスプレイ制御装置10の前方における映像や物体有無の検知情報等を取得して利用する装置がディスプレイ制御装置10となる。   The large display panel as the display 20 is included in the display control device 10 (display control device 10 surrounded by a solid line in the figure) and not included (display control device 10 surrounded by a broken line in the drawing). Both can be assumed. Further, as the display control device 10, an example in which the video camera 101 and the ultrasonic sensors 104 to 107, the control base 210 attached thereto, and the interface signal lines 215 to 218 are not included can be assumed. In this case, the display control device 10 is a device that acquires and uses the video in front of the display control device 10 and the detection information of the presence / absence of an object from the video camera 101 and the ultrasonic sensors 104 to 107.

次に、本発明のディスプレイ制御装置10の備える機能部につき説明する。なお、前記制御基盤210は、インターフェイス信号線215〜218により、複数の超音波センサ104〜107に接続され、それぞれの超音波センサの出力値を読み取り、IF(インターフェイス)変換207、内部バス205を介して、CPU201に読み取り値を伝えるものである。   Next, functional units included in the display control apparatus 10 of the present invention will be described. The control board 210 is connected to a plurality of ultrasonic sensors 104 to 107 via interface signal lines 215 to 218, reads output values of the respective ultrasonic sensors, and performs IF (interface) conversion 207 and internal bus 205. The reading value is transmitted to the CPU 201 via the CPU 201.

前記ディスプレイ制御装置10は、本発明のディスプレイ制御方法を実行する機能を実現すべく書き換え可能メモリなどのプログラムデータベース11に格納されたプログラム12をメモリ203に読み出し、演算装置たるCPU201により実行する。   The display control apparatus 10 reads the program 12 stored in the program database 11 such as a rewritable memory to the memory 203 and executes it by the CPU 201 as an arithmetic unit so as to realize the function of executing the display control method of the present invention.

また、前記ディスプレイ制御装置10が、例えばプログラム12に基づき構成・保持する機能部につき説明を行う。前記ディスプレイ制御装置10は、ディスプレイ前方の映像を取得する映像取得部110と、ディスプレイ前方における物体の存在有無を感知する物体検出部111とを備える。   The display control device 10 will be described with respect to functional units configured and held based on the program 12, for example. The display control apparatus 10 includes a video acquisition unit 110 that acquires a video in front of the display, and an object detection unit 111 that senses the presence or absence of an object in front of the display.

また、前記ディスプレイ制御装置10は、前記映像取得部110が得た映像が所定物体の映像である場合に、前記物体検出部111における物体の存在感知を契機に、ディスプレイ20におけるコンテンツ30の出力形態変化の処理を実行する、出力変化処理部112を備える。   Further, the display control device 10 outputs the content 30 on the display 20 when the object obtained by the object detection unit 111 is detected when the image obtained by the image acquisition unit 110 is an image of a predetermined object. An output change processing unit 112 that executes change processing is provided.

また、前記ディスプレイ制御装置10において、前記出力変化処理部112は、前記映像取得部110が得た映像が人物映像である場合に、前期物体検出部111における物体の存在感知を人物の存在と認識し、ディスプレイ20におけるコンテンツ30の出力形態変化の契機とするものであるとすれば好適である。   In the display control device 10, the output change processing unit 112 recognizes the presence detection of the object in the previous object detection unit 111 as the presence of a person when the video obtained by the video acquisition unit 110 is a human video. However, it is preferable that the display 20 is triggered by a change in the output form of the content 30.

また、前記ディスプレイ制御装置10において、前記出力変化処理部112は、前記映像取得部110が得た映像が人物映像であって、当該人物映像がディスプレイ20に対向した顔映像である場合に、前期物体検出部111における物体の存在感知をディスプレイ20に顔を向けた人物の存在と認識し、ディスプレイ20におけるコンテンツ30の出力形態変化の契機とするものとすれば好適である。   In the display control device 10, the output change processing unit 112 determines that the video obtained by the video acquisition unit 110 is a person video and the person video is a face video facing the display 20. It is preferable that the presence detection of the object in the object detection unit 111 is recognized as the presence of a person facing his face to the display 20 and is used as a trigger for the change in the output form of the content 30 on the display 20.

また、前記ディスプレイ制御装置10において、前記物体検出部111が、ディスプレイ前方における物体の存在有無および存在位置を感知するものである場合、前記出力変化処理部112は、前記映像取得部110が得た映像が所定物体の映像である場合に、前記物体検出部111における物体の存在感知に際し、当該物体の存在位置の情報を、物体存在位置に応じたコンテンツ30の出力形態変化を定めた表示テーブル125に照合し、前記存在位置の情報に応じたディスプレイ20におけるコンテンツ30の出力形態変化の処理を実行するものとすれば好適である。   Further, in the display control device 10, when the object detection unit 111 senses the presence / absence and position of an object in front of the display, the output change processing unit 112 is obtained by the video acquisition unit 110. When the image is an image of a predetermined object, when the object detection unit 111 senses the presence of the object, the information on the position of the object is displayed, and the display table 125 that defines the change in the output form of the content 30 according to the object position. It is preferable to execute processing for changing the output form of the content 30 on the display 20 according to the information on the presence position.

また、前記物体検出部111は、赤外線センサまたは超音波センサのいずれかであることが想定できる。   Further, it can be assumed that the object detection unit 111 is either an infrared sensor or an ultrasonic sensor.

なお、前記ディスプレイ制御装置10は、ディスプレイ20に表示されたプロンプト(コンピューターが、コマンド待ちの状態で表示している記号、文字、イメージなど)に対する入力に応じて処理を実行する装置であるとした場合、上記同様に、前記映像取得部110と前記物体検出部111とを備えると共に、前記物体検出部111の前記物体の検知に対応する前記プロンプトに対する入力に応じて処理を実行する処理部を備える。この処理部は、前記出力変化処理部112が担うこととできる。この場合、前記処理部は、前記映像取得部110から得た前記映像が所定物体の映像である場合に、前記物体検出部111による前記物体の検知を有効化するものとなる。   The display control device 10 is a device that executes processing in response to an input to a prompt displayed on the display 20 (a symbol, a character, an image, or the like displayed in a command waiting state by the computer). In this case, similarly to the above, the image acquisition unit 110 and the object detection unit 111 are provided, and a processing unit that executes a process in response to an input to the prompt corresponding to the detection of the object by the object detection unit 111 is provided. . This processing unit can be handled by the output change processing unit 112. In this case, when the video obtained from the video acquisition unit 110 is a video of a predetermined object, the processing unit validates the detection of the object by the object detection unit 111.

なお、これまで示した ディスプレイ制御装置10における各機能部110〜112は、ハードウェアとして実現してもよいし、メモリやHDD(Hard Disk Drive)などの適宜な記憶装置に格納したプログラムとして実現するとしてもよい。この場合、前記CPU104がプログラム実行に合わせて記憶装置より該当プログラム102をメモリ103に読み出して、これを実行することとなる。   Note that each of the functional units 110 to 112 in the display control apparatus 10 described so far may be realized as hardware, or as a program stored in an appropriate storage device such as a memory or an HDD (Hard Disk Drive). It is good. In this case, the CPU 104 reads the corresponding program 102 from the storage device to the memory 103 and executes it in accordance with the program execution.

−−−超音波センサの概略−−−
図3に超音波センサ104〜107の概略図を示す。ここでの超音波センサ104〜107は、超音波の発振素子302および受信素子303が基盤301に取り付けられた構造を有している。この基盤301は、前記発振素子302から超音波が発振されてから、受信素子303に超音波の反射波が届くまでの時間を電圧に変え、これを信号線305に供給する機能を有する。また、前記超音波センサ104〜107は、電源電圧304から電源供給を受け、グランドレベル306でレベル位置を与えられる。また、これら電源電圧304、グランドレベル306に、信号線305が合わさって、インターフェイス信号線215〜218となる。
--- Outline of ultrasonic sensor ---
FIG. 3 shows a schematic diagram of the ultrasonic sensors 104 to 107. The ultrasonic sensors 104 to 107 here have a structure in which an ultrasonic oscillation element 302 and a reception element 303 are attached to a base 301. The base 301 has a function of changing a time from when an ultrasonic wave is oscillated from the oscillating element 302 until the reflected wave of the ultrasonic wave reaches the receiving element 303 to a voltage, and supplying the voltage to the signal line 305. The ultrasonic sensors 104 to 107 are supplied with power from the power supply voltage 304 and are given level positions at the ground level 306. Further, the signal line 305 is combined with the power supply voltage 304 and the ground level 306 to form interface signal lines 215 to 218.

図4に超音波センサ104〜107の出力特性を示す。前記超音波センサ104〜107と検出対象物401との距離をLとすると、L<Lminのとき、出力値はAminと一定の値となる。Lmin<L<Lmaxのとき、出力値は直線上に増加する。L>Lmaxのとき、出力値はAmaxとなり、一定の値となる。本実施形態では、ディスプレイ20の画面22の下端25から超音波センサまでの距離がLmaxとなるように設定されている。   FIG. 4 shows output characteristics of the ultrasonic sensors 104 to 107. Assuming that the distance between the ultrasonic sensors 104 to 107 and the detection target 401 is L, the output value is a constant value of Amin when L <Lmin. When Lmin <L <Lmax, the output value increases on a straight line. When L> Lmax, the output value is Amax, which is a constant value. In the present embodiment, the distance from the lower end 25 of the screen 22 of the display 20 to the ultrasonic sensor is set to Lmax.

−−−テーブル構造−−−
次に、本実施形態におけるディスプレイ制御装置10が利用するテーブルの構造について説明する。図5は、本実施形態における表示テーブルのデータ構造例を示す図である。前記表示テーブル125は、ディスプレイ20の前方における物体存在位置(例:ディスプレイ20で出力している概略表示情報31をユーザが触ろうとしている位置)に応じたコンテンツの出力形態変化を定めたテーブルであり、例えば物体存在位置の近傍に表示されている(はずの)概略表示情報31のID601をキーとして、当該ID601に対応付けた概略表示情報31およびこれの詳細表示情報32といった情報を関連づけたレコードの集合体となっている。なお、詳細表示情報32は概略表示情報31に該当する店舗に関する、より詳細な情報であり、前記概略表示情報31へのユーザの疑似タッチ(超音波センサ104〜107が実際のタッチ前に検知できるので画面22にユーザがふれる必要はない)に応じて、ディスプレイ制御装置10がディスプレイ20に出力する情報である(図6参照)。また、前記表示テーブル125は、前記ディスプレイ20の記憶装置204に格納されているとしてもよい。
---- Table structure ---
Next, the structure of the table used by the display control apparatus 10 in this embodiment will be described. FIG. 5 is a diagram showing an example of the data structure of the display table in the present embodiment. The display table 125 is a table that defines a change in the output form of content according to an object presence position in front of the display 20 (eg, a position where the user is about to touch the general display information 31 output from the display 20). Yes, for example, a record that associates information such as the summary display information 31 associated with the ID 601 and the detailed display information 32 thereof with the ID 601 of the summary display information 31 displayed (should) displayed near the object location as a key It is an aggregate of. The detailed display information 32 is more detailed information related to the store corresponding to the general display information 31, and a pseudo touch of the user to the general display information 31 (the ultrasonic sensors 104 to 107 can detect the actual display before the touch). Therefore, the display control apparatus 10 outputs information to the display 20 in accordance with the screen 22 (see FIG. 6). The display table 125 may be stored in the storage device 204 of the display 20.

−−−処理フロー例−−−
以下、本実施形態におけるディスプレイ制御方法の実際手順について、図7に基づき説明する。なお、以下で説明するディスプレイ制御方法に対応する各種動作は、前記ディスプレイ制御装置10が、メモリ203に読み出して実行するプログラム12によって実現される。そして、このプログラム12は、以下に説明される各種の動作を行うためのコードから構成されている。
--- Processing flow example ---
Hereinafter, the actual procedure of the display control method in the present embodiment will be described with reference to FIG. Various operations corresponding to the display control method described below are realized by the program 12 that the display control apparatus 10 reads out to the memory 203 and executes. And this program 12 is comprised from the code | cord | chord for performing various operation | movement demonstrated below.

このフローにおいて、電源が投入された後、前記ディスプレイ制御装置10は、前記記憶装置204中の表示テーブル125において、店舗の概略表示情報31のうち、例えばデパート各階における先頭から4つづつを取り出し、大型ディスプレイパネル20に表示する(ステップ701)。たとえばデパート1階については、1−A、1−B、1−C、1−Dの4つの概略表示情報31を表示する(図1参照)。   In this flow, after the power is turned on, the display control device 10 takes out, for example, four pieces from the head of each department store floor from the store display information 125 in the display table 125 in the storage device 204, The image is displayed on the large display panel 20 (step 701). For example, for the first floor of the department store, four outline display information 31 of 1-A, 1-B, 1-C, 1-D is displayed (see FIG. 1).

なお、この概略表示情報31は、ディスプレイ20に表示されたプロンプト(コンピューターが、コマンド待ちの状態で表示している記号、文字、イメージなど)であるとも言える。この場合、ディスプレイ制御装置10は、前記概略表示情報31、つまりプロンプトに対する、超音波センサ104〜107等を介した人物による各種入力に応じて処理を実行する装置となる。つまり、ディスプレイ制御装置10は、前記映像取得部110から得た前記映像が、人物など所定物体の映像である場合に、前記超音波センサ104〜107などの物体検出部111による前記物体の検知を有効化するものとなる。   The summary display information 31 can be said to be a prompt (symbol, character, image, etc. displayed by the computer in a command waiting state) displayed on the display 20. In this case, the display control device 10 is a device that performs processing in response to various inputs by the person via the ultrasonic sensors 104 to 107 and the like with respect to the outline display information 31, that is, prompts. That is, the display control apparatus 10 detects the object by the object detection unit 111 such as the ultrasonic sensors 104 to 107 when the image obtained from the image acquisition unit 110 is an image of a predetermined object such as a person. It will be activated.

次に、ディスプレイ制御装置10は、インターフェイスバス102、IF変換206、内部バス205を介して、ビデオカメラ101から大型ディスプレイパネル20の前を撮影した画像を取り込む(ステップ702)。   Next, the display control apparatus 10 captures an image taken in front of the large display panel 20 from the video camera 101 via the interface bus 102, IF conversion 206, and internal bus 205 (step 702).

次に、ディスプレイ制御装置10は、前記ビデオカメラ101より得た画像から、ある時刻Tの静止画を切り出す(ステップ703)。またディスプレイ制御装置10は、時刻Tに切り出した前記静止画から、肌色領域および人間の目に該当する領域を抽出する(ステップ704)。この時、大きさが一定以上の肌色領域であって、当該肌色領域の中に人間の目と認識できる2つの部位が含まれるものが見つかれば、前記静止画像には、正面を向いた人間の顔の画像が含まれるとディスプレイ制御装置10は判断する(ステップ705)。本ステップ704、705の動作についてさらに詳しく図8〜14を用いて説明する。   Next, the display control apparatus 10 cuts out a still image at a certain time T from the image obtained from the video camera 101 (step 703). Further, the display control apparatus 10 extracts a skin color region and a region corresponding to human eyes from the still image cut out at time T (step 704). At this time, if a skin color area having a size equal to or larger than a certain size and including two parts that can be recognized as human eyes in the skin color area, the still image includes a human skin facing the front. The display control apparatus 10 determines that a face image is included (step 705). The operation of Steps 704 and 705 will be described in more detail with reference to FIGS.

たとえば、ディスプレイ制御装置10が時刻Tに抽出した前記静止画が、図8に示す画像群800であったとする。本実施形態の大型ディスプレイパネル20はデパートやショッピングセンターなどに設置されるため、大型ディスプレイパネル20の前には不特定多数の人が存在し、図8の画像群800に示すように、一度に多くの人物が撮影されることが想定される。こうした人物の例としては、例えば画像群800のうち画像801に示すように、遠くから大型ディスプレイパネル20を眺めている人、或いは画像802に示すように大型ディスプレイパネル20の前を横切る人、或いは画像803に示すように大型ディスプレイパネル20に正対して接近し、なにがしかのアクセスをしようとしている人など様々である。   For example, it is assumed that the still image extracted by the display control apparatus 10 at time T is an image group 800 shown in FIG. Since the large display panel 20 of this embodiment is installed in a department store, a shopping center, or the like, an unspecified number of people exist in front of the large display panel 20, and as shown in an image group 800 in FIG. It is assumed that many people are photographed. As an example of such a person, for example, a person who is looking at the large display panel 20 from a distance as shown in an image 801 in the image group 800, or a person who crosses the front of the large display panel 20 as shown in an image 802, or As shown in the image 803, there are various people such as a person who is approaching the large display panel 20 and is trying to access something.

前記ビデオカメラ101は、超音波センサ104〜107の反応する領域、すなわち超音波センサ104〜107により物体を検出できる範囲109において、例えば手をかざす人物がいるかどうかを検出する。よって、超音波センサ104〜107の反応する領域109に手をかざすことができる人物は、大型ディスプレイパネル20に充分近づいているはずであり、画像803に示す人物画像のようにビデオカメラ101の撮影画像には一定の大きさよりも大きく写る。つまり、肌色領域が所定値より大きくなる。   The video camera 101 detects, for example, whether or not there is a person holding his / her hand in a region where the ultrasonic sensors 104 to 107 react, that is, a range 109 in which an object can be detected by the ultrasonic sensors 104 to 107. Therefore, a person who can hold his / her hand over the region 109 to which the ultrasonic sensors 104 to 107 react should be sufficiently close to the large display panel 20, and the video camera 101 shoots a person image shown in an image 803. The image appears larger than a certain size. That is, the skin color area becomes larger than a predetermined value.

次に、前記画像群800から人間の顔を抽出する動作について説明する。図14は、本実施形態のディスプレイ制御装置10における、顔検出動作を示すフローチャートである。ディスプレイ制御装置10は、図9に示すように図8の静止画の画像群800から肌色領域810のみを抽出する(ステップ1401)。次にディスプレイ制御装置10は、前記肌色領域810に囲まれていて、当該肌色領域810とは異なる色の領域804(例:目や口などに当たる)を肌色で塗りつぶす(ステップ1402)。目や口など肌色領域810に囲まれている異なる色の領域804を肌色で塗りつぶした画像の例を、図10に示す。なお、肌色領域は画像801、802、803と所定領域ごとに別個に認識される。   Next, an operation for extracting a human face from the image group 800 will be described. FIG. 14 is a flowchart showing a face detection operation in the display control apparatus 10 of the present embodiment. As shown in FIG. 9, the display control apparatus 10 extracts only the skin color region 810 from the still image group 800 of FIG. 8 (step 1401). Next, the display control apparatus 10 paints a region 804 (for example, hitting an eye or a mouth) that is surrounded by the skin color region 810 and has a color different from the skin color region 810 with a skin color (step 1402). FIG. 10 shows an example of an image in which different color areas 804 surrounded by the skin color area 810 such as eyes and mouth are filled with the skin color. The skin color area is recognized separately for each of the images 801, 802, and 803 and the predetermined area.

次にディスプレイ制御装置10は、図11に示すように、各画像801〜803における肌色領域810の画素数を、一定値αと比較し、αよりも画素数の小さい肌色領域810の画像801を削除する(ステップ1403)。一定値αは、例えば記憶装置204に格納されている値であり、ディスプレイ制御装置10が利用する際に、この記憶装置204より読み出して利用する。   Next, as shown in FIG. 11, the display control apparatus 10 compares the number of pixels of the skin color region 810 in each of the images 801 to 803 with a constant value α, and an image 801 of the skin color region 810 having a smaller number of pixels than α is obtained. It is deleted (step 1403). The constant value α is a value stored in the storage device 204, for example, and is read from the storage device 204 and used when the display control device 10 uses it.

なお、前記一定値αは、ビデオカメラ101の設置場所、ビデオカメラ101の撮影できる角度などにより決まる値である。このαとしては、例えば、大型ディスプレイパネル20の設置時に、複数の人物を大型ディスプレイパネル20の前の超音波センサ104〜107の検出範囲109に立たせ、ここで測定した各人の肌色領域の画素数最小値から一定値γを引いた値を採用できる。こうして定めた一定値αは、例えば、前記記憶装置204において格納しておく。   The constant value α is a value determined by the installation location of the video camera 101, the angle at which the video camera 101 can shoot, and the like. As this α, for example, when installing the large display panel 20, a plurality of persons are placed in the detection range 109 of the ultrasonic sensors 104 to 107 in front of the large display panel 20, and the pixels of the skin color area of each person measured here are measured. A value obtained by subtracting a constant value γ from the minimum number can be used. The fixed value α thus determined is stored in the storage device 204, for example.

このように画素数が一定値α以下である微小な肌色領域の画像を削除することにより、画像801のように大型ディスプレイパネル20を遠くから眺めている人物の画像を、大型ディスプレイパネル20にアクセスしている人物の範疇から予め除外することができる。   In this way, by deleting the image of the minute skin color area having the number of pixels equal to or less than the predetermined value α, an image of a person looking at the large display panel 20 from a distance like the image 801 is accessed to the large display panel 20. Can be excluded in advance from the category of the person who is doing.

次にディスプレイ制御装置10は、図12に示すように、画像802、803より目に該当する部位を抽出する(ステップ1404)。具体的には、図8に示すカメラ画像800の中で輝度が一定値β以下の黒い領域を抽出する。この一定値βも前記一定値αと同様に、例えば記憶装置204に格納されていて、ディスプレイ制御装置10が利用する際に、この記憶装置204より読み出して利用する。ここでディスプレイ制御装置10が検出した黒い領域の中で、図11の画像802、803の肌色領域810中にある領域を目811として検出する。また、眉と目の誤検出を避けるため、1つの肌色領域810に複数の黒い領域が存在する場合、以下の3つの条件を持って目と検出する。
(1)肌色領域中の目の個数は2個以内である。
(2)目と目は顔の幅の4分の1以上横方向に離れていなければならない。
(3)2つの目の横方向のずれは、縦方向のずれよりも大きい。
ディスプレイ制御装置10は、以上の3条件をもって目の検出を実行する。図12に肌色領域810の中で目811を検出した画像を示す。
Next, as shown in FIG. 12, the display control apparatus 10 extracts a part corresponding to the eye from the images 802 and 803 (step 1404). Specifically, a black region whose luminance is a certain value β or less is extracted from the camera image 800 shown in FIG. The constant value β is also stored in the storage device 204, for example, as with the constant value α, and is read from the storage device 204 and used when the display control device 10 uses it. Here, among the black areas detected by the display control apparatus 10, an area in the skin color area 810 of the images 802 and 803 in FIG. 11 is detected as the eye 811. In order to avoid erroneous detection of eyebrows and eyes, when a plurality of black areas exist in one skin color area 810, the eyes are detected under the following three conditions.
(1) The number of eyes in the skin color area is within two.
(2) The eyes must be laterally separated by at least a quarter of the face width.
(3) The horizontal shift of the second eye is larger than the vertical shift.
The display control apparatus 10 performs eye detection under the above three conditions. FIG. 12 shows an image in which the eyes 811 are detected in the skin color area 810.

なお、輝度が一定値β以下の黒い領域を抽出したディスプレイ制御装置10は、次に図13に示すように目811が2つ存在しない肌色領域810の画像802を削除し(ステップ1405)、本フローを終了する。これにより、画像802のように大型ディスプレイパネル20の前を横切る人物、つまり大型ディスプレイパネル20に正対しない人物の画像を削除することができる。   The display control apparatus 10 that has extracted a black region whose luminance is a certain value β or less next deletes the image 802 of the skin color region 810 that does not have two eyes 811 as shown in FIG. 13 (step 1405). End the flow. Thereby, an image of a person who crosses the front of the large display panel 20 like the image 802, that is, a person who does not face the large display panel 20 can be deleted.

このようにしてディスプレイ制御装置10は、大型ディスプレイパネル20にほぼ正対し一定距離内にいる人物を検出する。以下、フロー説明を図7のフローに戻す。本実施形態における静止画像800の場合には、大型ディスプレイパネル20の近くにいて、正面を向いている人物の数は"1"である。   In this way, the display control device 10 detects a person who is directly facing the large display panel 20 and within a certain distance. Hereinafter, the flow description returns to the flow of FIG. In the case of the still image 800 in the present embodiment, the number of persons who are near the large display panel 20 and facing the front is “1”.

大型ディスプレイパネル20の近くにいて、正面を向いている人物の数が"0"である場合(ステップ705:NO)、ディスプレイ制御装置10は、前記ステップ701に処理を戻す。このように大型ディスプレイパネル20の近くにいて正面を向いている人物が"0"である場合は、すぐにステップ701に処理が戻ることにより、大型ディスプレイパネル20の前の所定範囲内に新たに移動してきた人物が存在した場合、当該人物によるアクセスを迅速に受け付けて処理することが可能となる。   When the number of persons near the large display panel 20 and facing the front is “0” (step 705: NO), the display control apparatus 10 returns the process to step 701. Thus, when the person who is near the large display panel 20 and facing the front is “0”, the process immediately returns to step 701 to newly enter the predetermined range in front of the large display panel 20. When there is a person who has moved, it is possible to quickly accept and process access by the person.

前記大型ディスプレイパネル20の近くに人物が存在し、大型ディスプレイパネル20の画面22の正面を向いている人が"1"以上である場合には(ステップ705:YES)、ディスプレイ制御装置10は、ビデオカメラ101から入力される画像の認識処理を一時中断し、インターフェイス信号線215〜218、制御基盤210、インターフェイスバス209、IF変換207、内部バス205を介して超音波センサ104〜107の出力値を読み込む(ステップ706)。   When a person is present near the large display panel 20 and the person facing the front of the screen 22 of the large display panel 20 is “1” or more (step 705: YES), the display control apparatus 10 The recognition processing of the image input from the video camera 101 is temporarily suspended, and the output values of the ultrasonic sensors 104 to 107 via the interface signal lines 215 to 218, the control board 210, the interface bus 209, the IF conversion 207, and the internal bus 205. Is read (step 706).

大型ディスプレイパネル20を見ている人物が、大型ディスプレイパネル20の画面22に手を近づけていない場合、超音波センサ104〜107の出力値は、すべて「Amax」(図4参照)である。この場合には、超音波センサ104〜107の出力値が検出範囲109の対応値に入っていないとして(ステップ707:NO)、ステップ701に戻る。このように、本ステップにおいてすぐにステップ701に処理を戻すことにより、大型ディスプレイパネル20の前の人物が当該ステップ707の処理後すぐに超音波センサ104〜107の検出範囲109にアクセスした場合に、迅速な対応が可能である。   When a person watching the large display panel 20 does not bring his hand close to the screen 22 of the large display panel 20, the output values of the ultrasonic sensors 104 to 107 are all “Amax” (see FIG. 4). In this case, assuming that the output values of the ultrasonic sensors 104 to 107 are not included in the corresponding value of the detection range 109 (step 707: NO), the process returns to step 701. As described above, when the process immediately returns to step 701 in this step, the person in front of the large display panel 20 accesses the detection range 109 of the ultrasonic sensors 104 to 107 immediately after the process of step 707. Quick response is possible.

他方、大型ディスプレイパネル20を見ている人物が大型ディスプレイパネル20の画面22に手を近づけている場合には、手の上方に設置されている超音波センサだけが所定の出力値を出力する。この場合、前記超音波センサ104〜107の出力値は、当該超音波センサと前記人物の手との距離に応じて対応する値となる。たとえば大型ディスプレイパネル20の画面22を見ている人物が、図1に示した「4階」の店舗“4−A”の概略表示情報31にその手を近づけると、その上方にある超音波センサ104の出力値は、「A4L」以上「A4H」以下の出力値範囲405(図4参照)となる。超音波センサ105〜107の出力値は、「Amax」のままである。なお、図4に示すように、他の階:1〜3階に対応する出力値範囲は、それぞれ出力値範囲402、403、404となる。   On the other hand, when a person watching the large display panel 20 brings his hand close to the screen 22 of the large display panel 20, only the ultrasonic sensor installed above the hand outputs a predetermined output value. In this case, the output values of the ultrasonic sensors 104 to 107 are values corresponding to the distance between the ultrasonic sensor and the person's hand. For example, when a person watching the screen 22 of the large display panel 20 brings his hand close to the general display information 31 of the store “4-A” on the “fourth floor” shown in FIG. The output value 104 is an output value range 405 (see FIG. 4) that is not less than “A4L” and not more than “A4H”. The output values of the ultrasonic sensors 105 to 107 remain “Amax”. As shown in FIG. 4, the output value ranges corresponding to the other floors: 1st to 3rd floors are output value ranges 402, 403, and 404, respectively.

この場合、ディスプレイ制御装置10のCPU201は、4階の店舗“4−A”の概略表示情報31に人物の手が近づいたと判断し(ステップ707:YES)、記憶装置204の表示テーブル125から対応する店舗“4−A”の詳細表示情報32を読み出し、図6に示した大型ディスプレイパネル20の画面上の領域501に詳細表示情報32を表示する(ステップ708)。   In this case, the CPU 201 of the display control device 10 determines that a person's hand has approached the general display information 31 of the store “4-A” on the fourth floor (step 707: YES), and responds from the display table 125 of the storage device 204. The detailed display information 32 of the store “4-A” to be read is read, and the detailed display information 32 is displayed in the area 501 on the screen of the large display panel 20 shown in FIG. 6 (step 708).

ディスプレイ制御装置10は、この詳細表示情報32の表示開始から、前記人物(ユーザ)がこの詳細表示情報32を見るのに十分な時間であるとして設定した一定時間の経過後(ステップ709)、前記領域501および領域501に表示していた詳細表示情報32の出力を終了し(ステップ710)、処理をステップ701に戻す。   After the display control device 10 has started displaying the detailed display information 32 and a predetermined time has passed since the person (user) has set a sufficient time to view the detailed display information 32 (step 709), the display control device 10 The output of the detailed display information 32 displayed in the area 501 and the area 501 is terminated (step 710), and the process returns to step 701.

なお、大型ディスプレイパネル20の画面22を見ている人物が大型ディスプレイパネル20に対するアクセス(操作)をしている間、ビデオカメラ101が撮影した画像の認識処理を行なわないとすれば、ディスプレイ制御装置10におけるCPU負荷を軽減できるとともに、詳細表示情報32の表示中にユーザの意図しない画面に表示を遷移させてしまうといった誤動作が起こりにくい。   If a person watching the screen 22 of the large display panel 20 accesses (operates) the large display panel 20, it is assumed that the video camera 101 does not perform recognition processing of the captured image. The CPU load at 10 can be reduced, and malfunctions such as a transition of the display to a screen unintended by the user during the display of the detailed display information 32 are unlikely to occur.

また、2つ以上の超音波センサが同時に「A4L」以上「A4H」以下の出力値を示した場合には、大型ディスプレイパネル20に対し2人以上の人物が同時にアクセスしている可能性がある。その場合、ディスプレイ制御装置10は、"2人以上で同時にアクセスしないでください"といった所定の警告メッセージを前記記憶装置204等から抽出・表示する。また、ディスプレイ制御装置10は、同時にアクセスしてきた前記人物のどちらか一方からのアクセスに対応した詳細表示情報32を表示するとしてもよい。或いは、同時にアクセスしてきた人物全ての指示に対応して、各指示に応じた詳細表示情報32の総数で画面22における表示領域を分割し、各表示領域にそれぞれに詳細表示情報32を表示するとしてもよい。この場合、ディスプレイ制御装置10は、複数人によるアクセスを許容することとなる。   Further, when two or more ultrasonic sensors simultaneously output an output value of “A4L” or more and “A4H” or less, two or more persons may be accessing the large display panel 20 at the same time. . In that case, the display control device 10 extracts and displays a predetermined warning message such as “Please do not access by two or more people simultaneously” from the storage device 204 or the like. Further, the display control device 10 may display the detailed display information 32 corresponding to access from either one of the persons who have accessed at the same time. Alternatively, the display area on the screen 22 is divided by the total number of detailed display information 32 corresponding to each instruction corresponding to the instructions of all persons who have accessed at the same time, and the detailed display information 32 is displayed in each display area. Also good. In this case, the display control apparatus 10 permits access by a plurality of people.

ステップ701に処理を戻したディスプレイ制御装置10は、前記デパートにおける各階の店舗に関する概略表示情報301を上記同様に再表示する。その後、ステップ702で示したように、ビデオカメラ101から入力される画像を取り込み、中断していた人物の認識処理を再開することとなる。以降、大型ディスプレイパネル20の稼働を停止するまで上記ステップを繰り返すのである。   The display control apparatus 10 that has returned the processing to step 701 redisplays the general display information 301 regarding the store on each floor in the department store as described above. Thereafter, as shown in step 702, an image input from the video camera 101 is captured, and the process of recognizing the suspended person is resumed. Thereafter, the above steps are repeated until the operation of the large display panel 20 is stopped.

このように本発明によれば、超音波センサなどのセンサとビデオカメラなどの撮影手段とを組み合わせて用いることで、たとえば人間以外の物体である虫などによる超音波センサ検出域への進入や、ディスプレイの前を横切るだけの人物(の一部である腕や洋服など)による超音波センサ検出域への進入に起因して、ディスプレイの表示を変更してしまうといった処理をキャンセルすることができ、効率的なディスプレイ制御を実現できる。   As described above, according to the present invention, by using a combination of a sensor such as an ultrasonic sensor and a photographing unit such as a video camera, for example, an approach to an ultrasonic sensor detection area by an insect other than a human being, You can cancel the process of changing the display on the display due to the entry to the ultrasonic sensor detection area by a person who only crosses the front of the display (such as an arm or clothes) Efficient display control can be realized.

しかも、こうした処理に用いる超音波センサ等は比較的安価であり、また、データ処理に関するCPU負担も軽いものとできる。そのため、例えば2台以上のカメラで撮影した画像を処理する従来手法に比べ、低コストで処理効率の良好なディスプレイ制御装置の構成が可能となる。   Moreover, an ultrasonic sensor or the like used for such processing is relatively inexpensive, and the CPU burden related to data processing can be reduced. Therefore, for example, it is possible to configure a display control apparatus that is low in cost and has high processing efficiency as compared with a conventional method that processes images captured by two or more cameras.

したがって、ユーザの利便性が図れると共に、ディスプレイの効率的で低コストな管理が可能となる。   Therefore, convenience for the user can be achieved, and efficient and low-cost management of the display becomes possible.

以上、本発明の実施の形態について、その実施の形態に基づき具体的に説明したが、これに限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。   As mentioned above, although embodiment of this invention was described concretely based on the embodiment, it is not limited to this and can be variously changed in the range which does not deviate from the summary.

10 ディスプレイ制御装置 11 プログラムデータベース
12 プログラム 20 ディスプレイ
21 ディスプレイの頂部 22 画面
25 画面下端 30 コンテンツ
31 概略表示情報 32 詳細表示情報
33 配置マトリクス
101 ビデオカメラ 102 インターフェイスバス
104〜107 超音波センサ 108 カメラの撮影範囲
109 超音波センサの検出範囲 110 映像取得部
111 物体検出部 112 出力変化処理部
125 表示テーブル 201 CPU
203 メモリ 204 記憶装置
205 内部バス 206 IF変換
207 IF変換 209 インターフェイスバス
210 超音波センサ制御基盤 215〜218 インターフェイス信号線
301 超音波センサ基盤 302 超音波送信素子
303 超音波受信素子 304 VCC
305 信号線 306 GND
DESCRIPTION OF SYMBOLS 10 Display control apparatus 11 Program database 12 Program 20 Display 21 Display top part 22 Screen 25 Bottom of screen 30 Content 31 Outline display information 32 Detailed display information 33 Arrangement matrix 101 Video camera 102 Interface bus 104-107 Ultrasonic sensor 108 Camera imaging range 109 Detection range of ultrasonic sensor 110 Image acquisition unit 111 Object detection unit 112 Output change processing unit 125 Display table 201 CPU
203 Memory 204 Storage Device 205 Internal Bus 206 IF Conversion 207 IF Conversion 209 Interface Bus 210 Ultrasonic Sensor Control Base 215-218 Interface Signal Line 301 Ultrasonic Sensor Base 302 Ultrasonic Transmitter 303 Ultrasonic Receiver 304 VCC
305 Signal line 306 GND

Claims (10)

ディスプレイの制御を行う装置であって、
ディスプレイ前方の映像を取得する映像取得部と、
ディスプレイ前方における物体の存在有無を感知する物体検出部と、
前記映像取得部が得た映像が所定物体の映像である場合に、前記物体検出部における物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行する、出力変化処理部と、
を備えるディスプレイ制御装置。
A device for controlling a display,
A video acquisition unit that acquires the video in front of the display;
An object detection unit that senses the presence or absence of an object in front of the display;
An output change processing unit that executes processing for changing the output form of the content on the display triggered by the presence detection of the object in the object detection unit when the video obtained by the video acquisition unit is a video of a predetermined object;
A display control device comprising:
請求項1において、
前記出力変化処理部は、前記映像取得部が得た映像が人物映像である場合に、前期物体検出部における物体の存在感知を人物の存在と認識し、ディスプレイにおけるコンテンツの出力形態変化の契機とするものであることを特徴とするディスプレイ制御装置。
In claim 1,
When the video obtained by the video acquisition unit is a human video, the output change processing unit recognizes the presence detection of the object in the previous object detection unit as the presence of a person, and triggers a change in the output form of the content on the display. A display control device characterized by that.
請求項2において、
前記出力変化処理部は、前記映像取得部が得た映像が人物映像であって、当該人物映像がディスプレイに対向した顔映像である場合に、前期物体検出部における物体の存在感知をディスプレイに顔を向けた人物の存在と認識し、ディスプレイにおけるコンテンツの出力形態変化の契機とするものであることを特徴とするディスプレイ制御装置。
In claim 2,
When the video obtained by the video acquisition unit is a human video and the human video is a face video facing the display, the output change processing unit detects the presence of an object in the previous object detection unit on the display. A display control apparatus that recognizes the presence of a person facing the camera and triggers a change in the output form of content on the display.
請求項1〜3のいずれかにおいて、
前記物体検出部は、ディスプレイ前方における物体の存在有無および存在位置を感知するものであり、
前記出力変化処理部は、前記映像取得部が得た映像が所定物体の映像である場合に、前記物体検出部における物体の存在感知に際し、当該物体の存在位置の情報を、物体存在位置に応じたコンテンツの出力形態変化を定めた表示テーブルに照合し、前記存在位置の情報に応じたディスプレイにおけるコンテンツの出力形態変化の処理を実行するものであることを特徴とするディスプレイ制御装置。
In any one of Claims 1-3,
The object detection unit senses the presence / absence and position of an object in front of the display,
When the video obtained by the video acquisition unit is a video of a predetermined object, the output change processing unit, when sensing the presence of the object in the object detection unit, information on the location of the object according to the object location A display control apparatus, wherein the content output form change is collated with a predetermined display table, and the process of changing the content output form on the display according to the information on the existing position is executed.
請求項1〜4のいずれかにおいて、
前記物体検出部が、赤外線センサまたは超音波センサのいずれかであることを特徴とするディスプレイ制御装置。
In any one of Claims 1-4,
The display control apparatus, wherein the object detection unit is an infrared sensor or an ultrasonic sensor.
ディスプレイの制御をコンピュータにて行う方法であって、
ディスプレイ前方の映像を取得し、
ディスプレイ前方における物体の存在有無を感知し、
前記ディスプレイ前方における映像が所定物体の映像である場合に、前記物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行する、ディスプレイ制御方法。
A method of controlling a display with a computer,
Get the video in front of the display,
Sense the presence or absence of objects in front of the display,
A display control method, wherein when the image in front of the display is an image of a predetermined object, the process of changing the output form of content on the display is executed upon detection of the presence of the object.
ディスプレイの制御方法をコンピュータに実行させるためのプログラムであって、
ディスプレイ前方の映像を取得するステップと、
ディスプレイ前方における物体の存在有無を感知するステップと、
前記映像取得部が得た映像情報が所定物体の映像である場合に、前記物体検出部における物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行するステップと、
を含むディスプレイ制御プログラム。
A program for causing a computer to execute a display control method,
Obtaining a video in front of the display;
Sensing the presence or absence of an object in front of the display;
When the video information obtained by the video acquisition unit is a video of a predetermined object, the process of changing the output form of the content on the display triggered by the presence detection of the object in the object detection unit;
Display control program including
ディスプレイ前方の映像を取得する映像取得部と、
ディスプレイ前方における物体の存在有無を感知する物体検出部と、
前記映像取得部が得た映像情報が所定物体の映像である場合に、前記物体検出部における物体の存在感知を契機に、ディスプレイにおけるコンテンツの出力形態変化の処理を実行する、出力変化処理部と、
を有するディスプレイ制御装置を備えたディスプレイ。
A video acquisition unit that acquires the video in front of the display;
An object detection unit that senses the presence or absence of an object in front of the display;
An output change processing unit that, when the video information obtained by the video acquisition unit is a video of a predetermined object, executes a process of changing the output form of content on the display triggered by the presence detection of the object in the object detection unit; ,
A display comprising a display control device.
ディスプレイに表示されたプロンプトに対する入力に応じて処理を実行するディスプレイ制御装置において、
前記ディスプレイ前方の映像を取得する映像取得部と、
前記ディスプレイ前方における物体を検知する物体検出部と、
前記物体検出部の前記物体の検知に対応する前記プロンプトに対する入力に応じて処理を実行する処理部とを備え、
前記処理部は、前記映像取得部から得た前記映像が所定物体の映像である場合に、前記物体検出部による前記物体の検知を有効化する、ディスプレイ制御装置。
In a display control device that executes processing in response to an input to a prompt displayed on a display,
A video acquisition unit for acquiring a video in front of the display;
An object detection unit for detecting an object in front of the display;
A processing unit that executes processing in response to an input to the prompt corresponding to the detection of the object by the object detection unit;
The display control apparatus, wherein the processing unit validates the detection of the object by the object detection unit when the video obtained from the video acquisition unit is a video of a predetermined object.
プロンプトを表示するディスプレイと、
前記ディスプレイ前方の映像を取得する映像取得部と、
前記ディスプレイ前方における物体を検知する物体検出部と、
前記物体検出部の前記物体の検知に対応する前記プロンプトに対する入力に応じて処理を実行する処理部とを備え、
前記処理部は、前記映像取得部から得た前記映像が所定物体の映像である場合に、前記物体検出部による前記物体の検知を有効化する、ディスプレイ制御装置。
A display that displays prompts;
A video acquisition unit for acquiring a video in front of the display;
An object detection unit for detecting an object in front of the display;
A processing unit that executes processing in response to an input to the prompt corresponding to the detection of the object by the object detection unit;
The display control apparatus, wherein the processing unit validates the detection of the object by the object detection unit when the video obtained from the video acquisition unit is a video of a predetermined object.
JP2011131584A 2011-06-13 2011-06-13 Display control apparatus, display control method, display control program, and display Expired - Fee Related JP5478559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011131584A JP5478559B2 (en) 2011-06-13 2011-06-13 Display control apparatus, display control method, display control program, and display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011131584A JP5478559B2 (en) 2011-06-13 2011-06-13 Display control apparatus, display control method, display control program, and display

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005126933A Division JP4979895B2 (en) 2005-04-25 2005-04-25 Display control apparatus, display control method, display control program, and display

Publications (2)

Publication Number Publication Date
JP2011227510A true JP2011227510A (en) 2011-11-10
JP5478559B2 JP5478559B2 (en) 2014-04-23

Family

ID=45042821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011131584A Expired - Fee Related JP5478559B2 (en) 2011-06-13 2011-06-13 Display control apparatus, display control method, display control program, and display

Country Status (1)

Country Link
JP (1) JP5478559B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0277790A (en) * 1988-09-14 1990-03-16 Canon Inc Display device
JPH1124603A (en) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd Information display device and information collecting device
JP2003302923A (en) * 2002-04-12 2003-10-24 Matsushita Electric Ind Co Ltd System and method for information display
JP2004054376A (en) * 2002-07-17 2004-02-19 Japan Science & Technology Corp Method and device for estimating group attribute
JP4979895B2 (en) * 2005-04-25 2012-07-18 株式会社日立製作所 Display control apparatus, display control method, display control program, and display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0277790A (en) * 1988-09-14 1990-03-16 Canon Inc Display device
JPH1124603A (en) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd Information display device and information collecting device
JP2003302923A (en) * 2002-04-12 2003-10-24 Matsushita Electric Ind Co Ltd System and method for information display
JP2004054376A (en) * 2002-07-17 2004-02-19 Japan Science & Technology Corp Method and device for estimating group attribute
JP4979895B2 (en) * 2005-04-25 2012-07-18 株式会社日立製作所 Display control apparatus, display control method, display control program, and display

Also Published As

Publication number Publication date
JP5478559B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
US10324563B2 (en) Identifying a target touch region of a touch-sensitive surface based on an image
US10186018B2 (en) Determining display orientations for portable devices
KR102362117B1 (en) Electroninc device for providing map information
US20190371134A1 (en) Self-checkout system, method thereof and device therefor
US10268277B2 (en) Gesture based manipulation of three-dimensional images
KR20140090159A (en) Information processing apparatus, information processing method, and program
CN105229582A (en) Based on the gestures detection of Proximity Sensor and imageing sensor
US8913037B1 (en) Gesture recognition from depth and distortion analysis
US10664090B2 (en) Touch region projection onto touch-sensitive surface
JP2004246578A (en) Interface method and device using self-image display, and program
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
TWI691870B (en) Method and apparatus for interaction with virtual and real images
US20170249054A1 (en) Displaying an object indicator
US8941767B2 (en) Mobile device and method for controlling the same
JP4979895B2 (en) Display control apparatus, display control method, display control program, and display
US8866953B2 (en) Mobile device and method for controlling the same
KR101105872B1 (en) Method and apparatus for a hand recognition using an ir camera and monitor
CN107077196A (en) Recognize the object on touch sensitive surface
US20230091536A1 (en) Camera Placement Guidance
JP2004355494A (en) Display interface method and device
US10069984B2 (en) Mobile device and method for controlling the same
US9898183B1 (en) Motions for object rendering and selection
US20170308241A1 (en) Presentation of a digital image of an object
JP5478559B2 (en) Display control apparatus, display control method, display control program, and display
US10345965B1 (en) Systems and methods for providing an interactive user interface using a film, visual projector, and infrared projector

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R150 Certificate of patent or registration of utility model

Ref document number: 5478559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees