JP7041211B2 - Image display control device, image display system and program - Google Patents

Image display control device, image display system and program Download PDF

Info

Publication number
JP7041211B2
JP7041211B2 JP2020131639A JP2020131639A JP7041211B2 JP 7041211 B2 JP7041211 B2 JP 7041211B2 JP 2020131639 A JP2020131639 A JP 2020131639A JP 2020131639 A JP2020131639 A JP 2020131639A JP 7041211 B2 JP7041211 B2 JP 7041211B2
Authority
JP
Japan
Prior art keywords
subject
image
display
target person
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020131639A
Other languages
Japanese (ja)
Other versions
JP2020191665A (en
Inventor
栄太 平井
良 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2020131639A priority Critical patent/JP7041211B2/en
Publication of JP2020191665A publication Critical patent/JP2020191665A/en
Application granted granted Critical
Publication of JP7041211B2 publication Critical patent/JP7041211B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像表示制御装置等に関する。 The present invention relates to an image display control device and the like.

人を誘導するための手段として「看板」「警告ランプ」「マーク」等が存在する。最近では、この看板等において、大型液晶ディスプレイ等の画像表示装置を利用する事により様々な情報を表示する画像表示システムが知られている。 There are "signboards", "warning lamps", "marks", etc. as means for guiding people. Recently, an image display system that displays various information by using an image display device such as a large liquid crystal display is known for this signboard or the like.

このような画像表示システムを利用することにより、対象者(施設の利用者等)を誘導する仕組みが開示されている(例えば、特許文献1参照)。 A mechanism for guiding a target person (user of a facility, etc.) by using such an image display system is disclosed (see, for example, Patent Document 1).

また、このような画像表示システムは、情報を必要としている対象者との関係で様々な発明が開示されている。例えば、対象者が存在するときだけ画像を表示させる発明や(例えば、特許文献2参照)、対象者が目視しているときだけ表示させる発明(例えば、特許文献3参照)等が知られている。 Further, various inventions of such an image display system are disclosed in relation to a subject who needs information. For example, an invention that displays an image only when the subject is present (see, for example, Patent Document 2), an invention that displays an image only when the subject is visually observing (see, for example, Patent Document 3), and the like are known. ..

また、水平方向に情報表示画面があり、その画面を2つの領域に予め分割しておき、センサにより表示装置の近傍にいる人の位置を判定し、当該近傍に複数の人がいる場合には、人数の多い方向から見て適切な向きになるように、映像情報を回転させて水平方向の情報表示画面上に表示する発明が開示されている(例えば、特許文献4参照)。 In addition, there is an information display screen in the horizontal direction, and the screen is divided into two areas in advance, the position of a person in the vicinity of the display device is determined by a sensor, and when there are a plurality of people in the vicinity, the information display screen is provided. Disclosed is an invention in which video information is rotated and displayed on a horizontal information display screen so as to be oriented appropriately when viewed from a direction with a large number of people (see, for example, Patent Document 4).

特開平6-325265号公報Japanese Unexamined Patent Publication No. 6-325265 特開2002-278536号公報Japanese Unexamined Patent Publication No. 2002-278536 特開2004-185139号公報Japanese Unexamined Patent Publication No. 2004-185139 特開2011-192030号公報Japanese Unexamined Patent Publication No. 2011-192030

施設等において、対象者を誘導するためには様々な情報が表示される。例えば、対象者を誘導したり、案内したり、警告したりといった様々な情報が表示される。しかし、対象者として、施設等の利用者には様々な人がいる。例えば、大人と子供では視線の高さが違うため、大人には容易に認識できる情報が、子供だと見落としてしまうという問題点があった。 In facilities, etc., various information is displayed to guide the target person. For example, various information such as guiding, guiding, and warning the target person is displayed. However, there are various people who use the facilities as the target people. For example, since the height of the line of sight differs between adults and children, there is a problem that information that adults can easily recognize is overlooked by children.

また、上述した従来技術では、情報が表示される表示位置は予め決まっている。すなわち、画像表示装置を所定の位置に配置し、利用者はその画像表示装置に表示されている情報を見る必要がある。したがって、対象者が見ていた方向に表示されるものがなく、その表示に気がつかなかった場合は、適切に情報を提供できているとは言えなかった。 Further, in the above-mentioned conventional technique, the display position where the information is displayed is predetermined. That is, it is necessary to arrange the image display device at a predetermined position and the user to see the information displayed on the image display device. Therefore, if there is nothing displayed in the direction the subject was looking at and the display was not noticed, it could not be said that the information could be provided appropriately.

また、表示される画像(メッセージ)は一律に表示されるため、例えば子供がみたときにメッセージを読むことが出来ないといった問題点を生じることがあった。 In addition, since the displayed images (messages) are displayed uniformly, there may be a problem that the message cannot be read when the child sees it, for example.

上述した課題に鑑み、本発明が目的とするところは、対象者の特性に応じた位置に、特性に応じた内容の画像を表示することで、適切に情報を提示することができる画像表示制御装置等を提供することである。 In view of the above-mentioned problems, an object of the present invention is an image display control capable of appropriately presenting information by displaying an image of contents according to the characteristics at a position according to the characteristics of the subject. It is to provide equipment and the like.

上述した課題を解決するために、本発明の画像表示制御装置は、
複数の表示位置に画像を表示可能な画像表示装置と、
対象者の特性を判定する特性判定手段と、
前記特性判定手段により判定された対象者の特性に対応する表示位置を判定する表示位置判定手段と、
前記表示位置判定手段により判定された表示位置に、画像を表示する/表示しないの制御を行う画像表示制御手段と、
を備えることを特徴とする。
In order to solve the above-mentioned problems, the image display control device of the present invention is used.
An image display device that can display images at multiple display positions,
Characteristic determination means for determining the characteristics of the subject,
A display position determination means for determining a display position corresponding to the characteristics of the target person determined by the characteristic determination means, and a display position determination means.
An image display control means that controls display / non-display of an image at a display position determined by the display position determination means, and an image display control means.
It is characterized by having.

本発明の画像表示システムは、
複数の画像表示装置と、認識装置と、前記画像表示装置に画像を表示制御する制御装置とを含む画像表示システムにおいて、
前記制御装置は、
対象者の特性を判定し、
前記判定された対象者の特性から、画像を表示する画像表示装置を判定し、
前記判定された画像表示装置に、画像を表示する/表示しないの制御を行うことを特徴とする。
The image display system of the present invention is
In an image display system including a plurality of image display devices, a recognition device, and a control device for displaying and controlling an image on the image display device.
The control device is
Determine the characteristics of the subject and
An image display device for displaying an image is determined from the determined characteristics of the subject, and the image is determined.
It is characterized in that control of displaying / not displaying an image on the determined image display device is performed.

本発明のプログラムは、
複数の表示位置に画像を表示可能な画像表示装置に接続されたコンピュータに、
対象者の特性を判定する特性判定機能と、
前記特性判定機能により判定された人の特性に対応する表示位置を判定する表示位置判定機能と、
前記表示位置判定機能により判定された表示位置に、画像を表示する/表示しないの制御を行う画像表示制御機能と、
を実現させることを特徴とする。
The program of the present invention
To a computer connected to an image display device that can display images at multiple display positions,
A characteristic judgment function that judges the characteristics of the target person, and
A display position determination function for determining a display position corresponding to a person's characteristics determined by the characteristic determination function, and a display position determination function.
An image display control function that controls display / non-display of an image at a display position determined by the display position determination function, and an image display control function.
It is characterized by realizing.

本発明の画像表示制御装置は、複数の表示位置に画像を表示可能な画像表示装置に表示される画像の表示制御を行う装置であって、判定された人の特性に対応する表示位置に、画像を表示したり、表示しなかったりすることができる。したがって、対象者の大きさや、年齢、また対象者の動作といった特性に応じて、表示装置が選択されて画像を表示させることが可能となる。 The image display control device of the present invention is a device that controls the display of an image displayed on an image display device capable of displaying an image at a plurality of display positions, and at a display position corresponding to the characteristics of a determined person. You can show or hide the image. Therefore, it is possible to select a display device to display an image according to characteristics such as the size and age of the target person and the movement of the target person.

第1実施形態における全体を説明するための図である。It is a figure for demonstrating the whole in 1st Embodiment. 第1実施形態における機能構成を説明するための図である。It is a figure for demonstrating the functional composition in 1st Embodiment. 第1実施形態における人体の認識方法について説明するための図である。It is a figure for demonstrating the recognition method of a human body in 1st Embodiment. 第1実施形態における表示領域について説明するための図である。It is a figure for demonstrating the display area in 1st Embodiment. 第1実施形態における表示装置及び表示領域の配置の一例を説明するための図である。It is a figure for demonstrating an example of arrangement of a display device and a display area in 1st Embodiment. 第1実施形態における表示位置テーブルのデータ構成の一例である。This is an example of the data structure of the display position table in the first embodiment. 第1実施形態における処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of processing in 1st Embodiment. 第1実施形態における適用例を説明するための図である。It is a figure for demonstrating the application example in 1st Embodiment. 第2実施形態における表示位置テーブルのデータ構成の一例である。This is an example of the data structure of the display position table in the second embodiment. 第2実施形態における処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process in 2nd Embodiment. 第3実施形態における表示位置テーブルのデータ構成の一例である。This is an example of the data structure of the display position table in the third embodiment. 第4実施形態における処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process in 4th Embodiment. 第4実施形態における表示位置テーブルのデータ構成の一例である。This is an example of the data structure of the display position table in the fourth embodiment. 第4実施形態における表示位置テーブルのデータ構成の一例である。This is an example of the data structure of the display position table in the fourth embodiment. 第5実施形態における表示位置テーブルのデータ構成の一例である。This is an example of the data structure of the display position table in the fifth embodiment. 第5、6実施形態における適用例を説明するための図である。It is a figure for demonstrating the application example in 5th and 6th Embodiment. 第6実施形態における処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process in 6th Embodiment.

以下、図面を参照して本発明を実施するための最良の形態について説明する。以下の実施形態は、本発明の画像表示システムを適用した一例であり、発明の内容が、本実施形態に限定されるものではないのは勿論である。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. The following embodiment is an example to which the image display system of the present invention is applied, and it goes without saying that the content of the invention is not limited to the present embodiment.

[1.第1実施形態]
[1.1 システム外観]
第1実施形態における画像表示システム1の全体について、図1を用いて説明する。図1に示すように、画像表示システム1は、利用者Pを認識する認識装置20と、画像を表示する画像表示装置30とを有しており、これらが制御装置10(画像表示制御装置)に接続されている。
[1. First Embodiment]
[1.1 System appearance]
The entire image display system 1 according to the first embodiment will be described with reference to FIG. As shown in FIG. 1, the image display system 1 has a recognition device 20 for recognizing a user P and an image display device 30 for displaying an image, and these are a control device 10 (image display control device). It is connected to the.

本実施形態では、画像表示装置30の一例として、画像表示装置32と、画像表示装置34とを有して構成されている。画像表示装置としては、例えば液晶等を利用したディスプレイであっても良いし、プロジェクタ等により画像を投影しても良い。 In the present embodiment, as an example of the image display device 30, the image display device 32 and the image display device 34 are included. The image display device may be, for example, a display using a liquid crystal display or the like, or an image may be projected by a projector or the like.

ここで、本明細書において、画像を表示するとは、ディスプレイ等の画像表示装置に画像を表示することは勿論のこと、プロジェクタのような投影装置により画像を投影する動作も含むものとする。すなわち、プロジェクタが画像を投影することにより、画像を表示する画像表示装置として説明している。 Here, in the present specification, displaying an image includes not only displaying the image on an image display device such as a display but also projecting the image by a projection device such as a projector. That is, it is described as an image display device that displays an image by projecting an image on the projector.

例えば、図1の画像表示装置32は、ディスプレイであり、画像表示装置34はプロジェクタである。画像表示装置34は、表示位置として領域R30(R34)に画像を投影する。ここで、画像表示装置30は、1つであっても良いし、複数であっても良い。すなわち、複数の表示位置に表示可能な構成となっていれば良い。各装置の詳細については次の機能構成で説明する。 For example, the image display device 32 in FIG. 1 is a display, and the image display device 34 is a projector. The image display device 34 projects an image on the area R30 (R34) as a display position. Here, the number of image display devices 30 may be one or a plurality. That is, it is sufficient that the configuration is such that it can be displayed at a plurality of display positions. Details of each device will be described in the following functional configuration.

更に、画像表示装置30は、可動可能に構成されていてもよい。例えば、プロジェクタの場合は、プロジェクタ取付部が可動するように構成されており、プロジェクタが投影する方向にレンズ方向を自在に稼動させることが可能となるように構成されても良い。また、ディスプレイの場合は、取付部が移動可能になっており、表示したい箇所に移動する構成としても良い。 Further, the image display device 30 may be configured to be movable. For example, in the case of a projector, the projector mounting portion may be configured to be movable so that the lens direction can be freely moved in the projection direction of the projector. Further, in the case of a display, the mounting portion is movable and may be configured to move to a place to be displayed.

なお、本実施形態では、認識装置20と、画像表示装置30と、制御装置10とが同一の構内で接続されている(例えば、同一のネットワークに接続されていたり、USB接続といったローカル接続されていたりする)こととして説明するが、外部ネットワークを介して接続されていても良い。 In this embodiment, the recognition device 20, the image display device 30, and the control device 10 are connected in the same premises (for example, they are connected to the same network or are locally connected such as a USB connection. However, it may be connected via an external network.

すなわち、制御装置10が、インターネットに接続されているサーバであり、サーバ上で処理を実行する。そして、インターネットを介して、認識装置20及び画像表示装置30が接続されることとしても良い。この場合、サーバ側の管理者は、離れた場所であっても複数の制御を行うことが可能となる。 That is, the control device 10 is a server connected to the Internet, and processes are executed on the server. Then, the recognition device 20 and the image display device 30 may be connected via the Internet. In this case, the administrator on the server side can perform a plurality of controls even at a remote location.

[1.2 機能構成]
続いて、本実施形態における画像表示システム1を構成する各装置の機能構成について図2を用いて説明する。
[1.2 Function configuration]
Subsequently, the functional configuration of each device constituting the image display system 1 in the present embodiment will be described with reference to FIG.

図2に示すように、制御装置10に、認識装置20と、一又は複数の画像表示装置30とが接続されている。 As shown in FIG. 2, the recognition device 20 and one or more image display devices 30 are connected to the control device 10.

また、制御装置10は、制御部110と、認識部120と、画像表示制御部130と、記憶部140とを備えて構成されている。 Further, the control device 10 includes a control unit 110, a recognition unit 120, an image display control unit 130, and a storage unit 140.

制御部110は、制御装置10の全体を制御するための機能部である。制御部110は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。 The control unit 110 is a functional unit for controlling the entire control device 10. The control unit 110 realizes various functions by reading and executing various programs stored in the storage unit 140, and is configured by, for example, a CPU (Central Processing Unit) or the like.

認識部120は、認識装置20により認識された利用者の人体に基づく情報を入力・処理するための機能部である。すなわち、認識装置20における空間内における人の動きをセンシングする技術(画像処理・サーモ・位置センサ・圧センサ)を利用し、対象者の特性を認識する機能部である。 The recognition unit 120 is a functional unit for inputting and processing information based on the human body of the user recognized by the recognition device 20. That is, it is a functional unit that recognizes the characteristics of the target person by using the technology (image processing, thermostat, position sensor, pressure sensor) for sensing the movement of a person in the space in the recognition device 20.

ここで、対象者(人)の特性とは、当該対象者の属性、動作を含む概念である。対象者の属性とは、当該対象者を認識装置20により判定可能なものであり、例えば身長、体格といったものである。さらに、人の大きさ、表情等を認識することにより、男女であったり、大人、子供であったり、白杖を持っているか、車いすを利用しているか、健常者であるか等を認識することができる。 Here, the characteristic of the target person (person) is a concept including the attributes and actions of the target person. The attribute of the target person is such that the target person can be determined by the recognition device 20, such as height and physique. Furthermore, by recognizing the size and facial expression of a person, it is possible to recognize whether the person is a man or woman, an adult, a child, has a white cane, uses a wheelchair, or is a healthy person. be able to.

また、対象者の動作とは、対象者の動きを判定するものであり、対象者が動いている方向、速度であったり、対象者が起立しているか等の姿勢であったり、対象者の動きといったものを認識することができる。 In addition, the movement of the target person is to determine the movement of the target person, such as the direction and speed in which the target person is moving, the posture such as whether the target person is standing up, or the subject person's movement. You can recognize things like movement.

ここで、認識装置20及び認識部120が、空間内において人(人体)を認識する仕組みについて、図3を用いて説明する。ここで、認識装置20としては種々の装置が考えられるが、一例としてマイクロソフト株式会社製のKinect(キネクト)(登録商標)を利用した方法について説明する。 Here, the mechanism by which the recognition device 20 and the recognition unit 120 recognize a person (human body) in the space will be described with reference to FIG. Here, various devices can be considered as the recognition device 20, and as an example, a method using Kinect (registered trademark) manufactured by Microsoft Corporation will be described.

Kinectを利用する事により、人間の骨格をスティックピクチャとして捉えることができるようになる(図3(a))。すなわち、人体の各関節の特徴点と、当該特徴点を結んだ線とがそれぞれ検出される。 By using Kinect, the human skeleton can be grasped as a stick picture (Fig. 3 (a)). That is, the feature points of each joint of the human body and the line connecting the feature points are detected.

この特徴点に基づいて、人の顔の向きや、体の向きを認識することが可能となる。例えば、顔の向きや体の向きを求めるには、図3(b)に示すように、各関節の特徴点をもちいて認識する。図3(b)では、特徴点P01と、特徴点P02の(x、y、z)座標をそれぞれ検出する。そして、2つの座標を結ぶ直線と、基準面との角度を算出することにより、顔の向きを認識する。 Based on this feature point, it becomes possible to recognize the orientation of a person's face and the orientation of the body. For example, in order to obtain the orientation of the face and the orientation of the body, as shown in FIG. 3B, the feature points of each joint are used for recognition. In FIG. 3B, the (x, y, z) coordinates of the feature point P01 and the feature point P02 are detected, respectively. Then, the orientation of the face is recognized by calculating the angle between the straight line connecting the two coordinates and the reference plane.

また、特徴点P03と、特徴点P04の(x、y、z)座標をそれぞれ検出し、特徴点P03と特徴点P04とを直線で結ぶ仮想線L01の位置から、体の方向(向きと傾き)を認識する。 Further, the (x, y, z) coordinates of the feature point P03 and the feature point P04 are detected, respectively, and the direction of the body (direction and inclination) from the position of the virtual line L01 connecting the feature point P03 and the feature point P04 with a straight line. ) Is recognized.

これにより、例えば、利用者の向いている方向から、画像を表示する領域を特定することができる。例えば、図3(c)に示すように、特徴点P01と、特徴点P02から、中心軸に対しての角度が算出され、これにより顔の角度(利用者が向いている角度)θ1が算出される。 Thereby, for example, the area for displaying the image can be specified from the direction in which the user is facing. For example, as shown in FIG. 3C, the angle with respect to the central axis is calculated from the feature point P01 and the feature point P02, thereby calculating the face angle (angle facing the user) θ1. Will be done.

また、人体の視点の高さL02(例えば、近似的に特徴点P02の高さ)と、顔の角度の法線方向L03とから、視線が地上線L04に到達する位置を求めることが可能となる(例えば、高さL02×arctanθ1)。そして、この位置を表示領域R01として、画像を表示することができる。 Further, it is possible to obtain the position where the line of sight reaches the ground line L04 from the height L02 of the viewpoint of the human body (for example, approximately the height of the feature point P02) and the normal direction L03 of the angle of the face. (For example, height L02 × approximation θ1). Then, the image can be displayed with this position as the display area R01.

なお、人体を認識する方法としては、他の方法であっても良い。例えば、カメラを用いた画像処理技術、サーモグラフィや赤外線を用いた認識技術であっても良いし、圧力センサを床に置き、足の方向と荷重方向で人を認識しても良い。また、視線検出技術を利用して、視線を検出しても良い。 In addition, as a method of recognizing a human body, another method may be used. For example, an image processing technique using a camera, a recognition technique using thermography or infrared rays may be used, or a pressure sensor may be placed on the floor to recognize a person in the direction of the foot and the direction of the load. Further, the line of sight may be detected by using the line of sight detection technique.

ここで、利用者P(人体)の向きの認識としては、視線の方向、顔の向き、体の向きの順に優先度が高くなっている。すなわち、視線の方向が認識できるのであれば視線の方向を、顔の向きを検出できるのであれば顔の方向を、そうで無ければ体の向きを認識する。これらを複数認識することとしても良いし、単独で方向を認識しても良い。 Here, as for the recognition of the orientation of the user P (human body), the priority is higher in the order of the direction of the line of sight, the orientation of the face, and the orientation of the body. That is, if the direction of the line of sight can be recognized, the direction of the line of sight is recognized, if the direction of the face can be detected, the direction of the face is recognized, and if not, the direction of the body is recognized. You may recognize a plurality of these, or you may recognize the direction independently.

続いて、画像表示制御部130は、接続されている一又は複数の画像表示装置30に対して、画像の表示を制御するための機能部である。ここで、表示される画像は、複数の表示位置に表示可能である。表示位置は、一の画像表示装置30が切り替え可能な表示領域により決定されるか、表示する画像表示装置を切り替えて決定することとなる。すなわち、表示領域と、画像表示装置とを組み合わせて、複数の表示位置が構成されればよい。 Subsequently, the image display control unit 130 is a functional unit for controlling the display of an image with respect to one or a plurality of connected image display devices 30. Here, the displayed image can be displayed at a plurality of display positions. The display position is determined by the display area that can be switched by one image display device 30, or is determined by switching the image display device to be displayed. That is, a plurality of display positions may be configured by combining the display area and the image display device.

ここで、画像表示装置30は、液晶ディスプレイや有機ELディスプレイといった表示装置や、プロジェクタといった投影装置といった画像を表示可能な装置である。なお、本実施形態における画像とは、文字や図形、写真といった静止画像は勿論のこと、動画像も含む概念である。図2では、画像表示装置32と、画像表示装置34とが接続されている。 Here, the image display device 30 is a device capable of displaying an image such as a display device such as a liquid crystal display or an organic EL display, or a projection device such as a projector. The image in the present embodiment is a concept including not only still images such as characters, figures, and photographs, but also moving images. In FIG. 2, the image display device 32 and the image display device 34 are connected to each other.

ここで、画像表示装置30を利用した制御装置10の画像表示制御方法について、図4及び図5を用いて説明する。図4は、画像表示装置30が、プロジェクタのように広い表示可能領域を有する場合の図である。 Here, the image display control method of the control device 10 using the image display device 30 will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram when the image display device 30 has a wide displayable area such as a projector.

すなわち、プロジェクタが表示可能領域として、領域R30が確保されている。この領域R30は、壁面や床面といったところに設定可能であり、表示可能領域であれば任意の表示領域を表示位置としてさせることが可能となる。例えば、表示領域R30a、表示領域R30b、表示領域R30cといった3つの領域を設定している場合、利用者Pが向いた方向である表示領域R30aに画像を表示することとなる。 That is, the area R30 is secured as a displayable area for the projector. This area R30 can be set in a place such as a wall surface or a floor surface, and any display area can be set as a display position as long as it is a displayable area. For example, when three areas such as the display area R30a, the display area R30b, and the display area R30c are set, the image is displayed in the display area R30a in the direction in which the user P faces.

なお、表示可能領域については、例えば大型の液晶ディスプレイであれば、表示画面を複数の領域に分割することにより、同じように実現することが可能である。 The displayable area can be similarly realized by dividing the display screen into a plurality of areas, for example, in the case of a large liquid crystal display.

また、本実施形態では、図4に示すように予め表示位置に対応する表示領域を設定してあるが、任意の座標としても良い。すなわち、表示領域の頂点座標、大きさ等を指定することにより、表示可能領域内の任意の位置を表示位置として設定してもよい。 Further, in the present embodiment, as shown in FIG. 4, the display area corresponding to the display position is set in advance, but any coordinates may be used. That is, any position in the displayable area may be set as the display position by specifying the vertex coordinates, the size, and the like of the display area.

図5は、表示位置として、複数の画像表示装置や、表示領域を組み合わせて設定した場合の一例である。例えば、画像表示装置30として、プロジェクタである画像表示装置32、34が接続されており、更に液晶ディスプレイである画像表示装置36が接続されている。 FIG. 5 is an example of a case where a plurality of image display devices and display areas are combined and set as display positions. For example, as the image display device 30, the image display devices 32 and 34, which are projectors, are connected, and the image display device 36, which is a liquid crystal display, is further connected.

また、画像表示装置32は、表示領域R32a、表示領域R32bと複数の表示領域に表示可能であり、表示位置として、画像表示装置34は表示領域R34に画像を表示可能である。更に、画像表示装置36にも画像を表示可能となっている。すなわち、表示領域R32a、R32b、R34、画像表示装置36の4つの表示位置に画像が表示可能である。これにより、利用者Pが向いた方向にある表示位置に、適切に画像を表することが可能となる。 Further, the image display device 32 can display in a plurality of display areas such as the display area R32a and the display area R32b, and the image display device 34 can display an image in the display area R34 as a display position. Further, the image can be displayed on the image display device 36 as well. That is, the image can be displayed at the four display positions of the display areas R32a, R32b, R34, and the image display device 36. This makes it possible to appropriately display the image at the display position in the direction in which the user P faces.

記憶部140は、制御装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。 The storage unit 140 is a functional unit that stores various programs and various data necessary for the operation of the control device 10. The storage unit 140 is composed of, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.

また、記憶部140には、表示位置テーブル142が記憶されている。ここで、表示位置テーブル142の一例を、図6に示す。 Further, the display position table 142 is stored in the storage unit 140. Here, an example of the display position table 142 is shown in FIG.

表示位置テーブル142は、対象者の特性(例えば、本実施形態では人体の属性)と、表示位置とを対応づけて記憶したテーブルである。例えば、人体属性が「160cm以上」の場合、表示位置がR32aとなっている。ここで、人体属性とは、認識された人体に関する情報である。例えば、本実施形態で示すように身長であったり、体格(例えば、「細身」等)であったりしてもよい。また、「男性」「女性」や、「子供」「大人」といった情報や、「帽子を被っている」といった情報で有っても良い。すなわち、制御装置10が、認識部120(認識装置20)を介して認識可能な情報であれば良い。 The display position table 142 is a table in which the characteristics of the subject (for example, the attribute of the human body in the present embodiment) and the display position are stored in association with each other. For example, when the human body attribute is "160 cm or more", the display position is R32a. Here, the human body attribute is information about the recognized human body. For example, it may be tall or physique (eg, "slender") as shown in this embodiment. Further, it may be information such as "male", "female", "children", "adults", or "wearing a hat". That is, the information may be recognizable by the control device 10 via the recognition unit 120 (recognition device 20).

また、表示位置テーブル142は、併せて表示位置を記憶しておいても良い。例えば、空間内の座標を設定し、当該空間内における表示位置がどこに設けられているかを座標で記憶する。これにより、例えば利用者Pが向いている方向に対応する表示位置を決定することが可能となり、当該表示位置に対応する画像表示装置30を特定することが可能となる。 Further, the display position table 142 may also store the display position. For example, the coordinates in the space are set, and the location where the display position in the space is provided is stored in the coordinates. As a result, for example, it is possible to determine the display position corresponding to the direction in which the user P is facing, and it is possible to specify the image display device 30 corresponding to the display position.

[1.3 処理の流れ]
続いて、本実施形態における処理の流れについて説明する。まず、人体が検知されると(ステップS102;Yes)、人体認識処理が実行される(ステップS104)。本実施形態では、人体認識処理により、関節等に対応する特徴点がそれぞれ検出され、人体の向き等が認識される。
[1.3 Processing flow]
Subsequently, the flow of processing in this embodiment will be described. First, when the human body is detected (step S102; Yes), the human body recognition process is executed (step S104). In the present embodiment, the feature points corresponding to the joints and the like are detected by the human body recognition process, and the orientation of the human body and the like are recognized.

続いて、各特徴点が認識された後は、特性判定処理を実行する(ステップS106)。本実施形態においては、特性の一つとして人体の属性を判定し、主に身長を判定している。なお、最終的には身長が判定できれば良いため、例えば赤外線センサ等によって身長だけを認識可能な装置を利用しても良い。 Subsequently, after each feature point is recognized, the characteristic determination process is executed (step S106). In the present embodiment, the attribute of the human body is determined as one of the characteristics, and the height is mainly determined. Since it is sufficient that the height can be finally determined, a device that can recognize only the height by, for example, an infrared sensor may be used.

続いて、特性判定処理により判定された身長から、表示位置決定処理が実行される(ステップS108)。表示位置決定処理により、画像が表示される領域が決定される。そして、決定された表示領域に画像を表示する(ステップS110)。 Subsequently, the display position determination process is executed from the height determined by the characteristic determination process (step S108). The display position determination process determines the area in which the image is displayed. Then, the image is displayed in the determined display area (step S110).

ここで、表示位置決定処理は、判定された利用者(人体)の身長に基づいて、表示位置を決定することができる。 Here, the display position determination process can determine the display position based on the height of the determined user (human body).

なお、人体認識処理(ステップS104)や、特性判定処理(ステップS106)を始めとする処理は、利用者を検知したタイミングで1回実行される場合もあれば、所定のタイマにて割込処理(例えば、3秒毎、5秒毎)によって随時実行されても良い。 The human body recognition process (step S104) and the characteristic determination process (step S106) may be executed once at the timing when the user is detected, or the interrupt process may be performed by a predetermined timer. It may be executed at any time (for example, every 3 seconds or every 5 seconds).

[1.4 適用例・効果]
例えば、図8を例にして説明する。画像表示装置32は、表示領域R32a、表示領域R32bに対して画像を表示可能である。ここで、領域の切替えは、画像表示装置32が表示する領域を変化させても良いし、画像表示装置32が物理的に可動して表示領域を切り替えても良い。
[1.4 Application examples / effects]
For example, FIG. 8 will be described as an example. The image display device 32 can display an image on the display area R32a and the display area R32b. Here, the area may be switched by changing the area displayed by the image display device 32, or by physically moving the image display device 32 to switch the display area.

ここで、図8(a)に示すように、利用者P1が検知エリアに入ると、身長がL1と判定される。例えば、L1が170cmの場合、表示領域R32aに画像を表示する。これにより、利用者P1の視線の位置に対応する表示領域R32aに画像が表示され、利用者は容易に視認することが可能となる。 Here, as shown in FIG. 8A, when the user P1 enters the detection area, the height is determined to be L1. For example, when L1 is 170 cm, an image is displayed in the display area R32a. As a result, the image is displayed in the display area R32a corresponding to the position of the line of sight of the user P1, and the user can easily visually recognize the image.

また、図8(b)に示すように、利用者P2が検知エリアに入ると身長がL2と認識される。例えば、L2が150cmの場合、表示領域R32bに画像を表示する。これにより、利用者P2の視線の位置に対応する表示領域R32bに画像が表示され、利用者P2は容易に視認することが可能となる。 Further, as shown in FIG. 8B, when the user P2 enters the detection area, the height is recognized as L2. For example, when L2 is 150 cm, an image is displayed in the display area R32b. As a result, the image is displayed in the display area R32b corresponding to the position of the line of sight of the user P2, and the user P2 can easily visually recognize the image.

このように、本実施形態によれば、判定された対象者の特性として、人体属性に応じて、画像の表示位置を変更することが可能となる。これは、例えば、身長が小さい利用者は子供であることが多く、そうすると大人が認識出来る位置に画像を表示しても視認しにくいといった課題を解決することができる。 As described above, according to the present embodiment, it is possible to change the display position of the image according to the human body attribute as the characteristic of the determined target person. This can solve the problem that, for example, a user with a short stature is often a child, and then it is difficult to see the image even if the image is displayed at a position that can be recognized by an adult.

また、本実施形態では、人体属性(身長)の認識を説明の都合上2段階として説明したが、更に複数段階に設定しても良い。また、表示領域が可変(例えば座標により設定)される場合には、身長に基づいて座標を算出することにより、より適切な位置に画像を表示させることが可能となる。 Further, in the present embodiment, the recognition of the human body attribute (height) is described as two stages for convenience of explanation, but it may be further set to a plurality of stages. Further, when the display area is variable (for example, set by coordinates), it is possible to display the image at a more appropriate position by calculating the coordinates based on the height.

[2.第2実施形態]
続いて、第2実施形態について説明する。第2実施形態は、対象者の特性として判定された人体属性に基づいて、表示メッセージを変化させる場合の実施形態である。
[2. Second Embodiment]
Subsequently, the second embodiment will be described. The second embodiment is an embodiment in which the display message is changed based on the human body attribute determined as the characteristic of the subject.

[2.1 機能構成]
まず、本実施形態における機能構成について説明する。本実施形態におけるシステム構成、機能構成は、第1実施形態と同様であるため、詳細な説明は省略する。第1実施形態と異なるのは、表示位置テーブル142に記憶されているデータ内容が図9に示すように異なっている。
[2.1 Functional configuration]
First, the functional configuration in this embodiment will be described. Since the system configuration and the functional configuration in the present embodiment are the same as those in the first embodiment, detailed description thereof will be omitted. The difference from the first embodiment is that the data contents stored in the display position table 142 are different as shown in FIG.

図9は、本実施形態における表示位置テーブル142に記憶されているデータの一例である。図9に示すように、人体属性に対応づけて(例えば、「大人」)、表示位置(例えば、「R32a」)と、表示メッセージ(例えば、「入場券をご用意下さい。」)とを対応づけて記憶している。 FIG. 9 is an example of data stored in the display position table 142 in the present embodiment. As shown in FIG. 9, the display position (for example, "R32a") and the display message (for example, "Please prepare an admission ticket") correspond to the human body attribute (for example, "adult"). I remember it.

なお、ここで表示メッセージとしては、文章や単語といった文言を表示させても良いし、記号や矢印のようなサインも含まれるものとする。また、アニメーション表示や、動画表示といった利用者に対して報知するものは含まれるものとする。 In addition, as the display message here, words such as sentences and words may be displayed, and signs such as symbols and arrows are also included. In addition, animation display, moving image display, and other information to be notified to the user are included.

ここで、「大人」「子供」の属性は、例えば身長により判定されてもよい。例えば、身長「160cm以上」を「大人」、身長「160cm未満」を「子供」と判定する。更に、顔認識処理の処理を実行することにより、より正確に「大人」「子供」と判定することとしても良い。また、第1実施形態と同様に、単純に身長等の人体属性に表示位置と、表示メッセージとを対応づけて記憶することとして良い。 Here, the attributes of "adult" and "child" may be determined by, for example, height. For example, a height of "160 cm or more" is determined as an "adult", and a height of "less than 160 cm" is determined as a "child". Further, by executing the face recognition process, it may be determined more accurately as "adult" or "child". Further, as in the first embodiment, the display position and the display message may be simply associated with the human body attribute such as height and stored.

[2.2 処理の流れ]
続いて、本実施形態における処理の流れについて、図10を説明する。図10の処理は、第1実施形態における図7を本実施形態に合わせた処理である。共通の処理には、共通の符号を付し、その説明を省略する。
[2.2 Processing flow]
Subsequently, FIG. 10 will explain the flow of processing in this embodiment. The process of FIG. 10 is a process in which FIG. 7 in the first embodiment is adapted to the present embodiment. Common processing is designated by a common reference numeral, and the description thereof will be omitted.

すなわち、ステップS108迄の処理を実行することで、人体認識処理により認識された利用者の人体属性に基づいて表示位置が決定されている。ここで、表示メッセージが決定される表示メッセージ決定処理が実行される(ステップS202)。そして、ステップS108において決定された表示位置、ステップS202において決定された表示メッセージに基づいて、ステップS110において表示される処理が実行される。 That is, by executing the processes up to step S108, the display position is determined based on the human body attribute of the user recognized by the human body recognition process. Here, the display message determination process in which the display message is determined is executed (step S202). Then, the process displayed in step S110 is executed based on the display position determined in step S108 and the display message determined in step S202.

[2.3 適用例・効果]
本実施形態の適用例について、図8を用いて説明する。図8(a)は、利用者P1が大人と判定された場合である。この場合、本実施形態における図9の表示位置テーブル142を参照し、R32aの表示位置に、「入場券をご用意ください。」が表示メッセージとして表示される。
[2.3 Application examples / effects]
An application example of this embodiment will be described with reference to FIG. FIG. 8A is a case where the user P1 is determined to be an adult. In this case, referring to the display position table 142 of FIG. 9 in the present embodiment, "Please prepare an admission ticket" is displayed as a display message at the display position of R32a.

また、図8(b)は、利用者P2が子供と判定された場合である。この場合、本実施形態における図9の表示位置テーブル142を参照し、R32bの表示位置に、「ほごしゃのかたといっしょにはいってね。」が表示メッセージとして表示される。 Further, FIG. 8B shows a case where the user P2 is determined to be a child. In this case, referring to the display position table 142 of FIG. 9 in the present embodiment, "Enter with the person who is hogosha" is displayed as a display message at the display position of R32b.

このように、本実施形態によれば、対象者に応じて適切な位置に表示メッセージを含む画像が表示されるだけでなく、表示される画像の内容(表示メッセージの内容)を変えることも可能となる。 As described above, according to the present embodiment, not only the image including the display message is displayed at an appropriate position according to the target person, but also the content of the displayed image (content of the display message) can be changed. It becomes.

これにより、人体属性に応じたメッセージを表示させることが可能となる。例えば、子供の場合であれば、メッセージ内容を子供にあった表記(例えば平仮名表記)を行うことで、より適切にメッセージを伝えることが可能となる。 This makes it possible to display a message according to the human body attribute. For example, in the case of a child, it is possible to convey the message more appropriately by notating the content of the message according to the child (for example, hiragana notation).

[3.第3実施形態]
続いて、第3実施形態について説明する。第3実施形態は、第2実施形態において、必要に応じて表示メッセージを表示させる実施形態について説明する。
[3. Third Embodiment]
Subsequently, the third embodiment will be described. The third embodiment describes an embodiment in which a display message is displayed as needed in the second embodiment.

すなわち、図10の動作フローにおいて、ステップS106において判定された特性(人体属性)に対応する表示メッセージが、表示位置テーブル142に記憶されている場合、すなわち条件に合致した場合のみ画像(表示メッセージ)を出力する。 That is, in the operation flow of FIG. 10, the image (display message) is stored only when the display message corresponding to the characteristic (human body attribute) determined in step S106 is stored in the display position table 142, that is, when the condition is satisfied. Is output.

図11に本実施形態における表示位置テーブル142を示す。例えば、人体属性として「着帽」の場合、表示位置(例えば、「R32」)と、表示メッセージ(例えば、「帽子を取ってください。」)とが記憶されている。 FIG. 11 shows the display position table 142 in the present embodiment. For example, in the case of "hat" as a human body attribute, a display position (for example, "R32") and a display message (for example, "please take off the hat") are stored.

この場合、人体属性として帽子を被っている人(着帽)が認識された場合のみ、当該メッセージを表示する。なお、複数の人体属性が記憶されている場合は、該当したメッセージを結合して画像として出力しても良いし、優先度の高いメッセージのみを出力しても良い。 In this case, the message is displayed only when a person wearing a hat (hat) is recognized as a human body attribute. When a plurality of human body attributes are stored, the corresponding messages may be combined and output as an image, or only high-priority messages may be output.

また、表示位置は複数指定しても良い。例えば、図11に示すように140cm未満の人と判定された場合に、「この乗り物には乗れません!」と警告を表示する。このとき、例えば表示位置をR32a、R32bと指定することにより、複数の表示位置に表示メッセージ(画像)を表示することが可能となる。 Further, a plurality of display positions may be specified. For example, as shown in FIG. 11, when it is determined that the person is less than 140 cm, a warning "I cannot ride this vehicle!" Is displayed. At this time, for example, by designating the display positions as R32a and R32b, it is possible to display the display message (image) at a plurality of display positions.

また、画面に効果を付したり(例えば、画面が点滅する、文字が大きく表示される)、音を出力したりするといった、表示効果を併せて記憶しても良い。 Further, display effects such as adding an effect to the screen (for example, the screen blinks or displaying large characters) or outputting a sound may be stored together.

[4.第4実施形態]
続いて、第4実施形態について説明する。第4実施形態は、第2実施形態において、特性として更に人の動きである動作を認識し、動作に合わせて表示メッセージや表示位置を変更するといった実施形態である。
[4. Fourth Embodiment]
Subsequently, the fourth embodiment will be described. The fourth embodiment is an embodiment of the second embodiment in which a motion, which is a movement of a person, is further recognized as a characteristic, and a display message or a display position is changed according to the motion.

本実施形態の動作フローを図12に示す。図12の動作フローは、図10に示した第2実施形態の動作フローに、ステップS302を加えたものである。なお、共通の処理には同一の符号を付しており、その説明を省略する。 The operation flow of this embodiment is shown in FIG. The operation flow of FIG. 12 is obtained by adding step S302 to the operation flow of the second embodiment shown in FIG. The same reference numerals are given to the common processes, and the description thereof will be omitted.

ここで、動作認識処理(ステップS302)は、対象者の動作を動作情報として認識する処理である。例えば、本実施形態においては、対象者の移動速度、移動方向を動作情報として認識している。これは人体認識処理(ステップS104)において認識されている情報に基づいて算出されるものである。なお、人体認識処理(ステップS104)や、動作認識処理(ステップS302)は、所定のタイマにより、繰り返し実行される処理である。例えば、0.5秒毎、1秒毎に実行されたり、動作検知されたタイミングにて割込処理が実行されることにより実行されたりする処理である。 Here, the motion recognition process (step S302) is a process of recognizing the motion of the target person as motion information. For example, in the present embodiment, the moving speed and the moving direction of the target person are recognized as motion information. This is calculated based on the information recognized in the human body recognition process (step S104). The human body recognition process (step S104) and the motion recognition process (step S302) are processes that are repeatedly executed by a predetermined timer. For example, it is a process that is executed every 0.5 seconds or every 1 second, or is executed by executing an interrupt process at a timing when an operation is detected.

そして、認識された人体属性や、動作情報が、対象者の特性として判定される(ステップS106)。 Then, the recognized human body attribute and motion information are determined as the characteristics of the target person (step S106).

図13に本実施形態における表示位置テーブル142を示す。例えば、特性の一例として動作情報である移動速度(例えば、「0km/h~5km/h」)と、表示位置(例えば「R32a」)と、表示メッセージ(例えば、「いらっしゃいませ!」)とが対応づけて記憶されている。 FIG. 13 shows the display position table 142 in the present embodiment. For example, as an example of the characteristics, the movement speed (for example, "0 km / h to 5 km / h"), the display position (for example, "R32a"), and the display message (for example, "Welcome!"), Which are operation information, are displayed. It is associated and memorized.

これにより、例えば表示領域R32aに近づいてきているときにメッセージを表示するが、速度に応じたメッセージ(例えば、速過ぎるために「慌てずご入場ください。」と表示し、注意喚起を行うメッセージ)を表示させたり、逆方向に動作している(移動速度がマイナスであるため、移動方向が逆であると認識する)ために退場のメッセージ(例えば、「ありがとうございました。」)を異なる表示位置(R34)に表示させたりするといったことも可能となる。 As a result, for example, a message is displayed when approaching the display area R32a, but a message according to the speed (for example, a message that displays "Please enter without rushing because it is too fast" and calls attention). Is displayed or it is operating in the opposite direction (it recognizes that the moving direction is opposite because the moving speed is negative), so the exit message (for example, "Thank you") is displayed in a different display position. It is also possible to display it on (R34).

また、併せて図14に示すように、特性として、人体属性を組み合わせて記憶させることにより、例えば当該メッセージを更に人体属性に基づいて異なるメッセージを表示させても良い。 Further, as shown in FIG. 14, by storing a combination of human body attributes as a characteristic, for example, the message may be further displayed as a different message based on the human body attributes.

具体的には、対象者の特性として「大人」「移動速度が5km/h以上」と判定された場合には「慌てずご入場ください。」と表示される。また、対象者の特性として「子供」「移動速度が5km/h以上」と判定された場合には「はしったら あぶないよ!」と表示される。 Specifically, if it is determined that the subject is "adult" or "moving speed is 5 km / h or more", "Please enter without rushing" is displayed. In addition, when it is determined that the subject is "children" or "moving speed is 5 km / h or more", "If you do it, it will not be dangerous!" Is displayed.

このように、対象者が子供の場合、例えば「慌てずご入場ください。」と表示してしまうと、対象者である子供は読めない(または瞬時に判断出来ない)場合がある。しかし、判定された対象者の特性に応じて「はしったら あぶないよ!」とメッセージを表示することにより、対象者に対して適切なメッセージを表示することが可能となる。 In this way, if the target person is a child, for example, if the message "Please enter without rushing" is displayed, the target child may not be able to read (or make an instant judgment). However, it is possible to display an appropriate message to the target person by displaying the message "If you do it, it will not be dangerous!" According to the characteristics of the determined target person.

[5.第5実施形態]
続いて、第5実施形態について説明する。第5実施形態は、第1実施形態、第4実施形態において、更に対象者の特性として視線の方向を認識した場合についての実施形態について説明する。
[5. Fifth Embodiment]
Subsequently, the fifth embodiment will be described. A fifth embodiment will be described with respect to the first embodiment and the fourth embodiment in which the direction of the line of sight is recognized as a characteristic of the subject.

すなわち、図12の動作認識処理(ステップS302)において、利用者の向いている方向を認識する。そして、利用者の向いている方向の表示領域にメッセージ(画像)を表示する。 That is, in the motion recognition process (step S302) of FIG. 12, the direction in which the user is facing is recognized. Then, a message (image) is displayed in the display area in the direction in which the user is facing.

図15に、本実施形態における表示位置テーブル142を示す。例えば、特性として、対象者の人体属性と、当該対象者の視線の方向とに対応づけて画像表示装置と、表示領域とを対応して記憶している。なお、図15には示していないが表示メッセージをそれぞれ記憶しても良い。 FIG. 15 shows the display position table 142 in the present embodiment. For example, as a characteristic, the image display device and the display area are stored in correspondence with each other in correspondence with the human body attribute of the target person and the direction of the line of sight of the target person. Although not shown in FIG. 15, display messages may be stored respectively.

例えば、図16に示すように、利用者P1の人体属性が160cm未満であり、向いている方向がX1方向であれば、画像表示装置32の表示領域R32bにメッセージ(画像)が表示される。また、利用者P2の人体属性が160cm以上であり、向いている方向がX3方向であれば、画像表示装置34(表示領域R34)にメッセージ(画像)が表示される。 For example, as shown in FIG. 16, if the human body attribute of the user P1 is less than 160 cm and the facing direction is the X1 direction, a message (image) is displayed in the display area R32b of the image display device 32. Further, if the human body attribute of the user P2 is 160 cm or more and the facing direction is the X3 direction, a message (image) is displayed on the image display device 34 (display area R34).

このように、本実施形態によれば、適切な位置にメッセージが表示されることとなる。また、更にメッセージ内容を記憶することにより、利用者に適切なメッセージを適切な位置に表示させることが可能となる。 As described above, according to the present embodiment, the message is displayed at an appropriate position. Further, by further storing the message content, it becomes possible for the user to display an appropriate message at an appropriate position.

[6.第6実施形態]
続いて、第6実施形態について説明する。第6実施形態は、複数の利用者を検出した場合の実施形態である。例えば、図16は、利用者P1、P2を用いて説明したが、これが同じエリアにいた場合の実施形態である。ここで、認識装置20、認識部120は、複数の利用者(人間)を検出することが出来る。
[6. 6th Embodiment]
Subsequently, the sixth embodiment will be described. The sixth embodiment is an embodiment when a plurality of users are detected. For example, FIG. 16 has been described using users P1 and P2, but this is an embodiment when they are in the same area. Here, the recognition device 20 and the recognition unit 120 can detect a plurality of users (humans).

本実施形態においては、利用者P1、P2のそれぞれの特性(例えば、人体属性、動作情報)を検出する。これにより、利用者P1が見るメッセージ(画像)をR32aに、利用者P2が見るメッセージ(画像)をR34にそれぞれ表示する。なお、上述したKinectを用いた場合には、同時に6人まで検知することが出来る。 In the present embodiment, each characteristic (for example, human body attribute, motion information) of the users P1 and P2 is detected. As a result, the message (image) viewed by the user P1 is displayed on R32a, and the message (image) viewed by the user P2 is displayed on R34. When the above-mentioned Kinect is used, up to 6 people can be detected at the same time.

図17の動作フローにおいて、まず、人体が検知されると(ステップS102;Yes)、人体認識処理が実行される(ステップS104)。ここで、他に検知される人体があれば、全ての人体認識処理を行う(ステップS402;Yes→ステップS104)。 In the operation flow of FIG. 17, first, when the human body is detected (step S102; Yes), the human body recognition process is executed (step S104). Here, if there is another human body to be detected, all human body recognition processing is performed (step S402; Yes → step S104).

検知された全ての人体が認識されると(ステップS402;No)、検知された全ての人体の動作認識処理が実行される(ステップS404)。そして、認識された人体と、動作情報とに基づいて、全ての対象者の特性判定処理が実行される(ステップS406)。ここで、全ての対象者について、特性(人体属性、動作情報)が求められる。 When all the detected human bodies are recognized (step S402; No), the motion recognition process of all the detected human bodies is executed (step S404). Then, the characteristic determination process of all the subjects is executed based on the recognized human body and the motion information (step S406). Here, characteristics (human body attributes, motion information) are required for all the subjects.

次に、判定された特性(人体属性、動作情報)に基づいて、表示位置が決定される(ステップS108)。決定された表示位置に基づいて、画像(メッセージ)を表示する(ステップS110)。この画像を表示する処理は、検知された人体分行われる(ステップS408;Yes)。そして、全ての処理が終了したら、本処理を終了する(ステップS408;No)。 Next, the display position is determined based on the determined characteristics (human body attribute, motion information) (step S108). An image (message) is displayed based on the determined display position (step S110). The process of displaying this image is performed for the detected human body (step S408; Yes). Then, when all the processes are completed, this process is terminated (step S408; No).

なお、この処理は一回実行されても良いし、複数回実行されても良い。すなわち、ループ処理として繰り返し実行されても良いし、タイマを用いて定期的に実行されても良い。また、ステップS110で表示する画面は利用者に応じた画面を表示することとしても良い。 It should be noted that this process may be executed once or may be executed a plurality of times. That is, it may be repeatedly executed as a loop process, or may be periodically executed using a timer. Further, the screen displayed in step S110 may be a screen corresponding to the user.

また、対象者の特性としては、一つ(例えば、人体属性のみ)だけの処理であっても良い。 Further, as the characteristic of the target person, only one process (for example, only the human body attribute) may be performed.

[7.第7実施形態]
続いて第7実施形態について説明する。上述した実施形態は表示位置を変更する実施形態を説明したが、第7実施形態は、メッセージを出力する手段を変更する実施形態について説明する。
[7. Seventh Embodiment]
Subsequently, the seventh embodiment will be described. The above-described embodiment has described an embodiment in which the display position is changed, but the seventh embodiment describes an embodiment in which the means for outputting a message is changed.

具体的には、特性判定処理において特別な特性(特別属性)を認識した場合には、表示位置を決定せず、例えばスピーカ等の表示手段以外の報知手段を選択する。そして、例えば、図7のステップS110の表示の代わりに、報知手段によりメッセージ内容を報知する。 Specifically, when a special characteristic (special attribute) is recognized in the characteristic determination process, the display position is not determined, and a notification means other than the display means such as a speaker is selected. Then, for example, instead of displaying in step S110 of FIG. 7, the message content is notified by the notification means.

例えば、白杖を特別属性として判定すると、利用者が視覚障害者であると判定する。この場合は、表示するのに変えて(又は同時に)スピーカによりメッセージを音声出力する。 For example, if the white cane is determined as a special attribute, it is determined that the user is visually impaired. In this case, the message is output by voice by the speaker instead of displaying (or at the same time).

[8.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[8. Modification example]
Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and the design and the like within a range not deviating from the gist of the present invention are also within the scope of claims. include.

なお、上述した各実施形態は、説明の都合上処理を分けて説明しているが、可能な範囲で組み合わせて動作させても良い事は勿論である。 In addition, although each of the above-described embodiments is described separately for convenience of explanation, it is needless to say that they may be operated in combination within a possible range.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。 Further, the program that operates in each device in the embodiment is a program that controls a CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiment. Then, the information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then stored in various ROM or HDD storage devices, and is read and corrected by the CPU as necessary. -Writing is performed.

ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。 Here, as the recording medium for storing the program, a semiconductor medium (for example, ROM, a non-volatile memory card, etc.), an optical recording medium / magneto-optical recording medium (for example, a DVD (Digital Versatile Disc), MO (Magneto Optical, etc.)). It may be any of Disc), CD (Compact Disc), BD, etc.), magnetic recording medium (for example, magnetic tape, flexible disk, etc.) and the like. In addition, by executing the loaded program, not only the functions of the above-described embodiment are realized, but also by processing in collaboration with the operating system or other application programs based on the instructions of the program, the present invention In some cases, the function of the invention is realized.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバの記憶装置も本発明に含まれるのは勿論である。 Further, in the case of distribution to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server is also included in the present invention.

また、上述した実施形態における各装置の一部又は全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。各装置の各機能ブロックは個別にチップ化してもよいし、一部又は全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路又は汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能であることは勿論である。 Further, a part or all of each device in the above-described embodiment may be realized as an LSI (Large Scale Integration) which is typically an integrated circuit. Each functional block of each device may be individually chipped, or a part or all of them may be integrated into a chip. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to advances in semiconductor technology, it is of course possible to use an integrated circuit based on this technology.

1 :画像表示システム
10 :制御装置
110 :制御部
120 :認識部
130 :画像表示制御部
140 :記憶部
142 :表示位置テーブル
20 :認識装置
30~36 :画像表示装置
1: Image display system 10: Control device 110: Control unit 120: Recognition unit 130: Image display control unit 140: Storage unit 142: Display position table 20: Recognition device 30 to 36: Image display device

Claims (7)

対象者の各関節を特徴点として検出し、当該特徴点に基づいて認識される前記対象者の向いている方向を、前記対象者の体の向き、前記対象者の顔の向き又は前記対象者の視点の高さ及び前記対象者の顔の角度から特定される前記対象者の視線の方向のいずれかに基づいて記対象者の特性として判定する判定部と、
複数の位置のうち、前記判定部により判定された前記対象者の特性に対応する、前記対象者の向いている方向に、画像を表示する制御を行う制御部と、
を備え
前記対象者の向いてる方向は前記対象者の視線の方向、前記対象者の顔の向き、前記対象者の体の向きの順に優先度が高く、
前記制御部は、前記対象者の視線の方向に画像を表示する場合は、当該対象者の視線が到達する位置に画像を表示することを特徴とする制御装置。
Each joint of the subject is detected as a feature point, and the direction in which the subject is facing, which is recognized based on the feature point, is the orientation of the subject's body, the orientation of the subject's face, or the subject. A determination unit that determines as a characteristic of the subject based on either the height of the viewpoint of the subject and the direction of the line of sight of the subject specified from the angle of the face of the subject.
A control unit that controls the display of an image in the direction in which the target person is facing , which corresponds to the characteristics of the target person determined by the determination unit among a plurality of positions.
Equipped with
The direction in which the subject is facing has higher priority in the order of the direction of the subject's line of sight, the direction of the subject's face, and the direction of the subject's body.
The control unit is a control device, characterized in that, when displaying an image in the direction of the line of sight of the target person, the control unit displays the image at a position where the line of sight of the target person reaches .
可動可能なプロジェクタにより構成される表示部をさらに備え、
前記制御部は、前記表示部を可動させて前記画像の表示する位置を変更し、
前記制御部は、表示可能な領域を複数の領域に分割し、当該領域に前記画像を表示する制御を行うことを特徴とする請求項1に記載の制御装置。
It also has a display unit consisting of a movable projector.
The control unit moves the display unit to change the position where the image is displayed.
The control device according to claim 1, wherein the control unit divides a displayable area into a plurality of areas and controls the display of the image in the area.
前記対象者の視線が到達する位置は、前記対象者の視点の高さに、前記対象者の鉛直方向の軸に対する前記対象者の顔の角度θとしてtanθの逆数を乗じた位置とすることを特徴とする請求項1又は2に記載の制御装置。 The position where the line of sight of the subject reaches is the height of the viewpoint of the subject multiplied by the reciprocal of tan θ as the angle θ of the subject's face with respect to the vertical axis of the subject. The control device according to claim 1 or 2, wherein the control device is characterized. 前記対象者の特性は、対象者の移動速度を含んでおり、
前記画像は、表示メッセージを含んでおり、
前記制御部は、前記判定部により判定された前記対象者の移動速度に応じて同一の位置に対して異なる表示メッセージを選択して表示する制御を行うことを特徴とする請求項1から3の何れか一項に記載の制御装置。
The characteristics of the subject include the moving speed of the subject, and the characteristics of the subject include the moving speed of the subject.
The image contains a display message and
The control unit is characterized in that it controls to select and display different display messages for the same position according to the movement speed of the target person determined by the determination unit. The control device according to any one of the above.
前記対象者の動作を動作情報として認識する認識部を更に有し、
前記認識部は、サーモグラフィまたは赤外線を用いて前記対象者の動作を認識し、
前記判定部は、更に前記動作情報を前記対象者の特性として判定することを特徴とする請求項1から4の何れか一項に記載の制御装置。
It further has a recognition unit that recognizes the movement of the target person as movement information, and has a recognition unit.
The recognition unit recognizes the movement of the subject using thermography or infrared rays, and recognizes the movement of the subject.
The control device according to any one of claims 1 to 4, wherein the determination unit further determines the operation information as a characteristic of the target person.
複数の画像表示装置と、認識装置と、前記画像表示装置に画像を表示制御する制御装置とを含む画像表示システムにおいて、
前記制御装置は、
対象者の各関節を特徴点として検出し、当該特徴点に基づいて認識される前記対象者の向いている方向を、前記対象者の体の向き、前記対象者の顔の向き又は前記対象者の視点の高さ及び前記対象者の顔の角度から特定される前記対象者の視線の方向のいずれかに基づいて記対象者の特性として判定し、
複数の位置のうち、前記判定された前記対象者の特性に対応する、前記対象者の向いている方向にある画像表示装置に、画像を表示する制御を行い、
前記対象者の向きは前記対象者の視線の方向、前記対象者の顔の向き、前記対象者の身体の向きの順に優先度が高く、
前記対象者の視線の方向に画像を表示する場合は、当該対象者の視線が到達する位置に画像を表示する
ことを特徴とする画像表示システム。
In an image display system including a plurality of image display devices, a recognition device, and a control device for displaying and controlling an image on the image display device.
The control device is
Each joint of the subject is detected as a feature point, and the direction in which the subject is facing, which is recognized based on the feature point, is the orientation of the subject's body, the orientation of the subject's face, or the subject. Based on either the height of the viewpoint of the subject and the direction of the line of sight of the subject specified from the angle of the subject's face, it is determined as a characteristic of the subject.
A control is performed to display an image on an image display device in a direction in which the target person is facing , which corresponds to the determined characteristic of the target person among a plurality of positions.
The orientation of the subject has higher priority in the order of the direction of the subject's line of sight, the orientation of the subject's face, and the orientation of the subject's body.
When displaying an image in the direction of the target person's line of sight, the image is displayed at a position where the target person's line of sight reaches.
An image display system characterized by that.
コンピュータに、
対象者の各関節を特徴点として検出し、当該特徴点に基づいて認識される前記対象者の向いている方向を、前記対象者の体の向き、前記対象者の顔の向き又は前記対象者の視点の高さ及び前記対象者の顔の角度から特定される前記対象者の視線の方向のいずれかに基づいて記対象者の特性として判定する判定機能と、
複数の位置のうち、前記判定機能により判定された対象者の特性に対応する、前記対象者の向いている方向に、画像を表示する制御を行う制御機能と、
を実現させるためのプログラムであって、
前記対象者の向いてる方向は前記対象者の視線の方向、前記対象者の顔の向き、前記対象者の身体の向きの順に優先度が高く、
前記制御機能は、前記対象者の視線の方向に画像を表示する場合は、当該対象者の視線が到達する位置に画像を表示することを特徴とするプログラム。
On the computer
Each joint of the subject is detected as a feature point, and the direction in which the subject is facing, which is recognized based on the feature point, is the orientation of the subject's body, the orientation of the subject's face, or the subject. A determination function for determining as a characteristic of the subject based on either the height of the viewpoint of the subject and the direction of the line of sight of the subject specified from the angle of the face of the subject.
A control function that controls the display of an image in the direction in which the target person is facing , which corresponds to the characteristics of the target person determined by the determination function among a plurality of positions.
It is a program to realize
The direction in which the subject is facing has higher priority in the order of the direction of the subject's line of sight, the direction of the subject's face, and the direction of the subject's body.
The control function is a program characterized in that, when displaying an image in the direction of the line of sight of the target person, the image is displayed at a position where the line of sight of the target person reaches.
JP2020131639A 2020-08-03 2020-08-03 Image display control device, image display system and program Active JP7041211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020131639A JP7041211B2 (en) 2020-08-03 2020-08-03 Image display control device, image display system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020131639A JP7041211B2 (en) 2020-08-03 2020-08-03 Image display control device, image display system and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015118630A Division JP2017003820A (en) 2015-06-11 2015-06-11 Image display controller, image display system, and program

Publications (2)

Publication Number Publication Date
JP2020191665A JP2020191665A (en) 2020-11-26
JP7041211B2 true JP7041211B2 (en) 2022-03-23

Family

ID=73454012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020131639A Active JP7041211B2 (en) 2020-08-03 2020-08-03 Image display control device, image display system and program

Country Status (1)

Country Link
JP (1) JP7041211B2 (en)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319217A (en) 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd Image display method
JP2005313291A (en) 2004-04-30 2005-11-10 Mitsubishi Heavy Ind Ltd Image display method linked with robot action, and device thereof
JP2006129288A (en) 2004-10-29 2006-05-18 Konica Minolta Photo Imaging Inc Video display device
JP2006133252A (en) 2004-11-02 2006-05-25 Matsushita Electric Works Ltd Device for generating virtual reality
JP2006146719A (en) 2004-11-22 2006-06-08 Brother Ind Ltd Moving object analysis system, moving object analysis device and moving object analysis program
JP2008176096A (en) 2007-01-19 2008-07-31 Brother Ind Ltd Image display
JP2010061063A (en) 2008-09-08 2010-03-18 Nec Computertechno Ltd Display control device, automatic teller machine, display control method, and program
JP2011039844A (en) 2009-08-12 2011-02-24 Shimane Prefecture Image recognition device, operation decision method and program
JP2011059528A (en) 2009-09-11 2011-03-24 Sony Corp Display device and control method
JP2011158534A (en) 2010-01-29 2011-08-18 Toppan Printing Co Ltd Moving body link type advertisement display method
WO2011158511A1 (en) 2010-06-17 2011-12-22 パナソニック株式会社 Instruction input device, instruction input method, program, recording medium and integrated circuit
WO2012077286A1 (en) 2010-12-09 2012-06-14 パナソニック株式会社 Object detection device and object detection method
JP2012519922A (en) 2009-10-20 2012-08-30 サムスン エレクトロニクス カンパニー リミテッド Article providing apparatus, display apparatus, and GUI providing method using the same
JP2013003848A (en) 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> Virtual object display device
JP2014123277A (en) 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
JP2015011404A (en) 2013-06-26 2015-01-19 シャープ株式会社 Motion-recognizing and processing device

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319217A (en) 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd Image display method
JP2005313291A (en) 2004-04-30 2005-11-10 Mitsubishi Heavy Ind Ltd Image display method linked with robot action, and device thereof
JP2006129288A (en) 2004-10-29 2006-05-18 Konica Minolta Photo Imaging Inc Video display device
JP2006133252A (en) 2004-11-02 2006-05-25 Matsushita Electric Works Ltd Device for generating virtual reality
JP2006146719A (en) 2004-11-22 2006-06-08 Brother Ind Ltd Moving object analysis system, moving object analysis device and moving object analysis program
JP2008176096A (en) 2007-01-19 2008-07-31 Brother Ind Ltd Image display
JP2010061063A (en) 2008-09-08 2010-03-18 Nec Computertechno Ltd Display control device, automatic teller machine, display control method, and program
JP2011039844A (en) 2009-08-12 2011-02-24 Shimane Prefecture Image recognition device, operation decision method and program
JP2011059528A (en) 2009-09-11 2011-03-24 Sony Corp Display device and control method
JP2012519922A (en) 2009-10-20 2012-08-30 サムスン エレクトロニクス カンパニー リミテッド Article providing apparatus, display apparatus, and GUI providing method using the same
JP2011158534A (en) 2010-01-29 2011-08-18 Toppan Printing Co Ltd Moving body link type advertisement display method
WO2011158511A1 (en) 2010-06-17 2011-12-22 パナソニック株式会社 Instruction input device, instruction input method, program, recording medium and integrated circuit
WO2012077286A1 (en) 2010-12-09 2012-06-14 パナソニック株式会社 Object detection device and object detection method
JP2013003848A (en) 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> Virtual object display device
JP2014123277A (en) 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
JP2015011404A (en) 2013-06-26 2015-01-19 シャープ株式会社 Motion-recognizing and processing device

Also Published As

Publication number Publication date
JP2020191665A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
US11402871B1 (en) Keyboard movement changes virtual display orientation
CN101379455B (en) Input device and its method
TW201104494A (en) Stereoscopic image interactive system
JP2007526501A (en) Message board with dynamic message position change
JP2014095853A (en) Image processor, projector, image processing method, and program
KR20230029885A (en) Augmented reality eyewear with speech bubbles and translation
WO2022170221A1 (en) Extended reality for productivity
JP7041211B2 (en) Image display control device, image display system and program
JP6632824B2 (en) Target person guidance system
JP2017003820A (en) Image display controller, image display system, and program
KR101862948B1 (en) System of supplying museum contents based on virtual reality
JP2000090285A (en) Video display device
Chan et al. Gesture-based interaction for a magic crystal ball
CN114327083A (en) House property, object display method and device, readable storage medium and electronic equipment
JP6661282B2 (en) Control device, image display system and program
JP7113045B2 (en) display controller
JP6716207B2 (en) Display control device, display control method, program and display system
JP2003067107A (en) Tactile sense presenting device
US20240104863A1 (en) Contextual presentation of extended reality content
JP2000039949A (en) Video display device
JP2002175066A (en) Display method and display device
JP2017116693A (en) Content reproduction device, content reproduction method, and program
JP2004258287A (en) Video display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7041211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150