JP7113045B2 - display controller - Google Patents

display controller Download PDF

Info

Publication number
JP7113045B2
JP7113045B2 JP2020100956A JP2020100956A JP7113045B2 JP 7113045 B2 JP7113045 B2 JP 7113045B2 JP 2020100956 A JP2020100956 A JP 2020100956A JP 2020100956 A JP2020100956 A JP 2020100956A JP 7113045 B2 JP7113045 B2 JP 7113045B2
Authority
JP
Japan
Prior art keywords
display
target person
information
staff
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020100956A
Other languages
Japanese (ja)
Other versions
JP2020170522A (en
Inventor
栄太 平井
博憲 篠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2020100956A priority Critical patent/JP7113045B2/en
Publication of JP2020170522A publication Critical patent/JP2020170522A/en
Priority to JP2022088732A priority patent/JP7365456B2/en
Application granted granted Critical
Publication of JP7113045B2 publication Critical patent/JP7113045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示制御装置に関する。 The present invention relates to a display control device.

従来から、各種情報を与える装置が知られている。これらの装置は、例えばベッドサイドに設けられることで、患者の情報を適切に伝えることができる。また、リハビリのときに使用者に各種情報を表示する発明が知られている(例えば、特許文献1、特許文献2参照)。 2. Description of the Related Art Devices that provide various types of information are conventionally known. These devices are provided at the bedside, for example, so that patient information can be conveyed appropriately. In addition, there are known inventions that display various types of information to the user during rehabilitation (see, for example, Patent Documents 1 and 2).

また、特許文献3のように、医療分野において、禁止されている医療行為を表示することにより医療従事者に情報を提供する発明や、介護分野の場合において、介護スタッフに対して情報を提供することにより、適切な介護や、被介助者に対するリスクを軽減させる発明が知られている。 In addition, as in Patent Document 3, in the medical field, an invention that provides information to medical staff by displaying prohibited medical practices, and in the case of the nursing care field, provides information to nursing care staff. Inventions are known that provide appropriate nursing care and reduce risks to the person being assisted.

特開2003-260150号公報Japanese Patent Application Laid-Open No. 2003-260150 特表2010-517731号公報Japanese Patent Publication No. 2010-517731 特開2009-271574号公報JP 2009-271574 A

しかし、無差別に情報を与えると、患者やスタッフの区別無く情報が表示されてしまうことになり、情報を必要としない対象者に情報を与えることにより混乱を招いたり、情報を与えてはいけない対象者にも情報を与えてしまったりするといった課題があった。 However, if information is given indiscriminately, information will be displayed without distinguishing between patients and staff, and information should not be given to those who do not need it. There was also the problem of giving information to the target audience.

とくに医療情報等の場合、医療スタッフか介護スタッフにのみ伝えたい情報があるが、患者やその家族に伝わる事で、不必要な不安を招いたりする場合があった。また、介護の分野では、高齢者等に過多な情報を提供してしまうと、混乱や勘違いで予想外の行動やリスクを招くといった課題があった。 In particular, in the case of medical information, there is information that should be communicated only to medical staff or nursing care staff, but there are cases where this is communicated to patients and their families, causing unnecessary anxiety. In addition, in the field of nursing care, there is a problem that providing too much information to the elderly, etc., leads to unexpected behavior and risks due to confusion and misunderstanding.

上述した課題に鑑み、本発明が目的とするところは、情報を与える対象者をセンシングにより適切に判定することで、情報を提供したい対象者に適切に情報を提供することが可能な表示制御装置等を提供することである。 In view of the above-described problems, an object of the present invention is to provide a display control device capable of appropriately providing information to a target person to whom information is to be provided by appropriately determining a target person to whom information is to be provided by sensing. etc. is to be provided.

上述した課題に鑑み、本発明の表示制御装置は、
メッセージを表示可能な表示手段と、
認識エリアに存在する対象者の特性をセンシングにより判定する特性判定手段と、
前記特性判定手段により、前記対象者が表示対象者であると判定された場合には、前記表示手段にメッセージを表示する制御を行い、前記対象者が表示対象者以外であると判定された場合には前記表示手段にメッセージを表示しない制御を行う表示制御手段と、
を備えたことを特徴とする。
In view of the problems described above, the display control device of the present invention
display means capable of displaying a message;
Characteristic determination means for determining characteristics of a target person existing in the recognition area by sensing;
When the characteristic determination means determines that the target person is a display target person, control is performed to display a message on the display means, and when it is determined that the target person is other than the display target person a display control means for controlling not to display a message on the display means;
characterized by comprising

また、本発明のプログラムは、コンピュータに、
メッセージを表示可能な表示機能と、
認識エリアに存在する対象者の特性をセンシングにより判定する特性判定機能と、
前記特性判定機能により、前記対象者が表示対象者であると判定された場合には、前記表示機能にメッセージを表示する制御を行い、前記対象者が表示対象者以外であると判定された場合には前記表示機能にメッセージを表示しない制御を行う表示制御機能と、
を実現させることを特徴とする。
In addition, the program of the present invention can be stored in a computer by
A display function that can display messages,
A characteristic determination function that determines the characteristics of the target person existing in the recognition area by sensing;
If the characteristic determination function determines that the target person is a display target person, control is performed to display a message on the display function, and if the target person is determined to be other than the display target person has a display control function that controls not to display a message on the display function;
It is characterized by realizing

本発明の表示制御方法は、
メッセージを表示可能な表示ステップと、
認識エリアに存在する対象者の特性をセンシングにより判定する特性判定ステップと、
前記特性判定ステップにより、前記対象者が表示対象者であると判定された場合には、前記表示ステップにメッセージを表示する制御を行い、前記対象者が表示対象者以外であると判定された場合には前記表示ステップにメッセージを表示しない制御を行う表示制御ステップと、
を有することを特徴とする。
A display control method of the present invention includes:
a display step capable of displaying a message;
a characteristic determination step of determining, by sensing, a characteristic of a target person existing in the recognition area;
When the characteristics determination step determines that the target person is a display target person, control is performed to display a message in the display step, and when it is determined that the target person is other than the display target person a display control step for controlling not to display a message in the display step;
characterized by having

本発明の表示システムは、
対象者をセンシングして認識する認識装置と、メッセージを表示可能な表示装置と、制御装置とを含む表示システムであって、
前記制御装置は、
前記認識装置により認識エリアに存在する対象者を認識し、当該対象者の特性を判定する特性判定手段と、
前記特性判定手段により、前記対象者が表示対象者であると判定された場合には、前記表示装置にメッセージを表示する制御を行い、前記対象者が表示対象者以外であると判定された場合には前記表示装置にメッセージを表示しない制御を行う表示制御手段と、
を備えたことを特徴とする。
The display system of the present invention is
A display system including a recognition device that senses and recognizes a target person, a display device that can display a message, and a control device,
The control device is
a characteristic determination means for recognizing a target person existing in a recognition area by the recognition device and determining a characteristic of the target person;
When the characteristic determination means determines that the target person is a display target person, control is performed to display a message on the display device, and when the target person is determined to be other than the display target person display control means for controlling not to display a message on the display device;
characterized by comprising

本発明によれば、認識エリアに存在する対象者の特性をセンシングにより判定し、表示対象者であると判定された場合には、前記表示手段にメッセージを表示する制御を行い、前記対象者が表示対象者以外であると判定された場合には前記表示手段にメッセージを表示しない制御を行うことができる。したがって、センシングにより、例えばスタッフと判定された特性の対象者を表示対象者として情報を与えることが可能となる。また、表示対象者以外には情報が伝わらないことから、不要な混乱を避けたり、いたずらに不安を与えることを防ぐことができる。 According to the present invention, the characteristics of the target person present in the recognition area are determined by sensing, and when it is determined that the target person is a display target person, control is performed to display a message on the display means, and the target person is When it is determined that the person is not the person to be displayed, control can be performed so that the message is not displayed on the display means. Therefore, by sensing, it is possible to give information to a target person who is determined to be a staff, for example, as a display target person. In addition, since the information is not communicated to anyone other than the person to whom the information is to be displayed, it is possible to avoid unnecessary confusion and to prevent unnecessary anxiety.

第1実施形態における全体を説明するための図である。It is a figure for demonstrating the whole in 1st Embodiment. 第1実施形態における機能構成を説明するための図である。3 is a diagram for explaining a functional configuration in the first embodiment; FIG. 第1実施形態における人体の認識方法について説明するための図である。It is a figure for demonstrating the recognition method of the human body in 1st Embodiment. 第1実施形態における表示領域について説明するための図である。4 is a diagram for explaining a display area in the first embodiment; FIG. 第1実施形態における特性判定テーブルのデータ構成の一例である。It is an example of the data configuration of a characteristic determination table in the first embodiment. 第1実施形態における表示位置テーブルのデータ構成の一例である。It is an example of a data configuration of a display position table in the first embodiment. 第1実施形態におけるメイン処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of main processing in the first embodiment; 第1実施形態における表示決定処理の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of display determination processing in the first embodiment; 第1実施形態における適用例を説明するための図である。It is a figure for demonstrating the application example in 1st Embodiment. 第2実施形態における表示決定処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of display determination processing in the second embodiment; FIG. 第2実施形態における適用例を説明するための図である。It is a figure for demonstrating the application example in 2nd Embodiment. 第3実施形態における表示決定処理の一例を説明するためのフローチャートである。FIG. 14 is a flowchart for explaining an example of display determination processing in the third embodiment; FIG. 第3実施形態における適用例を説明するための図である。It is a figure for demonstrating the application example in 3rd Embodiment.

以下、図面を参照して本発明を実施するための最良の形態について説明する。以下の実施形態は、本発明の表示制御装置(表示システム)を適用した一例であり、発明の内容が、本実施形態に限定されるものではないのは勿論である。 BEST MODE FOR CARRYING OUT THE INVENTION The best mode for carrying out the present invention will be described below with reference to the drawings. The following embodiments are examples to which the display control device (display system) of the present invention is applied, and the content of the present invention is not limited to these embodiments.

[1.第1実施形態]
[1.1 システム外観]
第1実施形態における表示システム1の全体について、図1を用いて説明する。図1に示すように、表示システム1は、対象者Pを認識する認識装置20と、画像を表示する画像表示装置30とを有しており、これらが制御装置10(画像表示制御装置)に接続されている。
[1. First Embodiment]
[1.1 System Appearance]
The entire display system 1 according to the first embodiment will be described with reference to FIG. As shown in FIG. 1, the display system 1 has a recognition device 20 that recognizes a subject P and an image display device 30 that displays an image. It is connected.

本実施形態では、画像表示装置30の一例として、画像表示装置(ディスプレイ)32と、画像表示装置(プロジェクタ)34とを有して構成されている。そして、画像表示装置(プロジェクタ)34は、表示位置として表示領域R34に画像を表示する。ここで、画像表示装置30は、1つであっても良いし、複数であっても良い。すなわち、複数の表示位置に表示可能な構成となっていれば良い。各装置の詳細については次の機能構成で説明する。 In this embodiment, an image display device (display) 32 and an image display device (projector) 34 are provided as an example of the image display device 30 . Then, the image display device (projector) 34 displays the image in the display area R34 as the display position. Here, the number of image display devices 30 may be one or plural. In other words, it is sufficient that the image can be displayed at a plurality of display positions. Details of each device will be described in the following functional configuration.

更に、画像表示装置30は、可動可能に構成されていてもよい。例えば、プロジェクタの場合は、プロジェクタ取付部が可動するように構成されており、プロジェクタが照射する方向にレンズ方向を自在に稼動させることが可能となるように構成されても良い。また、ディスプレイの場合は、取付部が移動可能になっており、表示したい箇所に移動する構成としても良い。 Furthermore, the image display device 30 may be configured to be movable. For example, in the case of a projector, the projector mounting portion may be configured to be movable, and the lens direction may be freely moved in the direction in which the projector emits light. Moreover, in the case of a display, the attachment portion is movable, and the configuration may be such that the display can be moved to a desired location.

なお、本実施形態では、認識装置20と、画像表示装置30と、制御装置10とが同一の構内で接続されている(例えば、同一のネットワークに接続されていたり、USB接続といったローカル接続されていたりする)こととして説明するが、外部ネットワークを介して接続されていても良い。 In this embodiment, the recognition device 20, the image display device 30, and the control device 10 are connected in the same premises (for example, they are connected to the same network, or they are locally connected such as USB connection). ), but may be connected via an external network.

すなわち、制御装置10が、インターネットに接続されているサーバであり、サーバ上で処理を実行する。そして、インターネットを介して、認識装置20及び画像表示装置30が接続されることとしても良い。この場合、サーバ側の管理者は、離れた場所であっても複数の制御を行うことが可能となる。 That is, the control device 10 is a server connected to the Internet and executes processing on the server. Then, the recognition device 20 and the image display device 30 may be connected via the Internet. In this case, the administrator on the server side can perform multiple controls even from a remote location.

[1.2 機能構成]
つづいて、本実施形態における表示システム1を構成する各装置の機能構成について図2を用いて説明する。
[1.2 Functional configuration]
Next, the functional configuration of each device constituting the display system 1 in this embodiment will be described with reference to FIG.

図2に示すように、制御装置10に、認識装置20と、一又は複数の画像表示装置30とが接続されている。 As shown in FIG. 2 , a recognition device 20 and one or a plurality of image display devices 30 are connected to the control device 10 .

また、制御装置10は、制御部110と、認識部120と、画像表示制御部130と、記憶部140とを備えて構成されている。 The control device 10 also includes a control section 110 , a recognition section 120 , an image display control section 130 and a storage section 140 .

制御部110は、制御装置10の全体を制御するための機能部である。制御部110は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Process Unit)等により構成されている。 The control unit 110 is a functional unit for controlling the control device 10 as a whole. The control unit 110 implements various functions by reading and executing various programs stored in the storage unit 140, and is configured by, for example, a CPU (Central Process Unit).

認識部120は、対象者の人体を認識装置20により認識された情報を入力・処理するための機能部である。すなわち、認識装置20における空間内における人の動きをセンシングする技術(画像処理・サーモ・位置センサ・圧センサ)を利用し、対象者の特性を認識する機能部である。 The recognition unit 120 is a functional unit for inputting and processing information obtained by recognizing the human body of the target person by the recognition device 20 . That is, it is a functional unit that recognizes the characteristics of the target person by using the technology (image processing, thermography, position sensor, pressure sensor) for sensing the movement of a person in space in the recognition device 20 .

ここで、対象者(人)の特性とは、当該対象者の属性、動作から判定される。具体的には、対象者が「患者」であるか「スタッフ」であるかを表す。他の特性としては、病院や施設に見舞いに来た「他者」(例えば、家族等)が考えられる。 Here, the characteristics of a target person (person) are determined from the attributes and actions of the target person. Specifically, it indicates whether the subject is a "patient" or a "staff". Other characteristics may be "others" (eg, family members, etc.) who have visited the hospital or facility.

また、「スタッフ」とは、医療従事者等の医療スタッフ、介護施設等の介護スタッフといった者を示す。すなわち「患者」に対応する言葉となるため、例えば在宅介護においては、「スタッフ」に家族が含まれたりする場合がある。 In addition, the “staff” indicates persons such as medical staff such as medical staff and care staff such as nursing care facilities. That is, since the word corresponds to "patient", for example, in home care, "staff" may include family members.

対象者の属性とは、当該対象者を認識装置20により判定可能なものであり、例えば身長、体格といったものである。さらに、人の大きさ、表情等を認識することにより、男女であったり、大人、子供であったり、健常者等を認識することができる。さらに、対象者の着衣の種類や、ネームプレートの有無、杖の有無といった対象者が身につけるものに関する情報も含まれる。また対象者のいる位置により、属性を判定することも可能である。例えば、ベッド装置の上にいる対象者の属性を患者と認識したり、移動中の患者と判定された対象者の後ろにいる対象者をスタッフと認識したりすることも可能である。 The target person's attributes are those that can determine the target person by the recognition device 20, such as height and physique. Furthermore, by recognizing the size, facial expression, etc. of a person, it is possible to recognize whether the person is male or female, an adult, a child, a healthy person, or the like. It also includes information about what the subject wears, such as the type of clothing the subject wears, the presence or absence of a nameplate, and the presence or absence of a cane. It is also possible to determine the attributes of the subject based on the position of the subject. For example, it is possible to recognize an attribute of a subject on a bed apparatus as a patient, or recognize a subject behind a subject who is determined to be a moving patient as a staff member.

また、対象者の動作とは、対象者の動きを判定するものであり、対象者が動いている方向、速度であったり、対象者が起立しているか等の姿勢であったり、対象者の動きといったものを認識することができる。 In addition, the target person's motion is to determine the target person's movement, such as the direction and speed of the target person's movement, the posture of the target person such as whether the target person is standing, You can perceive things like movement.

ここで、認識装置20及び認識部120が、空間内において人(人)体を認識する仕組みについて、図3を用いて説明する。ここで、認識装置20としては種々の装置が考えられるが、一例としてマイクロソフト株式会社製のKinect(キネクト)(登録商標)を利用した方法について説明する。 Here, a mechanism by which the recognition device 20 and the recognition unit 120 recognize a human body in space will be described with reference to FIG. Various devices can be used as the recognition device 20. As an example, a method using Kinect (registered trademark) manufactured by Microsoft Corporation will be described.

Kinectを利用する事により、人間の骨格をスティックピクチャ(人体モデル)として捉えることができるようになる(図3(a))。すなわち、人体の各関節の特徴点と、当該特徴点を結んだ線とがそれぞれ検出される。 By using Kinect, it becomes possible to grasp the human skeleton as a stick picture (human body model) (Fig. 3(a)). That is, feature points of each joint of the human body and lines connecting the feature points are detected.

人間の骨格を人体モデルとして捉えることにより、対象者の手や足の位置、関節の位置等を容易に認識することが出来る用になる。 By grasping the human skeleton as a human body model, it is possible to easily recognize the positions of the subject's hands, feet, joints, and the like.

さらに、この特徴点に基づいて、人の顔の向きや、体の向きを認識することが可能となる。例えば、顔の向きや体の向きを求めるには、図3(b)に示すように、各関節の特徴点をもちいて認識する。図3(b)では、特徴点P01と、特徴点P02の(x、y、z)座標をそれぞれ検出する。そして、2つの座標を結ぶ直線と、基準面との角度を算出することにより、顔の向きを認識する。 Furthermore, based on these feature points, it is possible to recognize the orientation of a person's face and body. For example, in order to obtain the orientation of the face and the orientation of the body, as shown in FIG. 3B, the characteristic points of each joint are used for recognition. In FIG. 3B, the (x, y, z) coordinates of the feature point P01 and the feature point P02 are respectively detected. The orientation of the face is recognized by calculating the angle between the straight line connecting the two coordinates and the reference plane.

また、特徴点P03と、特徴点P04の(x、y、z)座標をそれぞれ検出し、特徴点P03と特徴点P04とを直線で結ぶ仮想線L01の位置から、体の方向(向きと傾き)を認識する。 Also, the (x, y, z) coordinates of the feature point P03 and the feature point P04 are respectively detected, and the body direction (orientation and inclination ).

これにより、例えば、対象者の向いている方向から、画像を表示する領域を特定することができる。例えば、図3(c)に示すように、特徴点P01と、特徴点P02から、中心軸に対しての角度が算出され、これにより顔の角度(対象者が向いている角度)θ1が算出される。 Thereby, for example, the area in which the image is to be displayed can be specified from the direction in which the subject is facing. For example, as shown in FIG. 3C, the angle with respect to the central axis is calculated from the feature point P01 and the feature point P02, thereby calculating the angle of the face (the angle at which the subject is facing) θ1. be done.

また、人体の視点の高さL02(例えば、近似的に特徴点P02の高さ)と、顔の角度の法線方向L03とから、視線が地上線L04に到達する位置を求めることが可能となる(例えば、高さL02×arctanθ1)。そして、この位置を表示領域R01として、画像を表示することができる。 Further, it is possible to determine the position where the line of sight reaches the ground line L04 from the height L02 of the viewpoint of the human body (for example, approximately the height of the feature point P02) and the normal direction L03 of the angle of the face. (for example, height L02×arctan θ1). An image can be displayed using this position as a display region R01.

なお、人体を認識する方法としては、他の方法であっても良い。例えば、カメラを用いた画像処理技術、サーモグラフィや赤外線を用いた認識技術であっても良いし、圧力センサを床に置き、足の方向と荷重方向で人を認識しても良い。また、視線検出技術を利用して、視線を検出しても良い。 Note that other methods may be used as the method of recognizing the human body. For example, image processing technology using a camera, recognition technology using thermography or infrared rays may be used, or a pressure sensor may be placed on the floor and a person may be recognized based on the direction of the foot and the direction of the load. Also, the line of sight may be detected using a line of sight detection technique.

ここで、対象者P(人体)の向きの認識としては、視線の方向、顔の向き、体の向きの順に優先度が高くなっている。すなわち、視線の方向が認識できるのであれば視線の方向を、顔の向きを検出できるのであれば顔の方向を、そうで無ければ体の向きを認識する。これらを複数認識することとしても良いし、単独で方向を認識しても良い。 Here, for recognition of the orientation of the target person P (human body), priority is given to the direction of the line of sight, the orientation of the face, and the orientation of the body in this order. That is, the direction of the line of sight is recognized if the direction of the line of sight can be recognized, the direction of the face is recognized if the direction of the face can be detected, and the body direction is otherwise recognized. A plurality of these may be recognized, or a single direction may be recognized.

つづいて、画像表示制御部130は、接続されている一又は複数の画像表示装置30に対して、画像の表示を制御するための機能部である。ここで、表示される画像は、複数の表示位置に表示可能である。表示位置は、一の画像表示装置30が切り替え可能な表示領域により決定されるか、表示する画像表示装置を切り替えて決定することとなる。すなわち、表示領域と、画像表示装置とを組み合わせて、複数の表示位置が構成されればよい。 Next, the image display control unit 130 is a functional unit for controlling image display on one or more connected image display devices 30 . Here, the displayed image can be displayed at a plurality of display positions. The display position is determined by the switchable display area of one image display device 30, or is determined by switching the image display device to be displayed. That is, a plurality of display positions may be configured by combining the display area and the image display device.

ここで、画像表示装置30は、液晶ディスプレイや有機ELディスプレイといった表示装置や、プロジェクタといった投影装置といった画像を表示可能な装置である。なお、本実施形態における画像とは、文字や図形、写真といった静止画像は勿論のこと、動画像も含む概念である。図2では、画像表示装置32と、画像表示装置34とが接続されている。 Here, the image display device 30 is a device capable of displaying an image, such as a display device such as a liquid crystal display or an organic EL display, or a projection device such as a projector. Note that the image in this embodiment is a concept that includes not only still images such as characters, figures, and photographs, but also moving images. In FIG. 2, an image display device 32 and an image display device 34 are connected.

図4は、表示位置として、複数の画像表示装置や、表示領域を組み合わせて設定した場合の一例である。例えば、画像表示装置30として、液晶ディスプレイである画像表示装置32と、投影装置(プロジェクタ)である画像表示装置34、36が接続されている。 FIG. 4 shows an example of setting a display position by combining a plurality of image display devices and display areas. For example, as the image display device 30, an image display device 32 that is a liquid crystal display and image display devices 34 and 36 that are projection devices (projectors) are connected.

画像表示装置32は、表示領域R32として画像が装置自体に表示される。また、投影装置である画像表示装置34は、離れた位置(表示領域R34)に画像を投影する。また、画像表示装置36は、表示領域R36a、表示領域R36bと複数の表示領域に表示可能である。 The image display device 32 displays an image on the device itself as a display area R32. Also, the image display device 34, which is a projection device, projects an image at a distant position (display area R34). Further, the image display device 36 can display images in a plurality of display areas such as a display area R36a and a display area R36b.

すなわち、図4の場合、表示領域R32、R34、R36a、R36bの4つの表示位置に画像が表示可能である。これにより、適切な位置に画像を表することが可能となる。なお、図4は、画像表示装置30と、表示領域との一例を説明するための図であり、本実施形態においては、表示領域は1つであっても良い。 That is, in the case of FIG. 4, images can be displayed at four display positions of the display regions R32, R34, R36a, and R36b. This makes it possible to display the image at an appropriate position. Note that FIG. 4 is a diagram for explaining an example of the image display device 30 and display areas, and in the present embodiment, the number of display areas may be one.

記憶部140は、制御装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。また、記憶部140には、特定判定テーブル142と、表示位置テーブル144とが記憶されている。 The storage unit 140 is a functional unit that stores various programs and data necessary for the operation of the control device 10 . The storage unit 140 is configured by, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like. The storage unit 140 also stores a specific determination table 142 and a display position table 144 .

特定判定テーブル142は、対象者の特性を判定するための情報が記憶されているテーブルである。例えば、図5に示すように、属性(例えば「白衣」)と、特性(例えば「スタッフ」)とが記憶されている。 The specific determination table 142 is a table that stores information for determining characteristics of a subject. For example, as shown in FIG. 5, attributes (for example, "white coat") and characteristics (for example, "staff") are stored.

ここで、特性は後述する表示メッセージを表示する位置を決めるためのものである。本実施形態では、「スタッフ」「患者」等が記憶されているが、例えば「大人」「子供」等が記憶されていても良い。 Here, the property is for determining the position for displaying a display message, which will be described later. In this embodiment, "staff", "patient", etc. are stored, but for example, "adult", "child", etc. may be stored.

表示位置テーブル144は、対象者の特性と、表示位置とを対応づけて記憶したテーブルである。例えば、特性が「スタッフ」の場合の表示位置は表示領域R32と、特性が「患者」の場合の表示位置は表示領域R34と記憶されている。 The display position table 144 is a table that stores characteristics of a subject and display positions in association with each other. For example, the display position for the characteristic "staff" is stored in the display area R32, and the display position for the characteristic "patient" is stored in the display area R34.

また、表示位置テーブル142は、併せて表示位置を記憶しておいても良い。例えば、空間内の座標を設定し、当該空間内における表示位置がどこに設けられているかを座標で記憶する。これにより、例えば対象者Pが向いている方向に対応する表示位置を決定することが可能となり、当該表示位置に対応する画像表示装置30を特定することが可能となる。 In addition, the display position table 142 may also store display positions. For example, the coordinates in the space are set, and where the display position in the space is set is stored as the coordinates. Thereby, for example, it is possible to determine the display position corresponding to the direction in which the subject P is facing, and it is possible to specify the image display device 30 corresponding to the display position.

[1.3 処理の流れ]
つづいて、本実施形態における処理の流れについて説明する。まず、人体が検知されると(ステップS102;Yes)、人体認識処理が実行される(ステップS104)。本実施形態では、認識装置20においてセンシングされた結果より、関節等に対応する特徴点がそれぞれ検出され、人体の向き等が認識される。また、センシングにより、着衣のパターンや、名札の有無といった属性が検出される。
[1.3 Flow of processing]
Next, the flow of processing in this embodiment will be described. First, when a human body is detected (step S102; Yes), human body recognition processing is executed (step S104). In this embodiment, feature points corresponding to joints and the like are detected from the results of sensing performed by the recognition device 20, and the orientation of the human body and the like are recognized. Attributes such as clothing patterns and the presence or absence of a name tag are also detected by sensing.

また、人体を検知・認識するエリアは所定の認識エリアである。例えば、ベッド装置の側であったり、リハビリ施設であったり、施設内の廊下であったりする。通常は決められたエリアを認識するが、例えば認識装置20を設けることでどこでも認識エリアとなる。例えば、在宅介護の場面では、家庭内に認識エリアを設けても良い。 Also, an area for detecting and recognizing a human body is a predetermined recognition area. For example, it may be near a bed apparatus, a rehabilitation facility, or a hallway in the facility. Normally, a fixed area is recognized, but by providing the recognition device 20, for example, the recognition area can be anywhere. For example, in the case of home care, a recognition area may be provided in the home.

つづいて、人体認識処理の認識結果に基づいて、特性判定処理を実行する(ステップS106)。本実施形態においては、ステップS104において検出された属性から、特性が判定される。 Subsequently, a characteristic determination process is executed based on the recognition result of the human body recognition process (step S106). In this embodiment, the characteristics are determined from the attributes detected in step S104.

つづいて、特性判定処理により判定された特性に基づいて表示位置/メッセージを決めるために、表示決定処理が実行される(ステップS108)。表示決定処理により決定された表示領域に、メッセージや画像を表示する(ステップS110)。 Subsequently, display determination processing is executed to determine the display position/message based on the characteristics determined by the characteristics determination processing (step S108). A message or an image is displayed in the display area determined by the display determination process (step S110).

ここで、表示決定処理について、図8を用いて説明する。まず、認識エリアに患者が存在するか判定する(ステップS152)。ここで、患者が存在しない、すなわち特性が「患者」の対象者が存在しなければ、何もせずに本処理を終了する(ステップS152;No)。この場合は、例えばステップS110において、デフォルトの処理(例えば、予め決められた画像表示装置30に、予め決められたメッセージを表示する)を行っても良いし、メッセージを表示しないという処理を行っても良い。 Here, the display determination processing will be explained using FIG. First, it is determined whether a patient exists in the recognition area (step S152). Here, if there is no patient, that is, if there is no subject whose characteristic is "patient", this process is terminated without doing anything (step S152; No). In this case, for example, in step S110, default processing (for example, displaying a predetermined message on a predetermined image display device 30) may be performed, or processing for not displaying a message may be performed. Also good.

つづいて、患者の近くにスタッフが存在か否か判定する(ステップS154)。ここで、スタッフが存在しなければ、患者が見やすい位置となる患者表示位置に患者を対象としたメッセージである患者メッセージを表示することを決定する(ステップS156)。 Next, it is determined whether or not there is a staff member near the patient (step S154). Here, if there is no staff, it is determined to display a patient message, which is a message intended for the patient, at a patient display position that is easy for the patient to see (step S156).

また、患者の近くにスタッフが存在する場合には、スタッフが見やすい位置となるスタッフ表示位置に、スタッフを対象としたメッセージであるスタッフメッセージを表示することを決定する(ステップS158)。 Also, if the staff is present near the patient, it is determined to display a staff message, which is a message intended for the staff, at the staff display position where the staff can easily see it (step S158).

そして、このステップS156又はステップS158で決定された表示位置に、表示メッセージの内容をステップS110で表示する。 Then, in step S110, the content of the display message is displayed at the display position determined in step S156 or step S158.

なお、上述した実施形態では、認識エリアに患者が存在する場合を前提としているが、患者が存在しない場合であっても、スタッフが存在する場合にはスタッフ表示位置にスタッフメッセージを決定することとしても良い。すなわち、ステップS152がNoの場合であっても、スタッフが検出されれば、ステップS158を実行するという処理としても良い。 In the above-described embodiment, it is assumed that a patient exists in the recognition area. Also good. That is, even if step S152 is No, if the staff is detected, step S158 may be executed.

[1.4 適用例・効果]
つづいて、本実施形態の適用例について、図9を用いて説明する。図9は画像表示装置により、表示領域R32と、表示領域R34とにメッセージや画像が表示可能な状態となっている。
[1.4 Application examples and effects]
Next, an application example of this embodiment will be described with reference to FIG. FIG. 9 shows a state in which messages and images can be displayed in the display area R32 and the display area R34 by the image display device.

図9(a)は、対象者PPが認識エリアにいる場合の図である。まず、人体認識処理により、対象者PPが認識される。そして、対象者PPの特性が患者であると判定される。ここで対象者を患者であると判定するのは、例えば姿勢・歩行パターン(歩幅、歩行時の体幹の姿勢等)をセンシングして判定することができる。 FIG. 9(a) is a diagram when the target person PP is in the recognition area. First, the target person PP is recognized by human body recognition processing. Then, it is determined that the characteristic of the subject PP is that of a patient. Here, determination of the subject as a patient can be made by sensing, for example, the posture/walking pattern (step length, trunk posture during walking, etc.).

例えば、患者PPが高齢者の場合、高齢者の場合は多くは下向き姿勢のため、患者に対して開示したい情報の場合(例えば、認知症患者が予期せぬ場所へ向かおうとしている場合等)は、床面の表示領域R32に患者メッセージを表示する。 For example, if the patient PP is an elderly person, the elderly often have a downward posture, so if you want to disclose information to the patient (for example, when a dementia patient is going to an unexpected place) displays a patient message on the display area R32 on the floor.

図9(b)は、対象者PPの側に、対象者PSが存在する場合の図である。対象者PPを患者、対象者PSをスタッフと特性が判定される。そして、患者の側にスタッフが存在することから、天井に近い位置にある表示領域R34にスタッフメッセージを表示する。このように周辺の患者に気がつかれにくい天井近くにメッセージ等の情報を表示することにより、患者に過多の情報を与えず、スタッフだけに有益な情報を与えるといったことが可能となる。 FIG. 9(b) is a diagram when the target person PS exists on the target person PP side. The subject PP is determined as a patient and the subject PS as a staff. Since the staff is present on the patient's side, the staff message is displayed in the display area R34 located near the ceiling. By displaying information such as a message near the ceiling where it is difficult for other patients to notice it, it is possible to provide useful information only to the staff without giving patients too much information.

[2.第2実施形態]
つづいて、第2実施形態について説明する。第2実施形態は、対象者の動き(方向)や動作に応じて表示位置を決定し、メッセージを表示する場合について説明する。
[2. Second Embodiment]
Next, a second embodiment will be described. In the second embodiment, a case will be described in which a message is displayed by determining the display position according to the movement (direction) or action of the subject.

なお、本実施形態は第1実施形態と機能構成は同一であり、図8の表示決定処理を図10の表示決定処理で置き換えたものである。 The functional configuration of this embodiment is the same as that of the first embodiment, and the display determination process of FIG. 8 is replaced with the display determination process of FIG.

まず、スタッフが存在するか否かを判定する(ステップS202)。すなわち、認識さ特性がスタッフの対象者が存在するかであるが、この存在を確認するために、スタッフの動きを利用する。例えば、図10の場合、まず、動作が特徴的である患者の存在が確認される。そして、患者近傍にいる対象者や、患者と逆方向に動いている対象者をスタッフであるとして存在を確認する(ステップS202:Yes)。 First, it is determined whether or not the staff exists (step S202). That is, the perceived property is whether the subject of the staff is present, and uses the movement of the staff to ascertain this presence. For example, in the case of FIG. 10, first, the presence of a patient whose motion is characteristic is confirmed. Then, the presence of a target person near the patient or a target person moving in the opposite direction to the patient is confirmed as a staff member (step S202: Yes).

つづいて、スタッフの動きを検出する。例えば、図10の処理の場合は、表示領域として第1方向に第1位置が、反対方向である第2方向に第2位置がある。したがって、第1方向であるか否かを判定する(ステップS204)。そして、スタッフの動き(向き)が第1方向であれば、第1位置にスタッフメッセージを表示することを決定し(ステップS204;Yes→ステップS206)、第2方向の場合は第2位置にスタッフメッセージを表示することを決定する(ステップS204;No→ステップS208)。 Next, the movement of the staff is detected. For example, in the case of the processing of FIG. 10, the display area has a first position in the first direction and a second position in the opposite second direction. Therefore, it is determined whether or not it is the first direction (step S204). If the movement (orientation) of the staff is in the first direction, it is determined to display the staff message at the first position (step S204; Yes→step S206). It is decided to display a message (step S204; No→step S208).

なお、表示可能な位置にスタッフが向いているか否かを検出すれば良いため、更に複数の方向があっても良い。また、どの方向に向いていない場合は、スタッフメッセージを表示しないと決定しても良い。さらに、本実施形態では方向で検出しているが、例えば顔の向き等を検出することによって表示位置を特定してもよい。 Since it is sufficient to detect whether or not the staff is facing a displayable position, a plurality of directions may be provided. It may also decide not to display the staff message if it is not facing in any direction. Furthermore, in the present embodiment, the direction is detected, but the display position may be specified by detecting the orientation of the face, for example.

図11は、本実施形態の適用例を説明するための図である。表示位置として表示領域R32、R34が設けられている。ここで、図11を用いて説明すると、まず、対象者PPと対象者PSとが存在している。 FIG. 11 is a diagram for explaining an application example of this embodiment. Display areas R32 and R34 are provided as display positions. Here, to explain using FIG. 11, first, there are the subject PP and the subject PS.

そして、姿勢、動作等から、対象者PPの特性は患者であると判定される。ここで、患者PPは方向V1に移動している。この場合、方向V1側にいて向かい合っている対象者PSはスタッフ(例えば、セラピストや医療従事者)であると判定される。したがって、対象者PSが向いている方向の表示領域R34にスタッフメッセージが表示される。 Then, the characteristics of the subject PP are determined to be that of a patient based on the posture, motion, and the like. Here, patient PP is moving in direction V1. In this case, the target person PS facing the direction V1 side is determined to be a staff member (for example, a therapist or a medical worker). Therefore, the staff message is displayed in the display area R34 in the direction the target person PS is facing.

なお、この場合患者が認識されていることから、例えば患者の歩行動作、速度・時間・歩幅等を計測し、提供することでリハビリの結果を示すこととしても良い。 In this case, since the patient is recognized, for example, the patient's walking motion, speed, time, stride length, etc. may be measured and provided to indicate the rehabilitation result.

また、図11(b)では、まず対象者PPが患者であると判定される。図11(b)の場合、対象者PPと、対象者PSとが同一方向V1に移動している。この場合、前に居る対象者PPを患者、後ろにいる対象者PSをスタッフと判定する。なお、対象者PP、対象者PSの動作、姿勢等から患者/スタッフを判定しても良い。 Also, in FIG. 11(b), first, the subject PP is determined to be a patient. In the case of FIG. 11(b), the subject PP and the subject PS are moving in the same direction V1. In this case, the subject PP in front is determined to be the patient, and the subject PS in the back is determined to be the staff. It should be noted that the patient/staff may be determined from the motion, posture, etc. of the subject PP and the subject PS.

図11(b)の場合、スタッフである対象者PSがV1方向に向いていることから、表示領域R32にスタッフメッセージが表示される。 In the case of FIG. 11(b), since the target person PS who is the staff is facing in the direction V1, the staff message is displayed in the display area R32.

また、この場合に、対象者の視線に応じて画面の表示/非表示の制御を行っても良い。例えば、対象者PS(スタッフ)が向いている方向S1が表示領域R32の方向であったとしても、対象者PP(患者)が向いている方向S2が表示領域R32の方向である場合は、メッセージを非表示とする。そして、図11(b)のように、対象者PPの向いている方向S2が表示領域R32から外れた場合に、表示領域R32にスタッフメッセージが表示されることとなる。 Also, in this case, display/non-display of the screen may be controlled according to the line of sight of the subject. For example, even if the direction S1 in which the subject PS (staff) is facing is the direction of the display area R32, if the direction S2 in which the subject PP (patient) is facing is the direction of the display area R32, the message is hidden. Then, as shown in FIG. 11B, when the direction S2 in which the target person PP is facing is out of the display area R32, the staff message is displayed in the display area R32.

このように、本実施形態によれば、スタッフの移動方向に適切にメッセージが表示されることとなる。例えば、リハビリテーション分野においては、歩行訓練等に患者の前後にセラピストが寄り添い、訓練する患者の歩行等をセンシングし計測したい場合、患者とセラピストを選定し認識する必要がある。その場合、患者とセラピストの向き、位置をセンシングすることで、患者を特定することが可能となる。そして、患者に付き添っているスタッフに対して適切なメッセージを表示することが可能となる。 Thus, according to this embodiment, the message is displayed appropriately in the moving direction of the staff. For example, in the rehabilitation field, it is necessary to select and recognize the patient and the therapist when it is desired to sense and measure the patient's gait, etc., while a therapist sits in front of and behind the patient during walking training. In that case, it is possible to identify the patient by sensing the directions and positions of the patient and the therapist. Then, it becomes possible to display an appropriate message to the staff accompanying the patient.

また、対象者の向いている方向を合わせて検出することにより、適切な対象者(スタッフ)にだけメッセージを表示する(対象者(患者)見せたくない情報を非表示する)といったことが可能となる。 In addition, by detecting the direction in which the target person is facing, it is possible to display a message only to the appropriate target person (staff) (hide information that the target person (patient) does not want to see). Become.

[3.第3実施形態]
つづいて、第3実施形態について説明する。第3実施形態は、判定された特性により、メッセージを表示するか否かを判定する処理である。
[3. Third Embodiment]
Next, a third embodiment will be described. The third embodiment is processing for determining whether or not to display a message based on the determined characteristics.

なお、本実施形態は第1実施形態と機能構成は同一であり、図8の表示決定処理を図12の表示決定処理で置き換えたものである。 The functional configuration of this embodiment is the same as that of the first embodiment, and the display determination process of FIG. 8 is replaced with the display determination process of FIG.

本実施形態では、スタッフに対して必要なスタッフメッセージを表示する場合の実施形態である。 This embodiment is an embodiment in which a necessary staff message is displayed to the staff.

まず、認識エリアに対象者にスタッフが存在していない場合にはメッセージが非表示となる(ステップS302;No→ステップS308)。ここで、スタッフが存在するが、スタッフの近傍に他者が存在する場合にもメッセージを非表示とする(ステップS302;Yes→ステップS304;Yes→ステップS308)。すなわち、特性がスタッフとして判定された対象者のみが存在している場合にだけスタッフメッセージを表示する(ステップS302;Yes→ステップS304;No→ステップS306)。 First, when the staff does not exist for the target person in the recognition area, the message is not displayed (step S302; No→step S308). Here, even if there is a staff member, the message is not displayed even if another person is present in the vicinity of the staff member (step S302; Yes→step S304; Yes→step S308). That is, the staff message is displayed only when there is only the target person whose characteristics are determined to be staff (step S302; Yes→step S304; No→step S306).

本実施形態の適用例について、図13を用いて説明する。図13における認識エリアはベッドサイドである。患者PPの位置からは、表示領域R32は見えない位置に配置されている。 An application example of this embodiment will be described with reference to FIG. The recognition area in FIG. 13 is the bedside. The display area R32 is arranged at a position that cannot be seen from the position of the patient PP.

まず、図13(a)に示すように、対象者PSがスタッフとして判定された場合には、表示領域R32にスタッフメッセージを表示する。この場合、患者PPの近傍、すなわちベッドサイド等で検出された場合にスタッフメッセージが表示されることとなる。 First, as shown in FIG. 13(a), when the target person PS is determined to be a staff member, a staff message is displayed in the display area R32. In this case, the staff message will be displayed when detected near the patient PP, ie, at the bedside or the like.

また、図13(b)は、認識エリアに対象者PFが存在しているが、特性がスタッフではない(例えば、「家族」)。このように、対象者PFが認識エリアに存在しているが、特性がスタッフ以外と判定されているため、メッセージは非表示となる。 Also, in FIG. 13(b), the target person PF exists in the recognition area, but the characteristic is not staff (for example, "family"). In this way, the target person PF is present in the recognition area, but the message is not displayed because the characteristic is determined to be other than staff.

また、図13(c)は、認識エリアにスタッフと判定されている対象者PSが存在している。しかし、近傍にスタッフ以外の対象者PFが存在している。この場合、同様に表示させないようにしても良い。なお、この場合、メッセージの重要度に応じて、スタッフ以外の対象者が存在している場合でもメッセージを表示するという構成にしても良い。 Also, in FIG. 13(c), there is a target person PS who is determined to be a staff member in the recognition area. However, a target person PF other than the staff exists in the vicinity. In this case, it is also possible not to display it. In this case, according to the importance of the message, the message may be displayed even if there is a target person other than the staff.

[4.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[4. Modification]
Although the embodiments of the present invention have been described in detail above with reference to the drawings, the specific configuration is not limited to these embodiments, and designs and the like within the scope of the scope of the claims are also possible without departing from the gist of the present invention. include.

また、上述した実施形態では、スタッフ、患者等への情報提供手段として表示装置を中心に説明したが、他の報知装置であっても良い。例えば、光であったり、音声であったり、振動であったりしても良い。 Further, in the above-described embodiments, the display device is mainly used as means for providing information to staff, patients, etc., but other notification devices may be used. For example, it may be light, sound, or vibration.

また、上述した実施形態では、表示対象者の特性としてスタッフ(医療スタッフや介護スタッフ等)、表示対象者以外の特性として患者、被介護者、高齢者等として説明したがそれに限定されるものではない。例えば、表示対象者として患者等とし、表示対象者以外をスタッフと逆にしても良いし、表示対象者を見舞いに来た家族や、業者といった特性にしてもよい。 In the above-described embodiment, the characteristics of the display target are staff (medical staff, nursing care staff, etc.), and the characteristics other than the display target are patients, care recipients, elderly people, etc., but the present invention is not limited to this. do not have. For example, the display target may be a patient or the like, and the non-display target may be reversed to the staff, or the display target may have a characteristic such as a family member or a trader who has come to visit the display target.

なお、上述した各実施形態は、説明の都合上処理を分けて説明しているが、可能な範囲で組み合わせて動作させても良い事は勿論である。 In each of the above-described embodiments, the processing is described separately for convenience of explanation, but it is of course possible to operate in combination within a possible range.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。 In addition, the program that operates in each device in the embodiment is a program that controls the CPU and the like (a program that causes the computer to function) so as to implement the functions of the above-described embodiments. Information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) during processing, then stored in various ROM and HDD storage devices, and read and corrected by the CPU as necessary. • Writing is performed.

ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。 Here, as recording media for storing programs, semiconductor media (eg, ROM, non-volatile memory cards, etc.), optical recording media/magneto-optical recording media (eg, DVD (Digital Versatile Disc), MO (Magneto Optical Disc), CD (Compact Disc), BD, etc.), magnetic recording media (for example, magnetic tape, flexible disc, etc.). By executing the loaded program, the functions of the above-described embodiments are realized. In some cases, inventive features are realized.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバの記憶装置も本発明に含まれるのは勿論である。 When distributed to the market, the program can be stored in a portable recording medium for distribution, or transferred to a server computer connected via a network such as the Internet. In this case, of course, the storage device of the server is also included in the present invention.

また、上述した実施形態における各装置の一部又は全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。各装置の各機能ブロックは個別にチップ化してもよいし、一部又は全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路又は汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能であることは勿論である。 Also, part or all of the devices in the above-described embodiments may typically be realized as an LSI (Large Scale Integration), which is an integrated circuit. Each functional block of each device may be individually chipped, or part or all may be integrated and chipped. Also, the method of circuit integration is not limited to LSI, but may be realized by a dedicated circuit or a general-purpose processor. Further, when a technology for integrating circuits to replace LSIs emerges due to advances in semiconductor technology, it is of course possible to use an integrated circuit based on this technology.

1 :表示システム
10 :制御装置
110 :制御部
120 :認識部
130 :画像表示制御部
140 :記憶部
142 :特性判定テーブル
144 :表示位置テーブル
20 :認識装置
30~34 :画像表示装置
1: Display system 10: Control device 110: Control unit 120: Recognition unit 130: Image display control unit 140: Storage unit 142: Characteristic determination table 144: Display position table 20: Recognition devices 30 to 34: Image display device

Claims (4)

第1位置又は前記第1位置とは異なる第2位置に情報を表示可能な表示制御手段と、
エリアに存在する対象者が表示対象者であるか否かと、当該対象者の顔の向きを判定する判定手段と、
を備え、
前記判定手段は、前記対象者の特性を判定し、
前記表示制御手段は、
前記対象者が表示対象者であると判定された場合、前記対象者が向いている顔の向き基づいて、第1位置又は第2位置のうち何れか一方の表示位置を特定し、
前記特定された表示位置に前記対象者の特性に対応した情報を表示する制御を行い、
前記対象者が表示対象者でないと判定された場合、前記情報を表示しない制御を行い、
前記エリアに前記表示対象者の特性が医療従事者又は介護スタッフがいる場合には前記情報を表示し、前記エリアにそれ以外の者が含まれている場合には、前記情報を表示しない制御を行う
ことを特徴とする表示制御装置。
display control means capable of displaying information at a first position or at a second position different from the first position;
Determination means for determining whether or not a target person present in the area is a display target person, and determining the orientation of the target person's face;
with
The determination means determines the characteristics of the subject,
The display control means is
If the target person is determined to be a display target person , specifying either a first position or a second position based on the orientation of the face facing the target person ,
performing control to display information corresponding to the characteristics of the subject at the specified display position ;
When it is determined that the target person is not a display target person, performing control not to display the information,
Control to display the information when the characteristic of the display target person is a medical worker or a care staff in the area, and not to display the information when the area includes other people. conduct
A display control device characterized by:
第1位置又は前記第1位置とは異なる第2位置に情報を表示可能な表示制御手段と、display control means capable of displaying information at a first position or at a second position different from the first position;
エリアに存在する対象者が表示対象者であるか否かと、当該対象者の顔の向きを判定する判定手段と、Determination means for determining whether or not a target person present in the area is a display target person and determining the direction of the face of the target person;
を備え、with
前記第1位置は床面の位置であり、第2位置は床面以外の位置であり、The first position is a position on the floor, the second position is a position other than the floor,
前記判定手段は、前記対象者の特性を判定し、The determination means determines the characteristics of the subject,
前記表示制御手段は、The display control means is
前記対象者が表示対象者であると判定された場合、前記対象者が向いている顔の向きに基づいて、第1位置又は第2位置のうち何れか一方の表示位置を特定し、If the target person is determined to be a display target person, specifying either a first position or a second position based on the orientation of the face facing the target person,
前記特定された表示位置に前記対象者の特性に対応した情報を表示する制御を行い、performing control to display information corresponding to the characteristics of the subject at the specified display position;
前記対象者が表示対象者でないと判定された場合、前記情報を表示しない制御を行い、When it is determined that the target person is not a display target person, performing control not to display the information,
前記対象者の特性が高齢者の場合、第1位置であり、かつ、前記対象者が向いている顔の向きの位置に前記情報を表示する制御を行うIf the characteristic of the subject is elderly, control is performed to display the information at the first position and at the position of the face orientation to which the subject is facing.
ことを特徴とする表示制御装置。A display control device characterized by:
前記表示制御手段は、前記エリアに表示対象者でない者が存在すると判断された場合、前記情報を表示しない制御を行うことを特徴とする請求項1又は2に記載の表示制御装置。 3. The display control device according to claim 1, wherein the display control means performs control not to display the information when it is determined that a person who is not a person to be displayed exists in the area. 前記表示対象者は、第1表示対象者、第2表示対象者を含み、
前記表示制御手段は、
前記エリアに第1表示対象者が存在すると判断された場合に、第1情報を表示する制御を行い、
前記エリアに第2表示対象者が存在すると判断された場合に、前記第1情報と異なる第2情報を表示する制御を行う
ことを特徴とする請求項1からの何れか一項に記載の表示制御装置。
The display target includes a first display target and a second display target,
The display control means is
performing control to display the first information when it is determined that the first display target person exists in the area;
4. The method according to any one of claims 1 to 3 , wherein control is performed to display second information different from the first information when it is determined that a second display target person exists in the area. Display controller.
JP2020100956A 2020-06-10 2020-06-10 display controller Active JP7113045B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020100956A JP7113045B2 (en) 2020-06-10 2020-06-10 display controller
JP2022088732A JP7365456B2 (en) 2020-06-10 2022-05-31 display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020100956A JP7113045B2 (en) 2020-06-10 2020-06-10 display controller

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015135659A Division JP6716207B2 (en) 2015-07-06 2015-07-06 Display control device, display control method, program and display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022088732A Division JP7365456B2 (en) 2020-06-10 2022-05-31 display control device

Publications (2)

Publication Number Publication Date
JP2020170522A JP2020170522A (en) 2020-10-15
JP7113045B2 true JP7113045B2 (en) 2022-08-04

Family

ID=72746000

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020100956A Active JP7113045B2 (en) 2020-06-10 2020-06-10 display controller
JP2022088732A Active JP7365456B2 (en) 2020-06-10 2022-05-31 display control device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022088732A Active JP7365456B2 (en) 2020-06-10 2022-05-31 display control device

Country Status (1)

Country Link
JP (2) JP7113045B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048644A (en) 2004-07-06 2006-02-16 Matsushita Electric Ind Co Ltd Image display device and viewing intention judging device
JP2010191487A (en) 2009-02-13 2010-09-02 Sony Corp Information processing apparatus and information processing method
JP2012252613A (en) 2011-06-04 2012-12-20 Hitachi Solutions Ltd Customer behavior tracking type video distribution system
JP2013195725A (en) 2012-03-21 2013-09-30 Dainippon Printing Co Ltd Image display system
JP2013205430A (en) 2012-03-27 2013-10-07 Toshiba Tec Corp Information providing terminal
JP2015022357A (en) 2013-07-16 2015-02-02 株式会社リコー Information processing system, information processing method, and information processing device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3864776B2 (en) * 2001-12-14 2007-01-10 コニカミノルタビジネステクノロジーズ株式会社 Image forming apparatus
JP5697314B2 (en) * 2009-05-26 2015-04-08 三菱電機株式会社 Moving route correspondence information display device
JP2012042717A (en) * 2010-08-19 2012-03-01 Fujifilm Corp Display method and device
JP5860144B2 (en) * 2012-06-04 2016-02-16 株式会社Pfu Information processing apparatus, method, and program
JP5942840B2 (en) * 2012-12-21 2016-06-29 ソニー株式会社 Display control system and recording medium
JP2015088086A (en) * 2013-11-01 2015-05-07 ソニー株式会社 Information processing apparatus and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048644A (en) 2004-07-06 2006-02-16 Matsushita Electric Ind Co Ltd Image display device and viewing intention judging device
JP2010191487A (en) 2009-02-13 2010-09-02 Sony Corp Information processing apparatus and information processing method
JP2012252613A (en) 2011-06-04 2012-12-20 Hitachi Solutions Ltd Customer behavior tracking type video distribution system
JP2013195725A (en) 2012-03-21 2013-09-30 Dainippon Printing Co Ltd Image display system
JP2013205430A (en) 2012-03-27 2013-10-07 Toshiba Tec Corp Information providing terminal
JP2015022357A (en) 2013-07-16 2015-02-02 株式会社リコー Information processing system, information processing method, and information processing device

Also Published As

Publication number Publication date
JP2020170522A (en) 2020-10-15
JP2022125029A (en) 2022-08-26
JP7365456B2 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US11609607B2 (en) Evolving docking based on detected keyboard positions
JP5691512B2 (en) Input support apparatus, input support method, and program
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
KR101949261B1 (en) method for generating VR video, method for processing VR video, and system for processing VR video
US20190365339A1 (en) Augmented reality interventional system providing contextual overylays
KR20170140726A (en) User recognition content providing system and operating method thereof
JPWO2019135313A1 (en) Information processing equipment, information processing methods and programs
WO2022170221A1 (en) Extended reality for productivity
JP2020520522A (en) Virtual cover for user interaction in augmented reality
WO2018124188A1 (en) Measurement device and program
WO2018062102A1 (en) Housing and system
JP7113045B2 (en) display controller
JP3767898B2 (en) Human behavior understanding system
JP6616602B2 (en) Subject guidance device, subject guidance method, program, and subject guidance system
JP6632824B2 (en) Target person guidance system
JP6716207B2 (en) Display control device, display control method, program and display system
CN111515946B (en) Control method and device for human body auxiliary robot
JP6922768B2 (en) Information processing device
JPH11249779A (en) Device and method for supporting visitor guidance
JP7041211B2 (en) Image display control device, image display system and program
JP6600497B2 (en) Subject guidance device, subject guidance system, subject guidance method and program
JP2017003820A (en) Image display controller, image display system, and program
JP6661282B2 (en) Control device, image display system and program
WO2019132780A1 (en) System and method for obtaining data associated with an injury
JP6895504B2 (en) Rehabilitation support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220531

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220607

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7113045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150