JP2020057153A - Display control device, display control method and display control program - Google Patents

Display control device, display control method and display control program Download PDF

Info

Publication number
JP2020057153A
JP2020057153A JP2018186722A JP2018186722A JP2020057153A JP 2020057153 A JP2020057153 A JP 2020057153A JP 2018186722 A JP2018186722 A JP 2018186722A JP 2018186722 A JP2018186722 A JP 2018186722A JP 2020057153 A JP2020057153 A JP 2020057153A
Authority
JP
Japan
Prior art keywords
display
unit
display control
user
biological information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018186722A
Other languages
Japanese (ja)
Other versions
JP2020057153A5 (en
Inventor
大塚 利彦
Toshihiko Otsuka
利彦 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018186722A priority Critical patent/JP2020057153A/en
Publication of JP2020057153A publication Critical patent/JP2020057153A/en
Publication of JP2020057153A5 publication Critical patent/JP2020057153A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To enable a user to easily recognize a state relating to his/her own biological information.SOLUTION: A display control device 1 includes a display unit 18, an acquisition analysis unit 112, and a display control unit 115. The display unit 18 displays an avatar image as a character corresponding to a user. The acquisition analysis unit 112 acquires first biological information relating to the user. The display control unit 115 controls dynamic display of the character by the display unit 18 on the basis of the first biological information acquired by the acquisition analysis unit 112.SELECTED DRAWING: Figure 5

Description

本発明は、表示制御装置、表示制御方法及び表示制御プログラムに関する。   The present invention relates to a display control device, a display control method, and a display control program.

医療機器やヘルスケア機器においてバイタルセンシングをしてセンシングした結果を表示する際、数値やグラフを用いて表示することが一般的である。この場合、数値の意味やグラフの見方や読み方を予め理解しておく必要があり、直感的にわかるような表示方法は無かった。   When displaying the result of performing vital sensing in a medical device or a healthcare device, it is common to use a numerical value or a graph to display the result. In this case, it is necessary to understand in advance the meaning of numerical values and how to read and read the graph, and there is no intuitive display method.

この点、特許文献1は、ユーザの生体情報を検出し、生体情報に基づいて表示キャラクタの表情又は動作を制御する技術を開示している。   In this regard, Patent Literature 1 discloses a technique of detecting biological information of a user and controlling the expression or movement of a display character based on the biological information.

特開2009−039157号公報JP 2009-039157 A

特許文献1には、ユーザの状況としての生体情報に基づいて、予め記録されている複数の表示キャラクタ画像から表示キャラクタの表情又は動作を決定することが記載されているが、このような表示ではユーザは自身の生体情報に係る状況を容易に認識することが難しい場合があった。   Patent Literature 1 describes that a facial expression or a motion of a display character is determined from a plurality of display character images recorded in advance based on biological information as a situation of a user. In some cases, it is difficult for a user to easily recognize a situation related to his / her biological information.

本発明はこのような問題点に鑑みてなされたものであり、ユーザは自身の生体情報に係る状況を容易に認識可能とすることを目的とする。   The present invention has been made in view of such a problem, and an object of the present invention is to enable a user to easily recognize a situation related to his / her biological information.

上記目的を達成するため、本発明の一態様の表示制御装置は、
ユーザに対応したキャラクタを表示する表示手段と、
前記ユーザに係る第1の生体情報を取得する生体情報取得手段と、
前記生体情報取得手段により取得された前記第1の生体情報に基づいて、前記表示手段による前記キャラクタの動的な表示を制御する表示制御手段と、
を備えることを特徴とする。
In order to achieve the above object, a display control device of one embodiment of the present invention includes:
Display means for displaying a character corresponding to the user;
Biological information obtaining means for obtaining first biological information related to the user;
Display control means for controlling dynamic display of the character by the display means based on the first biological information acquired by the biological information acquisition means;
It is characterized by having.

本発明によれば、ユーザの状況を容易に認識可能とすることができる。   ADVANTAGE OF THE INVENTION According to this invention, a user's situation can be made easily recognizable.

本発明の一実施形態に係る表示制御システムの構成を示す構成図である。1 is a configuration diagram illustrating a configuration of a display control system according to an embodiment of the present invention. 本発明の一実施形態に係る表示制御装置の前面の外観構成を示す構成図である。1 is a configuration diagram illustrating an external configuration of a front surface of a display control device according to an embodiment of the present invention. 本発明の一実施形態に係る表示制御装置の側面の外観構成を示す構成図である。It is a lineblock diagram showing the appearance composition of the side of the display control device concerning one embodiment of the present invention. 本発明の一実施形態に係る表示制御装置のハードウェアの構成を示すブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of a display control device according to an embodiment of the present invention. 本発明の一実施形態に係る表示制御装置の機能的構成のうち、合成表示処理を実行するための機能的構成を示す機能ブロック図である。FIG. 3 is a functional block diagram showing a functional configuration for executing a combined display process among functional configurations of the display control device according to the embodiment of the present invention. 本発明の一実施形態に係る表示制御装置の機能的構成のうち、取得解析部によって解析される関心領域(ROI)の例を示す図である。FIG. 3 is a diagram illustrating an example of a region of interest (ROI) analyzed by an acquisition analysis unit in the functional configuration of the display control device according to an embodiment of the present invention. 本発明の一実施形態に係る表示制御装置が実行する合成表示処理での表示の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a display in a combined display process performed by the display control device according to the embodiment of the present invention. 本発明の一実施形態に係る表示制御装置が実行する合成表示処理での表示の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a display in a combined display process performed by the display control device according to the embodiment of the present invention. 本発明の一実施形態に係る表示制御装置が実行する合成表示処理の流れを説明するフローチャートである。5 is a flowchart illustrating a flow of a composite display process executed by the display control device according to the embodiment of the present invention.

以下、本発明の実施形態について、図面を用いて説明する。
[実施形態の概略]
本発明の実施形態に係る表示制御装置1は、ユーザが携帯可能な自立式の鏡として構成される。そして、表示制御装置1は、鏡を視認するユーザに対して、時間、若しくはユーザの指示に応じてガイダンス内容が変更される一連のガイダンスを行うための補助情報を、所定のタイミングで切り換えながら表示することにより、ユーザに対するガイダンスを実現する。
この場合に、表示制御装置1は、補助情報を、ユーザの実際の画像の代替となる、代替画像に合成することにより合成画像を生成する。また、表示制御装置1は、一連のガイダンスを行う場合に、この合成画像と、ユーザの実際の画像とを、それぞれ表示画面上に切り換えながら表示する。
更に、表示制御装置1は、ユーザが一連のガイダンスに従って、例えばマッサージ等の行動をした結果、ユーザの生体情報が変化することに応じて、合成画像の表示を変化させる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Outline of Embodiment]
The display control device 1 according to the embodiment of the present invention is configured as a free-standing mirror that can be carried by a user. Then, the display control device 1 displays, while switching at predetermined timing, auxiliary information for performing a series of guidance in which guidance content is changed in accordance with time or a user's instruction to a user who views the mirror. By doing so, guidance to the user is realized.
In this case, the display control device 1 generates a synthesized image by synthesizing the auxiliary information with a substitute image that is a substitute for the actual image of the user. Further, when performing a series of guidance, the display control device 1 displays the composite image and the actual image of the user while switching them on the display screen.
Further, the display control device 1 changes the display of the composite image according to a change in the biological information of the user as a result of the user performing an action such as a massage in accordance with a series of guidance.

このような表示制御装置1によれば、人為的な像である補助情報の画像と、同様に人為的な像である代替画像とを合成することから、ユーザに対して、見た目上のギャップがない、ユーザが視認するのに適した一体感のある表示を提供することができる。これに加えて、ユーザは生体情報の変化をきめ細かく認識することができる。
つまり、表示制御装置1によれば、ユーザの状況を容易に認識可能となる。
According to such a display control device 1, since the image of the auxiliary information, which is an artificial image, and the substitute image, which is also an artificial image, are synthesized, an apparent gap is provided to the user. No, it is possible to provide a display with a sense of unity suitable for the user to view. In addition to this, the user can finely recognize the change in the biological information.
That is, according to the display control device 1, it is possible to easily recognize the situation of the user.

[システム構成]
図1は、本実施形態に係る表示制御装置1が含まれる表示制御システムSの全体構成を示すブロック図である。図1に示すように、表示制御システムSは、複数の表示制御装置1、ネットワーク2及びサーバ群3を含む。
表示制御装置1の台数には、特に制限はなく、n台(nは、任意の自然数)の表示制御装置1が表示制御システムSに含まれていてよい。なお、以下の説明において、n台の表示制御装置1を特に区別することなく説明する場合には、符号の末尾のアルファベットを省略し、単に「表示制御装置1」と称する。
[System configuration]
FIG. 1 is a block diagram illustrating an overall configuration of a display control system S including a display control device 1 according to the present embodiment. As shown in FIG. 1, the display control system S includes a plurality of display control devices 1, a network 2, and a server group 3.
The number of the display control devices 1 is not particularly limited, and the display control system S may include n (n is an arbitrary natural number) display control devices 1. In the following description, in the case where the n display control devices 1 are described without particular distinction, alphabets at the end of reference numerals are omitted, and are simply referred to as “display control devices 1”.

表示制御装置1は、上述した通り、見た目上のギャップがない、ユーザが視認するのに適した一体感のある表示を行うことにより、ガイダンスを行うと共に、ユーザの生体情報等の状況に応じた表示を行う装置である。表示制御装置1は、ネットワーク2を介して、サーバ群3に含まれる各サーバと、相互に通信可能に接続されている。   As described above, the display control device 1 performs guidance by performing a display with a sense of unity that is suitable for the user to visually recognize, without any visual gap, and provides guidance according to the situation of the user's biological information and the like. It is a device that performs display. The display control device 1 is communicably connected to each server included in the server group 3 via a network 2.

ネットワーク2は、例えば、インターネットや、LAN(Local Area Network)や、携帯電話網の何れか又はこれらを組み合わせたネットワークにより実現される。   The network 2 is realized by, for example, any one of the Internet, a LAN (Local Area Network), a mobile phone network, or a combination thereof.

サーバ群3には、表示制御装置1と協働する各種のサーバが含まれる。例えば、サーバ群3には、表示制御装置1のユーザを認証するための認証サーバが含まれる。また、例えば、サーバ群3には、表示制御装置1の機能を実現するためのアプリケーションソフトウェアを配信するアプリケーション配信サーバが含まれる。更に、例えば、サーバ群3には、ユーザに関する設定情報やユーザによる表示制御装置1の利用履歴等を含んだ情報である、ユーザのプロファイル情報を格納する測定データ格納サーバが含まれる。
ただし、これは一例に過ぎず、他の機能を有するサーバがサーバ群3に含まれていてもよい。また、サーバ群3に含まれる複数のサーバを、それぞれ別個のサーバ装置で実現してもよく、単一のサーバ装置にて実現するようにしてもよい。
The server group 3 includes various servers that cooperate with the display control device 1. For example, the server group 3 includes an authentication server for authenticating the user of the display control device 1. Further, for example, the server group 3 includes an application distribution server that distributes application software for realizing the function of the display control device 1. Further, for example, the server group 3 includes a measurement data storage server that stores user profile information, which is information including setting information about the user and usage history of the display control device 1 by the user.
However, this is only an example, and a server having another function may be included in the server group 3. Further, a plurality of servers included in the server group 3 may be realized by separate server devices, respectively, or may be realized by a single server device.

[外観構成]
図2は、本発明の一実施形態に係る表示制御装置1の前面の外観構成を示す構成図である。また、図3は、表示制御装置1の側面の外観構成を示す構成図である。表示制御装置1の前面の大きさは、例えば、国際規格であるISO(International Organization for Standardization)216で規定されるA4サイズに形成される。
[Appearance configuration]
FIG. 2 is a configuration diagram illustrating an external configuration of a front surface of the display control device 1 according to the embodiment of the present invention. FIG. 3 is a configuration diagram illustrating an external configuration of a side surface of the display control device 1. The size of the front surface of the display control device 1 is, for example, formed into an A4 size defined by ISO (International Organization for Standardization) 216 which is an international standard.

図2及び図3に示すように、表示制御装置1は、本体部30と、脚部31と、ヒンジ部32を含んで構成される。本体部30は、表示部18や、図4を参照して後述するその他のハードウェアを含む部分である。また、脚部31とヒンジ部32は、表示制御装置1を自立させるための部材である。脚部31は、ヒンジ部32によって本体部30に対して回動可能に接合される。
図3(A)に示すように、ユーザは、表示制御装置1を携帯する際に、本体部30の側面と、脚部31の側面とを揃えて、嵩張らない形状として持ち運ぶことができる。一方で、図3(B)に示すように、ユーザは、表示制御装置1を机等に設置して利用する際には、ヒンジ部32を中心点として脚部31を回動させることにより、表示制御装置1を自立して設置することができる。なお、表示制御装置1を自立可能とするために、ヒンジ部32は、脚部31が所定の角度を保った状態で保持するための機構を有する。
As shown in FIGS. 2 and 3, the display control device 1 is configured to include a main body 30, a leg 31, and a hinge 32. The main body unit 30 is a part including the display unit 18 and other hardware described later with reference to FIG. The leg 31 and the hinge 32 are members for making the display control device 1 stand alone. The leg 31 is rotatably joined to the main body 30 by the hinge 32.
As shown in FIG. 3A, when carrying the display control device 1, the user can carry the display control device 1 in a non-bulky shape by aligning the side surface of the main body 30 and the side surface of the leg 31. On the other hand, as shown in FIG. 3B, when the user uses the display control device 1 by installing it on a desk or the like, the user rotates the leg 31 around the hinge 32 as a center point. The display control device 1 can be installed independently. In addition, in order to make the display control device 1 self-supporting, the hinge portion 32 has a mechanism for holding the leg portion 31 at a predetermined angle.

本体部30は、上述したように表示部18を含む。表示部18は、各種の情報を表示することにより、これら各種の情報をユーザに対して表示する部分である。表示部18は、例えば、撮像部16が被写体として撮像したユーザの実像であるユーザ画像(図中のユーザ画像51に相当)や、ユーザの代替となるアバターの画像であるアバター画像(図中のアバター画像52に相当)や、ガイダンスを行うための補助情報であるガイド画像(図中のガイド画像53に相当)、ユーザの生体情報を示す生体情報画像(図中の生体情報画像54に相当)を表示する。また、この場合に、表示部18では、アバター画像にガイド画像が合成され、重畳して表示される。
ユーザは、表示部18を視認することにより、これらの多様な情報を一度に把握することができる。なお、このような表示部18の表示が、見た目上のギャップがない、ユーザが視認するのに適した一体感のあるものである点については、上述した通りである。
The main unit 30 includes the display unit 18 as described above. The display unit 18 is a part that displays various types of information to the user by displaying the various types of information. The display unit 18 displays, for example, a user image (corresponding to the user image 51 in the figure) that is a real image of the user captured by the imaging unit 16 as a subject, and an avatar image (an image in the figure) that is an image of an avatar as a substitute for the user. A guide image (corresponding to the guide image 53 in the figure), which is auxiliary information for performing guidance, and a biological information image showing the biological information of the user (corresponding to the biological information image 54 in the figure). Is displayed. In this case, on the display unit 18, the guide image is combined with the avatar image and is displayed in a superimposed manner.
By visually recognizing the display unit 18, the user can grasp these various pieces of information at a time. As described above, the display of the display unit 18 has no apparent gap and has a sense of unity suitable for the user to visually recognize the display.

図2に示すように、表示制御装置1は、外観構成として、更に、撮像部16、入力部17及び表示部18を備えている。   As illustrated in FIG. 2, the display control device 1 further includes an imaging unit 16, an input unit 17, and a display unit 18 as an external configuration.

撮像部16は、表示制御装置1の利用時に、表示部18に正対するユーザを被写体として撮像する部分である。撮像部16は、表示部18に正対するユーザの顔画像を撮像可能な位置に配置される。例えば、撮像部16は、図中に示すように、本体部30の前面であって、表示部18の上部に配置される。   The imaging unit 16 is a part that captures a user facing the display unit 18 as a subject when the display control device 1 is used. The imaging unit 16 is disposed at a position where a face image of the user facing the display unit 18 can be captured. For example, the imaging unit 16 is arranged on the front surface of the main unit 30 and above the display unit 18 as shown in the drawing.

入力部17は、ユーザによる操作入力を受け付ける部分である。入力部17は、例えば複数のボタンにより実現される。図中では、一例として、小顔エステ、笑顔トレーニング、及び生体情報の記録等の各種のモードへの切り換えボタンや、表示制御装置1の電源のオン/オフの切り替えを行うためのボタンを図示する。   The input unit 17 is a part that receives an operation input by a user. The input unit 17 is realized by, for example, a plurality of buttons. In the figure, as an example, a button for switching to various modes such as small face esthetic treatment, smile training, and recording of biological information, and a button for switching on / off the power of the display control device 1 are illustrated. .

以上、表示制御装置1の外観構造について説明をした。ただし、この構造は一例に過ぎず、表示制御装置1の外観構造は、この例に限定されない。   The appearance structure of the display control device 1 has been described above. However, this structure is merely an example, and the appearance structure of the display control device 1 is not limited to this example.

例えば、表示制御装置1は、表示部18に正対するユーザを照らすために発光する発光部を更に備えていてもよい。発光部が、照度や色成分を調整してユーザを照らすことにより、表示制御装置1は、照明付きの鏡として機能する。発光部の数は複数であってもよい。また、発光部は、表示部18の上部や下部に配置されてもよく、表示部18の周辺全体に配置されてもよい。   For example, the display control device 1 may further include a light emitting unit that emits light to illuminate a user facing the display unit 18. The display control device 1 functions as an illuminated mirror when the light emitting unit adjusts the illuminance and color components to illuminate the user. The number of light emitting units may be plural. Further, the light-emitting unit may be arranged above or below the display unit 18, or may be arranged all around the display unit 18.

また、例えば、入力部17の数や配置が変更されてもよい。また、例えば、表示部18の一部がタッチパネルとして構成され、入力部17と表示部18とが一体に構成されてもよい。   Further, for example, the number and arrangement of the input units 17 may be changed. Further, for example, a part of the display unit 18 may be configured as a touch panel, and the input unit 17 and the display unit 18 may be integrally configured.

[ハードウェア構成]
図4は、表示制御装置1のハードウェアの構成を示すブロック図である。
図4に示すように、表示制御装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、表示部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。
[Hardware configuration]
FIG. 4 is a block diagram illustrating a hardware configuration of the display control device 1.
As shown in FIG. 4, the display control device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, It includes an imaging unit 16, an input unit 17, a display unit 18, a storage unit 19, a communication unit 20, and a drive 21.

CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 also stores data and the like necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16と、入力部17と、表示部18と、記憶部19と、通信部20と、ドライブ21とが接続されている。   The CPU 11, the ROM 12, and the RAM 13 are mutually connected via a bus 14. The bus 14 is also connected to an input / output interface 15. The imaging unit 16, the input unit 17, the display unit 18, the storage unit 19, the communication unit 20, and the drive 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
撮像部16にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.
The optical lens unit includes a lens that condenses light, such as a focus lens and a zoom lens, for photographing a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that changes the focal length freely within a certain range.
The imaging unit 16 is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as needed.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号は、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (images) a subject image, accumulates image signals for a certain period of time, and sequentially supplies the accumulated image signals to the AFE as analog signals.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing, and is output as an output signal of the imaging unit 16.
Such an output signal of the imaging unit 16 is appropriately supplied to the CPU 11 and the like.

入力部17は、各種ボタンやマイク等で構成され、ユーザの指示操作や指示音声に応じて各種情報を入力する。   The input unit 17 includes various buttons, a microphone, and the like, and inputs various information in accordance with a user's instruction operation or instruction voice.

表示部18は、液晶ディスプレイ等で構成され、CPU11が出力する画像データに対応する画像を表示する。   The display unit 18 includes a liquid crystal display or the like, and displays an image corresponding to the image data output by the CPU 11.

記憶部19は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。   The storage unit 19 is configured by a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and stores various data.

通信部20は、CPU11が、ネットワーク2を介して他の装置(例えば、サーバ群3に含まれる各サーバ)との間で通信を行うための通信制御を行う。   The communication unit 20 performs communication control for the CPU 11 to communicate with another device (for example, each server included in the server group 3) via the network 2.

ドライブ21は、リムーバブルメディア100を装着可能なインターフェースにより構成される。ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア100が適宜装着される。リムーバブルメディア100には、後述の合成表示処理を実行するためのプログラムや、画像データ等の各種データが格納される。ドライブ21によってリムーバブルメディア100から読み出されたプログラムや、画像データ等の各種のデータは、必要に応じて記憶部19にインストールされる。   The drive 21 is configured by an interface on which the removable medium 100 can be mounted. A removable medium 100 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 21. The removable medium 100 stores a program for executing a combined display process described later and various data such as image data. Programs read from the removable medium 100 by the drive 21 and various data such as image data are installed in the storage unit 19 as necessary.

なお、表示制御装置1は、上述したハードウェアに加えて、他のハードウェアを更に備えていてもよい。例えば、表示制御装置1は、ランプやスピーカあるいは振動用モータ等で構成され、光や音声あるいはバイブレーション信号を出力する出力部等を更に備えていてもよい。   The display control device 1 may further include other hardware in addition to the hardware described above. For example, the display control device 1 is configured by a lamp, a speaker, a vibration motor, or the like, and may further include an output unit that outputs light, sound, or a vibration signal.

[機能的構成]
図5は、表示制御装置1の機能的構成のうち、合成表示処理を実行するための機能的構成を示す機能ブロック図である。
合成表示処理とは、表示制御装置1が、補助情報を、代替画像に合成することにより合成画像を生成し、一連のガイダンスを行う場合に、この合成画像と、ユーザの実際の画像とを、それぞれ表示画面上に切り換えながら表示すると共に、ユーザの生体情報に基づいて、合成画像の動的な表示を制御する一連の処理である。
[Functional configuration]
FIG. 5 is a functional block diagram showing a functional configuration for executing the composite display process among the functional configurations of the display control device 1.
Synthetic display processing means that when the display control device 1 generates a synthetic image by synthesizing auxiliary information with a substitute image and performs a series of guidance, the synthetic image and the user's actual image are combined. This is a series of processes for controlling the dynamic display of the synthesized image based on the biological information of the user while displaying the images while switching them on the display screen.

合成表示処理が実行される場合、図5に示すように、CPU11において、設定処理部111と、取得解析部112と、タイミング制御部113と、画像合成部114と、表示制御部115と、行動認識部116と、キャラクタ作成部117が機能する。
また、記憶部19の一領域には、画像情報記憶部191と、ガイダンス情報記憶部192と、アバター情報記憶部193と、基準値情報記憶部194が設定される。
When the combined display process is performed, as shown in FIG. 5, in the CPU 11, the setting processing unit 111, the acquisition analysis unit 112, the timing control unit 113, the image combining unit 114, the display control unit 115, The recognition unit 116 and the character creation unit 117 function.
In one area of the storage unit 19, an image information storage unit 191, a guidance information storage unit 192, an avatar information storage unit 193, and a reference value information storage unit 194 are set.

画像情報記憶部191は、ユーザの顔画像情報を格納する。この顔画像情報は、撮像部16によって撮像されたユーザの顔画像であってよく、この顔画像は静止画でも動画でもよい。更に、顔画像情報は顔画像に加えて、顔画像中の特徴点、例えば顔の輪郭や、顔の中での目・鼻・口の位置(座標)、肌の色味等に係る数値情報を含んでもよい。とりわけ画像情報記憶部191は、ユーザが表示制御装置1の電源を入れた時点でのユーザの顔画像情報や、後述のようにユーザが一連のガイダンスに基づいた行動を行う前後での顔画像情報を格納することが可能である。   The image information storage unit 191 stores user face image information. The face image information may be a face image of the user captured by the imaging unit 16, and the face image may be a still image or a moving image. Further, the face image information includes, in addition to the face image, numerical information on feature points in the face image, for example, the contour of the face, the positions (coordinates) of eyes, nose, and mouth in the face, and the color of the skin. May be included. In particular, the image information storage unit 191 stores the face image information of the user when the user turns on the display control device 1 and the face image information before and after the user performs an action based on a series of guidance as described later. Can be stored.

ガイダンス情報記憶部192には、合成表示処理におけるガイダンスに関する各種のデータが格納される。例えば、ガイダンス情報記憶部192には、合成表示処理において表示されるガイダンス情報を生成するための、ガイド画像のデータ、テキストデータ、及び音データ等のコンテンツデータが格納される。また、ガイダンス情報記憶部192には、一連のガイダンスにおける複数のガイダンス情報の表示の順番や、表示するガイダンス情報を次のガイダンス情報へ切り替えるための条件や、各種ユーザインタフェースを生成するためのデータ等も格納される。更に、ガイダンス情報記憶部192には、合成表示処理に関して生成されたユーザのプロファイル情報が格納される。なお、ガイド画像は、予め生成された画像データであってもよく、演算に基づいてリアルタイムに生成されるCG等であってもよい。また、各データは一連のガイダンスを実現する際に読み出しやすいように、各ガイダンス単位で、1つのライブラリとして格納されてもよい。   The guidance information storage unit 192 stores various data related to guidance in the composite display processing. For example, the guidance information storage unit 192 stores content data such as guide image data, text data, and sound data for generating guidance information to be displayed in the composite display processing. In addition, the guidance information storage unit 192 stores display order of a plurality of pieces of guidance information in a series of guidance, a condition for switching the guidance information to be displayed to the next guidance information, data for generating various user interfaces, and the like. Is also stored. Further, the guidance information storage unit 192 stores user profile information generated for the combined display process. Note that the guide image may be image data generated in advance, or CG or the like generated in real time based on a calculation. Further, each data may be stored as one library for each guidance unit so as to be easily read when a series of guidance is realized.

アバター情報記憶部193には、ユーザの実像の代替となるアバターに関する各種のデータが格納される。例えば、アバター情報記憶部193には、合成表示処理において表示されるアバター画像を生成するための、アバター画像のデータや、ガイダンス等において何れのアバター画像を表示するかの条件等が格納される。なお、アバター画像は、予め生成された画像データであってもよく、例えば後述のキャラクタ作成部117によって、演算に基づいてリアルタイムに生成されるCG等であってもよい。アバター画像は、例えば、人間や動物を模したキャラクタの画像である。また、アバター画像は、任意の数だけ用意されていてよく、ユーザの属性(例えば、ユーザの性別や年齢や嗜好)や、ガイダンスの内容に応じて適宜選択されてもよい。また、アバター画像は、キャラクタ等の動的なアニメーション表示を実現するための、連続した画像群であってもよい。また、各データは一連のガイダンスを実現する際に読み出しやすいように、各ガイダンス単位で、1つのライブラリとして格納されてもよい。   The avatar information storage unit 193 stores various data related to an avatar as a substitute for the real image of the user. For example, the avatar information storage unit 193 stores avatar image data for generating an avatar image to be displayed in the combined display process, conditions for displaying an avatar image in guidance or the like, and the like. Note that the avatar image may be image data generated in advance, for example, a CG or the like generated in real time based on a calculation by the character creation unit 117 described later. The avatar image is, for example, an image of a character imitating a human or an animal. Also, an arbitrary number of avatar images may be prepared, and may be appropriately selected according to the attributes of the user (for example, the sex, age, and preference of the user) and the content of the guidance. Further, the avatar image may be a continuous image group for realizing dynamic animation display of a character or the like. Further, each data may be stored as one library for each guidance unit so as to be easily read when a series of guidance is realized.

基準値情報記憶部194には、生体情報の基準値が格納される。この基準値としては、例えば、ユーザが初めて表示制御システムSにログインした際の生体情報の値を格納してもよい。あるいは、ユーザがこれまでに表示制御システムSにログインしてきた際の生体情報の平均値を格納してもよい。あるいは、ユーザが前回表示制御システムSにログインした際の生体情報の値を格納してもよい。あるいは、ユーザが今回表示制御システムSにログインすると同時に、撮像部16によって撮像された顔画像情報から取得される生体情報の値を格納してもよい。   The reference value information storage unit 194 stores a reference value of biological information. As the reference value, for example, the value of the biological information when the user logs in to the display control system S for the first time may be stored. Alternatively, the average value of the biological information when the user has logged in the display control system S so far may be stored. Alternatively, the value of the biological information at the time when the user previously logged in to the display control system S may be stored. Alternatively, at the same time when the user logs in to the display control system S this time, the value of the biological information acquired from the face image information captured by the imaging unit 16 may be stored.

なお、上述したような画像情報記憶部191、ガイダンス情報記憶部192、アバター情報記憶部193、及び基準値情報記憶部194に格納される各情報は、記憶部19にのみ格納されていてもよいが、ドライブ21によってリムーバブルメディア100に適宜格納されるようにしてもよい。更に、ガイダンス情報記憶部192やアバター情報記憶部193に格納される各情報は、サーバ群3に含まれる測定データ格納サーバ等に適宜格納されるようにしてもよい。   The information stored in the image information storage unit 191, the guidance information storage unit 192, the avatar information storage unit 193, and the reference value information storage unit 194 as described above may be stored only in the storage unit 19. May be appropriately stored in the removable medium 100 by the drive 21. Furthermore, each information stored in the guidance information storage unit 192 and the avatar information storage unit 193 may be appropriately stored in a measurement data storage server included in the server group 3 or the like.

また、以下に説明する各機能ブロックでは、合成表示処理を行う前提として座標情報が設定されている。座標情報は、例えば、撮像部16において撮像された画像についての座標系である撮像座標系、及び表示部18の表示面についての座標系である表示部座標系といった各座標系を定義するための情報、並びに、各座標系における座標を他の座標系における座標に変換するための対応関係を示す情報が含まれる。以下に説明する各機能ブロックは、これらの各座標系における座標の対応関係に基づいて、各座標系における座標を変換することにより合成表示処理を行うことができる。これら各座標系の対応関係は、例えば、表示制御装置1の製造時に、各座標系を定義し、撮像部16の光軸の方向やズーム率の調整を伴うキャリブレーションを行うことにより設定される。   In each of the functional blocks described below, coordinate information is set on the assumption that the composite display process is performed. The coordinate information is used to define each coordinate system such as an imaging coordinate system which is a coordinate system for an image captured by the imaging unit 16 and a display unit coordinate system which is a coordinate system for a display surface of the display unit 18. Information and information indicating a correspondence for converting coordinates in each coordinate system into coordinates in another coordinate system are included. Each functional block described below can perform the composite display process by converting the coordinates in each coordinate system based on the correspondence relationship between the coordinates in each coordinate system. The correspondence between these coordinate systems is set, for example, by defining each coordinate system and performing calibration with adjustment of the direction of the optical axis of the imaging unit 16 and the zoom ratio when the display control device 1 is manufactured. .

設定処理部111は、合成表示処理に関する設定等の制御を行う部分である。
設定処理部111は、例えば、サーバ群3に含まれるアプリケーション配信サーバから、合成表示処理を行うためのアプリケーションソフトウェアを取得して、このアプリケーションソフトウェアを動作させる。
また、設定処理部111は、例えば、サーバ群3に含まれる認証サーバと通信を行うことにより、合成表示処理を行うユーザを認証する。例えば、設定処理部111は、撮像部16によって撮像されたユーザの顔画像を含む顔画像情報を認証サーバに送信し、認証サーバで登録済みの顔画像情報と照合することにより、合成表示処理を行うユーザを認証すると共に、ログイン処理を行ってもよい。
更に設定処理部111は、例えば、サーバ群3に含まれる測定データ格納サーバと通信を行うことにより、合成表示処理におけるユーザのプロファイル情報を更新する。
The setting processing unit 111 is a part that performs control such as setting related to the combined display processing.
The setting processing unit 111 acquires, for example, application software for performing composite display processing from an application distribution server included in the server group 3, and operates the application software.
In addition, the setting processing unit 111 authenticates a user who performs the combined display process, for example, by communicating with an authentication server included in the server group 3. For example, the setting processing unit 111 transmits the face image information including the user's face image captured by the imaging unit 16 to the authentication server, and compares the face image information with the face image information registered in the authentication server, thereby performing the combined display process. A login process may be performed while authenticating the user to be performed.
Further, the setting processing unit 111 updates the profile information of the user in the combined display process, for example, by communicating with a measurement data storage server included in the server group 3.

また、設定処理部111は、合成表示処理を行うためのアプリケーションソフトウェアに基づいて、ガイダンスを行うためのメニューを表示する。例えば、ガイダンスに基づいて、「小顔エステ」や「笑顔マッサージ」や「生体情報の測定」や「メイク(化粧)」を行う等の、ガイダンスの内容を選択するための選択肢を含んだメニューを表示する。また、設定処理部111は、メニューを参照したユーザから、入力部17等を介して、何れかのガイダンス内容の選択を受け付ける。例えば、「小顔エステ」の選択を受け付ける。これにより、小顔エステに関するガイダンスのために、合成表示処理が行われる。なお、小顔エステとは、例えば、リンパを流すマッサージにより顔のむくみを減少させるリンパマッサージ等を、ユーザがユーザ自身の顔等に対して行うことをいう。   Further, the setting processing unit 111 displays a menu for providing guidance based on application software for performing composite display processing. For example, based on the guidance, a menu including options for selecting the content of the guidance, such as performing “small face esthetic treatment”, “smile massage”, “measurement of biological information”, and “make (makeup)”, is provided. indicate. In addition, the setting processing unit 111 receives selection of any guidance content from the user who has referred to the menu via the input unit 17 or the like. For example, the selection of “small face esthetic” is accepted. As a result, a synthetic display process is performed for guidance on the small face esthetic. The small face aesthetic means that the user performs, for example, a lymph massage or the like for reducing swelling of the face by a massage for flowing lymph to the user's own face or the like.

取得解析部112は、合成表示処理において、撮像部16による撮像の被写体となったユーザの画像を取得すると共に、取得したユーザの画像を解析し、解析結果に基づいてユーザに関する情報(以下、「被写体情報」と称する。)を取得する部分である。被写体情報とは、例えば、ユーザの顔等における各部位の位置を示す座標や、ユーザの顔等における各部位の色や、ユーザの生体情報等である。更に、取得解析部112は、ユーザの画像と被写体情報とを紐づけて、画像情報記憶部191に格納する。   The acquisition analysis unit 112 acquires the image of the user who has been the subject of imaging by the imaging unit 16 in the combined display process, analyzes the acquired user image, and based on the analysis result, information about the user (hereinafter, “ This information is referred to as “subject information”. The subject information is, for example, coordinates indicating the position of each part on the face of the user, the color of each part on the face of the user, biological information of the user, and the like. Further, the acquisition analysis unit 112 stores the image of the user and the subject information in the image information storage unit 191 in association with each other.

被写体情報の取得のために、取得解析部112は、撮像部16が撮像した、被写体としてユーザを含む画像を解析して、画像に含まれるユーザの状態を検出する。
例えば、取得解析部112は、ユーザの顔を含む顔画像に対して、輪郭や部位のパターンマッチングや肌色識別等のフェイストラッキングに関する処理を行うことで、顔の輪郭や眼の位置や肌の領域を認識し、額、頬、顎、及び首等の所定の部位領域の検出を行う。そして、取得解析部112は、この検出した部位領域それぞれの、座標やユーザの肌の色や、ユーザの顔の角度(すなわち、ユーザの顔の向き)や、ユーザの視線の方向や、ユーザの口角の開き具合といった状態を検出する。
In order to acquire the subject information, the acquisition analysis unit 112 analyzes an image captured by the imaging unit 16 and including the user as a subject, and detects a state of the user included in the image.
For example, the acquisition analysis unit 112 performs processing related to face tracking, such as pattern matching of contours and parts and skin color identification, on a face image including the user's face, thereby obtaining the contours of the face, the positions of the eyes, and the area of the skin. Is recognized, and a predetermined region such as the forehead, cheek, chin, and neck is detected. Then, the acquisition analysis unit 112 calculates the coordinates, the skin color of the user, the angle of the user's face (ie, the direction of the user's face), the direction of the user's line of sight, and the user's A state such as the degree of opening of the mouth corner is detected.

また、取得解析部112は、他にも、実際にユーザに触れることなく、ユーザに対しては非接触で生体情報(バイタルデータと呼ばれることもある。)の計測を行う。この場合、上記の検出された所定の領域は、非接触で生体情報を取得するための関心領域(ROI:Region of interest)に相当する。
そして、取得解析部112は、例えば、この関心領域における皮下の血液中ヘモグロビンが吸収する緑色信号に基づいて、心拍周波数近傍の成分を分析することにより計測を行う。取得解析部112が計測する生体情報は、例えば、脈拍、脈波、及び血流等である。より具体的には、取得解析部112は、例えば、緑色信号に基づいて血液量の変化分を求め、この変化分に基づいて、脈拍、脈波、及び血流等の生体情報を求めることが可能である。
In addition, the acquisition analysis unit 112 also measures biological information (sometimes called vital data) without touching the user without actually touching the user. In this case, the detected predetermined region corresponds to a region of interest (ROI) for acquiring biological information without contact.
Then, the acquisition analysis unit 112 performs measurement by analyzing components near the heartbeat frequency based on, for example, a green signal absorbed by the subcutaneous blood hemoglobin in the region of interest. The biological information measured by the acquisition analysis unit 112 is, for example, a pulse, a pulse wave, a blood flow, and the like. More specifically, the acquisition analysis unit 112 may obtain, for example, a change in blood volume based on a green signal, and obtain biological information such as a pulse, a pulse wave, and a blood flow based on the change. It is possible.

また、取得解析部112は、1つの関心領域の画像を対象として計測を行ってもよいが、複数の関心領域の画像を対象として計測を行ってもよい。とりわけ、取得解析部112は、ユーザの顔画像中、例えば輪郭と眼の位置を検出して、それらとの相対位置に基づき、自動的に、額、瞼、頬、鼻周辺、唇周り、顎、首、デコルテ等の複数の領域を関心領域として認識することが可能である。図6は、顔画像中の関心領域の配置例を示す。図6の例において、取得解析部112は、首、顎、頬、額を関心領域として自動的に認識している。
この場合、取得解析部112は、脈拍の遅延がわかる離れた2点(例えば頬と額、又は、額か頬と手のひら等)の関心領域を対象として測定を行なうことにより、例えば、脈波伝播速度や、脈波伝播速度と相関する血圧変動を測定することができる。
また、取得解析部112は、場所の異なる複数の領域から複数の生体情報を取得するのみならず、同一の領域において互いに異なる複数の時点において生体情報を計測することにより、複数の生体情報を取得してもよい。この場合、取得解析部112は、第1の生体情報を取得した後、後述の行動認識部116によってユーザによる所定の行動が認識されたことをトリガとして、第2の生体情報を取得してもよい。あるいは、取得解析部112は、後述の行動認識部116によってユーザによる所定の行動(例えばマッサージ)が認識されたことをトリガとして、先んじて第2の生体情報を取得し、第2の生体情報を取得した後に、画像情報記憶部191に記憶されたユーザの顔画像情報から、第1の生体情報を取得してもよい。
また、取得解析部112は、測定した生体情報に対してノイズ除去等を行うことにより、平均化処理を施すようにしてもよい。
更に、取得解析部112は、映像脈波の解析、脈拍数や脈波波形や脈波の揺らぎを測定することで、ストレス度(例えば、心拍間隔時系列(FFI)や脈波振幅時系列(PA)に基づいたLF/HF指標や、ローレンツプロット指標等)を算出して取得するようにしてもよい。
Further, the acquisition analysis unit 112 may measure the image of one region of interest, or may measure the image of a plurality of regions of interest. In particular, the acquisition analysis unit 112 detects, for example, the position of the contour and the eyes in the user's face image, and automatically detects the forehead, eyelids, cheek, nose area, lip area, and chin based on their relative positions. , Neck, decollete, etc., can be recognized as a region of interest. FIG. 6 shows an example of arrangement of a region of interest in a face image. In the example of FIG. 6, the acquisition analysis unit 112 automatically recognizes the neck, chin, cheek, and forehead as the region of interest.
In this case, the acquisition analysis unit 112 performs measurement on two points of interest (for example, cheek and forehead, or forehead or cheek and palm, etc.) where the pulse delay is known. The speed and the blood pressure fluctuation correlated with the pulse wave propagation speed can be measured.
Further, the acquisition analysis unit 112 acquires not only a plurality of pieces of biometric information from a plurality of areas at different locations but also obtains a plurality of pieces of biometric information by measuring the biometric information at a plurality of different times in the same area. May be. In this case, even after acquiring the first biological information, the acquisition analyzing unit 112 may acquire the second biological information, triggered by the recognition of a predetermined behavior by the user by the behavior recognizing unit 116 described below. Good. Alternatively, the acquisition analysis unit 112 acquires the second biological information in advance, triggered by the recognition of a predetermined behavior (for example, massage) by the user by the behavior recognizing unit 116 described later, and acquires the second biological information in advance. After the acquisition, the first biological information may be acquired from the face image information of the user stored in the image information storage unit 191.
In addition, the acquisition analysis unit 112 may perform an averaging process by performing noise removal or the like on the measured biological information.
Further, the acquisition analysis unit 112 analyzes the image pulse wave, and measures the pulse rate, the pulse waveform, and the fluctuation of the pulse wave, thereby obtaining the stress degree (for example, the heartbeat interval time series (FFI) and the pulse wave amplitude time series ( LF / HF index or Lorentz plot index based on PA) may be calculated and obtained.

なお、取得解析部112による生体情報の測定は、例えば、下記の参考文献に記載の技術を利用することにより行うことができる。
<参考文献>
東北大学 サイバーサイエンスセンター 先端情報技術研究部、東北大学 革新的イノベーション研究機構、“血行状態モニタリング装置「魔法の鏡」の開発に成功”、[online]、平成28年9月27日、[平成29年12月15日検索]、インターネット<URL:http://www.tohoku.ac.jp/japanese/newimg/pressimg/tohokuuniv-press20160927_01web.pdf>
The measurement of the biological information by the acquisition analysis unit 112 can be performed, for example, by using the technology described in the following reference document.
<References>
Tohoku University Cyber Science Center Advanced Information Technology Research Department, Tohoku University Innovative Innovation Research Organization, "Successful development of blood flow monitoring device" Magic Mirror "", [online], September 27, 2016, [Heisei 29 December 15, 2002], Internet <URL: http://www.tohoku.ac.jp/japanese/newimg/pressimg/tohokuuniv-press20160927_01web.pdf>

取得解析部112は、このようにして取得した、ユーザの顔の向きや、生体情報といった被写体情報を、後述のタイミング制御部113等に対して出力する。
タイミング制御部113は、一連のガイダンスにおいて、ガイド画像や、アバター画像や、これらを合成した合成画像等の各画像を表示したり、音データ等を出力したりするタイミング(以下、「ガイダンスタイミング」と称する。)を制御する部分である。タイミング制御部113は、ガイダンス情報記憶部192に格納されている情報(例えば、上述した、一連のガイダンスにおける複数のガイダンス情報の表示の順番や、表示するガイダンス情報を次のガイダンス情報へ切り替えるための条件)と、アバター情報記憶部193に格納されている情報(例えば、上述した、ガイダンス等において何れのアバター画像を表示するかの条件)と、その他の情報(例えば、経過時間や被写体情報)に基づいて、ガイダンスタイミングを制御する。
The acquisition analysis unit 112 outputs the subject information such as the orientation of the user's face and the biological information acquired in this way to the timing control unit 113 described below.
In a series of guidance, the timing control unit 113 displays a guide image, an avatar image, an image such as a composite image obtained by combining them, and outputs sound data and the like (hereinafter, “guidance timing”). ). The timing control unit 113 transmits the information stored in the guidance information storage unit 192 (for example, the display order of a plurality of pieces of guidance information in a series of guidance, and the switching of the guidance information to be displayed to the next guidance information). Condition), information stored in the avatar information storage unit 193 (for example, the above-described condition for displaying which avatar image in the guidance or the like), and other information (for example, elapsed time and subject information). The guidance timing is controlled based on the guidance timing.

例えば、表示を行う条件が時間経過に関するものであれば、タイミング制御部113は、時間経過した場合に、表示を行うべきガイダンスタイミングであると判定し、ガイダンスタイミングが到来した旨を、後述の表示制御部115等に対して出力する。また、例えば、表示を行う条件が被写体情報の変化に関するもの(例えば、ユーザの顔の向きが所定の向きに変化した、生体情報が所定の値に変化した等)であれば、タイミング制御部113は、被写体情報が変化した場合に、表示を行うべきガイダンスタイミングであると判定し、ガイダンスタイミングが到来した旨を、後述の表示制御部115等に対して出力する。   For example, if the display condition is related to the passage of time, the timing control unit 113 determines that it is the guidance timing to be displayed when the passage of time has elapsed, and indicates that the guidance timing has arrived by a display Output to the control unit 115 and the like. Further, for example, if the display condition is related to a change in subject information (for example, the direction of the user's face has changed to a predetermined direction, the biological information has changed to a predetermined value, or the like), the timing control unit 113 Determines that it is the guidance timing to be displayed when the subject information changes, and outputs to the display control unit 115 and the like to be described later that the guidance timing has arrived.

この場合に、例えば、ユーザの顔の向きが横向きになった場合に、横向きのアバター画像(又は、このアバター画像を含む合成画像)を表示するガイダンスタイミングであると判定し、横向きのアバター画像(又は、このアバター画像を含む合成画像)を表示するガイダンスタイミングが到来した旨を、後述の表示制御部115等に対して出力するようにしてもよい。このようにすれば、表示制御部115は、ユーザの顔の動きと一致するようにアバター画像(又は、このアバター画像を含む合成画像)を表示することができる。   In this case, for example, when the orientation of the user's face becomes horizontal, it is determined that it is the guidance timing to display a horizontal avatar image (or a composite image including this avatar image), and the horizontal avatar image ( Alternatively, the fact that the guidance timing for displaying the composite image including the avatar image) has arrived may be output to the display control unit 115 described below. In this way, the display control unit 115 can display an avatar image (or a composite image including the avatar image) so as to match the movement of the user's face.

また、例えば、マッサージによりユーザの血流や脈拍が所定の値となった場合に、次のマッサージに関するアバター画像(又は、このアバター画像を含む合成画像)を表示するガイダンスタイミングであると判定し、次のマッサージに関するアバター画像(又は、このアバター画像を含む合成画像)を表示するガイダンスタイミングが到来した旨を、後述の表示制御部115等に対して出力するようにしてもよい。このようにすれば、表示制御部115は、マッサージの効果が十分に出て、血流や脈拍が変化した場合に、次のマッサージに関するアバター画像(又は、このアバター画像を含む合成画像)を表示することができる。   Further, for example, when the user's blood flow or pulse reaches a predetermined value due to the massage, it is determined that it is the guidance timing to display an avatar image (or a composite image including the avatar image) related to the next massage, The fact that the guidance timing for displaying the avatar image relating to the next massage (or the composite image including the avatar image) has arrived may be output to the display control unit 115 described below. In this way, the display control unit 115 displays an avatar image (or a composite image including the avatar image) for the next massage when the effect of the massage is sufficiently obtained and the blood flow or the pulse is changed. can do.

画像合成部114は、ガイダンス情報記憶部192に格納されているガイド画像と、アバター情報記憶部193に格納されているアバター画像とを合成することにより、アバター画像にガイド画像が合成された画像(以下、「合成画像」と称する。)を生成する部分である。画像合成部114は、ガイダンス情報記憶部192からガイダンスにおいて表示すべきガイド画像を取得する。また、画像合成部114は、アバター情報記憶部193からガイダンスにおいて表示すべきアバター画像を取得する。   The image synthesizing unit 114 synthesizes the guide image stored in the guidance information storage unit 192 and the avatar image stored in the avatar information storage unit 193, thereby combining the avatar image with the guide image. Hereinafter, it is referred to as a “synthesized image”. The image combining unit 114 acquires a guide image to be displayed in the guidance from the guidance information storage unit 192. Further, the image combining unit 114 acquires an avatar image to be displayed in the guidance from the avatar information storage unit 193.

そして、画像合成部114は、取得したアバター画像とガイド画像とを合成することにより、合成画像を生成する。合成は、例えば、アバター画像とガイド画像を重畳させたり、アバター画像とガイド画像を並べたりすることにより行うことができる。
具体的に、画像合成部114は、例えば、アバター画像の顔等の所定の部位領域に、ガイド画像が重畳するように合成画像を生成する。例えば、マッサージについてのガイダンスを行う場合に、マッサージの際の手の動きを示す矢印のガイド画像が、マッサージを行う対象の部位領域に重畳するように合成画像を生成する。
Then, the image synthesizing unit 114 generates a synthesized image by synthesizing the acquired avatar image and the guide image. The composition can be performed by, for example, superimposing the avatar image and the guide image, or arranging the avatar image and the guide image.
Specifically, the image combining unit 114 generates a combined image such that the guide image is superimposed on a predetermined region such as the face of the avatar image. For example, when performing guidance on a massage, a composite image is generated such that an arrow guide image indicating the movement of the hand during the massage is superimposed on the region of the part to be massaged.

画像合成部114は、このようにして生成した合成画像を、後述の表示制御部115等に対して出力する。   The image synthesizing unit 114 outputs the synthesized image generated in this manner to a display control unit 115 and the like described below.

表示制御部115は、ガイダンス情報を表示する部分である。表示制御部115は、上述したタイミング制御部113が制御するガイダンスタイミングに基づいて、合成画像や、その他のガイダンス情報を切り替えて表示部18に表示をさせることによって、一連のガイダンスを実現する。   The display control unit 115 is a part that displays guidance information. The display control unit 115 realizes a series of guidance by switching the composite image and other guidance information to be displayed on the display unit 18 based on the guidance timing controlled by the timing control unit 113 described above.

そのために、表示制御部115は、画像合成部114から、合成画像の入力を受け付ける。また、表示制御部115は、ガイダンス情報記憶部192からガイダンス情報を読み込む。
そして、表示制御部115は、タイミング制御部113が制御するガイダンスタイミングに基づいて、読み込んだガイダンス情報に定められた順番で、読み込んだガイダンス情報に定められた位置に、合成画像や、ユーザ画像や、その他の画像を切換表示する。
For this purpose, the display control unit 115 receives an input of a synthesized image from the image synthesizing unit 114. The display control unit 115 reads guidance information from the guidance information storage unit 192.
Then, based on the guidance timing controlled by the timing control unit 113, the display control unit 115 places the synthesized image, the user image, and the like at the position determined by the read guidance information in the order determined by the read guidance information. , And other images are switched and displayed.

ユーザは、表示制御部115が表示する、合成画像を参照することにより、マッサージを行う部位領域や、マッサージの方向等を、分かりやすく視認することができる。ここで、この合成画像は、人為的な像であるガイド画像と、同様に人為的な像であるアバター画像とを合成したものである。つまり、本実施形態では、ユーザに対して、見た目上のギャップがない、ユーザが視認するのに適した一体感のある表示を提供することができる。   By referring to the composite image displayed by the display control unit 115, the user can easily recognize the region area to be massaged, the massage direction, and the like. Here, the composite image is a composite image of a guide image that is an artificial image and an avatar image that is also an artificial image. That is, in the present embodiment, it is possible to provide the user with a display having no apparent gap and a sense of unity suitable for the user to visually recognize.

更に、表示制御部115は、この場合に、ユーザ自身の実像であるユーザ画像を更に表示することもできる。これにより、ユーザは実像と合成画像とを見比べながら、より分かりやすく所定の処置(例えば、マッサージ等)を行うことができる。   Further, in this case, the display control unit 115 can further display a user image which is a real image of the user himself. Thereby, the user can perform a predetermined treatment (for example, massage or the like) in a more understandable manner while comparing the real image and the composite image.

また、表示制御部115は、ユーザの顔等の実像であるユーザ画像と重複しない領域に(すなわち、ユーザの顔と重畳しない領域に)、一連のガイダンスにおいてユーザが向くべき方向や、マッサージの方法を画像やテキストで自動配置し表示するようにしてもよい。他にも、表示制御部115は、例えば、ユーザの顔等の実像であるユーザ画像と重複しない領域に(すなわち、ユーザの顔と重畳しない領域に)、生体情報を表示するための波形データや必要な文字、画像情報を自動配置し表示するようにしてもよい。   In addition, the display control unit 115 determines a direction in which the user should face in a series of guidance, a massage method, a region that does not overlap with the user image that is a real image of the user's face or the like (that is, a region that does not overlap with the user's face). May be automatically arranged and displayed as an image or text. In addition, for example, the display control unit 115 may output waveform data for displaying biometric information in an area that does not overlap with a user image that is a real image of the user's face or the like (that is, in an area that does not overlap with the user's face). Necessary characters and image information may be automatically arranged and displayed.

このようなユーザ画像との表示や、ユーザ画像とは重畳しない表示を行う場合、例えば、取得解析部112は、フェイストラッキングにより、撮像部16が撮像したユーザの所定の部位領域を検出する。そして、上述した各座標系の対応関係に基づいて、検出した部位領域の撮像座標系における座標に対応する、表示部座標系の座標を取得する。そして、表示制御部115は、表示部18の取得解析部112が取得した表示部座標系の座標に、所定の画像を表示することにより、表示を行うことができる。   When performing display with such a user image or display without overlapping with the user image, for example, the acquisition analysis unit 112 detects a predetermined region of the user captured by the imaging unit 16 by face tracking. Then, based on the correspondence between the coordinate systems described above, the coordinates of the display unit coordinate system corresponding to the coordinates of the detected region in the imaging coordinate system are acquired. Then, the display control unit 115 can perform display by displaying a predetermined image on the coordinates of the display unit coordinate system acquired by the acquisition analysis unit 112 of the display unit 18.

また、表示制御部115は、これらの表示を組み合わせるようにしてもよい。例えば、表示制御部115は、所定の画像はユーザの顔等の実像であるユーザ画像と重複する領域に重畳して表示し、マッサージの内容を示すテキストはユーザの顔等の実像であるユーザ画像と重複しない領域に表示するようにしてもよい。   The display control unit 115 may combine these displays. For example, the display control unit 115 displays the predetermined image so as to be superimposed on an area overlapping with the user image which is a real image of the user's face or the like, and the text indicating the content of the massage is a user image which is a real image of the user's face or the like. It may be displayed in an area that does not overlap with.

表示制御部115が、このような情報をリアルタイムに表示することで、一連のガイダンスを、ユーザに伝わりやすく、適切に行うことができる。   When the display control unit 115 displays such information in real time, a series of guidance can be easily transmitted to the user and can be appropriately performed.

なお、表示制御部115は、表示に加えて、他の方法でガイダンス情報を出力するようにしてもよい。例えば、表示制御部115は、音データを含んだガイダンス情報を読み出し、読み出したガイダンス情報から生成される音声や音楽をスピーカから出力してもよい。また、他にも、例えば、表示制御部115は、発光部による発光状態を変化させるようにしてもよい。   The display control unit 115 may output the guidance information by another method in addition to the display. For example, the display control unit 115 may read guidance information including sound data, and output sound or music generated from the read guidance information from a speaker. In addition, for example, the display control unit 115 may change the light emitting state of the light emitting unit.

更に、表示制御部115は、取得解析部112によって取得された生体情報に基づいて、合成画像に含まれるアバター画像の動的な表示を制御する。表示制御部115は、例えば、生体情報に応じてアバター画像の色を設定し、この色を用いてアバター画像の動的な表示を制御してもよい。   Further, the display control unit 115 controls dynamic display of an avatar image included in the composite image based on the biological information acquired by the acquisition analysis unit 112. For example, the display control unit 115 may set the color of the avatar image according to the biological information, and use this color to control the dynamic display of the avatar image.

図7Aは、取得解析部112が、関心領域(ROI)を1つのみ検知できた場合の、アバター画像の表示例を示す。図7Aの例においては、検知できた関心領域における生体情報としての脈波に応じて、アバター画像内の顔画像全体の色が変化することがアニメーションで動的に表示され、脈波の脈動が早いほど、顔画像内の色の変化のスピードも速くなる。なお、図7Aの画面例においては、画面左上に、例えば脈拍やリラックス度等の生体情報が数値表示される。   FIG. 7A shows a display example of an avatar image when the acquisition analysis unit 112 can detect only one region of interest (ROI). In the example of FIG. 7A, the color of the entire face image in the avatar image changes dynamically according to the pulse wave as the biological information in the detected region of interest, which is dynamically displayed by animation. The earlier, the faster the speed of color change in the face image. In the example of the screen in FIG. 7A, biological information such as a pulse rate and a degree of relaxation is numerically displayed at the upper left of the screen.

また、取得解析部112によって複数の生体情報が取得された場合、表示制御部115は、これらの複数の生体情報に基づいて、アバター画像の動的な表示を制御する。なお、ここで「複数の生体情報」とは、例えば顔画像内で異なる箇所の生体情報であってもよく、異なる時間に取得された同一の箇所の生体情報であってもよい。例えば、表示制御部115は、ユーザが一連のガイダンスに従ってマッサージした場合に、ある位置における、マッサージ前の生体情報とマッサージ後の生体情報とから、アバター画像の表示を制御してもよい。
更に、とりわけ「複数の生体情報」が同一箇所で異なる時間に取得された複数の生体情報である場合、表示制御部115は、複数の生体情報間の差分情報に基づいて、アバター画像の表示を制御してもよい。
When a plurality of pieces of biological information are acquired by the acquisition analysis unit 112, the display control unit 115 controls dynamic display of an avatar image based on the plurality of pieces of biological information. Here, the “plurality of biometric information” may be, for example, biometric information of a different location in a face image, or biometric information of the same location acquired at different times. For example, when the user massages according to a series of guidances, the display control unit 115 may control the display of the avatar image from the biological information before the massage and the biological information after the massage at a certain position.
Furthermore, especially when the “plurality of biometric information” is a plurality of biometric information acquired at the same location at different times, the display control unit 115 displays the avatar image based on the difference information between the plurality of biometric information. It may be controlled.

図7Bは、取得解析部112が、関心領域(ROI)を複数認識できたために複数の生体情報を取得できる場合のアバター画像の表示例を示す。複数の関心領域(ROI)間での脈波のディレイに応じて、アバター画像内の血流の動きがアニメーションで動的に表示される。なお、血流の動きがアニメーションで動的に表示されるためには、脈波に互いにディレイがある2か所の関心領域(ROI)の生体情報を取得できれば足りるため、取得解析部112は、3つ以上検知された関心領域(ROI)から、互いにできるだけ遠くに離れた2か所の関心領域(ROI)を選択し、これら2か所の関心領域(ROI)の生体情報を解析することにより、アニメーションで動的に表示してもよい。これにより、取得解析部112による計算量を節約することが可能となる。
なお、図7Bの例では、アバター画像内の顔全体の中で下から上へと色が変化するアニメーションを示しているが、これはあくまで一例であってこれには限定されない。色が変化する方向は、複数の関心領域(ROI)の位置に応じて任意とすることが可能である。
FIG. 7B illustrates a display example of an avatar image in a case where the acquisition analysis unit 112 can acquire a plurality of pieces of biological information because a plurality of regions of interest (ROIs) can be recognized. The motion of the blood flow in the avatar image is dynamically displayed by animation according to the pulse wave delay between the plurality of regions of interest (ROI). In order to dynamically display the movement of the blood flow by animation, it is sufficient to acquire the biological information of two regions of interest (ROI) having a delay in the pulse wave. By selecting two regions of interest (ROIs) as far as possible from each other from three or more detected regions of interest (ROIs), and analyzing the biological information of these two regions of interest (ROIs) , May be dynamically displayed by animation. This makes it possible to reduce the amount of calculation by the acquisition analysis unit 112.
Note that, in the example of FIG. 7B, an animation in which the color changes from bottom to top in the entire face in the avatar image is shown, but this is merely an example and the present invention is not limited to this. The direction in which the color changes can be arbitrary depending on the positions of the plurality of regions of interest (ROIs).

また、表示制御部115は、取得解析部112によって取得された生体情報と、基準値情報記憶部194に記憶された基準値との差に応じて、アバター画像の表示を制御してもよい。   Further, the display control unit 115 may control the display of the avatar image in accordance with a difference between the biological information acquired by the acquisition analysis unit 112 and the reference value stored in the reference value information storage unit 194.

行動認識部116は、被写体としてのユーザの行動を認識する部分である。例えば、ユーザが一連のガイダンスに従って、顔のマッサージをする場合には、行動認識部116はユーザが顔のマッサージをしたことを認識する。この場合、ユーザがマッサージ終了後に、入力部17の電源ボタンに短時間触れることをもってマッサージの終了を表示制御装置1に通知する場合には、行動認識部116はユーザによる電源ボタンへの短時間の接触をトリガとして、ユーザがマッサージを終えたことを認識する。あるいは、行動認識部116は、表示制御部115がガイダンスの表示を終了したことをマッサージの終了とみなし、ガイダンスの表示の終了をトリガとして、ユーザがマッサージを終えたことを認識してもよい。あるいは、行動認識部116は、ユーザの顔画像に含まれる複数の特徴点の動きが所定量以下となったことをトリガとして、ユーザがマッサージを終えたことを認識してもよい。   The action recognition unit 116 is a part that recognizes the action of the user as a subject. For example, when the user massages the face according to a series of guidance, the action recognition unit 116 recognizes that the user has massaged the face. In this case, when the user notifies the display control device 1 of the end of the massage by touching the power button of the input unit 17 for a short time after the end of the massage, the action recognizing unit 116 transmits a short time to the power button by the user. The contact recognizes that the user has finished the massage. Alternatively, the action recognition unit 116 may recognize that the display control unit 115 has finished displaying the guidance as the end of the massage, and recognize that the user has finished the massage by using the end of the display of the guidance as a trigger. Alternatively, the action recognition unit 116 may recognize that the user has finished the massage, triggered by the fact that the movement of a plurality of feature points included in the user's face image has become equal to or less than a predetermined amount.

キャラクタ作成部117は、撮像部16によって撮像されたユーザの顔画像に基づいてキャラクタを作成し、このキャラクタをアバター画像として、アバター情報記憶部193に格納する部分である。例えば、キャラクタ作成部117は、ユーザの顔画像から演算に基づいてリアルタイムでユーザの似顔絵のCGを作成し、このCGのキャラクタをアバター画像としてアバター情報記憶部193に格納してもよい。   The character creation unit 117 creates a character based on the user's face image captured by the imaging unit 16, and stores the character in the avatar information storage unit 193 as an avatar image. For example, the character creation unit 117 may create a CG of the portrait of the user in real time based on the calculation from the face image of the user, and store the CG character in the avatar information storage unit 193 as an avatar image.

[合成表示処理]
図8は、図5の機能的構成を有する図1の表示制御装置1が実行する合成表示処理の流れを説明するフローチャートである。
合成表示処理は、例えば、表示制御装置1の電源投入と共に開始される。
[Synthetic display processing]
FIG. 8 is a flowchart illustrating the flow of the composite display process executed by the display control device 1 of FIG. 1 having the functional configuration of FIG.
The composite display process is started, for example, when the power of the display control device 1 is turned on.

図8に示すように、ステップS11において、設定処理部111は、初期設定を行う。例えば、設定処理部111は、サーバ群3に含まれるアプリケーション配信サーバから、合成表示処理を行うためのアプリケーションソフトウェアを取得して、このアプリケーションソフトウェアを動作させる。また、設定処理部111は、アプリケーションソフトウェアの動作に伴い、撮像部16等の各ハードウェアに対して、アプリケーションソフトウェアに応じた設定を行う。そして、設定処理部111は、撮像部16による撮像を開始させる。   As shown in FIG. 8, in step S11, the setting processing unit 111 performs an initial setting. For example, the setting processing unit 111 acquires application software for performing composite display processing from an application distribution server included in the server group 3, and operates the application software. Further, the setting processing unit 111 performs setting according to the application software for each hardware such as the imaging unit 16 according to the operation of the application software. Then, the setting processing unit 111 causes the imaging unit 16 to start imaging.

ステップS12において、設定処理部111は、撮像部16によって撮像されたユーザの顔画像を用いて、サーバ群3の認証サーバと通信することによりユーザの認証処理を行う。ユーザの識別情報(ユーザの顔画像情報、あるいは顔画像から抽出される特徴点情報)が、認証サーバに登録されている場合(S12:YES)には、処理はステップS13に移行する。ユーザの顔画像情報、あるいは顔画像から抽出される特徴点情報が、認証サーバに登録されていない場合(S12:NO)には、処理はステップS14に移行する。   In step S12, the setting processing unit 111 performs user authentication processing by communicating with the authentication server of the server group 3 using the user's face image captured by the imaging unit 16. If the user identification information (the user's face image information or feature point information extracted from the face image) is registered in the authentication server (S12: YES), the process proceeds to step S13. If the user's face image information or feature point information extracted from the face image is not registered in the authentication server (S12: NO), the process proceeds to step S14.

ステップS13において、設定処理部111は、ユーザの表示制御システムSへのログイン処理をする。   In step S13, the setting processing unit 111 performs a process of logging in the user to the display control system S.

ステップS14において、ユーザの識別情報を新規登録する場合(S14:YES)には、処理はステップS15に移行する。ユーザの識別情報を新規登録しない場合(S14:NO)には、処理はステップS12に移行する。   If the user's identification information is newly registered in step S14 (S14: YES), the process proceeds to step S15. If the user identification information is not newly registered (S14: NO), the process proceeds to step S12.

ステップS15において、設定処理部111はユーザの識別情報の登録処理をする。より詳細には、設定処理部111は、ユーザの顔画像情報あるいは顔画像から抽出される特徴点情報を認証サーバに送信し、認証サーバはこれらの情報を登録する。   In step S15, the setting processing unit 111 performs registration processing of the user identification information. More specifically, the setting processing unit 111 transmits the user's face image information or feature point information extracted from the face image to the authentication server, and the authentication server registers the information.

ステップS16において、取得解析部112は、関心領域(ROI)を検知すると共に、関心領域(ROI)から得られる生体情報を解析する。   In step S16, the acquisition analysis unit 112 detects a region of interest (ROI) and analyzes biological information obtained from the region of interest (ROI).

ステップS17において、取得解析部112が関心領域(ROI)から得られる生体情報の解析を終了した場合(S17:YES)には、処理はステップS18に移行する。取得解析部112が関心領域(ROI)から得られる生体情報の解析をまだ終了していない場合(S17:NO)には、処理はステップS16に移行する。   In step S17, when the acquisition analysis unit 112 has finished analyzing the biological information obtained from the region of interest (ROI) (S17: YES), the process proceeds to step S18. If the acquisition analysis unit 112 has not yet completed the analysis of the biological information obtained from the region of interest (ROI) (S17: NO), the process proceeds to step S16.

ステップS18において、取得解析部112が認識できた関心領域(ROI)が1つのみの場合(S18:YES)には、処理はステップS19に移行する。取得解析部112が認識できた関心領域(ROI)が複数ある場合(S18:NO)には、処理はステップS20に移行する。   In step S18, when only one region of interest (ROI) has been recognized by the acquisition analysis unit 112 (S18: YES), the process proceeds to step S19. When there are a plurality of regions of interest (ROIs) recognized by the acquisition analysis unit 112 (S18: NO), the process proceeds to step S20.

ステップS19において、表示制御部115は、例えば図7Aに示されるような、アバター画像内での脈波の変化を表示する。   In step S19, the display control unit 115 displays a change in the pulse wave in the avatar image, for example, as illustrated in FIG. 7A.

ステップS20において、表示制御部115は、例えば図7Bに示されるような、アバター画像内での血流の変化を表示する。   In step S20, the display control unit 115 displays a change in blood flow in the avatar image, for example, as illustrated in FIG. 7B.

以上説明した合成表示処理によれば、ユーザの生体情報、とりわけ生体情報の変化に応じて、合成画像に含まれるアバター画像の表示を変化させることにより、ユーザは生体情報の変化をきめ細かく認識することが出来ると共に、動的なアニメーション表示により容易に認識することが可能となる。   According to the combined display process described above, the user can recognize the change in the biological information finely by changing the display of the avatar image included in the combined image in accordance with the change in the biological information of the user, particularly, the biological information. , And can be easily recognized by dynamic animation display.

以上のように構成される表示制御装置1は、表示部18と、取得解析部112と、表示制御部115と、を備える。
表示部18は、ユーザに対応したキャラクタとしてアバター画像を表示する。
取得解析部112は、ユーザに係る第1の生体情報を取得する。
表示制御部115は、取得解析部112により取得された第1の生体情報に基づいて、表示部18によるキャラクタの動的な表示を制御する。
これにより、ユーザは生体情報の変化をきめ細かく認識することができると共に、動的なアニメーション表示によりユーザの状況を容易に認識可能となる。
延いては、鏡を利用したバイタルセンシング可能な顔のトレーニング、マッサージ機器において、トレーニングを指示するために自分と同じ表情を行う顔のアニメを表示する際に、測定した脈波データから血流の量や脈拍数を判断してアニメの顔の色を変化させることで、数値やグラフのような表示よりイメージで伝えることが出来るため、顔の肌の変化や健康状態をわかりやすくユーザに伝えることができる。
また、非接触センシングにより取れる領域をすべてCGキャラクタに反映することで血流の流れを詳細に表現できるようになり、改善部位を明確にユーザに伝えられる効果がある。
The display control device 1 configured as described above includes the display unit 18, the acquisition analysis unit 112, and the display control unit 115.
The display unit 18 displays an avatar image as a character corresponding to the user.
The acquisition analysis unit 112 acquires first biological information related to the user.
The display control unit 115 controls dynamic display of a character by the display unit 18 based on the first biological information acquired by the acquisition analysis unit 112.
Thereby, the user can recognize the change of the biological information in detail, and can easily recognize the user's situation by dynamic animation display.
In other words, in facial training using a mirror that allows vital sensing, massage equipment, when displaying an animation of a face performing the same facial expression to instruct training, the blood flow from the measured pulse wave data By judging the amount and pulse rate and changing the color of the face of the animation, it is possible to convey it to the user in an image rather than a numerical value or a graph-like display. Can be.
In addition, by reflecting all the areas that can be obtained by the non-contact sensing on the CG character, the flow of the blood flow can be expressed in detail, and there is an effect that the improvement site can be clearly communicated to the user.

表示制御装置1は、キャラクタの色を設定する色設定手段を更に備え、表示制御部115は、色設定手段により設定された色を用いて、キャラクタの動的な表示を制御する。
これにより、ユーザは生体情報としての数値やグラフを解釈するためのノウハウを学習する必要なく、自身の生体情報の変化を直感的に認識することができる。
The display control device 1 further includes color setting means for setting the color of the character, and the display control unit 115 controls dynamic display of the character using the color set by the color setting means.
This allows the user to intuitively recognize changes in his or her own biometric information without having to learn know-how for interpreting numerical values and graphs as biometric information.

取得解析部112は、ユーザにおける異なる位置の複数の生体情報を取得する。
複数の位置の生体情報を取得し、これらの複数の生体情報間をファクターとしてアバター画像の表示を制御することにより、ユーザは直感的にアバター画像内での生体情報の違いや変化を直感的に認識することが可能となる。
The acquisition analysis unit 112 acquires a plurality of pieces of biological information at different positions in the user.
By acquiring the biometric information at multiple locations and controlling the display of the avatar image using the multiple biometric information as a factor, the user can intuitively recognize the differences and changes in the biometric information in the avatar image. It becomes possible to recognize.

表示制御装置1は、ユーザを撮像する撮像部16を更に備え、取得解析部112は、撮像部16により撮像されたユーザの画像から、第1の生体情報又は第2の生体情報を取得する。
単一の生体情報のみならず複数の生体情報を取得し、複数の生体情報に基づいてアバター画像の表示を制御することにより、ユーザは生体情報を動的に認識することが可能となる。
The display control device 1 further includes an imaging unit 16 that images the user, and the acquisition analysis unit 112 acquires the first biological information or the second biological information from the image of the user captured by the imaging unit 16.
By acquiring a plurality of pieces of biometric information as well as a single piece of biometric information and controlling the display of an avatar image based on the plurality of pieces of biometric information, the user can dynamically recognize the biometric information.

取得解析部112は、第1の生体情報とは異なる時間に第2の生体情報を取得する。
表示制御部115は、取得解析部112により取得された第1の生体情報と第2の生体情報とに基づいてキャラクタの動的な表示を制御する。
これにより、互いに異なる時間に取得された複数の生体情報に基づいてアバター画像の表示を制御することにより、ユーザは生体情報の変化を認識することが可能となる。
The acquisition analysis unit 112 acquires the second biological information at a different time from the first biological information.
The display control unit 115 controls the dynamic display of the character based on the first biological information and the second biological information acquired by the acquisition analyzing unit 112.
Thus, by controlling the display of the avatar image based on the plurality of pieces of biometric information acquired at different times, the user can recognize the change in the biometric information.

取得解析部112は、第1の生体情報と第2の生体情報との差分情報を取得する。
表示制御部115は、この差分情報に基づいてキャラクタの動的な表示を制御する。
これにより、ユーザは生体情報の変化を直感的に認識することが可能となる。
The acquisition analysis unit 112 acquires difference information between the first biological information and the second biological information.
The display control unit 115 controls dynamic display of the character based on the difference information.
This allows the user to intuitively recognize the change in the biological information.

表示制御装置1は、被写体としてのユーザの行動を認識する行動認識部116を更に備える。
取得解析部112は、行動認識部116により所定の行動が認識された場合に第2の生体情報を取得する。
これにより、ユーザが所定の行動を取った場合を特定して生体情報を直感的に認識することが可能となる。
The display control device 1 further includes an action recognition unit 116 that recognizes the action of the user as the subject.
The acquisition analysis unit 112 acquires the second biological information when a predetermined action is recognized by the action recognition unit 116.
This makes it possible to intuitively recognize the biological information by specifying the case where the user has taken a predetermined action.

表示制御装置1は、撮像部16により撮像された画像を記録する画像情報記憶部191を更に備える。
取得解析部112は、行動認識部116により所定の行動が認識された場合に、画像情報記憶部191に記録されている所定の行動が認識される前の画像から、ユーザの第1の生体情報を取得する。
これにより、ユーザが所定の行動をとる前後での生体情報の変化を直感的に認識することが可能となる。
The display control device 1 further includes an image information storage unit 191 that records an image captured by the imaging unit 16.
When the behavior recognizing unit 116 recognizes the predetermined behavior, the acquisition analyzing unit 112 extracts the first biological information of the user from the image before the predetermined behavior recorded in the image information storage unit 191 is recognized. To get.
This makes it possible to intuitively recognize a change in biological information before and after the user takes a predetermined action.

表示制御装置1は、生体情報の基準値を記録する基準値情報記憶部194を更に備える。
表示制御部115は、取得解析部112により取得された生体情報と基準値情報記憶部194に記録されている基準値との差に応じて、キャラクタの動的な表示を制御する。
これにより、現在の生体情報が基準値からどれだけ離れているかについて、直感的に認識することが可能となる。
The display control device 1 further includes a reference value information storage unit 194 that records a reference value of biological information.
The display control unit 115 controls the dynamic display of the character according to the difference between the biological information acquired by the acquisition analysis unit 112 and the reference value recorded in the reference value information storage unit 194.
This makes it possible to intuitively recognize how far the current biological information is from the reference value.

表示制御装置1は、キャラクタ作成部117を更に備える。
キャラクタ作成部117は、撮像部16により撮像されたユーザの画像に基づいて、キャラクタを作成する。
ユーザ自身に類似したキャラクタをアバター画像として用いることにより、実際のユーザにおける生体情報の変化をより正確に認識することが可能となる。
The display control device 1 further includes a character creation unit 117.
The character creation unit 117 creates a character based on the image of the user captured by the imaging unit 16.
By using a character similar to the user as the avatar image, it is possible to more accurately recognize a change in the biological information of the actual user.

表示制御装置1は、表示部18に対してユーザの視線方向に重なって配置される鏡部を更に備える。
鏡部は、ユーザの鏡像を表示する。
これにより、ハーフミラー等を用いた表示を行う装置においても、ユーザに対して、見た目上のギャップがない、ユーザが視認するのに適した一体感のある表示を提供することができる。
The display control device 1 further includes a mirror unit that is arranged to overlap the display unit 18 in the direction of the user's line of sight.
The mirror unit displays a mirror image of the user.
As a result, even in a device that performs display using a half mirror or the like, it is possible to provide a user with a display with no apparent gap and a sense of unity suitable for the user to visually recognize.

表示制御部115は、鏡像に対して生体情報を重畳表示する。
これにより、ユーザは自身の鏡像を見ながら生体情報を確認することが可能となる。
The display control unit 115 superimposes and displays the biological information on the mirror image.
Thus, the user can check the biological information while looking at the mirror image of the user.

表示部18によって表示されるキャラクタと、鏡部によって表示される鏡像とは同時に表示される。
これによりユーザは、例えば自身の顔の実画像である鏡像を見ながら、アバター画像に表示されるガイダンスに従った行動をすることが可能となる。
The character displayed by the display unit 18 and the mirror image displayed by the mirror unit are simultaneously displayed.
This allows the user to perform an action according to the guidance displayed on the avatar image while seeing, for example, a mirror image that is a real image of the face of the user.

表示制御部115は、表示部18と鏡部の双方に生体情報及び/又は生体情報から生成される情報を表示する。
これにより、ユーザは、自身の顔の実画像である鏡像を見ながら、アバター画像に表示されるガイダンスに従った行動をする際、生体情報や生体情報から生成される情報を確認しながら行動することが可能となる。
The display control unit 115 displays the biological information and / or information generated from the biological information on both the display unit 18 and the mirror unit.
Thus, when the user performs an action according to the guidance displayed on the avatar image while looking at a mirror image that is a real image of his / her own face, the user acts while confirming biological information and information generated from the biological information. It becomes possible.

表示制御部115は、生体情報としての血流に係る情報に基づいて、キャラクタの動的な表示を制御する。
これにより、ユーザは自身の生体情報としての血流の状態を直感的に認識することが可能となる。
The display control unit 115 controls the dynamic display of the character based on information related to blood flow as biological information.
As a result, the user can intuitively recognize the state of the blood flow as his / her biological information.

表示制御部115は、生体情報としての脈拍数に係る情報に基づいて、キャラクタの動的な表示又は脈拍数の情報の表示を制御する。
これにより、ユーザは自身の生体情報としての脈拍数の状態を直感的に認識することが可能となる。
The display control unit 115 controls the dynamic display of the character or the display of the pulse rate information based on the information on the pulse rate as the biological information.
Thereby, the user can intuitively recognize the state of the pulse rate as his / her biological information.

表示制御部115は、脈拍数の高さに応じて、キャラクタの動的な表示又は脈拍数の動的な表示を制御する。
これにより、ユーザは自身の生体情報としての脈拍数の変化を直感的に認識することが可能となる。
The display control unit 115 controls dynamic display of the character or dynamic display of the pulse rate in accordance with the pulse rate.
As a result, the user can intuitively recognize a change in the pulse rate as his / her biological information.

[変形例]
本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、上述の実施形態を以下の変形例のように変形してもよい。
[Modification]
The present invention is not limited to the above-described embodiment, and includes modifications, improvements, and the like within a range that can achieve the object of the present invention. For example, the above-described embodiment may be modified as in the following modified examples.

<ハーフミラーを用いた変形例>
上述した表示部18と、反射面を有する鏡部とを組み合わせた構造の装置によって表示制御装置1を実現するようにしてもよい。
この場合、鏡部は、光学的特性として、透過特性と反射特性の双方を有するハーフミラーにより実現する。そして、鏡部は、表示部18よりも前面のユーザが視認する方向に重畳した配置する。
このような配置により、ユーザは、例えば、撮像部16により撮像されたユーザ画像ではなく、鏡部により反射された自身の顔と、表示部18に表示されると共に鏡部を透過した各種の情報(例えば、合成画像や生体情報)とを同時に視認することができる。つまり、上述の実施形態では、ユーザの実像として撮像部16が被写体として撮像したユーザ画像を視認させることとしていたが、本変形例では、ユーザの実像として鏡部により反射されたユーザの鏡像を視認させこととする。
また、表示制御部115は、表示部18と鏡部の双方に、生体情報や生体情報から生成される情報を表示してもよい。
このようにしても、上述した実施形態と同様の効果を奏することができる。
<Modification using half mirror>
The display control device 1 may be realized by a device having a structure in which the display unit 18 described above and a mirror unit having a reflection surface are combined.
In this case, the mirror section is realized by a half mirror having both transmission characteristics and reflection characteristics as optical characteristics. Then, the mirror portion is disposed so as to be superimposed in a direction in which the user can visually recognize the mirror portion in front of the display portion 18.
With such an arrangement, for example, the user is not a user image captured by the imaging unit 16, but his own face reflected by the mirror unit and various information displayed on the display unit 18 and transmitted through the mirror unit. (For example, a composite image and biological information) can be visually recognized at the same time. That is, in the above-described embodiment, the user image captured by the imaging unit 16 as a subject is visually recognized as the real image of the user. However, in the present modified example, the mirror image of the user reflected by the mirror unit is visually recognized as the real image of the user. Let me do it.
Further, the display control unit 115 may display the biological information and information generated from the biological information on both the display unit 18 and the mirror unit.
Even in this case, the same effects as in the above-described embodiment can be obtained.

<生体センサを用いた変形例>
上記の実施形態では、取得解析部112はユーザに対して非接触で生体情報の計測を行うとしたが、これには限定されない。例えば、取得解析部112は、ユーザに接触する生体センサを用いて生体情報の計測を行ってもよい。
このようにしても、上述した実施形態と同様の効果を奏することができる。
<Modification using biological sensor>
In the above embodiment, the acquisition analysis unit 112 measures the biological information without contacting the user, but the present invention is not limited to this. For example, the acquisition analysis unit 112 may measure the biological information using a biological sensor that contacts the user.
Even in this case, the same effects as in the above-described embodiment can be obtained.

<顔画像以外の画像を用いた変形例>
上記の実施形態では、主としてユーザの顔をマッサージする前後での生体情報の変化を、ユーザの顔に対応するアバター画像にアニメーション表示するとしたが、これには限られない。例えば、ユーザの腕や足等、他の身体部位に対して所定の行動をする前後での生体情報の変化を動的にアニメーション表示してもよい。
<Modification using image other than face image>
In the above embodiment, the change of the biological information before and after the massage of the user's face is mainly displayed as an animation on the avatar image corresponding to the user's face, but the present invention is not limited to this. For example, a change in biological information before and after performing a predetermined action on another body part such as a user's arm or leg may be dynamically displayed as an animation.

<他の変形例>
例えば、上述の実施形態において、表示制御装置1と、サーバ群3に含まれる各サーバとが協働することを想定していたが、各サーバの機能を表示制御装置1に追加して、表示制御装置1のみで全ての処理を行うようにしてもよい。
<Other modifications>
For example, in the above-described embodiment, it is assumed that the display control apparatus 1 and each server included in the server group 3 cooperate. All the processes may be performed only by the control device 1.

また、上述の実施形態では、本発明が適用される表示制御装置1は、携帯可能な自立式の鏡に組み込まれた電子機器を例として説明したが、特にこれに限定されない。
例えば、本発明は、姿見等の大型の鏡に組み込まれた電子機器や、据え置き型の洗面化粧台に組み込まれた電子機器や、浴室に設置される鏡形状の電子機器に適用可能である。
Further, in the above-described embodiment, the display control device 1 to which the present invention is applied has been described as an example of an electronic device incorporated in a portable free-standing mirror. However, the present invention is not particularly limited to this.
For example, the present invention is applicable to an electronic device incorporated in a large mirror such as a figure, an electronic device incorporated in a stationary vanity stand, and a mirror-shaped electronic device installed in a bathroom.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図5の機能的構成は例示に過ぎず、特に限定されない。すなわち、上述した一連の処理を全体として実行できる機能が表示制御装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図5の例に限定されない。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 5 is merely an example, and is not particularly limited. That is, it is sufficient that the display control device 1 has a function capable of executing the above-described series of processing as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. .

また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
In addition, one functional block may be configured by hardware alone, may be configured by software alone, or may be configured by a combination thereof.
The functional configuration according to the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment includes single processing units, multiprocessors, and various processing units such as multicore processors. In addition to the above, a combination of these various processing apparatuses and processing circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array) is included.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer that can execute various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図4のリムーバブルメディア100により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア100は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD,Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図4のROM12や、図4、5の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is constituted not only by the removable medium 100 of FIG. 4 distributed separately from the apparatus main body to provide the program to the user, but also It is composed of a recording medium and the like provided to the user. The removable medium 100 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD, a Blu-ray (registered trademark) Disc (Blu-ray Disc), or the like. The magneto-optical disk is composed of an MD (Mini-Disk) or the like. The recording medium provided to the user in a state where the recording medium is pre-installed in the apparatus main body includes, for example, the ROM 12 in FIG. 4 in which a program is recorded, the hard disk included in the storage unit 19 in FIGS. You.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In this specification, the steps of describing a program recorded on a recording medium may be performed in chronological order according to the order, or in parallel or individually, even if not necessarily performed in chronological order. This also includes the processing to be executed.
Further, in the present specification, the term system refers to an entire apparatus including a plurality of devices and a plurality of means.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various changes such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and their modifications are included in the scope and gist of the invention described in this specification and the like, and are also included in the invention described in the claims and equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
ユーザに対応したキャラクタを表示する表示手段と、
前記ユーザに係る第1の生体情報を取得する生体情報取得手段と、
前記生体情報取得手段により取得された前記第1の生体情報に基づいて、前記表示手段による前記キャラクタの動的な表示を制御する表示制御手段と、
を備えることを特徴とする表示制御装置。
[付記2]
前記第1の生体情報に応じて前記キャラクタの色を設定する色設定手段を更に備え、
前記表示制御手段は、前記色設定手段により設定された色を用いて、前記キャラクタの動的な表示を制御することを特徴とする付記1に記載の表示制御装置。
[付記3]
前記生体情報取得手段は、前記ユーザにおける異なる位置の複数の生体情報を取得することを特徴とする、付記1又は2に記載の表示制御装置。
[付記4]
前記ユーザを撮像する撮像手段を更に備え、
前記生体情報取得手段は、前記撮像手段により撮像された前記ユーザの画像から、前記第1の生体情報、又は第2の生体情報を取得することを特徴とする、付記1乃至3のいずれか1に記載の表示制御装置。
[付記5]
前記生体情報取得手段は、前記第1の生体情報とは異なる時間に第2の生体情報を取得し、
前記表示制御手段は、前記生体情報取得手段により取得された前記第1の生体情報と前記第2の生体情報とに基づいて前記キャラクタの動的な表示を制御することを特徴とする、付記1乃至4のいずれか1に記載の表示制御装置。
[付記6]
前記生体情報取得手段は、前記第1の生体情報と前記第2の生体情報との差分情報を取得し、
前記表示制御手段は、前記差分情報に基づいて前記キャラクタの動的な表示を制御することを特徴とする、付記5に記載の表示制御装置。
[付記7]
被写体としての前記ユーザの行動を認識する行動認識手段を更に備え、
前記生体情報取得手段は、前記行動認識手段により所定の行動が認識された場合に前記第2の生体情報を取得することを特徴とする、付記1乃至6のいずれか1に記載の表示制御装置。
[付記8]
前記撮像手段により撮像された画像を記録する画像記録手段を更に備え、
前記生体情報取得手段は、前記行動認識手段により所定の行動が認識された場合に、前記画像記録手段に記録されている前記所定の行動が認識される前の画像から、前記ユーザの第1の生体情報を取得することを特徴とする、付記7に記載の表示制御装置。
[付記9]
生体情報の基準値を記録する基準値記録手段を更に備え、
前記表示制御手段は、前記生体情報取得手段により取得された生体情報と前記基準値記録手段に記録されている基準値との差に応じて、前記キャラクタの動的な表示を制御することを特徴とする、付記1乃至8のいずれか1に記載の表示制御装置。
[付記10]
前記撮像手段により撮像された前記ユーザの画像に基づいて、前記キャラクタを作成するキャラクタ作成部を更に備える、付記1乃至9のいずれか1に記載の表示制御装置。
[付記11]
前記表示手段に対して、前記ユーザの視線方向に重なって配置される反射手段を更に備え、
前記反射手段は、前記ユーザの鏡像を表示することを特徴とする付記1乃至10の何れか1に記載の表示制御装置。
[付記12]
前記表示制御手段は、前記鏡像に対して前記生体情報を重畳表示することを特徴とする、付記11に記載の表示制御装置。
[付記13]
表示手段によって表示される前記キャラクタと、反射手段によって表示される前記鏡像とは同時に表示されることを特徴とする、付記11又は12に記載の表示制御装置。
[付記14]
前記表示制御手段は、前記表示手段と前記反射手段の双方に前記生体情報及び/又は前記生体情報から生成される情報を表示することを特徴とする、付記11〜13のいずれか1に記載の表示制御装置。
[付記15]
前記表示制御手段は、前記生体情報としての血流に係る情報に基づいて、前記キャラクタの動的な表示を制御することを特徴とする、付記1〜14のいずれか1に記載の表示制御装置。
[付記16]
前記表示制御手段は、前記生体情報としての脈拍数に係る情報に基づいて、前記キャラクタの動的な表示又は前記脈拍数の表示を制御する、付記1〜15のいずれか1に記載の表示制御装置。
[付記17]
前記表示制御手段は、前記脈拍数の高さに応じて、前記キャラクタの表示又は前記脈拍数の動的な表示を制御する、付記1〜16のいずれか1に記載の表示制御装置。
[付記18]
表示手段を備えたコンピュータが行う表示制御方法であって、
ユーザに対応したキャラクタを前記表示手段に表示する表示ステップと、
前記ユーザに係る第1の生体情報を取得する生体情報取得ステップと、
前記生体情報取得手段により取得された前記第1の生体情報に基づいて、前記表示手段による前記キャラクタの動的な表示を制御する表示制御ステップと、
を備えることを特徴とする表示制御方法。
[付記19]
表示手段を備えたコンピュータに、
ユーザに対応したキャラクタを前記表示手段に表示する表示機能と、
前記ユーザに係る第1の生体情報を取得する生体情報取得機能と、
前記生体情報取得手段により取得された前記第1の生体情報に基づいて、前記表示手段による前記キャラクタの動的な表示を制御する表示制御機能と、
を実現することを特徴とする表示制御方法。
Hereinafter, the inventions described in the claims at the time of filing the application of the present application are additionally described.
[Appendix 1]
Display means for displaying a character corresponding to the user;
Biological information obtaining means for obtaining first biological information related to the user;
Display control means for controlling dynamic display of the character by the display means based on the first biological information acquired by the biological information acquisition means;
A display control device comprising:
[Appendix 2]
A color setting unit configured to set a color of the character according to the first biological information;
The display control device according to claim 1, wherein the display control unit controls dynamic display of the character using a color set by the color setting unit.
[Appendix 3]
The display control device according to claim 1 or 2, wherein the biometric information acquiring unit acquires a plurality of pieces of biometric information at different positions in the user.
[Appendix 4]
Further comprising an imaging means for imaging the user,
The biometric information acquiring unit may acquire the first biometric information or the second biometric information from the image of the user captured by the imaging unit, wherein the biometric information obtaining unit obtains the first biometric information or the second biometric information. 3. The display control device according to 1.
[Appendix 5]
The biological information acquiring means acquires the second biological information at a time different from the first biological information,
The display control means controls dynamic display of the character based on the first biometric information and the second biometric information acquired by the biometric information acquiring means. 5. The display control device according to any one of claims 4 to 4.
[Appendix 6]
The biological information obtaining means obtains difference information between the first biological information and the second biological information,
The display control device according to claim 5, wherein the display control means controls dynamic display of the character based on the difference information.
[Appendix 7]
Further comprising an action recognition means for recognizing the action of the user as a subject,
The display control device according to any one of Supplementary notes 1 to 6, wherein the biological information acquisition unit acquires the second biological information when a predetermined behavior is recognized by the behavior recognition unit. .
[Appendix 8]
The image processing apparatus further includes an image recording unit that records an image captured by the imaging unit,
The biometric information acquisition unit, when a predetermined behavior is recognized by the behavior recognition unit, from the image before the predetermined behavior recorded in the image recording unit is recognized, the first user of the user 8. The display control device according to supplementary note 7, wherein the display control device acquires biological information.
[Appendix 9]
Further comprising a reference value recording means for recording a reference value of biological information,
The display control unit controls the dynamic display of the character according to a difference between the biological information acquired by the biological information acquiring unit and a reference value recorded in the reference value recording unit. The display control device according to any one of Supplementary Notes 1 to 8.
[Appendix 10]
The display control device according to any one of supplementary notes 1 to 9, further comprising a character creation unit that creates the character based on the image of the user captured by the imaging unit.
[Appendix 11]
The display unit further includes a reflection unit that is disposed so as to overlap in a line of sight of the user,
The display control device according to any one of supplementary notes 1 to 10, wherein the reflection unit displays a mirror image of the user.
[Supplementary Note 12]
The display control device according to claim 11, wherein the display control unit superimposes and displays the biological information on the mirror image.
[Appendix 13]
13. The display control device according to claim 11, wherein the character displayed by the display unit and the mirror image displayed by the reflection unit are displayed at the same time.
[Appendix 14]
The display control unit may display the biological information and / or information generated from the biological information on both the display unit and the reflection unit, wherein the display control unit displays the biological information and / or information generated from the biological information. Display control device.
[Appendix 15]
The display control device according to any one of supplementary notes 1 to 14, wherein the display control means controls dynamic display of the character based on information on a blood flow as the biological information. .
[Appendix 16]
The display control according to any one of supplementary notes 1 to 15, wherein the display control means controls dynamic display of the character or display of the pulse rate based on information on a pulse rate as the biological information. apparatus.
[Appendix 17]
The display control device according to any one of supplementary notes 1 to 16, wherein the display control means controls display of the character or dynamic display of the pulse rate according to the height of the pulse rate.
[Appendix 18]
A display control method performed by a computer having a display means,
A display step of displaying a character corresponding to the user on the display means;
A biological information obtaining step of obtaining first biological information related to the user;
A display control step of controlling dynamic display of the character by the display unit based on the first biological information acquired by the biological information acquisition unit;
A display control method, comprising:
[Appendix 19]
A computer with display means,
A display function of displaying a character corresponding to a user on the display means;
A biological information acquisition function of acquiring first biological information related to the user;
A display control function of controlling dynamic display of the character by the display unit based on the first biological information acquired by the biological information acquisition unit;
A display control method characterized by realizing:

1・・・表示制御装置,2・・・ネットワーク,3・・・サーバ群,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・表示部,19・・・記憶部,20・・・通信部,21・・・ドライブ,30・・・本体部,31・・・脚部,32・・・ヒンジ部,100・・・リムーバブルメディア,111・・・設定処理部,112・・・取得解析部,113・・・タイミング制御部,114・・・画像合成部,115・・・表示制御部,116・・・行動認識部,117・・・キャラクタ作成部,191・・・画像情報記憶部,192・・・ガイダンス情報記憶部,193・・・アバター情報記憶部,194・・・基準値情報記憶部,S・・・表示制御システム   DESCRIPTION OF SYMBOLS 1 ... Display control device, 2 ... Network, 3 ... Server group, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... ON Output interface, 16 imaging unit, 17 input unit, 18 display unit, 19 storage unit, 20 communication unit, 21 drive, 30 main unit , 31 ... leg, 32 ... hinge, 100 ... removable media, 111 ... setting processor, 112 ... acquisition analyzer, 113 ... timing controller, 114 ... Image synthesis unit, 115 Display control unit, 116 Action recognition unit, 117 Character creation unit, 191 Image information storage unit, 192 Guidance information storage unit, 193 Avatar information storage unit, 194... Reference value information storage unit S ··· display control system

Claims (19)

ユーザに対応したキャラクタを表示する表示手段と、
前記ユーザに係る第1の生体情報を取得する生体情報取得手段と、
前記生体情報取得手段により取得された前記第1の生体情報に基づいて、前記表示手段による前記キャラクタの動的な表示を制御する表示制御手段と、
を備えることを特徴とする表示制御装置。
Display means for displaying a character corresponding to the user;
Biological information obtaining means for obtaining first biological information related to the user;
Display control means for controlling dynamic display of the character by the display means based on the first biological information acquired by the biological information acquisition means;
A display control device comprising:
前記第1の生体情報に応じて前記キャラクタの色を設定する色設定手段を更に備え、
前記表示制御手段は、前記色設定手段により設定された色を用いて、前記キャラクタの動的な表示を制御することを特徴とする請求項1に記載の表示制御装置。
A color setting unit configured to set a color of the character according to the first biological information;
The display control device according to claim 1, wherein the display control unit controls dynamic display of the character using a color set by the color setting unit.
前記生体情報取得手段は、前記ユーザにおける異なる位置の複数の生体情報を取得することを特徴とする、請求項1又は2に記載の表示制御装置。   The display control device according to claim 1, wherein the biometric information acquiring unit acquires a plurality of pieces of biometric information at different positions in the user. 前記ユーザを撮像する撮像手段を更に備え、
前記生体情報取得手段は、前記撮像手段により撮像された前記ユーザの画像から、前記第1の生体情報、又は第2の生体情報を取得することを特徴とする、請求項1乃至3のいずれか1項に記載の表示制御装置。
Further comprising an imaging means for imaging the user,
4. The apparatus according to claim 1, wherein the biometric information acquisition unit acquires the first biometric information or the second biometric information from an image of the user captured by the imaging unit. 5. 2. The display control device according to claim 1.
前記生体情報取得手段は、前記第1の生体情報とは異なる時間に第2の生体情報を取得し、
前記表示制御手段は、前記生体情報取得手段により取得された前記第1の生体情報と前記第2の生体情報とに基づいて前記キャラクタの動的な表示を制御することを特徴とする、請求項1乃至4のいずれか1項に記載の表示制御装置。
The biological information acquiring means acquires the second biological information at a time different from the first biological information,
The said display control means controls the dynamic display of the said character based on the said 1st biometric information and the said 2nd biometric information acquired by the said biometric information acquisition means, The Claims characterized by the above-mentioned. The display control device according to any one of claims 1 to 4.
前記生体情報取得手段は、前記第1の生体情報と前記第2の生体情報との差分情報を取得し、
前記表示制御手段は、前記差分情報に基づいて前記キャラクタの動的な表示を制御することを特徴とする、請求項5に記載の表示制御装置。
The biological information obtaining means obtains difference information between the first biological information and the second biological information,
The display control device according to claim 5, wherein the display control unit controls dynamic display of the character based on the difference information.
被写体としての前記ユーザの行動を認識する行動認識手段を更に備え、
前記生体情報取得手段は、前記行動認識手段により所定の行動が認識された場合に前記第2の生体情報を取得することを特徴とする、請求項1乃至6のいずれか1項に記載の表示制御装置。
Further comprising an action recognition means for recognizing the action of the user as a subject,
The display according to any one of claims 1 to 6, wherein the biometric information acquisition unit acquires the second biometric information when a predetermined behavior is recognized by the behavior recognition unit. Control device.
前記撮像手段により撮像された画像を記録する画像記録手段を更に備え、
前記生体情報取得手段は、前記行動認識手段により所定の行動が認識された場合に、前記画像記録手段に記録されている前記所定の行動が認識される前の画像から、前記ユーザの第1の生体情報を取得することを特徴とする、請求項7に記載の表示制御装置。
The image processing apparatus further includes an image recording unit that records an image captured by the imaging unit,
The biometric information acquisition unit, when a predetermined behavior is recognized by the behavior recognition unit, from the image before the predetermined behavior recorded in the image recording unit is recognized, the first user of the user The display control device according to claim 7, wherein biological information is acquired.
生体情報の基準値を記録する基準値記録手段を更に備え、
前記表示制御手段は、前記生体情報取得手段により取得された生体情報と前記基準値記録手段に記録されている基準値との差に応じて、前記キャラクタの動的な表示を制御することを特徴とする、請求項1乃至8のいずれか1項に記載の表示制御装置。
Further comprising a reference value recording means for recording a reference value of biological information,
The display control unit controls the dynamic display of the character according to a difference between the biological information acquired by the biological information acquiring unit and a reference value recorded in the reference value recording unit. The display control device according to claim 1, wherein:
前記撮像手段により撮像された前記ユーザの画像に基づいて、前記キャラクタを作成するキャラクタ作成部を更に備える、請求項1乃至9のいずれか1項に記載の表示制御装置。   The display control device according to any one of claims 1 to 9, further comprising a character creation unit that creates the character based on the image of the user captured by the imaging unit. 前記表示手段に対して、前記ユーザの視線方向に重なって配置される反射手段を更に備え、
前記反射手段は、前記ユーザの鏡像を表示することを特徴とする請求項1乃至10の何れか1項に記載の表示制御装置。
The display unit further includes a reflection unit that is disposed so as to overlap in a line of sight of the user,
The display control device according to claim 1, wherein the reflection unit displays a mirror image of the user.
前記表示制御手段は、前記鏡像に対して前記生体情報を重畳表示することを特徴とする、請求項11に記載の表示制御装置。   The display control device according to claim 11, wherein the display control unit superimposes and displays the biological information on the mirror image. 表示手段によって表示される前記キャラクタと、反射手段によって表示される前記鏡像とは同時に表示されることを特徴とする、請求項11又は12に記載の表示制御装置。   13. The display control device according to claim 11, wherein the character displayed by a display unit and the mirror image displayed by a reflection unit are displayed at the same time. 前記表示制御手段は、前記表示手段と前記反射手段の双方に前記生体情報及び/又は前記生体情報から生成される情報を表示することを特徴とする、請求項11〜13のいずれか1項に記載の表示制御装置。   14. The display control device according to claim 11, wherein the display control unit displays the biological information and / or information generated from the biological information on both the display unit and the reflection unit. The display control device according to the above. 前記表示制御手段は、前記生体情報としての血流に係る情報に基づいて、前記キャラクタの動的な表示を制御することを特徴とする、請求項1〜14のいずれか1項に記載の表示制御装置。   The display according to any one of claims 1 to 14, wherein the display control unit controls dynamic display of the character based on information on a blood flow as the biological information. Control device. 前記表示制御手段は、前記生体情報としての脈拍数に係る情報に基づいて、前記キャラクタの動的な表示又は前記脈拍数の表示を制御する、請求項1〜15のいずれか1項に記載の表示制御装置。   The display according to any one of claims 1 to 15, wherein the display control unit controls dynamic display of the character or display of the pulse rate based on information on a pulse rate as the biological information. Display control device. 前記表示制御手段は、前記脈拍数の高さに応じて、前記キャラクタの動的な表示又は前記脈拍数の動的な表示を制御する、請求項1〜16のいずれか1項に記載の表示制御装置。   The display according to any one of claims 1 to 16, wherein the display control means controls dynamic display of the character or dynamic display of the pulse rate according to the pulse rate. Control device. 表示手段を備えたコンピュータが行う表示制御方法であって、
ユーザに対応したキャラクタを前記表示手段に表示する表示ステップと、
前記ユーザに係る第1の生体情報を取得する生体情報取得ステップと、
前記生体情報取得手段により取得された前記第1の生体情報に基づいて、前記表示手段による前記キャラクタの動的な表示を制御する表示制御ステップと、
を備えることを特徴とする表示制御方法。
A display control method performed by a computer having a display means,
A display step of displaying a character corresponding to the user on the display means;
A biological information obtaining step of obtaining first biological information related to the user;
A display control step of controlling dynamic display of the character by the display unit based on the first biological information acquired by the biological information acquisition unit;
A display control method, comprising:
表示手段を備えたコンピュータに、
ユーザに対応したキャラクタを前記表示手段に表示する表示機能と、
前記ユーザに係る第1の生体情報を取得する生体情報取得機能と、
前記生体情報取得手段により取得された前記第1の生体情報に基づいて、前記表示手段による前記キャラクタの動的な表示を制御する表示制御機能と、
を実現することを特徴とする表示制御方法。


A computer with display means,
A display function of displaying a character corresponding to a user on the display means;
A biological information acquisition function of acquiring first biological information related to the user;
A display control function of controlling dynamic display of the character by the display unit based on the first biological information acquired by the biological information acquisition unit;
A display control method characterized by realizing:


JP2018186722A 2018-10-01 2018-10-01 Display control device, display control method and display control program Pending JP2020057153A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018186722A JP2020057153A (en) 2018-10-01 2018-10-01 Display control device, display control method and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186722A JP2020057153A (en) 2018-10-01 2018-10-01 Display control device, display control method and display control program

Publications (2)

Publication Number Publication Date
JP2020057153A true JP2020057153A (en) 2020-04-09
JP2020057153A5 JP2020057153A5 (en) 2021-10-28

Family

ID=70107325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186722A Pending JP2020057153A (en) 2018-10-01 2018-10-01 Display control device, display control method and display control program

Country Status (1)

Country Link
JP (1) JP2020057153A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084580A1 (en) * 2022-10-18 2024-04-25 日本電信電話株式会社 Somatic sense control device, method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110340A (en) * 2004-10-12 2006-04-27 Samsung Electronics Co Ltd Method and apparatus for producing avatar image according to health condition
JP2007000204A (en) * 2005-06-21 2007-01-11 Matsushita Electric Works Ltd Face washing unit with body type measuring function
JP2009268756A (en) * 2008-05-08 2009-11-19 Shoichi Myoken Apparatus and method to convert two-dimensional pattern into three-dimensional one
WO2012096081A1 (en) * 2011-01-15 2012-07-19 株式会社資生堂 Massage evaluation method, device, program and computer-readable storage medium
JP2013228557A (en) * 2012-04-25 2013-11-07 Canon Inc Display device and control method thereof
JP2014023127A (en) * 2012-07-23 2014-02-03 Sharp Corp Information display device, information display method, control program, and recording medium
JP2016024742A (en) * 2014-07-23 2016-02-08 株式会社ブランカ Three-dimensional shape simulating system, try-on simulation system, sales support system, three-dimensional shape simulating method, try-on simulation method, sales support method, program of three-dimensional shape simulating method, try-on simulation method or sales support method, and recording medium recording the program
JP2016190022A (en) * 2015-03-30 2016-11-10 国立大学法人東北大学 Biological information measuring device, biological information measuring method, biological information display device and biological information display method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110340A (en) * 2004-10-12 2006-04-27 Samsung Electronics Co Ltd Method and apparatus for producing avatar image according to health condition
JP2007000204A (en) * 2005-06-21 2007-01-11 Matsushita Electric Works Ltd Face washing unit with body type measuring function
JP2009268756A (en) * 2008-05-08 2009-11-19 Shoichi Myoken Apparatus and method to convert two-dimensional pattern into three-dimensional one
WO2012096081A1 (en) * 2011-01-15 2012-07-19 株式会社資生堂 Massage evaluation method, device, program and computer-readable storage medium
JP2013228557A (en) * 2012-04-25 2013-11-07 Canon Inc Display device and control method thereof
JP2014023127A (en) * 2012-07-23 2014-02-03 Sharp Corp Information display device, information display method, control program, and recording medium
JP2016024742A (en) * 2014-07-23 2016-02-08 株式会社ブランカ Three-dimensional shape simulating system, try-on simulation system, sales support system, three-dimensional shape simulating method, try-on simulation method, sales support method, program of three-dimensional shape simulating method, try-on simulation method or sales support method, and recording medium recording the program
JP2016190022A (en) * 2015-03-30 2016-11-10 国立大学法人東北大学 Biological information measuring device, biological information measuring method, biological information display device and biological information display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084580A1 (en) * 2022-10-18 2024-04-25 日本電信電話株式会社 Somatic sense control device, method, and program

Similar Documents

Publication Publication Date Title
US11029830B2 (en) Display control apparatus, display controlling method and display control program for providing guidance using a generated image
US9854976B2 (en) Pulse wave velocity measurement method
JP6750504B2 (en) Information processing apparatus, information processing method, and program
US11521575B2 (en) Electronic device, electronic device control method, and medium
US11800989B2 (en) Electronic device, control method for the electronic device, and storage medium
US20220087547A1 (en) Electronic device, control method for electronic device, and recording medium
CN110993051B (en) Determination device, determination method, and recording medium
CN110297720B (en) Notification device, notification method, and medium storing notification program
JP7135466B2 (en) Display device, display method and display program
US10915617B2 (en) Image processing apparatus, image processing method, and recording medium
JP2020057153A (en) Display control device, display control method and display control program
JP7415318B2 (en) Image processing device, image processing method and program
KR102627697B1 (en) Skin diagnosis device using smart mirror and its driving method
JP7238835B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD AND ELECTRONIC DEVICE CONTROL PROGRAM
WO2021060250A1 (en) Image processing device, image processing method, and image processing program
US20240005612A1 (en) Content transformations based on reflective object recognition
US20230112939A1 (en) A system for providing guidance
JP2023053733A (en) Imaging guidance device, imaging guidance method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110