JP7224569B2 - Information processing device, estimation method, and estimation program - Google Patents

Information processing device, estimation method, and estimation program Download PDF

Info

Publication number
JP7224569B2
JP7224569B2 JP2022575175A JP2022575175A JP7224569B2 JP 7224569 B2 JP7224569 B2 JP 7224569B2 JP 2022575175 A JP2022575175 A JP 2022575175A JP 2022575175 A JP2022575175 A JP 2022575175A JP 7224569 B2 JP7224569 B2 JP 7224569B2
Authority
JP
Japan
Prior art keywords
user
information
images
amount
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022575175A
Other languages
Japanese (ja)
Other versions
JPWO2022172384A1 (en
Inventor
美優 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022172384A1 publication Critical patent/JPWO2022172384A1/ja
Application granted granted Critical
Publication of JP7224569B2 publication Critical patent/JP7224569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Description

本開示は、情報処理装置、推定方法、及び推定プログラムに関する。 The present disclosure relates to an information processing device, an estimation method, and an estimation program.

近年、人間の状況に応じて機器を制御することが望まれている。例えば、人間の状況を示すものとして、人間の行動又は感情がある。例えば、特許文献1には、感情、発話の意図などは、顔及び手の位置を時系列に追う事で得られるそれらの動きから推測できると記載がある。 In recent years, it has been desired to control devices according to human conditions. For example, human behavior or emotions are indicative of human situations. For example, Patent Literature 1 describes that emotions, intentions of speech, etc. can be estimated from movements of the faces and hands obtained by tracking the positions of the hands in chronological order.

特開2007-058615号公報JP 2007-058615 A

上記のように、手、足などの体の部位を大きく動かした場合、感情が推定されるものと考えられる。一方、動きが小さい場合、上記の考えでは、推定ができない。 As described above, when a body part such as a hand or a leg is largely moved, it is considered that an emotion is estimated. On the other hand, when the motion is small, estimation cannot be performed according to the above considerations.

本開示の目的は、小さい動きに基づく感情を推定することである。 The purpose of this disclosure is to estimate emotion based on small movements.

本開示の一態様に係る情報処理装置が提供される。情報処理装置は、ユーザを含み、かつ撮像時刻がそれぞれ異なる複数の画像を取得する取得部と、前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出する抽出部と、前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出する動作量算出部と、前記動作量が予め設定された閾値以下であるか否かを判定する判定部と、前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する推定部と、を有する。 An information processing device according to one aspect of the present disclosure is provided. An information processing apparatus includes an acquisition unit that acquires a plurality of images that include a user and that are captured at different times, and extracts a plurality of pieces of skeletal information representing skeletal feature points of the user based on the plurality of images. an extraction unit that calculates the amount of movement of the user in a preset period based on the plurality of pieces of skeleton information; and a determination unit that determines whether the amount of movement is equal to or less than a preset threshold. and an estimation unit for estimating that the user's feeling is unpleasant when the amount of motion is equal to or less than the threshold.

本開示によれば、小さい動きに基づく感情を推定することができる。 According to the present disclosure, emotions can be estimated based on small movements.

実施の形態の制御システムを示す図である。It is a figure which shows the control system of embodiment. 実施の形態の制御対象機器の制御の具体例を示す図である。It is a figure which shows the specific example of control of the control object apparatus of embodiment. 実施の形態の情報処理装置の機能を示すブロック図である。3 is a block diagram showing functions of the information processing apparatus according to the embodiment; FIG. 実施の形態の骨格情報の例を示す図である。FIG. 4 is a diagram showing an example of skeleton information according to the embodiment; FIG. 実施の形態のグラフの例を示す図である。It is a figure which shows the example of the graph of embodiment. 実施の形態の情報処理装置が実行する処理の例を示すフローチャートである。4 is a flow chart showing an example of processing executed by the information processing apparatus according to the embodiment;

以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。 Embodiments will be described below with reference to the drawings. The following embodiments are merely examples, and various modifications are possible within the scope of the present disclosure.

実施の形態.
図1は、実施の形態の制御システムを示す図である。制御システムは、情報処理装置100、撮像装置200、及び制御対象機器300を含む。情報処理装置100、撮像装置200、及び制御対象機器300は、ネットワークを介して、通信する。
情報処理装置100は、推定方法を実行する装置である。情報処理装置100は、制御装置又は感情推定装置と呼んでもよい。
Embodiment.
FIG. 1 is a diagram showing a control system according to an embodiment. The control system includes an information processing device 100 , an imaging device 200 and a controlled device 300 . The information processing device 100, imaging device 200, and controlled device 300 communicate via a network.
The information processing device 100 is a device that executes an estimation method. The information processing device 100 may be called a control device or an emotion estimation device.

まず、情報処理装置100が有するハードウェアを説明する。情報処理装置100は、プロセッサ101、揮発性記憶装置102、不揮発性記憶装置103、及び通信インタフェース104を有する。 First, hardware included in the information processing apparatus 100 will be described. The information processing device 100 has a processor 101 , a volatile memory device 102 , a nonvolatile memory device 103 and a communication interface 104 .

プロセッサ101は、情報処理装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。また、情報処理装置100は、処理回路を有してもよい。処理回路は、単一回路又は複合回路でもよい。 The processor 101 controls the information processing apparatus 100 as a whole. For example, the processor 101 is a CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), or the like. Processor 101 may be a multiprocessor. Further, the information processing device 100 may have a processing circuit. The processing circuit may be a single circuit or multiple circuits.

揮発性記憶装置102は、情報処理装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、情報処理装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)である。
通信インタフェース104は、撮像装置200及び制御対象機器300と通信する。
The volatile memory device 102 is the main memory device of the information processing device 100 . For example, the volatile memory device 102 is RAM (Random Access Memory). The nonvolatile storage device 103 is an auxiliary storage device of the information processing device 100 . For example, the nonvolatile memory device 103 is a HDD (Hard Disk Drive) or an SSD (Solid State Drive).
The communication interface 104 communicates with the imaging device 200 and the control target device 300 .

例えば、撮像装置200は、監視カメラ、DMS(Driver Monitor System)、又は赤外線カメラである。撮像装置200は、ユーザを撮像する。
情報処理装置100は、撮像装置200から複数の画像(すなわち、映像)を取得する。情報処理装置100は、複数の画像に基づいて、ユーザの感情を推定する。情報処理装置100は、推定された感情の情報に基づいて、制御対象機器300を制御することができる。ここで、制御対象機器300の制御の一例を示す。
For example, the imaging device 200 is a surveillance camera, a DMS (Driver Monitor System), or an infrared camera. The imaging device 200 images the user.
The information processing device 100 acquires a plurality of images (that is, videos) from the imaging device 200 . Information processing apparatus 100 estimates a user's emotion based on a plurality of images. The information processing device 100 can control the control target device 300 based on the estimated emotion information. Here, an example of control of the controlled device 300 is shown.

図2は、実施の形態の制御対象機器の制御の具体例を示す図である。図2は、制御対象機器300の例として、エレベータの昇降機301を示している。また、図2では、小さい動きをしているユーザの上面図を示している。
撮像装置200は、天井に設置されている。撮像装置200は、ユーザを撮像する。情報処理装置100は、撮像装置200から複数の画像を取得する。情報処理装置100は、複数の画像に基づいて、ユーザの感情を推定する。情報処理装置100は、推定された感情の情報に基づいて、昇降機301を制御する。
FIG. 2 is a diagram illustrating a specific example of control of a device to be controlled according to the embodiment. FIG. 2 shows an elevator hoist 301 as an example of the device 300 to be controlled. Also shown in FIG. 2 is a top view of the user making small movements.
The imaging device 200 is installed on the ceiling. The imaging device 200 images the user. The information processing device 100 acquires multiple images from the imaging device 200 . Information processing apparatus 100 estimates a user's emotion based on a plurality of images. The information processing device 100 controls the elevator 301 based on the estimated emotion information.

次に、情報処理装置100が有する機能を説明する。
図3は、実施の形態の情報処理装置の機能を示すブロック図である。情報処理装置100は、記憶部110、取得部120、抽出部130、動作量算出部140、判定部150、及び推定部160を有する。
Next, functions of the information processing apparatus 100 will be described.
FIG. 3 is a block diagram illustrating functions of the information processing apparatus according to the embodiment. The information processing apparatus 100 has a storage unit 110 , an acquisition unit 120 , an extraction unit 130 , an operation amount calculation unit 140 , a determination unit 150 and an estimation unit 160 .

記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
取得部120、抽出部130、動作量算出部140、判定部150、及び推定部160の一部又は全部は、処理回路によって実現してもよい。また、取得部120、抽出部130、動作量算出部140、判定部150、及び推定部160の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、推定プログラムとも言う。例えば、推定プログラムは、記録媒体に記録されている。
The storage unit 110 may be implemented as a storage area secured in the volatile storage device 102 or the nonvolatile storage device 103 .
A part or all of the acquisition unit 120, the extraction unit 130, the motion amount calculation unit 140, the determination unit 150, and the estimation unit 160 may be realized by a processing circuit. Part or all of the acquisition unit 120, the extraction unit 130, the motion amount calculation unit 140, the determination unit 150, and the estimation unit 160 may be implemented as modules of a program executed by the processor 101. FIG. For example, the program executed by processor 101 is also called an estimation program. For example, the estimation program is recorded on a recording medium.

取得部120は、撮像時刻がそれぞれ異なる複数の画像を撮像装置200から取得する。取得部120は、複数の画像を外部装置(例えば、クラウドサーバ)から取得してもよい。複数の画像のそれぞれは、異なる時刻にユーザを撮像することにより得られた画像である。そのため、複数の画像のそれぞれには、ユーザが含まれている。 The acquisition unit 120 acquires a plurality of images captured at different times from the imaging device 200 . Acquisition unit 120 may acquire a plurality of images from an external device (for example, a cloud server). Each of the plurality of images is an image obtained by imaging the user at different times. Therefore, each of the multiple images includes the user.

抽出部130は、複数の画像に基づいて、複数の骨格情報を抽出する。複数の骨格情報のそれぞれは、ユーザの骨格特徴点を示す情報である。例えば、ユーザの骨格特徴点を示す情報は、座標である。以下、ユーザの骨格特徴点を示す情報は、座標とする。 The extraction unit 130 extracts multiple pieces of skeleton information based on multiple images. Each of the pieces of skeleton information is information indicating a skeleton feature point of the user. For example, the information indicating the user's skeletal feature points is coordinates. Hereinafter, the information indicating the skeleton feature points of the user is assumed to be coordinates.

まず、1つの画像に基づいて、1つの骨格情報が抽出される場合を説明する。ここで、骨格情報の例を示す。 First, a case will be described in which one piece of skeleton information is extracted based on one image. Here, an example of skeleton information is shown.

図4は、実施の形態の骨格情報の例を示す図である。図4は、複数の画像のうちの1つの画像である画像400を示している。抽出部130は、公知技術を用いて、骨格情報500を抽出する。例えば、公知技術は、OpenPose又はPoseNetである。骨格情報500は、ユーザの骨格特徴点を示す座標である。例えば、図4の座標501は、ユーザの耳の骨格特徴点を示す。なお、当該座標は、X座標とY座標で表される。 FIG. 4 is a diagram showing an example of skeleton information according to the embodiment. FIG. 4 shows an image 400, which is one of a plurality of images. Extraction unit 130 extracts skeleton information 500 using a known technique. For example, known technologies are OpenPose or PoseNet. The skeletal information 500 is coordinates indicating skeletal feature points of the user. For example, coordinates 501 in FIG. 4 indicate skeletal feature points of the user's ear. Note that the coordinates are represented by an X coordinate and a Y coordinate.

図4は、1人のユーザが画像400の中に含まれている場合を示している。複数のユーザが画像の中に含まれている場合、抽出部130は、複数のユーザのそれぞれの骨格情報を抽出する。 FIG. 4 illustrates the case where one user is included in image 400 . When multiple users are included in the image, the extraction unit 130 extracts skeleton information of each of the multiple users.

このように、抽出部130は、1つ画像に基づいて、1つの骨格情報を抽出する。同様に、抽出部130は、複数の画像のそれぞれに対して、骨格情報の抽出処理を行う。これにより、複数の骨格情報が得られる。 In this way, the extraction unit 130 extracts one piece of skeleton information based on one image. Similarly, the extraction unit 130 performs skeleton information extraction processing on each of the plurality of images. As a result, a plurality of pieces of skeletal information are obtained.

ここで、制御システムには、複数の撮像装置が含まれてもよい。複数の撮像装置のそれぞれは、異なる位置に設置されている。複数の撮像装置のそれぞれは、異なる方向からユーザを撮像する。複数の撮像装置が制御システムに含まれる場合、取得部120は、複数の撮像装置が同じ時刻にユーザを撮像することにより得られた複数の画像を取得する。例えば、取得部120は、当該複数の画像を複数の撮像装置から取得する。また、取得部120は、複数の撮像装置のそれぞれの位置情報を取得する。例えば、取得部120は、複数の撮像装置のそれぞれの位置情報を記憶部110から取得する。抽出部130は、当該複数の画像と、複数の撮像装置のそれぞれの位置情報とに基づいて、1つの骨格情報を抽出する。ここで、例えば、ある撮像装置が、ある方向からユーザを撮像した場合、ユーザの一部分が撮像されないことがある。そこで、他の撮像装置が、異なる方向からユーザを撮像することで、当該一部分が撮像される。このように、抽出部130は、複数の撮像装置のそれぞれが異なる方向からユーザを撮像することにより得られた複数の画像に基づいて、骨格情報を抽出する。これにより、情報処理装置100は、精度の高い骨格情報を得ることができる。 Here, the control system may include a plurality of imaging devices. Each of the plurality of imaging devices is installed at a different position. Each of the plurality of imaging devices images the user from different directions. When a plurality of imaging devices are included in the control system, the acquisition unit 120 acquires a plurality of images obtained by imaging the user at the same time by the plurality of imaging devices. For example, the acquisition unit 120 acquires the plurality of images from a plurality of imaging devices. Also, the acquisition unit 120 acquires position information of each of the plurality of imaging devices. For example, the acquisition unit 120 acquires the position information of each of the multiple imaging devices from the storage unit 110 . The extraction unit 130 extracts a piece of skeleton information based on the plurality of images and the position information of each of the plurality of imaging devices. Here, for example, when an imaging device captures an image of a user from a certain direction, part of the user may not be captured. Therefore, another image capturing device captures an image of the user from a different direction, thereby capturing an image of the part. In this manner, the extracting unit 130 extracts skeleton information based on multiple images obtained by capturing images of the user from different directions using multiple imaging devices. Accordingly, the information processing apparatus 100 can obtain highly accurate skeleton information.

動作量算出部140は、複数の骨格情報に基づいて、予め設定された期間Tにおける、ユーザの動作量FPを算出する。動作量FPは、期間Tにおける、骨格情報が示す座標(すなわち、骨格特徴点)の移動量の平均により、算出される。時刻t(0<t<T)におけるi(1<i<N)番目の座標を(Xi(t)、Yi(t))とした場合、動作量FPは、式(1)により表される。 The movement amount calculator 140 calculates the user's movement amount FP in a preset period T based on a plurality of pieces of skeleton information. The motion amount FP is calculated by averaging the amount of movement of the coordinates (that is, the skeleton feature points) indicated by the skeleton information in the period T. FIG. When the i-th (1<i<N) coordinate at time t (0<t<T) is (Xi(t), Yi(t)), the amount of motion FP is expressed by equation (1). .

Figure 0007224569000001
Figure 0007224569000001

判定部150は、動作量FPが予め設定された閾値以下であるか否かを判定する。動作量FPが予め設定された閾値以下である場合、ユーザの動きは、小さいと言える。
推定部160は、動作量FPが当該閾値以下である場合、ユーザの感情を不快と推定する。
The determination unit 150 determines whether or not the amount of motion FP is equal to or less than a preset threshold. If the motion amount FP is less than or equal to a preset threshold, it can be said that the user's motion is small.
The estimation unit 160 estimates that the user's emotion is unpleasant when the amount of motion FP is equal to or less than the threshold.

ここで、例えば、不快は、ユーザが待機しているときに生じる。ユーザは、不快感が高まった場合、貧乏ゆすり、軸足の入れ替え、腕の組み直しの動作などを行う。そこで、推定部160は、不快の動作の種類を推定するために、以下の処理を行ってもよい。推定部160は、複数の骨格情報を用いて、三角関数“Asin(2πft+φ)”を算出する。推定部160は、三角関数“Asin(2πft+φ)”を近似する。これにより、“Asin(2πft+φ)+B”が、得られる。ここで、“Asin(2πft+φ)+B”を示すグラフを例示する。 Here, for example, discomfort occurs when the user is waiting. When the discomfort increases, the user performs motions such as swaying, changing the supporting leg, and rearranging the arm. Therefore, the estimation unit 160 may perform the following processing in order to estimate the type of uncomfortable motion. Estimating section 160 calculates a trigonometric function “A sin(2πft+φ)” using a plurality of skeleton information. The estimator 160 approximates the trigonometric function “A sin(2πft+φ)”. As a result, "A sin(2πft+φ)+B" is obtained. Here, a graph showing "A sin(2πft+φ)+B" is illustrated.

図5は、実施の形態のグラフの例を示す図である。縦軸は、骨格特徴点の位置を示す。例えば、縦軸は、足の骨格特徴点の位置を示す。骨格特徴点の位置は、骨格特徴点を示す座標のX座標と考えてもよいし、当該座標のY座標と考えてもよい。横軸は、時刻tを示している。
グラフが示すように、推定部160は、複数の骨格情報に基づいて、“Asin(2πft+φ)+B”を算出することができる。
FIG. 5 is a diagram illustrating an example of a graph according to the embodiment; The vertical axis indicates the positions of skeleton feature points. For example, the vertical axis indicates the positions of the skeletal feature points of the foot. The position of the skeleton feature point may be considered as the X coordinate of the coordinates indicating the skeleton feature point, or may be considered as the Y coordinate of the coordinate. The horizontal axis indicates time t.
As shown in the graph, the estimating unit 160 can calculate "A sin(2πft+φ)+B" based on a plurality of pieces of skeleton information.

推定部160は、“Asin(2πft+φ)+B”に基づいて、周波数を算出する。推定部160は、振幅Aが予め設定された閾値以上である場合、不快の動作が軸足の入れ替え、又は腕の組み直しであると推定する。推定部160は、周波数が予め設定された閾値以上である場合、不快の動作が貧乏ゆすりと推定する。
このように、推定部160は、複数の骨格情報に基づいて、不快の動作の種類を推定する。これにより、情報処理装置100は、不快の動作の種類を推定できる。
Estimating section 160 calculates the frequency based on “A sin(2πft+φ)+B”. When the amplitude A is equal to or greater than a preset threshold, the estimating unit 160 estimates that the uncomfortable motion is switching the pivot leg or rearranging the arm. If the frequency is equal to or greater than a preset threshold, the estimating unit 160 estimates that the motion of discomfort is extortion.
In this way, estimation section 160 estimates the type of uncomfortable motion based on a plurality of pieces of skeleton information. Accordingly, the information processing apparatus 100 can estimate the type of uncomfortable motion.

推定部160は、ユーザが留まっている時間と、不快と推定された時間とに基づいて、不快度を算出してもよい。例えば、推定部160は、複数の画像に基づいて、ユーザが同じ位置に留まっている時間を算出する。推定部160は、複数の画像のうちの複数の画像に基づいて不快と推定された時間を算出する。推定部160は、ユーザが留まっている時間と、不快と推定された時間とに基づいて、不快度を算出する。これにより、情報処理装置100は、ユーザの不快度を検出できる。情報処理装置100は、不快度を低減するための制御を制御対象機器300に行ってもよい。 The estimation unit 160 may calculate the degree of discomfort based on the length of time the user stays and the length of time estimated to be uncomfortable. For example, the estimation unit 160 calculates the length of time the user stays at the same position based on multiple images. The estimating unit 160 calculates the estimated discomfort time based on a plurality of images out of the plurality of images. The estimating unit 160 calculates the degree of discomfort based on the length of time the user stays and the length of time estimated to be uncomfortable. Accordingly, the information processing apparatus 100 can detect the user's discomfort level. The information processing apparatus 100 may control the control target device 300 to reduce the degree of discomfort.

次に、情報処理装置100が実行する処理を、フローチャートを用いて、説明する。
図6は、実施の形態の情報処理装置が実行する処理の例を示すフローチャートである。
(ステップS11)取得部120は、撮像時刻がそれぞれ異なる複数の画像を撮像装置200から取得する。
(ステップS12)抽出部130は、複数の画像に基づいて、複数の骨格情報を抽出する。
(ステップS13)動作量算出部140は、複数の骨格情報に基づいて、ユーザの動作量FPを算出する。
Next, processing executed by the information processing apparatus 100 will be described using a flowchart.
FIG. 6 is a flowchart illustrating an example of processing executed by the information processing apparatus according to the embodiment;
(Step S<b>11 ) The acquisition unit 120 acquires a plurality of images captured at different times from the imaging device 200 .
(Step S12) Extraction unit 130 extracts a plurality of skeleton information based on a plurality of images.
(Step S13) The motion amount calculator 140 calculates the user's motion amount FP based on a plurality of pieces of skeleton information.

(ステップS14)判定部150は、動作量FPが予め設定された閾値以下であるか否かを判定する。動作量FPが当該閾値以下である場合、処理は、ステップS15に進む。動作量FPが当該閾値よりも大きい場合、処理は、終了する。
(ステップS15)推定部160は、ユーザの感情を不快と推定する。
(Step S14) The determination unit 150 determines whether the motion amount FP is equal to or less than a preset threshold. If the motion amount FP is equal to or less than the threshold, the process proceeds to step S15. If the motion amount FP is greater than the threshold, the process ends.
(Step S15) The estimation unit 160 estimates that the user's emotion is unpleasant.

上記したように、実施の形態によれば、情報処理装置100は、小さい動きに基づく感情を推定することができる。 As described above, according to the embodiment, the information processing device 100 can estimate emotion based on small movements.

100 情報処理装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 104 通信インタフェース、 110 記憶部、 120 取得部、 130 抽出部、 140 動作量算出部、 150 判定部、 160 推定部、 200 撮像装置、 300 制御対象機器、 301 昇降機、 400 画像、 500 骨格情報、 501 座標。 100 information processing device, 101 processor, 102 volatile storage device, 103 nonvolatile storage device, 104 communication interface, 110 storage unit, 120 acquisition unit, 130 extraction unit, 140 operation amount calculation unit, 150 determination unit, 160 estimation unit, 200 imaging device, 300 controlled device, 301 elevator, 400 image, 500 skeleton information, 501 coordinates.

Claims (6)

ユーザを含み、かつ撮像時刻がそれぞれ異なる複数の画像を取得する取得部と、
前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出する抽出部と、
前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出する動作量算出部と、
前記動作量が予め設定された閾値以下であるか否かを判定する判定部と、
前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する推定部と、
を有する情報処理装置。
an acquisition unit that acquires a plurality of images that include a user and are captured at different times;
an extraction unit that extracts a plurality of pieces of skeletal information, which are information indicating skeletal feature points of the user, based on the plurality of images;
an action amount calculation unit that calculates an action amount of the user in a preset period based on the plurality of pieces of skeleton information;
a determination unit that determines whether the amount of movement is equal to or less than a preset threshold;
an estimation unit for estimating that the user's emotion is unpleasant when the amount of motion is equal to or less than the threshold;
Information processing device having
前記取得部は、それぞれ異なる方向から前記ユーザを撮像する複数の撮像装置が同じ時刻に前記ユーザを撮像することにより得られた複数の画像と、前記複数の撮像装置のそれぞれの位置情報とを取得し、
前記抽出部は、前記複数の撮像装置が同じ時刻に前記ユーザを撮像することにより得られた複数の画像と、前記複数の撮像装置のそれぞれの位置情報とに基づいて、前記複数の骨格情報のうちの1つの骨格情報を抽出する、
請求項1に記載の情報処理装置。
The acquisition unit acquires a plurality of images obtained by imaging the user at the same time by a plurality of image capturing devices that capture images of the user from different directions, and position information of each of the plurality of image capturing devices. death,
The extraction unit extracts the plurality of skeleton information based on a plurality of images obtained by imaging the user at the same time by the plurality of imaging devices and position information of each of the plurality of imaging devices. extract the skeletal information of one of the
The information processing device according to claim 1 .
前記推定部は、前記複数の骨格情報に基づいて、前記不快の動作の種類を推定する、
請求項1又は2に記載の情報処理装置。
The estimation unit estimates the type of the unpleasant motion based on the plurality of pieces of skeleton information.
The information processing apparatus according to claim 1 or 2.
前記推定部は、前記ユーザが留まっている時間と、前記不快と推定された時間とに基づいて、不快度を算出する、
請求項1から3のいずれか1項に記載の情報処理装置。
The estimation unit calculates the discomfort level based on the time the user stays and the time estimated to be uncomfortable.
The information processing apparatus according to any one of claims 1 to 3.
情報処理装置が、
ユーザを含み、かつ撮像時刻がそれぞれ異なる複数の画像を取得し、
前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出し、
前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出し、
前記動作量が予め設定された閾値以下であるか否かを判定し、
前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する、
推定方法。
The information processing device
Acquiring a plurality of images including a user and having different imaging times,
extracting, based on the plurality of images, a plurality of pieces of skeletal information representing skeletal feature points of the user;
calculating an amount of movement of the user in a preset period based on the plurality of pieces of skeleton information;
determining whether the amount of movement is equal to or less than a preset threshold;
estimating that the user's feeling is unpleasant when the amount of movement is equal to or less than the threshold;
estimation method.
情報処理装置に、
ユーザを含み、かつ撮像時刻がそれぞれ異なる複数の画像を取得し、
前記複数の画像に基づいて、前記ユーザの骨格特徴点を示す情報である複数の骨格情報を抽出し、
前記複数の骨格情報に基づいて、予め設定された期間における、前記ユーザの動作量を算出し、
前記動作量が予め設定された閾値以下であるか否かを判定し、
前記動作量が前記閾値以下である場合、前記ユーザの感情を不快と推定する、
処理を実行させる推定プログラム。
information processing equipment,
Acquiring a plurality of images including a user and having different imaging times,
extracting, based on the plurality of images, a plurality of pieces of skeletal information representing skeletal feature points of the user;
calculating an amount of movement of the user in a preset period based on the plurality of pieces of skeleton information;
determining whether the amount of movement is equal to or less than a preset threshold;
estimating that the user's feeling is unpleasant when the amount of movement is equal to or less than the threshold;
An inferred program that causes the process to take place.
JP2022575175A 2021-02-12 2021-02-12 Information processing device, estimation method, and estimation program Active JP7224569B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/005141 WO2022172384A1 (en) 2021-02-12 2021-02-12 Information processing device, inference method, and inference program

Publications (2)

Publication Number Publication Date
JPWO2022172384A1 JPWO2022172384A1 (en) 2022-08-18
JP7224569B2 true JP7224569B2 (en) 2023-02-17

Family

ID=82838524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022575175A Active JP7224569B2 (en) 2021-02-12 2021-02-12 Information processing device, estimation method, and estimation program

Country Status (3)

Country Link
JP (1) JP7224569B2 (en)
TW (1) TW202232375A (en)
WO (1) WO2022172384A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037410A (en) 2007-08-01 2009-02-19 Nippon Hoso Kyokai <Nhk> Emotion expression extraction processing device and program thereof
JP2014206903A (en) 2013-04-15 2014-10-30 オムロン株式会社 Facial expression estimation device, control method, control program, and recording medium
JP2019125061A (en) 2018-01-12 2019-07-25 ナブテスコ株式会社 System for estimating condition of person

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037410A (en) 2007-08-01 2009-02-19 Nippon Hoso Kyokai <Nhk> Emotion expression extraction processing device and program thereof
JP2014206903A (en) 2013-04-15 2014-10-30 オムロン株式会社 Facial expression estimation device, control method, control program, and recording medium
JP2019125061A (en) 2018-01-12 2019-07-25 ナブテスコ株式会社 System for estimating condition of person

Also Published As

Publication number Publication date
JPWO2022172384A1 (en) 2022-08-18
WO2022172384A1 (en) 2022-08-18
TW202232375A (en) 2022-08-16

Similar Documents

Publication Publication Date Title
WO2014171258A1 (en) Information processing system, information processing method, and program
JP4915655B2 (en) Automatic tracking device
US9773192B2 (en) Fast template-based tracking
JP6024658B2 (en) Object detection apparatus, object detection method, and program
JP6217635B2 (en) Fall detection device, fall detection method, fall detection camera, and computer program
US20160217326A1 (en) Fall detection device, fall detection method, fall detection camera and computer program
JP2015528936A (en) Adaptive switching between vision-assisted inertial camera pose estimation and vision-based camera pose estimation
JP2019186955A (en) Information processing system, information processing method, and program
JP2011234314A (en) Image processing apparatus, image processing method and program
JP5530399B2 (en) Image processing method, image processing apparatus, and image processing program
JP6981555B2 (en) Performance modeling methods, systems, and programs for crowd estimation methods
JP2014186547A (en) Moving object tracking system, method and program
JP7224569B2 (en) Information processing device, estimation method, and estimation program
US11557122B2 (en) Control apparatus, control system, control method, and storage medium
JP5436351B2 (en) State estimation device, state estimation method, and program
JP5639033B2 (en) Image processing method, image processing apparatus, and image processing program
JPWO2018179119A1 (en) Video analysis device, video analysis method, and program
KR20080079506A (en) Photographing apparatus for tracking object and method thereof
JP6737262B2 (en) Abnormal state detection device, abnormal state detection method, and abnormal state detection program
JP7041046B2 (en) Group estimation device and group estimation method
US11908197B2 (en) Information processing apparatus, information processing method, and storage medium
JP2019192154A (en) Image processing apparatus, imaging device, image processing method, and program
KR101187481B1 (en) Method and apparatus for extracting hand color to use image recognition based interface and image recognition based interface device
CN113691731B (en) Processing method and device and electronic equipment
JP6034671B2 (en) Information display device, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7224569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150