JP2017041218A - System for estimating weight based on face image - Google Patents

System for estimating weight based on face image Download PDF

Info

Publication number
JP2017041218A
JP2017041218A JP2015175154A JP2015175154A JP2017041218A JP 2017041218 A JP2017041218 A JP 2017041218A JP 2015175154 A JP2015175154 A JP 2015175154A JP 2015175154 A JP2015175154 A JP 2015175154A JP 2017041218 A JP2017041218 A JP 2017041218A
Authority
JP
Japan
Prior art keywords
weight
image
face
correction
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015175154A
Other languages
Japanese (ja)
Inventor
仁一 石▲崎▼
Jinichi Ishizaki
仁一 石▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2015175154A priority Critical patent/JP2017041218A/en
Publication of JP2017041218A publication Critical patent/JP2017041218A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To analyze plural face images, and measure a weight based on a correlation relationship between a part which affects a weight and a part which does not affect a weight.SOLUTION: Plural face images are sent to a network NW1 from portable terminals 100-100of users. The pieces of sent face image data are accumulated in an information processor 200 through the Internet network. The pieces of accumulated face image data can be browsed and analyzed on a PC through the Internet network, and analysis is performed about a width between eyes, a nose, a mouth, and a width of a contour of a face, and an angle where plural tangents cross on the contour of the face, in the face. Then, a weight is measured according to the correlation relationship based on the analyzed data, and the measured weight is accumulated in the information processor 200 and displayed on the user's portable terminals 100-100. The PC learns based on the face image analysis, and statistical data in the correlation relationship is modified for improving weight measurement accuracy.SELECTED DRAWING: Figure 1

Description

本発明は、人物の顔画像からその人物の体重を推定するプログラム、情報処理装置、ネットワーク装置、サーバ装置に関する。The present invention relates to a program for estimating the weight of a person from the face image of the person, an information processing apparatus, a network apparatus, and a server apparatus.

体重計は一般的に体重を計測する装置として使用されている。この体重計の応用として、例えば、体重を測定した後にその値を外部の記憶装置に送信し、その人物の体重測定の履歴を記録することが可能な高機能体重計が存在する。A scale is generally used as a device for measuring body weight. As an application of this weight scale, for example, there is a high-function weight scale that can measure a weight and then transmit the value to an external storage device to record a history of weight measurement of the person.

顔認識技術は一般的に人物画像の中から顔画像を検出するために使用されている。この技術を用いた応用技術として、例えば、顔画像を検出した後に、その顔画像の特徴からその人物の年齢や性別を推定することが可能な技術が存在する。Face recognition technology is generally used to detect a face image from a person image. As an applied technique using this technique, for example, there is a technique capable of estimating the age and sex of a person from the feature of the face image after detecting the face image.

特許公開2004−265431Patent Publication 2004-265431 特許出願2004−110880Patent application 2004-110880

発明が解決しようとする課題Problems to be solved by the invention

以上のような体重計には次のような課題があった。体重を計測するためには、自宅に据え置きされている体重計に乗る必要があるため、外出先から気軽に使用することができない。また、体重を外部記憶装置に記録できる機能を有する高機能体重計は、その機能を有しない一般的な体重計に比べて高価であるため、その機能による費用対効果が低いと考える消費者に対しては普及しにくい。The above scales have the following problems. In order to measure the weight, it is necessary to get on a scale that is stationary at home, so it cannot be used easily from the outside. In addition, a high-performance weight scale having a function capable of recording the weight in an external storage device is more expensive than a general weight scale not having the function. On the other hand, it is difficult to spread.

さらに、次のような理由により、これらの課題は解決を求められている。『総務省国民生活に関する世論調査1996』によると、国民生活における関心事項の割合において第一位が「自分の健康」(44%)、第三位が「家族の健康」(36%)となっており、国民が医療やヘルスケアに高い関心を持っていることが示されている。特に、近年は生活習慣病予防の観点や、容姿外見に関する美的観点から、体重やBMIを正常値に保つことが重用視されている。そのため、場所を選ばず自動的に体重を記録して管理することに対するニーズが高くなっている。Furthermore, these problems are required to be solved for the following reasons. According to the Ministry of Internal Affairs and Communications' Public Opinion Survey 1996, “My Health” (44%) is the highest in the percentage of matters of interest in national life, and “Family Health” (36%) is the third. It shows that the public has a high interest in medical care and healthcare. In particular, in recent years, maintaining weight and BMI at normal values has been emphasized from the viewpoint of preventing lifestyle-related diseases and the aesthetic viewpoint of appearance. For this reason, there is a growing need for automatically recording and managing weight regardless of location.

課題を解決するための手段Means for solving the problem

上記の課題を解決すべく、本発明は、顔認識技術を応用して人物の顔画像からその人物の体重を推定すること、および、外部記録装置と組み合わせて体重を自動的に記憶することを可能にするソフトウェアとシステム構成を提供する。In order to solve the above problems, the present invention applies face recognition technology to estimate the weight of a person from the face image of the person, and automatically stores the weight in combination with an external recording device. Provide enabling software and system configuration.

本発明の利用者は、スマートフォンやパーソナルコンピュータ、携帯型ゲーム機、電子書籍リーダーなどの、既に保有している可搬な端末上でソフトウェアを動作させる。ソフトウェアは顔画像からその人物の体重を推定すし、推定された体重は電子記録媒体に自動的に記録され管理される。A user of the present invention operates software on a portable terminal that is already held, such as a smartphone, a personal computer, a portable game machine, or an electronic book reader. The software estimates the weight of the person from the face image, and the estimated weight is automatically recorded and managed on an electronic recording medium.

発明の効果Effect of the invention

本発明は、既に広く普及しているスマートフォンなどの端末でも利用可能であるため、場所を選ばず体重を推定して記録することが可能になる。そのため、体重を計測する際に自宅に据え置きされている体重計に乗る必要性がなくなる。また、体重を外部記憶装置に記録できる機能を有する高機能体重計を高額で入手する必要性がなくなる。以上により、本発明は前述の課題を解決する効果を有する。Since the present invention can be used with terminals such as smartphones that are already widely used, it is possible to estimate and record the weight regardless of location. This eliminates the need to ride on a scale that is stationary at home when measuring weight. Further, there is no need to obtain a high-performance weight scale having a function of recording the weight in the external storage device at a high price. As described above, the present invention has an effect of solving the above-described problems.

また、システムには様々な人物の顔画像と体重の推定結果が蓄積されていくが、蓄積された推定結果には、正しく推定できなかったものも含まれることが想定される。利用者は自身の体重がシステムによって正しく推定されてなかったと感じた場合、正しい値をシステムに送信することによって、推定体重の修正を申し出ることができる。システムは、修正された値を学習用データとして機械学習を行うことにより、それ以降の推定精度を向上させる。The system accumulates various human face images and weight estimation results, but it is assumed that the accumulated estimation results include those that could not be estimated correctly. If the user feels that his / her weight has not been correctly estimated by the system, he can offer a correction of the estimated weight by sending the correct value to the system. The system performs machine learning using the corrected value as learning data, thereby improving the estimation accuracy thereafter.

さらに、利用者は自身の顔写真と健康状態をシステムに送信することができる。システムは、顔写真と健康状態を学習用データとして機械学習を行うことにより、顔写真からその人物の健康状態を推定できるようになる。In addition, the user can send his face photo and health status to the system. The system can estimate the person's health state from the face photograph by performing machine learning using the face photograph and the health state as learning data.

体重測定システムの構成の概略を示す図  The figure which shows the outline of the composition of the weight measurement system クライアント端末のハードウェア構成を示すブロック図  Block diagram showing the hardware configuration of the client terminal 情報処理装置のハードウェア構成を示すブロック図  Block diagram showing hardware configuration of information processing apparatus 利用者DBのデータ構成例  Data structure example of user DB 体重DBのデータ構成例  Data structure example of weight DB 体重推定の結果を表示するまでの流れを示す図  The figure which shows the flow until displaying the result of weight estimation クライアント端末上への推定体重の表示例を示す図  The figure which shows the example of a display of the estimated weight on a client terminal 解析に使用する顔の箇所の例1  Example 1 of facial part used for analysis 解析手法の概略図1  Schematic diagram of analysis method 1 解析に使用する顔の箇所の例2  Example 2 of facial parts used for analysis 解析手法の概略図2  Schematic diagram of analysis method 2

請求項1およびせい請求項2に係る本発明は以下のシステム構成と処理フローを提供する。The present invention according to claim 1 and claim 2 provides the following system configuration and processing flow.

まず、システム構成について概説する。First, the system configuration will be outlined.

システムには、利用者が保有しているクライアント端末100を少なくとも必要とする。このクライアント端末100は、スマートフォンやパーソナルコンピュータ、携帯型ゲーム機、電子書籍リーダーなどが該当する。いずれの場合も、クライアント端末100は、ソフトウェアを実行するためのCPUおよびメモリと、利用者に対して情報を表示するためのディスプレイを少なくとも必要とする。The system requires at least the client terminal 100 owned by the user. The client terminal 100 corresponds to a smartphone, a personal computer, a portable game machine, an electronic book reader, or the like. In any case, the client terminal 100 requires at least a CPU and a memory for executing software and a display for displaying information to the user.

クライアント端末100が高性能なCPUやメモリを有しており、CPU負荷が大きい複雑な画像処理プログラムを実行することが可能である場合、後述の体重推定プログラム900をクライアント端末100の内部で実行することが可能である。このように、他の端末に依存せず単独の端末だけで動作する方式を「スタンドアロン型アプリケーション方式」と命名する。本発明は、スタンドアロン型アプリケーション方式によって体重推定プログラム900を動作させ、利用者に対して結果を表示するということを可能にする。When the client terminal 100 has a high-performance CPU and memory and can execute a complicated image processing program with a large CPU load, a weight estimation program 900 described later is executed inside the client terminal 100. It is possible. In this way, a method that operates only with a single terminal without depending on other terminals is named a “stand-alone application method”. The present invention makes it possible to operate the weight estimation program 900 by a stand-alone application method and display the result to the user.

しかし、本発明は、必ずしもスタンドアロン型アプリケーション方式をとる必要はない。他の機器とネットワークを介して連携することで動作する方式を「クライアントサーバ型アプリケーション方式」と命名する。本発明は、例えば、計算用サーバ機のような情報処理装置200の内部で体重推定プログラム900を実行し、クライアント端末100にその結果を表示するという方式を取ることも可能である。この場合、クライアント端末100には情報処理装置200と通信するための通信部が必要である。However, the present invention does not necessarily have to adopt a stand-alone application method. A method that operates by cooperating with other devices via a network is named a “client-server application method”. In the present invention, for example, the weight estimation program 900 is executed inside the information processing apparatus 200 such as a calculation server machine, and the result is displayed on the client terminal 100. In this case, the client terminal 100 needs a communication unit for communicating with the information processing apparatus 200.

これより以下では、本発明をクライアントサーバ型アプリケーション方式で実現した場合の詳細について記述されているが、本発明は、スタンドアロン型アプリケーション方式でも実現可能であることに留意されたい。In the following, the details when the present invention is realized by the client-server type application method will be described. However, it should be noted that the present invention can also be realized by the stand-alone type application method.

図1はこの発明をクライアントサーバ型アプリケーション方式で実施する際のシステムの形態を示す図である。システムには少なくとも、利用者が保有しているクライアント端末100と、後述の体重推定プログラム900が動作する情報処理装置200と、それらをネットワーク接続するためのネットワーク網NW1と、利用者情報を記録するための利用者データベースDB1と、顔写真情報を記録するための顔写真データベースDB2と、顔写真の実データを保存しておくためのストレージSTR1とを必要とする。FIG. 1 is a diagram showing a system configuration when the present invention is implemented by a client-server type application system. The system records at least the client terminal 100 owned by the user, the information processing apparatus 200 on which a weight estimation program 900 described later operates, a network NW1 for connecting them to the network, and user information. A user database DB1, a face photo database DB2 for recording face photo information, and a storage STR1 for storing actual photo data.

図1において、複数のクライアント端末100を図示しており、それぞれ100_1、100_2、および100_Nと記載している。クライアント端末100は、例えば、スマートフォンやタブレット端末、携帯型のゲーム機、電子書籍リーダーであってもよい。
また、全てのクライアント端末100がネットワーク網NW1を介して単一の情報処理装置200と接続さてているが、情報処理装置200は複数存在しても良い。また、その場合、任意のクライアント端末100は、ネットワーク網NW1を介して任意の情報処理装置200と接続することができる。また、ネットワーク網NW1は、クライアント端末100と情報処理装置200を接続するための任意のネットワークであり、例えば、インターネット、広域イーサネット、VPN、LANなどである。
In FIG. 1, a plurality of client terminals 100 are illustrated, which are denoted as 100_1, 100_2, and 100_N, respectively. The client terminal 100 may be, for example, a smartphone, a tablet terminal, a portable game machine, or an electronic book reader.
Further, all the client terminals 100 are connected to the single information processing apparatus 200 via the network NW1, but a plurality of information processing apparatuses 200 may exist. In this case, any client terminal 100 can be connected to any information processing apparatus 200 via the network NW1. The network NW1 is an arbitrary network for connecting the client terminal 100 and the information processing apparatus 200, and is, for example, the Internet, a wide area Ethernet, a VPN, or a LAN.

図2は、クライアント端末100のハードウェア構成を示すブロック図である。クライアント端末100は、制御部110、記憶部120、通信部130、演算部140、入力部150、表示部160を少なくとも備える。制御部110は、クライアント端末100の各部の動作を制御するものである。記憶部120はROM(Read Only Memory)、RAM(Random Access Memory)といったメモリやHDD(Hard Disk Drive)やSSD(Solid State Drive)といった記憶装置である。通信部130は、ネットワーク網NW1を介して情報処理装置200と接続するための機能を有する、ネットワークアダプタといった有線通信もしくは無線通信装置である。演算部140は、プログラムを実行するための機能を有する、CPU(Central Processing Unit)や算術論理ユニットALU(Arithmetic Logic Unit)、各種レジスターやカウンター、命令解読と実行制御をつかさどる装置である。入力部150は、クライアント端末100の利用者がクライアント端末100を操作したり、クライアント端末100に情報を入力したりするための、マウス、キーボード、タッチパネル、カメラといった入力装置である。表示部160は、クライアント端末100の利用者に情報を視覚的に伝えるための、液晶素子や有機EL(electroluminescence)素子を用いた表示パネルと、表示パネルの各素子を駆動する駆動回路とを備える表示装置である。FIG. 2 is a block diagram illustrating a hardware configuration of the client terminal 100. The client terminal 100 includes at least a control unit 110, a storage unit 120, a communication unit 130, a calculation unit 140, an input unit 150, and a display unit 160. The control unit 110 controls the operation of each unit of the client terminal 100. The storage unit 120 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), or an SSD (Solid State Drive). The communication unit 130 is a wired communication or wireless communication device such as a network adapter having a function for connecting to the information processing device 200 via the network NW1. The arithmetic unit 140 has a function for executing a program, and is a device that controls a CPU (Central Processing Unit), an arithmetic logic unit ALU (Arithmetic Logic Unit), various registers and counters, instruction decoding and execution control. The input unit 150 is an input device such as a mouse, a keyboard, a touch panel, or a camera for a user of the client terminal 100 to operate the client terminal 100 or input information to the client terminal 100. The display unit 160 includes a display panel using a liquid crystal element or an organic EL (electroluminescence) element for visually transmitting information to the user of the client terminal 100, and a drive circuit that drives each element of the display panel. It is a display device.

図3は、情報処理端末200のハードウェア構成を示すブロック図である。情報処理端末200は、制御部210、記憶部220、通信部230、演算部240を少なくとも備える。制御部210は、情報処理端末200の各部の動作を制御するものである。記憶部220はROM(Read Only Memory)、RAM(Random Access Memory)といったメモリやHDD(Hard Disk Drive)やSSD(Solid State Drive)といった記憶装置である。通信部230は、ネットワーク網NW1を介してクライアント端末100と接続するための機能を有する、ネットワークアダプタといった有線通信もしくは無線通信装置である。演算部240は、プログラムを実行するための機能を有する、CPU(Central Processing Unit)や算術論理ユニットALU(Arithmetic Logic Unit)、各種レジスターやカウンター、命令解読と実行制御をつかさどる装置である。FIG. 3 is a block diagram illustrating a hardware configuration of the information processing terminal 200. The information processing terminal 200 includes at least a control unit 210, a storage unit 220, a communication unit 230, and a calculation unit 240. The control unit 210 controls the operation of each unit of the information processing terminal 200. The storage unit 220 is a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), a HDD (Hard Disk Drive), and an SSD (Solid State Drive). The communication unit 230 is a wired communication or wireless communication device such as a network adapter having a function for connecting to the client terminal 100 via the network NW1. The arithmetic unit 240 has a function for executing a program, and is a device that controls a CPU (Central Processing Unit), an arithmetic logic unit ALU (Arithmetic Logic Unit), various registers and counters, instruction decoding and execution control.

図4は、利用者データベースDB1に記録されるデータの構成例を表す図である。1利用者ごとに、利用者ID、氏名、身長といった要素が記録される。利用者IDは、利用者を区別するための固有の文字列である。氏名は、利用者がシステムに登録した氏名である。身長は、利用者がシステムに登録した身長である。FIG. 4 is a diagram illustrating a configuration example of data recorded in the user database DB1. Elements such as user ID, name, and height are recorded for each user. The user ID is a unique character string for distinguishing users. The name is a name registered by the user in the system. Height is the height registered by the user in the system.

図5は、体重データベースDB2に記録されるデータの構成例を表す図である。1つの体重データごとに、体重ID、利用者ID、顔画像のURL、推定された体重、実際の体重、日時、健康状態といった要素が記録される。体重IDとは、体重データを区別するための固有の文字列である。利用者IDとは、この体重データがどの利用者と紐づいているかを表す文字列で、図4で示した利用者IDのことである。顔画像のURLとは、実際の顔画像の保存場所を表すURLである。推定された体重とは、後述の体重推定プログラム900によって推定されたその利用者の体重である。日時とは、このデータが体重データベースDB2に書き込まれた日時である。FIG. 5 is a diagram illustrating a configuration example of data recorded in the weight database DB2. For each piece of weight data, elements such as weight ID, user ID, face image URL, estimated weight, actual weight, date and time, and health status are recorded. The weight ID is a unique character string for distinguishing weight data. The user ID is a character string indicating which user the weight data is associated with, and is the user ID shown in FIG. The URL of the face image is a URL that represents the actual storage location of the face image. The estimated weight is the weight of the user estimated by a weight estimation program 900 described later. The date and time is the date and time when this data was written in the weight database DB2.

次に、処理フローについて概説する。Next, the processing flow will be outlined.

図6は、クライアント端末100の表示部160に、推定体重を表示するまでの流れの一例を表す図である。利用者は、利用者を識別するためのIDと顔写真と体重の正解データを、クライアント端末100から情報処理装置200に対して送信することが出来る。ただし、ここでは、正解データとは請求項1に記載されているデータである。また、正解データの送信は必須ではない。情報処理装置200は受け取ったIDで利用者データベースDB1から利用者情報を検索する。情報処理装置200は受け取った顔写真から体重計算に必要な特徴量を抽出する。情報処理装置200は後述の体重推定プログラム900を実行して体重を推定する。情報処理装置200体重データベースDB2に、図5に示した要素を書き込む。推定された体重をクライアント端末100に返信する。クライアント端末は、受け取った推定体重を表示する。FIG. 6 is a diagram illustrating an example of a flow until the estimated weight is displayed on the display unit 160 of the client terminal 100. The user can transmit from the client terminal 100 to the information processing apparatus 200 the ID for identifying the user, the face photograph, and the correct answer data of the weight. However, here, the correct answer data is data described in claim 1. Moreover, transmission of correct data is not essential. The information processing apparatus 200 searches for user information from the user database DB1 with the received ID. The information processing apparatus 200 extracts a feature amount necessary for weight calculation from the received face photograph. The information processing apparatus 200 estimates the weight by executing a weight estimation program 900 described later. The elements shown in FIG. 5 are written in the information processing apparatus 200 weight database DB2. The estimated weight is returned to the client terminal 100. The client terminal displays the received estimated weight.

図7は、クライアント端末100の表示画面の例を示した図である。図7ではクライアント端末がスマートフォンである場合を例にしている。150はスマートフォンの表示部であり、その中に顔写真の表示部L001、推定体重の表示部L002を内在する。また、情報処理装置200に対して写真を送るアクションを開始させるボタンBt4、スマートフォン内部に保存されている顔写真を選択するボタンBt1、スマートフォンに内蔵されているカメラを起動させたり、フロントカメラとバックカメラを切り替えるボタンBt2などが含まれていても良い。FIG. 7 is a diagram illustrating an example of a display screen of the client terminal 100. FIG. 7 illustrates an example in which the client terminal is a smartphone. Reference numeral 150 denotes a display unit of a smartphone, which includes a face photo display unit L001 and an estimated weight display unit L002. In addition, a button Bt4 for starting an action of sending a photo to the information processing apparatus 200, a button Bt1 for selecting a face photograph stored in the smartphone, a camera built in the smartphone, a front camera and a back A button Bt2 for switching cameras may be included.

図8は、体重推定プログラム900が体重の推定に使用する、頭部の形状を表現する特徴量の例1である。眼を開いた状態て?内眼角において上下の眼瞼か?移行する点を「内眼角点」と呼び、両方の内眼角点間の距離を「両内眼角点間距離」と呼ぶ。頭部側面て?最も外側にある点を「側頭点」と呼び、両方の側頭点間の距離を「両側頭点間距離」と呼ぶ。頬骨弓のうち最も外側にある点を「頬骨弓点」よ呼び、両方の頬骨弓点間の距離を「両頬骨弓点間距離」と呼ぶ。下顎角か?最も外側に突出している点を「顎角点」と呼び、両方の顎角点間の距離を「両顎角点間距離」と呼ぶ。なお、これらの距離は請求項6および請求項7および請求項8で示される補正が適用されている。FIG. 8 is an example 1 of the feature quantity representing the shape of the head, which is used by the weight estimation program 900 for estimating the weight. With your eyes open? Is it the upper or lower eyelid in the inner eye angle? The transition point is called “inner eye corner point”, and the distance between both inner eye corner points is called “distance between both inner eye corner points”. The head side? The outermost point is called “temporal point”, and the distance between both temporal points is called “distance between both temporal points”. The outermost point of the zygomatic arch is called “zygomatic arch point”, and the distance between both zygomatic arch points is called “distance between both zygomatic arch points”. Mandible angle? The point that protrudes to the outermost side is called “jaw angle point”, and the distance between both jaw angle points is called “distance between both jaw angle points”. In addition, the correction shown by Claim 6, Claim 7, and Claim 8 is applied to these distances.

図9は、体重推定手法の概略図である。両側頭点間距離、両頬骨弓点間距離、両顎角点間距離を入力とし、体重を出力とする関数によって、体重を推定する。いかなる関数系を用いても良いが、図9では各変数の一次結合関数を例として図示している。なお、関数には可変パラメータが含まれており、請求項3の機械学習システムを用いてパラメータを学習することができる。FIG. 9 is a schematic diagram of the weight estimation method. The body weight is estimated by a function using the distance between the bilateral head points, the distance between both zygomatic arch points, and the distance between both jaw corner points as inputs and the weight as an output. Although any function system may be used, FIG. 9 illustrates a linear combination function of each variable as an example. The function includes variable parameters, and the parameters can be learned using the machine learning system according to claim 3.

図10は、体重推定プログラム900が体重の推定に使用する、頭部の形状を表現する特徴量の例2である。顎角点の両端の輪郭を直線で近似し、その2本の直線の間の角を「顎角点角度」と呼ぶ。両方の顎角点角の平均値を「平均顎角点角度」と呼ぶ。FIG. 10 is an example 2 of the feature quantity representing the shape of the head, which the weight estimation program 900 uses for weight estimation. The contours at both ends of the jaw angle point are approximated by a straight line, and the angle between the two straight lines is called a “jaw angle angle”. The average value of both jaw angle points is called “average jaw angle”.

図11は、体重推定手法の概略図である。平均顎角点角度の余弦と、その人物のBMIとには相関関係が存在しており、横軸にBMI、縦軸に平均顎角点角度の余弦をとった座標空間にデータをプロットした場合、線形の関数で近似することができる。平均顎角点角度からBMIを推定し、推定されたBMIに身長の二乗を乗算することによって体重を推定する。なお、線形関数の傾きは請求項3の機械学習システムを用いて学習することができる。FIG. 11 is a schematic diagram of the weight estimation method. There is a correlation between the cosine of the average jaw angle angle and the person's BMI, and the data is plotted in a coordinate space where the horizontal axis is the BMI and the vertical axis is the cosine of the average jaw angle angle. It can be approximated by a linear function. The BMI is estimated from the average jaw angle point angle, and the weight is estimated by multiplying the estimated BMI by the square of the height. The slope of the linear function can be learned using the machine learning system according to claim 3.

Claims (8)

人物の顔画像からその人物の体重を推定するための機械学習システムであって、(a)人物の顔画像に含まれる頭部の形状を表現する特徴量となる座標の集合を入力とし、その人物の体重の推定値を出力することができる推定アルゴリズムと、(b)人物の顔画像に含まれる頭部の座標の集合を入力とし、その人物の体重の正解データを出力とすることで、推定アルゴリズムに含まれる可変パラメータが自動的に学習され、推定あるゴリズムの精度を向上させることができる学習アルゴリズムと、(c)システムの利用者によって、顔写真とその写真撮影時の体重をシステムにアップロードすることができる、正解データ収集支援アプリケーションと、を含む機械学習システム。A machine learning system for estimating a person's weight from a person's face image, wherein (a) a set of coordinates serving as a feature amount expressing the shape of a head included in the person's face image is input, An estimation algorithm that can output an estimated value of a person's weight, and (b) a set of coordinates of the head included in the person's face image as input, and output correct data of the person's weight, A variable parameter included in the estimation algorithm is automatically learned, and a learning algorithm that can improve the accuracy of the estimated algorithm, and (c) the user of the system adds the facial photograph and the weight at the time of taking the photograph to the system. A machine learning system including a correct data collection support application that can be uploaded. 前記推定アルゴリズムは、線形回帰、ボルツマンマシン、ニューラルネットワーク、サポートベクターマシン、ベイジアンネットワークを用いた統計的推定、強化学習、深層学習の内の1つまたは複数を含む、請求項1に記載の機械学習システム。The machine learning of claim 1, wherein the estimation algorithm includes one or more of linear regression, Boltzmann machine, neural network, support vector machine, statistical estimation using Bayesian network, reinforcement learning, deep learning. system. 前記学習アルゴリズムは、線形回帰、ニューラルネットワーク、サポートベクターマシン、ベイジアンネットフークを用いた統計的推定、強化学習、深層学習の内の1つまたは複数を含む、請求項1に記載の機械学習システム。The machine learning system according to claim 1, wherein the learning algorithm includes one or more of linear regression, neural network, support vector machine, statistical estimation using Bayesian network hooks, reinforcement learning, and deep learning. 前期正解データ収集支援アプリケーションは、スマートフォンおよびパーソナルコンピュータ上で動作するネイティブアプリケーションもしくはブラウザアプリケーション。The correct data collection support application for the previous term is a native application or browser application that runs on smartphones and personal computers. 前記頭部の形状を表現する特徴量となる座標の集合に対する、請求項2および請求項3の機械学習効率を高めるための補正処理であって、(a)画像サイズに精度が依存しないようにするための正規化補正、(b)画像の鉛直軸もしくは水平軸に対する顔の回転角度に精度が依存しないようにするための角度補正、(c)画像の中央座標に対する顔の中央座標の位置ベクトルが精度に依存しないようにするための平行移動補正を、1つまたは複数含む補正処理。The correction processing for improving the machine learning efficiency according to claim 2 and claim 3 for a set of coordinates serving as a feature amount expressing the shape of the head, wherein (a) the accuracy does not depend on the image size (B) Angle correction so that accuracy does not depend on the rotation angle of the face with respect to the vertical or horizontal axis of the image, (c) Position vector of the center coordinate of the face with respect to the center coordinate of the image Correction processing including one or a plurality of parallel movement corrections so as to prevent the accuracy from depending on accuracy. 前期正規化補正は、頭部画像を画像処理することにより得られる、両側の外眼角点もしくは画側の内眼角点の間の距離を、距離の単位として画像全体を正規化する補正方法を含む正規化補正。The normalization correction includes a correction method for normalizing the entire image using the distance between the external eye corner points on both sides or the internal eye corner points on the image side obtained by image processing of the head image as a unit of distance. Normalization correction. 前期角度補正は、頭部画像を画像処理することにより得られる、両側の外眼角点もしくは両側の内眼角点を結ぶことよって形成される直線の傾きを増減させるように画像全体に回転処理を施す方法を含む角度補正。In the first-stage angle correction, the entire image is rotated so as to increase or decrease the inclination of the straight line formed by connecting the external eye corner points on both sides or the internal eye corner points on both sides obtained by image processing of the head image. Angle correction including method. 前期平行移動補正は、頭部画像を画像処理することにより得られる、両側の外眼角点もしくは両側の内眼角点を結ぶことよって形成される直線の中点の座標、もしくは、鼻根点の座標、もしくは、眉間点の座標のいずれかを原点として、画像全体に平行移動処理を施す方法を含む平行補正。In the previous translational correction, the coordinates of the midpoint of the straight line formed by connecting the external eye corner points on both sides or the internal eye corner points on both sides obtained by image processing of the head image, or the coordinates of the nose root point Alternatively, parallel correction including a method of performing a parallel movement process on the entire image with one of the coordinates of the interbrow point as the origin.
JP2015175154A 2015-08-20 2015-08-20 System for estimating weight based on face image Pending JP2017041218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015175154A JP2017041218A (en) 2015-08-20 2015-08-20 System for estimating weight based on face image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015175154A JP2017041218A (en) 2015-08-20 2015-08-20 System for estimating weight based on face image

Publications (1)

Publication Number Publication Date
JP2017041218A true JP2017041218A (en) 2017-02-23

Family

ID=58203477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015175154A Pending JP2017041218A (en) 2015-08-20 2015-08-20 System for estimating weight based on face image

Country Status (1)

Country Link
JP (1) JP2017041218A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3070086A1 (en) * 2017-08-08 2019-02-15 Safran Identity & Security FRAUD DETECTION FOR ACCESS CONTROL BY FACIAL RECOGNITION
JP2019134690A (en) * 2018-02-05 2019-08-15 ヤフー株式会社 Information processing device, information processing method and information processing program
KR20190101043A (en) * 2018-02-22 2019-08-30 한국과학기술원 A joint learning framework for active feature acquisition and classification
CN111462108A (en) * 2020-04-13 2020-07-28 山西新华化工有限责任公司 Machine learning-based head and face product design ergonomics assessment operation method
KR20200094651A (en) * 2019-01-30 2020-08-07 주식회사 스트라드비젼 Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition
CN112418025A (en) * 2020-11-10 2021-02-26 广州富港万嘉智能科技有限公司 Weight detection method and device based on deep learning

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3070086A1 (en) * 2017-08-08 2019-02-15 Safran Identity & Security FRAUD DETECTION FOR ACCESS CONTROL BY FACIAL RECOGNITION
EP3454306A1 (en) * 2017-08-08 2019-03-13 Idemia Identity & Security France Fraud detection for controlling access by facial recognition
US10529047B2 (en) 2017-08-08 2020-01-07 Idemia Identity & Security France Detection of fraud for access control via facial recognition
JP2019134690A (en) * 2018-02-05 2019-08-15 ヤフー株式会社 Information processing device, information processing method and information processing program
KR20190101043A (en) * 2018-02-22 2019-08-30 한국과학기술원 A joint learning framework for active feature acquisition and classification
KR102106684B1 (en) 2018-02-22 2020-05-04 한국과학기술원 A joint learning framework for active feature acquisition and classification
JP2020123352A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. Method and device for predicting body height and weight of passenger using length of each body region and face information based on human state recognition
KR20200094651A (en) * 2019-01-30 2020-08-07 주식회사 스트라드비젼 Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition
CN111507174A (en) * 2019-01-30 2020-08-07 斯特拉德视觉公司 Method and device for predicting height and weight of passenger
KR102338757B1 (en) * 2019-01-30 2021-12-15 주식회사 스트라드비젼 Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition
CN111507174B (en) * 2019-01-30 2023-08-22 斯特拉德视觉公司 Method and device for predicting height and weight of passenger
CN111462108A (en) * 2020-04-13 2020-07-28 山西新华化工有限责任公司 Machine learning-based head and face product design ergonomics assessment operation method
CN111462108B (en) * 2020-04-13 2023-05-02 山西新华防化装备研究院有限公司 Machine learning-based head-face product design ergonomics evaluation operation method
CN112418025A (en) * 2020-11-10 2021-02-26 广州富港万嘉智能科技有限公司 Weight detection method and device based on deep learning

Similar Documents

Publication Publication Date Title
JP2017041218A (en) System for estimating weight based on face image
US10321728B1 (en) Systems and methods for full body measurements extraction
JP2023171650A (en) Systems and methods for identifying persons and/or identifying and quantifying pain, fatigue, mood and intent with protection of privacy
KR20200116129A (en) Systems and methods for formulating personalized skin care products
US10748217B1 (en) Systems and methods for automated body mass index calculation
JP2022516586A (en) Body analysis
US20190244714A1 (en) Sickness prediction application system
US11551815B2 (en) Risk monitoring scores
US11151661B2 (en) Feed actor optimization
US20200133394A1 (en) Information Processing System
Martínez-Camblor et al. Hypothesis test for paired samples in the presence of missing data
Yefimova et al. Using sensor technology to monitor disruptive behavior of persons with dementia
KR102586167B1 (en) How to build a database
TWM548864U (en) Pointized health management system
US20190188323A1 (en) Feed optimization
CN110955840B (en) Joint optimization of notifications and pushes
CN116453222A (en) Target object posture determining method, training device and storage medium
TW202123255A (en) Health management system using non-contact imaging-based physiological measurement technology
CN112783949B (en) Human body data prediction method, device, electronic equipment and storage medium
CN114649096A (en) Body type data determination method, device, equipment, storage medium and product
JP2019200448A (en) Wearable device, bathing navigation system, bathing navigation method, and program
US20240079112A1 (en) Physiological predictions using machine learning
Luo et al. A note on variance estimation in the Cox proportional hazards model
WO2020115958A1 (en) Health information provision system
Han et al. An efficient operator for the change point estimation in partial spline model