JP2017041218A - System for estimating weight based on face image - Google Patents
System for estimating weight based on face image Download PDFInfo
- Publication number
- JP2017041218A JP2017041218A JP2015175154A JP2015175154A JP2017041218A JP 2017041218 A JP2017041218 A JP 2017041218A JP 2015175154 A JP2015175154 A JP 2015175154A JP 2015175154 A JP2015175154 A JP 2015175154A JP 2017041218 A JP2017041218 A JP 2017041218A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- image
- face
- correction
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、人物の顔画像からその人物の体重を推定するプログラム、情報処理装置、ネットワーク装置、サーバ装置に関する。The present invention relates to a program for estimating the weight of a person from the face image of the person, an information processing apparatus, a network apparatus, and a server apparatus.
体重計は一般的に体重を計測する装置として使用されている。この体重計の応用として、例えば、体重を測定した後にその値を外部の記憶装置に送信し、その人物の体重測定の履歴を記録することが可能な高機能体重計が存在する。A scale is generally used as a device for measuring body weight. As an application of this weight scale, for example, there is a high-function weight scale that can measure a weight and then transmit the value to an external storage device to record a history of weight measurement of the person.
顔認識技術は一般的に人物画像の中から顔画像を検出するために使用されている。この技術を用いた応用技術として、例えば、顔画像を検出した後に、その顔画像の特徴からその人物の年齢や性別を推定することが可能な技術が存在する。Face recognition technology is generally used to detect a face image from a person image. As an applied technique using this technique, for example, there is a technique capable of estimating the age and sex of a person from the feature of the face image after detecting the face image.
以上のような体重計には次のような課題があった。体重を計測するためには、自宅に据え置きされている体重計に乗る必要があるため、外出先から気軽に使用することができない。また、体重を外部記憶装置に記録できる機能を有する高機能体重計は、その機能を有しない一般的な体重計に比べて高価であるため、その機能による費用対効果が低いと考える消費者に対しては普及しにくい。The above scales have the following problems. In order to measure the weight, it is necessary to get on a scale that is stationary at home, so it cannot be used easily from the outside. In addition, a high-performance weight scale having a function capable of recording the weight in an external storage device is more expensive than a general weight scale not having the function. On the other hand, it is difficult to spread.
さらに、次のような理由により、これらの課題は解決を求められている。『総務省国民生活に関する世論調査1996』によると、国民生活における関心事項の割合において第一位が「自分の健康」(44%)、第三位が「家族の健康」(36%)となっており、国民が医療やヘルスケアに高い関心を持っていることが示されている。特に、近年は生活習慣病予防の観点や、容姿外見に関する美的観点から、体重やBMIを正常値に保つことが重用視されている。そのため、場所を選ばず自動的に体重を記録して管理することに対するニーズが高くなっている。Furthermore, these problems are required to be solved for the following reasons. According to the Ministry of Internal Affairs and Communications' Public Opinion Survey 1996, “My Health” (44%) is the highest in the percentage of matters of interest in national life, and “Family Health” (36%) is the third. It shows that the public has a high interest in medical care and healthcare. In particular, in recent years, maintaining weight and BMI at normal values has been emphasized from the viewpoint of preventing lifestyle-related diseases and the aesthetic viewpoint of appearance. For this reason, there is a growing need for automatically recording and managing weight regardless of location.
上記の課題を解決すべく、本発明は、顔認識技術を応用して人物の顔画像からその人物の体重を推定すること、および、外部記録装置と組み合わせて体重を自動的に記憶することを可能にするソフトウェアとシステム構成を提供する。In order to solve the above problems, the present invention applies face recognition technology to estimate the weight of a person from the face image of the person, and automatically stores the weight in combination with an external recording device. Provide enabling software and system configuration.
本発明の利用者は、スマートフォンやパーソナルコンピュータ、携帯型ゲーム機、電子書籍リーダーなどの、既に保有している可搬な端末上でソフトウェアを動作させる。ソフトウェアは顔画像からその人物の体重を推定すし、推定された体重は電子記録媒体に自動的に記録され管理される。A user of the present invention operates software on a portable terminal that is already held, such as a smartphone, a personal computer, a portable game machine, or an electronic book reader. The software estimates the weight of the person from the face image, and the estimated weight is automatically recorded and managed on an electronic recording medium.
本発明は、既に広く普及しているスマートフォンなどの端末でも利用可能であるため、場所を選ばず体重を推定して記録することが可能になる。そのため、体重を計測する際に自宅に据え置きされている体重計に乗る必要性がなくなる。また、体重を外部記憶装置に記録できる機能を有する高機能体重計を高額で入手する必要性がなくなる。以上により、本発明は前述の課題を解決する効果を有する。Since the present invention can be used with terminals such as smartphones that are already widely used, it is possible to estimate and record the weight regardless of location. This eliminates the need to ride on a scale that is stationary at home when measuring weight. Further, there is no need to obtain a high-performance weight scale having a function of recording the weight in the external storage device at a high price. As described above, the present invention has an effect of solving the above-described problems.
また、システムには様々な人物の顔画像と体重の推定結果が蓄積されていくが、蓄積された推定結果には、正しく推定できなかったものも含まれることが想定される。利用者は自身の体重がシステムによって正しく推定されてなかったと感じた場合、正しい値をシステムに送信することによって、推定体重の修正を申し出ることができる。システムは、修正された値を学習用データとして機械学習を行うことにより、それ以降の推定精度を向上させる。The system accumulates various human face images and weight estimation results, but it is assumed that the accumulated estimation results include those that could not be estimated correctly. If the user feels that his / her weight has not been correctly estimated by the system, he can offer a correction of the estimated weight by sending the correct value to the system. The system performs machine learning using the corrected value as learning data, thereby improving the estimation accuracy thereafter.
さらに、利用者は自身の顔写真と健康状態をシステムに送信することができる。システムは、顔写真と健康状態を学習用データとして機械学習を行うことにより、顔写真からその人物の健康状態を推定できるようになる。In addition, the user can send his face photo and health status to the system. The system can estimate the person's health state from the face photograph by performing machine learning using the face photograph and the health state as learning data.
請求項1およびせい請求項2に係る本発明は以下のシステム構成と処理フローを提供する。The present invention according to claim 1 and claim 2 provides the following system configuration and processing flow.
まず、システム構成について概説する。First, the system configuration will be outlined.
システムには、利用者が保有しているクライアント端末100を少なくとも必要とする。このクライアント端末100は、スマートフォンやパーソナルコンピュータ、携帯型ゲーム機、電子書籍リーダーなどが該当する。いずれの場合も、クライアント端末100は、ソフトウェアを実行するためのCPUおよびメモリと、利用者に対して情報を表示するためのディスプレイを少なくとも必要とする。The system requires at least the
クライアント端末100が高性能なCPUやメモリを有しており、CPU負荷が大きい複雑な画像処理プログラムを実行することが可能である場合、後述の体重推定プログラム900をクライアント端末100の内部で実行することが可能である。このように、他の端末に依存せず単独の端末だけで動作する方式を「スタンドアロン型アプリケーション方式」と命名する。本発明は、スタンドアロン型アプリケーション方式によって体重推定プログラム900を動作させ、利用者に対して結果を表示するということを可能にする。When the
しかし、本発明は、必ずしもスタンドアロン型アプリケーション方式をとる必要はない。他の機器とネットワークを介して連携することで動作する方式を「クライアントサーバ型アプリケーション方式」と命名する。本発明は、例えば、計算用サーバ機のような情報処理装置200の内部で体重推定プログラム900を実行し、クライアント端末100にその結果を表示するという方式を取ることも可能である。この場合、クライアント端末100には情報処理装置200と通信するための通信部が必要である。However, the present invention does not necessarily have to adopt a stand-alone application method. A method that operates by cooperating with other devices via a network is named a “client-server application method”. In the present invention, for example, the weight estimation program 900 is executed inside the
これより以下では、本発明をクライアントサーバ型アプリケーション方式で実現した場合の詳細について記述されているが、本発明は、スタンドアロン型アプリケーション方式でも実現可能であることに留意されたい。In the following, the details when the present invention is realized by the client-server type application method will be described. However, it should be noted that the present invention can also be realized by the stand-alone type application method.
図1はこの発明をクライアントサーバ型アプリケーション方式で実施する際のシステムの形態を示す図である。システムには少なくとも、利用者が保有しているクライアント端末100と、後述の体重推定プログラム900が動作する情報処理装置200と、それらをネットワーク接続するためのネットワーク網NW1と、利用者情報を記録するための利用者データベースDB1と、顔写真情報を記録するための顔写真データベースDB2と、顔写真の実データを保存しておくためのストレージSTR1とを必要とする。FIG. 1 is a diagram showing a system configuration when the present invention is implemented by a client-server type application system. The system records at least the
図1において、複数のクライアント端末100を図示しており、それぞれ100_1、100_2、および100_Nと記載している。クライアント端末100は、例えば、スマートフォンやタブレット端末、携帯型のゲーム機、電子書籍リーダーであってもよい。
また、全てのクライアント端末100がネットワーク網NW1を介して単一の情報処理装置200と接続さてているが、情報処理装置200は複数存在しても良い。また、その場合、任意のクライアント端末100は、ネットワーク網NW1を介して任意の情報処理装置200と接続することができる。また、ネットワーク網NW1は、クライアント端末100と情報処理装置200を接続するための任意のネットワークであり、例えば、インターネット、広域イーサネット、VPN、LANなどである。In FIG. 1, a plurality of
Further, all the
図2は、クライアント端末100のハードウェア構成を示すブロック図である。クライアント端末100は、制御部110、記憶部120、通信部130、演算部140、入力部150、表示部160を少なくとも備える。制御部110は、クライアント端末100の各部の動作を制御するものである。記憶部120はROM(Read Only Memory)、RAM(Random Access Memory)といったメモリやHDD(Hard Disk Drive)やSSD(Solid State Drive)といった記憶装置である。通信部130は、ネットワーク網NW1を介して情報処理装置200と接続するための機能を有する、ネットワークアダプタといった有線通信もしくは無線通信装置である。演算部140は、プログラムを実行するための機能を有する、CPU(Central Processing Unit)や算術論理ユニットALU(Arithmetic Logic Unit)、各種レジスターやカウンター、命令解読と実行制御をつかさどる装置である。入力部150は、クライアント端末100の利用者がクライアント端末100を操作したり、クライアント端末100に情報を入力したりするための、マウス、キーボード、タッチパネル、カメラといった入力装置である。表示部160は、クライアント端末100の利用者に情報を視覚的に伝えるための、液晶素子や有機EL(electroluminescence)素子を用いた表示パネルと、表示パネルの各素子を駆動する駆動回路とを備える表示装置である。FIG. 2 is a block diagram illustrating a hardware configuration of the
図3は、情報処理端末200のハードウェア構成を示すブロック図である。情報処理端末200は、制御部210、記憶部220、通信部230、演算部240を少なくとも備える。制御部210は、情報処理端末200の各部の動作を制御するものである。記憶部220はROM(Read Only Memory)、RAM(Random Access Memory)といったメモリやHDD(Hard Disk Drive)やSSD(Solid State Drive)といった記憶装置である。通信部230は、ネットワーク網NW1を介してクライアント端末100と接続するための機能を有する、ネットワークアダプタといった有線通信もしくは無線通信装置である。演算部240は、プログラムを実行するための機能を有する、CPU(Central Processing Unit)や算術論理ユニットALU(Arithmetic Logic Unit)、各種レジスターやカウンター、命令解読と実行制御をつかさどる装置である。FIG. 3 is a block diagram illustrating a hardware configuration of the
図4は、利用者データベースDB1に記録されるデータの構成例を表す図である。1利用者ごとに、利用者ID、氏名、身長といった要素が記録される。利用者IDは、利用者を区別するための固有の文字列である。氏名は、利用者がシステムに登録した氏名である。身長は、利用者がシステムに登録した身長である。FIG. 4 is a diagram illustrating a configuration example of data recorded in the user database DB1. Elements such as user ID, name, and height are recorded for each user. The user ID is a unique character string for distinguishing users. The name is a name registered by the user in the system. Height is the height registered by the user in the system.
図5は、体重データベースDB2に記録されるデータの構成例を表す図である。1つの体重データごとに、体重ID、利用者ID、顔画像のURL、推定された体重、実際の体重、日時、健康状態といった要素が記録される。体重IDとは、体重データを区別するための固有の文字列である。利用者IDとは、この体重データがどの利用者と紐づいているかを表す文字列で、図4で示した利用者IDのことである。顔画像のURLとは、実際の顔画像の保存場所を表すURLである。推定された体重とは、後述の体重推定プログラム900によって推定されたその利用者の体重である。日時とは、このデータが体重データベースDB2に書き込まれた日時である。FIG. 5 is a diagram illustrating a configuration example of data recorded in the weight database DB2. For each piece of weight data, elements such as weight ID, user ID, face image URL, estimated weight, actual weight, date and time, and health status are recorded. The weight ID is a unique character string for distinguishing weight data. The user ID is a character string indicating which user the weight data is associated with, and is the user ID shown in FIG. The URL of the face image is a URL that represents the actual storage location of the face image. The estimated weight is the weight of the user estimated by a weight estimation program 900 described later. The date and time is the date and time when this data was written in the weight database DB2.
次に、処理フローについて概説する。Next, the processing flow will be outlined.
図6は、クライアント端末100の表示部160に、推定体重を表示するまでの流れの一例を表す図である。利用者は、利用者を識別するためのIDと顔写真と体重の正解データを、クライアント端末100から情報処理装置200に対して送信することが出来る。ただし、ここでは、正解データとは請求項1に記載されているデータである。また、正解データの送信は必須ではない。情報処理装置200は受け取ったIDで利用者データベースDB1から利用者情報を検索する。情報処理装置200は受け取った顔写真から体重計算に必要な特徴量を抽出する。情報処理装置200は後述の体重推定プログラム900を実行して体重を推定する。情報処理装置200体重データベースDB2に、図5に示した要素を書き込む。推定された体重をクライアント端末100に返信する。クライアント端末は、受け取った推定体重を表示する。FIG. 6 is a diagram illustrating an example of a flow until the estimated weight is displayed on the
図7は、クライアント端末100の表示画面の例を示した図である。図7ではクライアント端末がスマートフォンである場合を例にしている。150はスマートフォンの表示部であり、その中に顔写真の表示部L001、推定体重の表示部L002を内在する。また、情報処理装置200に対して写真を送るアクションを開始させるボタンBt4、スマートフォン内部に保存されている顔写真を選択するボタンBt1、スマートフォンに内蔵されているカメラを起動させたり、フロントカメラとバックカメラを切り替えるボタンBt2などが含まれていても良い。FIG. 7 is a diagram illustrating an example of a display screen of the
図8は、体重推定プログラム900が体重の推定に使用する、頭部の形状を表現する特徴量の例1である。眼を開いた状態て?内眼角において上下の眼瞼か?移行する点を「内眼角点」と呼び、両方の内眼角点間の距離を「両内眼角点間距離」と呼ぶ。頭部側面て?最も外側にある点を「側頭点」と呼び、両方の側頭点間の距離を「両側頭点間距離」と呼ぶ。頬骨弓のうち最も外側にある点を「頬骨弓点」よ呼び、両方の頬骨弓点間の距離を「両頬骨弓点間距離」と呼ぶ。下顎角か?最も外側に突出している点を「顎角点」と呼び、両方の顎角点間の距離を「両顎角点間距離」と呼ぶ。なお、これらの距離は請求項6および請求項7および請求項8で示される補正が適用されている。FIG. 8 is an example 1 of the feature quantity representing the shape of the head, which is used by the weight estimation program 900 for estimating the weight. With your eyes open? Is it the upper or lower eyelid in the inner eye angle? The transition point is called “inner eye corner point”, and the distance between both inner eye corner points is called “distance between both inner eye corner points”. The head side? The outermost point is called “temporal point”, and the distance between both temporal points is called “distance between both temporal points”. The outermost point of the zygomatic arch is called “zygomatic arch point”, and the distance between both zygomatic arch points is called “distance between both zygomatic arch points”. Mandible angle? The point that protrudes to the outermost side is called “jaw angle point”, and the distance between both jaw angle points is called “distance between both jaw angle points”. In addition, the correction shown by Claim 6, Claim 7, and Claim 8 is applied to these distances.
図9は、体重推定手法の概略図である。両側頭点間距離、両頬骨弓点間距離、両顎角点間距離を入力とし、体重を出力とする関数によって、体重を推定する。いかなる関数系を用いても良いが、図9では各変数の一次結合関数を例として図示している。なお、関数には可変パラメータが含まれており、請求項3の機械学習システムを用いてパラメータを学習することができる。FIG. 9 is a schematic diagram of the weight estimation method. The body weight is estimated by a function using the distance between the bilateral head points, the distance between both zygomatic arch points, and the distance between both jaw corner points as inputs and the weight as an output. Although any function system may be used, FIG. 9 illustrates a linear combination function of each variable as an example. The function includes variable parameters, and the parameters can be learned using the machine learning system according to claim 3.
図10は、体重推定プログラム900が体重の推定に使用する、頭部の形状を表現する特徴量の例2である。顎角点の両端の輪郭を直線で近似し、その2本の直線の間の角を「顎角点角度」と呼ぶ。両方の顎角点角の平均値を「平均顎角点角度」と呼ぶ。FIG. 10 is an example 2 of the feature quantity representing the shape of the head, which the weight estimation program 900 uses for weight estimation. The contours at both ends of the jaw angle point are approximated by a straight line, and the angle between the two straight lines is called a “jaw angle angle”. The average value of both jaw angle points is called “average jaw angle”.
図11は、体重推定手法の概略図である。平均顎角点角度の余弦と、その人物のBMIとには相関関係が存在しており、横軸にBMI、縦軸に平均顎角点角度の余弦をとった座標空間にデータをプロットした場合、線形の関数で近似することができる。平均顎角点角度からBMIを推定し、推定されたBMIに身長の二乗を乗算することによって体重を推定する。なお、線形関数の傾きは請求項3の機械学習システムを用いて学習することができる。FIG. 11 is a schematic diagram of the weight estimation method. There is a correlation between the cosine of the average jaw angle angle and the person's BMI, and the data is plotted in a coordinate space where the horizontal axis is the BMI and the vertical axis is the cosine of the average jaw angle angle. It can be approximated by a linear function. The BMI is estimated from the average jaw angle point angle, and the weight is estimated by multiplying the estimated BMI by the square of the height. The slope of the linear function can be learned using the machine learning system according to claim 3.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015175154A JP2017041218A (en) | 2015-08-20 | 2015-08-20 | System for estimating weight based on face image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015175154A JP2017041218A (en) | 2015-08-20 | 2015-08-20 | System for estimating weight based on face image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017041218A true JP2017041218A (en) | 2017-02-23 |
Family
ID=58203477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015175154A Pending JP2017041218A (en) | 2015-08-20 | 2015-08-20 | System for estimating weight based on face image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017041218A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3070086A1 (en) * | 2017-08-08 | 2019-02-15 | Safran Identity & Security | FRAUD DETECTION FOR ACCESS CONTROL BY FACIAL RECOGNITION |
JP2019134690A (en) * | 2018-02-05 | 2019-08-15 | ヤフー株式会社 | Information processing device, information processing method and information processing program |
KR20190101043A (en) * | 2018-02-22 | 2019-08-30 | 한국과학기술원 | A joint learning framework for active feature acquisition and classification |
CN111462108A (en) * | 2020-04-13 | 2020-07-28 | 山西新华化工有限责任公司 | Machine learning-based head and face product design ergonomics assessment operation method |
KR20200094651A (en) * | 2019-01-30 | 2020-08-07 | 주식회사 스트라드비젼 | Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition |
CN112418025A (en) * | 2020-11-10 | 2021-02-26 | 广州富港万嘉智能科技有限公司 | Weight detection method and device based on deep learning |
-
2015
- 2015-08-20 JP JP2015175154A patent/JP2017041218A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3070086A1 (en) * | 2017-08-08 | 2019-02-15 | Safran Identity & Security | FRAUD DETECTION FOR ACCESS CONTROL BY FACIAL RECOGNITION |
EP3454306A1 (en) * | 2017-08-08 | 2019-03-13 | Idemia Identity & Security France | Fraud detection for controlling access by facial recognition |
US10529047B2 (en) | 2017-08-08 | 2020-01-07 | Idemia Identity & Security France | Detection of fraud for access control via facial recognition |
JP2019134690A (en) * | 2018-02-05 | 2019-08-15 | ヤフー株式会社 | Information processing device, information processing method and information processing program |
KR20190101043A (en) * | 2018-02-22 | 2019-08-30 | 한국과학기술원 | A joint learning framework for active feature acquisition and classification |
KR102106684B1 (en) | 2018-02-22 | 2020-05-04 | 한국과학기술원 | A joint learning framework for active feature acquisition and classification |
JP2020123352A (en) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョンStradvision,Inc. | Method and device for predicting body height and weight of passenger using length of each body region and face information based on human state recognition |
KR20200094651A (en) * | 2019-01-30 | 2020-08-07 | 주식회사 스트라드비젼 | Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition |
CN111507174A (en) * | 2019-01-30 | 2020-08-07 | 斯特拉德视觉公司 | Method and device for predicting height and weight of passenger |
KR102338757B1 (en) * | 2019-01-30 | 2021-12-15 | 주식회사 스트라드비젼 | Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition |
CN111507174B (en) * | 2019-01-30 | 2023-08-22 | 斯特拉德视觉公司 | Method and device for predicting height and weight of passenger |
CN111462108A (en) * | 2020-04-13 | 2020-07-28 | 山西新华化工有限责任公司 | Machine learning-based head and face product design ergonomics assessment operation method |
CN111462108B (en) * | 2020-04-13 | 2023-05-02 | 山西新华防化装备研究院有限公司 | Machine learning-based head-face product design ergonomics evaluation operation method |
CN112418025A (en) * | 2020-11-10 | 2021-02-26 | 广州富港万嘉智能科技有限公司 | Weight detection method and device based on deep learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017041218A (en) | System for estimating weight based on face image | |
US10321728B1 (en) | Systems and methods for full body measurements extraction | |
JP2023171650A (en) | Systems and methods for identifying persons and/or identifying and quantifying pain, fatigue, mood and intent with protection of privacy | |
KR20200116129A (en) | Systems and methods for formulating personalized skin care products | |
US10748217B1 (en) | Systems and methods for automated body mass index calculation | |
JP2022516586A (en) | Body analysis | |
US20190244714A1 (en) | Sickness prediction application system | |
US11551815B2 (en) | Risk monitoring scores | |
US11151661B2 (en) | Feed actor optimization | |
US20200133394A1 (en) | Information Processing System | |
Martínez-Camblor et al. | Hypothesis test for paired samples in the presence of missing data | |
Yefimova et al. | Using sensor technology to monitor disruptive behavior of persons with dementia | |
KR102586167B1 (en) | How to build a database | |
TWM548864U (en) | Pointized health management system | |
US20190188323A1 (en) | Feed optimization | |
CN110955840B (en) | Joint optimization of notifications and pushes | |
CN116453222A (en) | Target object posture determining method, training device and storage medium | |
TW202123255A (en) | Health management system using non-contact imaging-based physiological measurement technology | |
CN112783949B (en) | Human body data prediction method, device, electronic equipment and storage medium | |
CN114649096A (en) | Body type data determination method, device, equipment, storage medium and product | |
JP2019200448A (en) | Wearable device, bathing navigation system, bathing navigation method, and program | |
US20240079112A1 (en) | Physiological predictions using machine learning | |
Luo et al. | A note on variance estimation in the Cox proportional hazards model | |
WO2020115958A1 (en) | Health information provision system | |
Han et al. | An efficient operator for the change point estimation in partial spline model |