JP2018116350A - 着用状態判定システム、着用状態判定方法、及び着用状態判定プログラム - Google Patents
着用状態判定システム、着用状態判定方法、及び着用状態判定プログラム Download PDFInfo
- Publication number
- JP2018116350A JP2018116350A JP2017005142A JP2017005142A JP2018116350A JP 2018116350 A JP2018116350 A JP 2018116350A JP 2017005142 A JP2017005142 A JP 2017005142A JP 2017005142 A JP2017005142 A JP 2017005142A JP 2018116350 A JP2018116350 A JP 2018116350A
- Authority
- JP
- Japan
- Prior art keywords
- person
- wearing
- wearing state
- determination
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】人の衣服や装備品の着用状態を適切かつ簡便に判定する。【解決手段】人の着用品の着用状態の適切さを判定する着用状態判定システムであって、着用品を着用している複数の人が撮影された画像aを取得し、取得した画像aに基づき、着用状態の判定基準となる人を選択する基準者選択部5312と、選択した人が着用している着用品の着用状態に関する評価値と、複数の人のうち選択した人以外の人が着用している着用品に関する評価値とをそれぞれ算出する評価値算出部5316と、算出した各評価値に基づき、選択した人以外の人の着用品の着用状態の適切さを判定する着用状態判定部561と、判定した着用品の着用状態の適切さに関する情報を出力する結果出力部57と、を備える。【選択図】図2
Description
本発明は、着用状態判定システム、着用状態判定方法、及び着用状態判定プログラムに関する。
倉庫や工事現場などにおける作業員は、作業に際して、自身の作業着や装備品を適切に身につけているかを確認するため、例えば作業員同士が2人1組となって、目視でチェックを行うことがある。しかし、作業員ごとに適否の基準が異なったり、確認漏れ等、適切なチェックが行えない場合がある。また、各作業員は通常、身体の上部から順番に点検部分を確認するのみなので、普段注意していない部分に作業上の危険性がある場合には、これに気づかないおそれがある。そのため、作業員が着用している作業着や装備品を、一定の基準により判断することが重要である。
この点に鑑みて、工場製品の現品検査などでは画像認識による外観検査が利用されているが、この技術をそのまま服装点検に応用する場合には、画像認識の判定基準となるパターンとして、服装ごとのパターン、適切/不適切な服装のパターンを多数用意する必要があり、事前の作業量が多い。
そこで、作業員の服装や装備品を一律に判定するシステムとして、たとえば、特許文献1や非特許文献1のように、物品(衣服)自体の適切さや不適切さを判定する方法が開示されている。
http://jpn.nec.com/neosarf/kenpin.html (2017年1月5日閲覧)
しかしながら、衣服自体は適切であるが、上着がはみ出ているなど、衣服の着方の適切さや不適切さを判定する手法は、提案されていない。
本発明は、このような事情に鑑みてなされたものであり、人の着用品の着用状態を適切かつ簡便に判定するための、着用状態判定システム、着用状態判定方法、及び着用状態判定プログラムを提供することにある。
上記問題を解決するための本発明の一つは、人の着用品の着用状態の適切さを判定する、プロセッサ及びメモリを備える着用状態判定システムであって、着用品を着用している複数の人が撮影された画像を取得し、取得した画像に基づき、着用状態の判定基準となる人を選択する基準者選択部と、前記選択した人が着用している前記着用品の着用状態に関する評価値と、前記複数の人のうち前記選択した人以外の人が着用している前記着用品に関する評価値とをそれぞれ算出する評価値算出部と、前記算出した各評価値に基づき、前記選択した人以外の人の前記着用品の着用状態の適切さを判定する着用状態判定部と、前記判定した前記着用品の着用状態の適切さに関する情報を出力する結果出力部と、を備え
る。
る。
本発明によれば、人の着用品の着用状態を適切かつ簡便に判定することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
以下、本発明について、図面を用いて詳細に説明する。なお、これにより本発明が限定されるものではない。
<システム構成、ハードウェア構成>
図1は、本実施形態に係る着用状態判定システム10の構成、及び着用状態判定システム10が備えるハードウェアの一例を説明する図である。
図1は、本実施形態に係る着用状態判定システム10の構成、及び着用状態判定システム10が備えるハードウェアの一例を説明する図である。
着用状態判定システム10は、例えば、上着、ズボンといった衣服や、靴、眼鏡、ヘルメット、マスクといった装備品を着用している人(本実施形態では、倉庫や工事現場などにおける作業員(以下、単に作業員という)であるものとする)を対象とした、当該衣服や装備品の着用状態の適切さを判定する情報処理システムである。着用状態判定システム10は、例えば、当該作業員が存在する倉庫や工事現場に設けられる。なお、以下では、各作業員が着用している上記の衣服や装備品を総称して「着用品」というものとする。
着用状態判定システム10は、撮影装置3、品質判定装置5、及び表示装置4を含んで構成されている。
撮影装置3は、カメラ等であり、複数の作業員のうち、後述する基準作業員1(以下、リーダーともいう)、及び、基準作業員1以外の他の作業員2(以下、判定対象者ともいう)の業務遂行中又は待機中の画像を撮影する。
品質判定装置5は、情報処理装置(コンピュータ)であり、撮影装置3が撮影した画像に基づき、作業員の着用状態の適切さを判定する。表示装置4は、情報処理装置(コンピュータ)であり、判定された結果を表示する。
撮影装置3の撮影対象である作業員は、円形、一列、又はその他の配置等、所定の整列状態(以下、グループ体系という)で存在している場合がある。また、撮影対象の作業員は、特定の作業員の方に視線を向けている場合もある。本実施形態の着用状態判定システム10は、このいずれの場合であっても、これらの作業員の一人をリーダーに定めて評価基準とすることにより、判定対象者の着用品の着用方法の適切さを判定することができる。
なお、撮影装置3、表示装置4、及び品質判定装置5の間は、通信ネットワーク6を介して、通信可能に接続されている。この通信ネットワーク6は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、専用線、携帯電話網
、光ファイバなどの、有線又は無線の通信線又は通信網である。
、光ファイバなどの、有線又は無線の通信線又は通信網である。
図1に示すように、撮影装置3は、品質判定装置5との通信を行う通信装置31と、CPU(Central Processing Unit)等のプロセッサ32aと、RAM(Random Access Memory)、及びROM(Read Only Memory)等を含んで構成されているメモリ32bと、光
学素子(レンズ)、及び撮像素子(CCD等)を含む画像取得機構33と、画像取得機構33により取得された画像データを保持する、SSD(Solid State Drive)等で構成さ
れた記憶装置34とを備える。
学素子(レンズ)、及び撮像素子(CCD等)を含む画像取得機構33と、画像取得機構33により取得された画像データを保持する、SSD(Solid State Drive)等で構成さ
れた記憶装置34とを備える。
表示装置4は、情報処理装置(コンピュータ)であり、品質判定装置5との通信を行う通信装置41と、CPU(Central Processing Unit)等のプロセッサと、RAM(Random Access Memory)、ROM(Read Only Memory)、又はHDD(Hard Disk Drive)等を含んで構成されているメモリ42bと、モニタ等の表示装置43とを備える。
品質判定装置5は、情報処理装置(コンピュータ)であり、撮影装置3及び表示装置4と通信を行う通信装置51と、CPU(Central Processing Unit)等のプロセッサ52
aと、RAM(Random Access Memory)、ROM(Read Only Memory)、又はHDD(Hard Disk Drive)等を含んで構成されているメモリ52bと、キーボード、マウス、タッ
チパネル等からなる入力装置52cと、モニタ(ディスプレイ)等からなる出力装置52dとを備える。
aと、RAM(Random Access Memory)、ROM(Read Only Memory)、又はHDD(Hard Disk Drive)等を含んで構成されているメモリ52bと、キーボード、マウス、タッ
チパネル等からなる入力装置52cと、モニタ(ディスプレイ)等からなる出力装置52dとを備える。
<機能>
図2は、着用状態判定システム10を構成する各装置が備える機能の一例を説明する図である。
図2は、着用状態判定システム10を構成する各装置が備える機能の一例を説明する図である。
撮影装置3は、撮影した画像(以下、撮影画像aという)を、品質判定装置5に送信する。
品質判定装置5は、撮影装置3から取得した画像に基づき各種情報を解析する画像解析部53と、所定の基準に基づき画像の判定を実施する判定部56と、判定部56による判定結果の情報を表示装置4に送信する結果出力部57と、各種の情報を記憶する記憶部5
8とを備える。
8とを備える。
画像解析部53は、解析処理の制御を担う制御部5311と、基準者選択部5312と、評価値算出部5316とを備える。
基準者選択部5312は、着用品を着用している複数の人が撮影された画像を取得し、取得した画像に基づき、着用状態の判定基準となる人を選択する。
例えば、前記基準者選択部は、前記取得した画像に基づき前記複数の人のそれぞれの位置を特定し、特定したそれぞれの人の位置に基づき、前記判定基準となる人を選択する。具体的には、例えば、前記基準者選択部は、前記位置を特定した複数の人のうち少なくとも2人以上の人による整列状態を特定すると共に前記整列状態から外れている人を特定し、前記整列状態から外れている人を前記判定基準となる人として選択する。
また、例えば、前記基準者選択部は、前記取得した画像に基づき前記複数の人のそれぞれの視線を特定し、特定した前記それぞれの人の視線に基づき、前記判定基準となる人を選択する。具体的には、例えば、前記基準者選択部は、前記特定した視線に基づき、視線が最も多く集中している人を前記複数の人から特定し、特定した前記人を、前記判定基準となる人として選択する。
次に、記憶部58は、リーダーの選定方法に関する情報を格納しているリーダー選定方法テーブル500及びリーダー選定方法マスターテーブル510と、グループ体系に関する情報を格納しているグループ体系テーブル520及びグループ体系マスターテーブル530と、作業員の視線に関する情報を格納している視線テーブル540及び視線マスターテーブル550と、作業員の着用品及び作業員の体の部位に関する情報を格納している着方観点テーブル600及び着方観点マスターテーブル610と、作業員の着用品の着用状態の適切さの判定に関する情報を格納している判定ルールテーブル620及び判定ルールマスターテーブル630と、を記憶している。これらの情報は、基準者選択部5312によって用いられる。
すなわち、基準者選択部5312は、撮影画像aに記録されている作業員(以下、撮影対象ともいう)を抽出する人物認識部5313、撮影対象同士の位置関係からグループ体系を読み取るグループ体系認識部5314、及び、撮影対象の視線の方向を解析する視線解析部5315を備える。
人物認識部5313は、撮影装置3から取得した撮影画像aを解析し、各作業員を認識する。また、人物認識部5313は、リーダー選定方法テーブル500、及びリーダー選定方法マスターテーブル510を参照し、リーダーの選定方法を特定する。
ここで、リーダー選定方法マスターテーブル510及びリーダー選定方法テーブル500について説明する。
図3は、リーダー選定方法マスターテーブル510の一例を示す図である。同図に示すように、リーダー選定方法マスターテーブル510は、リーダーの選定方法を識別する情報(以下、選定方法番号という)が格納される選定方法番号511、及び、選定方法番号511の選定方法番号が示す選定方法の内容を示す情報が格納される選定方法512の各項目を有する、少なくとも1つ以上のレコードで構成されている。本実施形態では、リーダーの選定方法として、作業員の位置に基づきリーダーを選定する「グループ体系」、及び、作業員の視線に基づきリーダーを選定する「視線」の2種類があるものとする。
図3は、リーダー選定方法マスターテーブル510の一例を示す図である。同図に示すように、リーダー選定方法マスターテーブル510は、リーダーの選定方法を識別する情報(以下、選定方法番号という)が格納される選定方法番号511、及び、選定方法番号511の選定方法番号が示す選定方法の内容を示す情報が格納される選定方法512の各項目を有する、少なくとも1つ以上のレコードで構成されている。本実施形態では、リーダーの選定方法として、作業員の位置に基づきリーダーを選定する「グループ体系」、及び、作業員の視線に基づきリーダーを選定する「視線」の2種類があるものとする。
図4は、リーダー選定方法テーブル500の一例を示す図である。同図に示すように、
リーダー選定方法テーブル500は、選定方法番号が格納される選定方法番号501の項目を有する。選定方法番号501には、着用状態判定システム10の管理者等により、事前に選定方法番号が設定されるものとする。この管理者等が指定した選定方法番号に基づき、リーダーが選定される。
リーダー選定方法テーブル500は、選定方法番号が格納される選定方法番号501の項目を有する。選定方法番号501には、着用状態判定システム10の管理者等により、事前に選定方法番号が設定されるものとする。この管理者等が指定した選定方法番号に基づき、リーダーが選定される。
次に、図2に示すように、グループ体系認識部5314は、撮影画像aにおける各作業員(撮影対象)の位置を解析することにより、作業員のグループ体系に関する情報であるグループ体系情報b1を生成する。そして、グループ体系認識部5314は、生成したグループ体系情報b1、グループ体系テーブル520、及びグループ体系マスターテーブル530に基づき、撮影対象を、基準作業員1(リーダー)又は他の作業員2(判定対象者)に分類する。
ここで、グループ体系マスターテーブル530及びグループ体系テーブル520について説明する。
図5は、グループ体系マスターテーブル530の一例を示す図である。同図に示すように、グループ体系マスターテーブル530は、グループ体系を識別する情報(以下、体系番号という)が格納される体系番号531、体系番号531の体系番号の名称が格納される名称532、及び、体系番号531の体系番号のグループ体系におけるリーダーの選定方法(例えば、撮影対象の作業員の位置関係でリーダーを特定する選定方法)を特定する情報が格納されるリーダー選定方法533、の各項目を有する少なくとも1つ以上のレコードで構成されている。
図5は、グループ体系マスターテーブル530の一例を示す図である。同図に示すように、グループ体系マスターテーブル530は、グループ体系を識別する情報(以下、体系番号という)が格納される体系番号531、体系番号531の体系番号の名称が格納される名称532、及び、体系番号531の体系番号のグループ体系におけるリーダーの選定方法(例えば、撮影対象の作業員の位置関係でリーダーを特定する選定方法)を特定する情報が格納されるリーダー選定方法533、の各項目を有する少なくとも1つ以上のレコードで構成されている。
図6は、グループ体系テーブル520の一例を示す図である。同図に示すように、グループ体系テーブル520は、体系番号が格納される体系番号521の項目を有する。
視線解析部5315は、撮影画像aにおける各作業員の体の向きや目の状態を解析することにより、作業員の視線に関する情報である視線情報b2を生成する。そして、視線解析部5315は、生成した視線情報b2、視線テーブル540、及び視線マスターテーブル550に基づき、他の作業員からの視線が集中している作業員(リーダー)を特定することにより、各作業員を、基準作業員1(リーダー)又は他の作業員2(判定対象者)に分類する。
ここで、視線マスターテーブル550及び視線テーブル540について説明する。
図7は、視線マスターテーブル550の一例を示す図である。同図に示すように、視線マスターテーブル550は、視線に基づくリーダーの各選定方法を識別する情報(以下、視線番号という)が格納される視線番号551、視線番号551の視線番号が示すリーダーの選定方法の名称が格納される名称552、及び、視線番号551の視線番号が示すリーダーの選定方法の内容が格納されるリーダー選定方法553の各項目を有する、少なくとも1つ以上のレコードで構成されている。
図7は、視線マスターテーブル550の一例を示す図である。同図に示すように、視線マスターテーブル550は、視線に基づくリーダーの各選定方法を識別する情報(以下、視線番号という)が格納される視線番号551、視線番号551の視線番号が示すリーダーの選定方法の名称が格納される名称552、及び、視線番号551の視線番号が示すリーダーの選定方法の内容が格納されるリーダー選定方法553の各項目を有する、少なくとも1つ以上のレコードで構成されている。
図8は、視線テーブル540の一例を示す図である。同図に示すように、視線テーブル540は、視線番号が格納される視線番号541の項目を有する。
次に、図2に示すように、評価値算出部5316は、基準者選択部5212が前記選択した人の前記着用品の着用状態に関する評価値と、前記複数の人のうち前記選択した人以外の人の前記着用品に関する評価値とをそれぞれ算出する。
すなわち、評価値算出部5316は、撮影対象が着用している着用品についての情報を読み取る服装認識部5317、及び、撮影対象の体の部位の情報を読み取る体部位認識部5318を備える。
服装認識部5317は、撮影画像aにおける撮影対象の着用品を解析することにより、各作業員が着用している着用品、及び、その位置を含む情報である服装情報cを生成する。
体部位認識部5318は、撮影画像aにおける各作業員の身体の構造を解析することにより、各作業員の目、鼻、口、右手、及び左手といった体の部位の位置に関する情報である体部位情報dを生成する。服装認識部5317及び体部位認識部5318は、生成した体部位情報d、服装認識部5317が生成した服装情報c、及び、着方観点マスターテーブル610に基づき、作業員が着用している着用品の着用方法の評価に関する情報である着方観点情報eを生成し、生成した着方観点情報eを着方観点テーブル600に格納する。なお、着方観点情報eは、判定部56に送信される。
ここで、服装情報cと体部位情報dについて説明する。
図9、10は、服装情報cの一例を示す図である。同図に示すように、服装情報cは、作業員の着用品を特定する情報が格納される認識対象301、認識対象301の着用品の領域を特定するための、当該領域の一端の位置を示す情報(本実施形態では、二次元座標系で表されるものとする)が格納される左上座標302、及び、認識対象301の着用品の領域を特定するための、当該領域の他端の位置を示す情報が格納される右下座標303、の各項目を有する、少なくとも1つ以上のレコードから構成されているデータベースである。このように、服装情報cは、リーダーの着用品の情報(図9)、及び、判定対象者の着用品の情報(図10)を記憶している。
図9、10は、服装情報cの一例を示す図である。同図に示すように、服装情報cは、作業員の着用品を特定する情報が格納される認識対象301、認識対象301の着用品の領域を特定するための、当該領域の一端の位置を示す情報(本実施形態では、二次元座標系で表されるものとする)が格納される左上座標302、及び、認識対象301の着用品の領域を特定するための、当該領域の他端の位置を示す情報が格納される右下座標303、の各項目を有する、少なくとも1つ以上のレコードから構成されているデータベースである。このように、服装情報cは、リーダーの着用品の情報(図9)、及び、判定対象者の着用品の情報(図10)を記憶している。
なお、本実施形態では、左上座標302、及び右下座標303は、着用品を矩形の領域で認識した結果として、当該矩形の左上と右下の撮影画像a内での座標をそれぞれ左上の座標(x,y)及び右下の座標(x,y)として表しているものとする(本実施形態では、xは水平方向の座標を表し、yは鉛直方向の座標を表すものとする。)。
図11、12は、体部位情報dの一例を示す図である。同図に示すように、体部位情報dは、作業員の体の部位を特定する情報が格納される認識対象401、認識対象401の体の部位の領域を特定するための、当該領域の一端の位置を示す情報(本実施形態では、二次元座標系で表されるものとする)が格納される左上座標402、及び、認識対象401の体の部位の領域を特定するための、当該領域の他端の位置を示す情報が格納される右下座標403、の各項目を有する、少なくとも1つ以上のレコードから構成されているデータベースである。このように、体部位情報dは、リーダーの体の部位の情報(図11)、及び、判定対象者の体の部位の情報(図12)を記憶している。
なお、本実施形態では、左上座標402、及び右下座標403は、作業員の体の部位を矩形の領域で認識した結果として、当該矩形の左上と右下の撮影画像a内での座標をそれぞれ左上の座標(x,y)及び右下の座標(x,y)と表しているものとする(本実施形態では、xは水平方向の座標を表し、yは鉛直方向の座標を表すものとする)。
ここで、着方観点マスターテーブル610、及び着方観点テーブル600について説明する。
図13は、着方観点マスターテーブル610の一例を示す図である。同図に示すように、着方観点マスターテーブル610は、着方観点情報eを記憶したデータベースであり、具体的には、着用品の着用方法を識別する情報(以下、着方観点番号という)が格納される着方観点番号611、着方観点番号611が示す着用方法が対象とする、体の大凡の部位(頭部、上半身、下半身、右手/左手、及び右足/左足)を示す情報が格納される部位名称612、着方観点番号611が示す着用方法が対象とする着用品の情報(服装情報c
)が格納される服装情報認識対象613、着方観点番号611が示す着用方法が対象とする体の具体的な部位の情報(体部位情報d)が格納される体部位情報認識対象614、及び、着方観点番号611が示す着用方法に対応する評価値(当該着用方法の適切さに関する評価値)の評価基準を示す情報が格納されるシステム管理項目615の各項目を含む、少なくとも1つ以上のレコードから構成される。
図13は、着方観点マスターテーブル610の一例を示す図である。同図に示すように、着方観点マスターテーブル610は、着方観点情報eを記憶したデータベースであり、具体的には、着用品の着用方法を識別する情報(以下、着方観点番号という)が格納される着方観点番号611、着方観点番号611が示す着用方法が対象とする、体の大凡の部位(頭部、上半身、下半身、右手/左手、及び右足/左足)を示す情報が格納される部位名称612、着方観点番号611が示す着用方法が対象とする着用品の情報(服装情報c
)が格納される服装情報認識対象613、着方観点番号611が示す着用方法が対象とする体の具体的な部位の情報(体部位情報d)が格納される体部位情報認識対象614、及び、着方観点番号611が示す着用方法に対応する評価値(当該着用方法の適切さに関する評価値)の評価基準を示す情報が格納されるシステム管理項目615の各項目を含む、少なくとも1つ以上のレコードから構成される。
このように、着方観点マスターテーブル610は、画像認識によって得られた服装情報c(作業員が身につけている衣服又は装備品等の着用品の位置)と体部位情報d(作業員の体の部位の位置)とを用いて着用方法を数値で表した情報(評価値)を記憶している。着方観点マスターテーブル610は、作業員の体を大きく5つの部位に分類し、それぞれの部位に、服装情報c及び体部位情報dを対応させている。
例えば、着方観点番号「1」の着用方法(ヘルメットの固定の仕方)は、作業員の「頭部」を対象としており、服装情報cである「ヘルメットあごひも」と体部位情報dである「あご」とを用いて算出される評価値である「あごとヘルメットあごひもの隙間の長さ」、即ちヘルメットあごひもの位置とあごの位置との間の隙間の長さ(ヘルメットあごひもの緩み)により数値化されている。
また、着方観点番号「2」の着用方法(帽子のかぶり方)は、作業員の「頭部」を対象としており、服装情報cである「帽子」と体部位情報dである「目」とを用いて算出される評価値である「ヘルメットによる目の遮蔽度」、即ち帽子の位置と目の位置との重複度合い(ヘルメットの視界をさえぎるかぶり方)により数値化されている。
ここで、着方観点テーブル600について説明する。
図14、15は、着方観点テーブル600の一例を示す図である。同図に示すように、着方観点テーブル600は、作業員を識別する情報が格納されるID602、ID602の作業員が着用している着用品の着用方法を識別する情報(着方観点番号)が格納される着方観点番号601、及び、着方観点番号601の着用方法の評価値が格納されるシステム管理値603の各項目を有する、少なくとも1つ以上のレコードからなる。なお、本実施形態において、ID602の値が「0」であればその作業員はリーダー(基準作業員1)であり、ID602の値が「1」以上であればその作業員は他の作業員2(判定対象者)であるものとする。なお、ID602の値が「1」以上の場合、その値は、他の作業員2のそれぞれに割り当てられた番号である。
図14、15は、着方観点テーブル600の一例を示す図である。同図に示すように、着方観点テーブル600は、作業員を識別する情報が格納されるID602、ID602の作業員が着用している着用品の着用方法を識別する情報(着方観点番号)が格納される着方観点番号601、及び、着方観点番号601の着用方法の評価値が格納されるシステム管理値603の各項目を有する、少なくとも1つ以上のレコードからなる。なお、本実施形態において、ID602の値が「0」であればその作業員はリーダー(基準作業員1)であり、ID602の値が「1」以上であればその作業員は他の作業員2(判定対象者)であるものとする。なお、ID602の値が「1」以上の場合、その値は、他の作業員2のそれぞれに割り当てられた番号である。
例えば、図14の例では、着方観点番号601が「7」の着用方法の場合、上着の左上座標と首の左上座標の差が小さいことから(図9、11参照)、上着の着方の評価値(首の遮蔽度)が「99%」と高くなっている。また、着方観点番号601が「9」の着用方法の場合、左手袋及び右手袋が着用されていないことから(図9、11参照)、手袋のはめ方の評価値(手袋による掌の遮蔽度)は「0%」となっている。
図15の例では、着方観点番号601が「7」の着用方法においては、上着の左上座標と首の左上座標の差が大きいことから(図10、12参照)、上着の着方の評価値(首の遮蔽度)は「80%」と低くなっている。また、着方観点番号601が「9」の着用方法の場合、左手袋及び右手袋が着用されており、かつ左手袋及び左手袋の左上座標及び右下座標と、左右の掌の左上座標及び右下座標との差分が小さいことから(図10、12参照)、手袋の嵌め方の評価値(手袋による掌の遮蔽度)は「99%」と高くなっている。
このように、着方観点テーブル600は、リーダーの着用状態に関する評価値(図14)、及び、判定対象者の着用状態に関する評価値(図15)を記憶している。
なお、以上に説明した画像解析部53による画像解析及び画像認識(体の部位の位置、着用品の位置、作業員の視線の向き等の特定)の処理は、例えば、Web(World Wide Web)等から取得した各種画像に基づく統計的機械学習によって行うことができる。
次に、図2に示すように、判定部56は、着用状態判定部561を備える。
着用状態判定部561は、評価値算出部5316が前記算出した各評価値に基づき、前記選択した人以外の人の前記着用品の着用状態の適切さを判定する。
具体的には、着用状態判定部561は、判定ルールマスターテーブル630及び判定ルールテーブル620を参照することにより、画像解析部53から取得した、基準作業員1の着方観点情報eと他の作業員2の着方観点情報eとを比較し、他の作業員2の着用品の着用状態の適切さに関する判定結果fを生成する。生成された判定結果fは結果出力部57に送信される。
結果出力部57は、着用状態判定部561が前記判定した前記着用品の着用状態の適切さに関する情報を出力する。具体的には、結果出力部57は、判定部56から受信した判定結果fを、表示装置4に対応する形式の情報である出力用判定結果gに変換し、変換した出力用判定結果gを表示装置4に送信する。送信された出力用判定結果gの内容は、各撮影対象に通知される。
次に、判定ルールマスターテーブル630及び判定ルールテーブル620について説明する。
図16は、判定ルールマスターテーブル630の一例を示す図である。同図に示すように、判定ルールマスターテーブル630は、作業員の着用品の着用方法の適切さの判定に用いられる条件(以下、判定条件という)を示す判定条件631を記憶している。なお、本実施形態では、判定条件として、作業員の着用方法の評価値がリーダーの着用方法の評価値以上である場合に、その作業員の着用方法が適切であると判定する場合に用いる判定条件である、「以上」、作業員の着用方法の評価値がリーダーの着用方法の評価値以下である場合に、その作業員の着用方法が適切であると判定する場合に用いる判定条件である、「以下」、作業員の着用方法の評価値がリーダーの着用方法の評価値より大きい場合に、その作業員の着用方法が適切であると判定する場合に用いる判定条件である、「より多い」、及び、作業員の着用状態の評価値がリーダーの着用状態の評価値と一致する場合に、その作業員の着用方法が適切であると判定する場合に用いる判定条件である、「一致」、があるものとする。
図17は、判定ルールテーブル620の一例を示す図である。同図に示すように、判定ルールテーブル620は、着方観点番号が格納される着方観点番号621、及び、着方観点番号621の着用方法に対応づけられた判定条件を特定する情報が格納されている条件622、の各項目を有する、少なくとも1つ以上のレコードで構成されている。
このように、判定ルールテーブル620は、各着方観点番号(着用方法)に対応した判定条件を記憶している。
以上に説明した各情報処理装置の機能は、各情報処理装置のハードウェアによって、もしくは、各情報処理装置のプロセッサが、プロセッサやメモリに記憶されているプログラムを読み出して実行することにより実現される。
<処理>
次に、着用状態判定システム10で行われる処理について説明する。
次に、着用状態判定システム10で行われる処理について説明する。
図18、19は、着用状態判定システム10で行われる処理のうち、各作業員の着用状態の判定を行う処理(以下、着用状態判定処理という)を説明するフローチャートである(紙面の都合上、2図に分けて示している)。この処理は、例えば、品質判定装置5が、撮影装置3から撮影画像aを受信した場合に開始される。
まず、制御部5311は、リーダー選定方法テーブル500を参照し、選定方法番号が「1」であるか否かを判断する(s301)。選定方法番号が「1」の場合は(s301:YES)、制御部5311は、視線に基づくリーダーの選定を行うべく視線テーブル540の視線番号541を「1」に設定した上で(s302)、処理はs311に進み、選定方法番号が「1」でない場合は(s301:NO)、制御部5311は視線番号を「1」(視線が最も集中している作業員をリーダーとして選定する)に設定し(s312)、処理はs303に進む。
s311においては、グループ体系認識部5314は、グループ体系によるリーダー選定を行うため、まずグループ体系テーブル54cに格納された情報に基づき、撮影対象が直線に並んでいるか判定する(s311)。撮影対象が直線に並んでいる場合(s311:YES)、グループ体系認識部5314は、グループ体系テーブル520の体系番号を「1」(作業員が一列に並んでいる)に設定し(s312)、処理はs313に進む。
一方、撮影対象が直線に並んでいない場合(s311:NO)、グループ体系認識部5314は、撮影対象が円形に並んでいるか否かを判断する(s321)。撮影対象が円形に並んでいる場合は(s321:YES)、グループ体系認識部5314は、グループ体系テーブル520の体系番号を「2」(作業員が円形に並んでいる)に設定し(s322)、処理はs323に進む。
一方、撮影対象が円形に並んでいない場合は(s321:NO)、グループ体系認識部5314は、撮影対象の周囲にその位置が固定された席(椅子、台等。以下、固定席という。)があるか判定する(s331)。撮影対象の周囲に固定席がある場合(s331:YES)、グループ体系認識部5314は、グループ体系テーブル520の体系番号を「3」(各作業員が一人の作業員を囲んで存在する)に設定し(s332)、処理はs333に進む。
一方、撮影対象の周囲に固定席がない場合(s331:NO)、着用状態判定処理は終了する。
s303(視線番号が「1」の場合)において、視線解析部5315は、撮影対象を一人選択する。視線解析部5315は、選択した撮影対象(以下、選択対象という)について、視線解析部5315が生成した視線情報b2に基づき、選択対象の視線の方向を取得し(s304)、取得した視線方向に関するカウンター(以下、視線カウンターという。初期値は0。)の値を1増加させる(s305)。
視線解析部5315は、全ての撮影対象について視線の方向を取得した否かを判断する(s306)。全ての撮影対象について視線の方向が取得されている場合には(s306:YES)、処理はs307に進み、視線の方向を取得していない撮影対象がある場合には(s306:NO)、視線解析部5315は、その撮影対象を一つ選択した上で、s304の処理を繰り返す。
s307においては、視線解析部5315は、全ての撮影対象の中で視線カウンターの
値が最も大きい撮影対象を、基準作業員として記憶する。その後は、後述するs341の処理を行う。
値が最も大きい撮影対象を、基準作業員として記憶する。その後は、後述するs341の処理を行う。
s313(体系番号が「1」である場合)においては、グループ体系認識部5314は、撮影対象を一人選択し、取得した撮影対象(選択対象)について、視線解析部5315が生成した視線情報b2に基づき、選択対象の視線の方向を取得し(s314)、取得した視線方向を記憶する。
グループ体系認識部5314は、全ての撮影対象の視線方向を取得したか否かを判断する(s315)。全ての撮影対象の視線方向が取得されている場合には(s315:YES)、処理はs316に進み、視線方向を取得していない撮影対象がある場合には(s315:NO)、グループ体系認識部5314は、その撮影対象の一つを選択した上で、s313の処理を繰り返す。
s316においては、グループ体系認識部5314は、取得した視線方向の中で最も多い視線方向(視線カウンターの値が最も大きい視線方向)を「前方」として記憶する、そしてグループ体系認識部5314は、その「前方」の方向のうち先頭に存在する撮影対象を、基準作業員1として記憶する(s317)。その後は、s341の処理が行われる。
s323(体系番号が「2」の場合)においては、グループ体系認識部5314は、円形の撮影対象のうち最も中心にいる撮影対象を、基準作業員1として記憶する。その後は、s341の処理が行われる。
s333(体系番号が「3」の場合)においては、グループ体系認識部5314は、s332で特定した固定席に位置する撮影対象を特定し、特定した撮影対象を基準作業員1として記憶する。その後は、s341の処理が行われる。
s341において、制御部5311は、服装認識部5317が取得した基準作業員1の服装情報c、及び体部位認識部5318が取得した基準作業員1の体部位情報dに基づき、基準作業員1の着方観点情報eを作成し、着方観点テーブル600に格納する。
具体的には、制御部5311は、着方観点マスターテーブル610における各着方観点番号の着用方法のそれぞれについて、(1)着方観点テーブル600に新しいレコードを生成し、(2)それぞれの着用方法における評価値を基準作業員1の服装情報c及び体部位情報dに基づき算出し、(3)算出した評価値を、生成したレコードのシステム管理値603に格納し、(4)生成したレコードのID602に「0」を設定し、(5)生成したレコードの着方観点番号601に当該着用方法の着方観点番号を設定する。
また、制御部5311は、他の作業員2のうち一人を選択し、選択した他の作業員2(以下、選択作業員という)について、s341と同様に、選択作業員の服装情報c、及び選択作業員の体部位情報dに基づき、選択作業員の着方観点情報eを作成し、着方観点テーブル600に格納する(s342)。
具体的には、制御部5311は、着方観点マスターテーブル610における各着方観点番号の着用方法のそれぞれについて、(1)着方観点テーブル600に新しいレコードを生成し、(2)当該着用方法における評価値を基準作業員1の服装情報c及び体部位情報dに基づき算出し、(3)算出した評価値を、生成したレコードのシステム管理値603に格納し、(4)生成したレコードののID602に1以上の値(他の作業員2に割り当てられたID)を設定し、(5)生成したレコードの着方観点番号601に当該着用方法の着方観点番号を設定する。
次に、判定部56は、s341で生成した基準作業員1の着方観点情報eと、S342で生成した選択作業員の着方観点情報eとに基づき、選択作業員の着用方法が適切であるか否かを判定する(s343)。
具体的には、判定部56は、選択作業員における着用方法のそれぞれについて、(1)当該着用方法の評価値を着方観点情報eのシステム管理値603より取得し、(2)当該着用方法の判定条件を判定ルールテーブル620から取得し、(3)取得した(選択作業員の)評価値が、基準作業員1における当該着用方法の評価値に対して、前記取得した判定条件を満たしているか否かを判定し、取得した評価値が当該判定条件を満たしている場合には、選択作業員の着用方法が適切であると判定する。
判定部56は、全ての他の作業員2の着用方法を判定したか否かを判断する(s344)。全ての他の作業員2の着用方法を判定している場合は(s344:YES)、着用方法判定処理は終了し(s345)、着用方法を判定していない他の作業員2がある場合は(s344:YES)、その他の作業員2のうち一人を選択し、選択した他の作業員2(選択作業員)についてs342の処理を繰り返す。
判定部56は、以上の処理で得られた着用方法の判定結果を、判定結果fとして記憶する。そして、結果出力部57は、判定部56から受信した判定結果fを、表示装置4に出力する画面の情報(出力判定結果g)に変換し、変換した出力判定結果gを表示装置4に送信する。そして、表示装置4は、受信した出力判定結果gを出力する。
ここで、判定結果fについて説明する。
図20は、判定結果fの一例を示す図である。同図に示すように、判定結果fは、着方観点番号が格納される項番701、他の作業員2を識別する情報が格納されるID702、及び、ID702の作業員の、項番701の着方観点番号が示す着用方法の適切さに関する判定結果(適切、又は不適切)が格納される判定結果703、の各項目を有する、少なくとも1つ以上のレコードを備えるデータベースである。なお、判定結果703に対しては、着用方法の評価値が判定条件を満たしている場合には「適切」が格納され、着用方法の評価値が判定条件を満たしていない場合には「不適切」が格納される。
図20は、判定結果fの一例を示す図である。同図に示すように、判定結果fは、着方観点番号が格納される項番701、他の作業員2を識別する情報が格納されるID702、及び、ID702の作業員の、項番701の着方観点番号が示す着用方法の適切さに関する判定結果(適切、又は不適切)が格納される判定結果703、の各項目を有する、少なくとも1つ以上のレコードを備えるデータベースである。なお、判定結果703に対しては、着用方法の評価値が判定条件を満たしている場合には「適切」が格納され、着用方法の評価値が判定条件を満たしていない場合には「不適切」が格納される。
例えば、項番701が「7」のレコードでは、IDが「1」の判定対象者の「上着による肌の遮蔽度」(評価値)がリーダーの評価値以下であったため、その判定対象者の上着の着方は「不適切」、とされている(図13−17参照)。
また、例えば、項番701が「9」のレコードでは、IDが「1」の判定対象者の「手袋等による掌の遮蔽度」(評価値)がリーダーの評価値以下であったため、その判定対象者の手袋の嵌め方は「不適切」、とされている(図13−17参照)。
ここで、図21は、表示装置4に出力される出力判定結果fの一例を示す図である。同図に示すように、出力判定結果fには、着用状態の適切さを示す対象となる判定対象者のモデル801が示されている。
そして、判定対象者における各着用方法について、その判定対象者の各着用方法の内容803、及びその着用方法に関する評価値804(判定対象者の評価値及びリーダーの評価値)が示されている。また、各着用方法に対応する、判定対象者の体の部位802が示されている。
そして、判定対象者において「不適切」と判定された着用方法がある場合には、その旨
が示されている(符号805)。
が示されている(符号805)。
以上に説明したように、本実施形態の着用状態判定システム10は、着用品を着用した複数の人が撮影された画像に基づき、着用状態の判定基準となる人を選択し、選択した人の着用状態に関する評価値と、選択されなかった他の人の評価値とをそれぞれ算出し、算出した各評価値に基づき、他の人の着用状態の適切さを判定し、判定した適切さに関する情報を出力するので、作業中の人の着用品の着用状態を、基準となる人の着用状態に基づき、適切かつ簡便に判定することができる。例えば、工事現場等での作業員の服装を統一された基準で漏れなくチェックできる。また、衣服や装備品等の画像を事前に大量に用意することなく、工事現場等での作業員の衣服や装備品の着用状態を、統一された基準で漏れなくチェックすることが可能となる。
また、本実施形態の着用状態判定システム10は、取得した画像に基づき、複数の人のそれぞれの位置を特定し、特定したそれぞれの人の位置に基づき、判定基準となる人を選択するので、着用状態の判定基準となる人を、その時の各作業員の作業状態に基づき適切に決定することができる。
また、本実施形態の着用状態判定システム10は、位置を特定した複数の人のうち少なくとも2人以上の人の整列状態を特定すると共に整列状態から外れている人を特定し、整列状態から外れている人を判定基準となる人として選択するので、着用状態の判定基準となる人を、その時の作業員の整列状態に基づき適切に決定することができる。
また、本実施形態の着用状態判定システム10は、取得した画像に基づき複数の人のそれぞれの人の視線を特定し、特定したそれぞれの視線に基づき、判定基準となる人を選択するので、着用状態の判定基準となる人を、その時の作業員の視線に基づき適切に決定することができる。
また、本実施形態の着用状態判定システム10は、特定した視線に基づき、視線が最も多く集中している人を特定し、特定した人を、判定基準となる人として選択するので、手本となるべき作業員を、着用状態の判定基準となる人として決定することができる。
また、本実施形態の着用状態判定システム10は、取得した画像に基づき、複数の人の体の部位の位置、及び、複数の人が着用している衣服又は取り付けている装備品の位置を取得し、取得したそれぞれの位置に基づき、各人の評価値を算出するので、作業員の着用状態を、衣服や装備品を取り付ける作業員の体の部位との関係で適切に評価することができる。
また、本実施形態の着用状態判定システム10は、人の体の部位の位置と、人が着用している衣服又は取り付けている装備品の位置との近接性を算出し、算出した近接性に基づき評価値を算出するので、作業員が衣服や装備品を適切に身につけているかを適切に評価することができる。
以上の実施例の説明は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明はその趣旨を逸脱することなく、変更、改良され得ると共に本発明にはその等価物が含まれる。
例えば、本実施形態では、作業員の位置や作業員の着用品の位置を2次元座標系を用いて特定したが、その他の座標系、例えば3次元座標系を用いて特定してもよい。
また、本実施形態では、カメラ等による画像を用いて作業員やその着用品を特定するこ
とを前提としたが、ビデオ等により撮影された動画に基づき、各作業員やその着用品を特定してもよい。
とを前提としたが、ビデオ等により撮影された動画に基づき、各作業員やその着用品を特定してもよい。
また、本実施形態では、作業員の着用状態を、「適切」又は「不適切」であるとして判定するものとしたが、例えば、評価値そのものを判定結果としたり、3段階以上の多段階評価による判定結果の提示を行ってもよい。
10 着用状態判定システム、5312 基準者選択部、5316 評価値算出部、561 着用状態判定部、57 結果出力部
Claims (12)
- 人の着用品の着用状態の適切さを判定する、プロセッサ及びメモリを備える着用状態判定システムであって、
着用品を着用している複数の人が撮影された画像を取得し、取得した画像に基づき、着用状態の判定基準となる人を選択する基準者選択部と、
前記選択した人が着用している前記着用品の着用状態に関する評価値と、前記複数の人のうち前記選択した人以外の人が着用している前記着用品に関する評価値とをそれぞれ算出する評価値算出部と、
前記算出した各評価値に基づき、前記選択した人以外の人の前記着用品の着用状態の適切さを判定する着用状態判定部と、
前記判定した前記着用品の着用状態の適切さに関する情報を出力する結果出力部と、
を備える、着用状態判定システム。 - 前記基準者選択部は、前記取得した画像に基づき前記複数の人のそれぞれの位置を特定し、特定したそれぞれの人の位置に基づき、前記判定基準となる人を選択する、
請求項1に記載の着用状態判定システム。 - 前記基準者選択部は、前記位置を特定した複数の人のうち少なくとも2人以上の人による整列状態を特定すると共に前記整列状態から外れている人を特定し、前記整列状態から外れている人を前記判定基準となる人として選択する、
請求項2に記載の着用状態判定システム。 - 前記基準者選択部は、前記取得した画像に基づき前記複数の人のそれぞれの視線を特定し、特定した前記それぞれの人の視線に基づき、前記判定基準となる人を選択する、
請求項1に記載の着用状態判定システム。 - 前記基準者選択部は、前記特定した視線に基づき、視線が最も多く集中している人を前記複数の人から特定し、特定した前記人を、前記判定基準となる人として選択する、
請求項4に記載の着用状態判定システム。 - 前記評価値算出部は、
前記取得した画像に基づき、前記複数の人のそれぞれの体の部位の位置、及び、前記複数の人のそれぞれが着用している前記着用品の位置を取得し、取得した前記体の部位の位置、及び前記取得した着用品の位置に基づき、各前記評価値を算出する、
請求項1に記載の着用状態判定システム。 - 前記評価値算出部は、
前記取得した体の部位の位置と、前記取得した前記着用品の位置との近接性を算出し、算出した近接性に基づき前記評価値を算出する、
請求項6に記載の着用状態判定システム。 - 前記基準者選択部は、
前記取得した画像に基づき前記複数の人のそれぞれの位置を特定し、前記位置を特定した複数の人のうち少なくとも2人以上の人による整列状態を特定すると共に前記整列状態から外れている人を特定し、前記整列状態から外れている人を前記判定基準となる人として選択するものであるか、もしくは、
前記取得した画像に基づき前記複数の人のそれぞれの視線を特定し、前記特定した視線に基づき、視線が最も多く集中している人を前記複数の人から特定し、特定した前記人を、前記判定基準となる人として選択するものであり、
前記評価値算出部は、
前記取得した画像に基づき、前記複数の人のそれぞれの体の部位の位置、及び、前記複数の人のそれぞれが着用している前記着用品の位置を取得し、取得した前記体の部位の位置、及び前記取得した着用品の位置の近接性を算出し、算出した近接性に基づき、各前記評価値を算出する、
請求項1に記載の着用状態判定システム。 - 人の着用品の着用状態の適切さを判定する着用状態判定方法であって、プロセッサ及びメモリを備える情報処理装置が、
着用品を着用している複数の人が撮影された画像を取得し、取得した画像に基づき、着用状態の判定基準となる人を選択する基準者選択処理と、
前記選択した人が着用している前記着用品の着用状態に関する評価値と、前記複数の人のうち前記選択した人以外の人が着用している前記着用品に関する評価値とをそれぞれ算出する評価値算出処理と、
前記算出した各評価値に基づき、前記選択した人以外の人の前記着用品の着用状態の適切さを判定する着用状態判定処理と、
前記判定した前記着用品の着用状態の適切さに関する情報を出力する結果出力処理と、
を実行する、着用状態判定方法。 - 前記基準者選択処理は、前記取得した画像に基づき前記複数の人のそれぞれの位置を特定し、特定したそれぞれの人の位置に基づき、前記判定基準となる人を選択する、
請求項9に記載の着用状態判定方法。 - 前記基準者選択処理は、前記取得した画像に基づき前記複数の人のそれぞれの視線を特定し、特定した前記それぞれの人の視線に基づき、前記判定基準となる人を選択する、
請求項9に記載の着用状態判定方法。 - 人の着用品の着用状態の適切さを判定する、着用状態判定プログラムであって、
プロセッサ及びメモリを備える情報処理装置に、
着用品を着用している複数の人が撮影された画像を取得し、取得した画像に基づき、着用状態の判定基準となる人を選択する基準者選択処理と、
前記選択した人が着用している前記着用品の着用状態に関する評価値と、前記複数の人のうち前記選択した人以外の人が着用している前記着用品に関する評価値とをそれぞれ算出する評価値算出処理と、
前記算出した各評価値に基づき、前記選択した人以外の人の前記着用品の着用状態の適切さを判定する着用状態判定処理と、
前記判定した前記着用品の着用状態の適切さに関する情報を出力する結果出力処理と、
を実行させる、着用状態判定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017005142A JP2018116350A (ja) | 2017-01-16 | 2017-01-16 | 着用状態判定システム、着用状態判定方法、及び着用状態判定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017005142A JP2018116350A (ja) | 2017-01-16 | 2017-01-16 | 着用状態判定システム、着用状態判定方法、及び着用状態判定プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018116350A true JP2018116350A (ja) | 2018-07-26 |
Family
ID=62985465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017005142A Pending JP2018116350A (ja) | 2017-01-16 | 2017-01-16 | 着用状態判定システム、着用状態判定方法、及び着用状態判定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018116350A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201382006Y (zh) * | 2009-05-04 | 2010-01-13 | 邓仲雯 | 一种可立体摇头的台式电风扇 |
CN105134631A (zh) * | 2015-09-02 | 2015-12-09 | 广东美的环境电器制造有限公司 | 风扇头部、立式及壁挂式风扇、家用电器和吹风方法 |
JP2017172365A (ja) * | 2016-03-22 | 2017-09-28 | パナソニックIpマネジメント株式会社 | 支持台 |
-
2017
- 2017-01-16 JP JP2017005142A patent/JP2018116350A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201382006Y (zh) * | 2009-05-04 | 2010-01-13 | 邓仲雯 | 一种可立体摇头的台式电风扇 |
CN105134631A (zh) * | 2015-09-02 | 2015-12-09 | 广东美的环境电器制造有限公司 | 风扇头部、立式及壁挂式风扇、家用电器和吹风方法 |
JP2017172365A (ja) * | 2016-03-22 | 2017-09-28 | パナソニックIpマネジメント株式会社 | 支持台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6253311B2 (ja) | 画像処理装置、画像処理方法 | |
JP6921768B2 (ja) | 仮想試着システム、仮想試着方法、仮想試着プログラム、および情報処理装置 | |
JP2022058471A (ja) | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 | |
EP3745352B1 (en) | Methods and systems for determining body measurements and providing clothing size recommendations | |
US20160188962A1 (en) | Calculation device and calculation method | |
EP2977924A1 (en) | Three-dimensional unlocking device, three-dimensional unlocking method and program | |
JP6242768B2 (ja) | 仮想試着装置、仮想試着方法、およびプログラム | |
US20180204346A1 (en) | Device and method for determining a position of a mobile device in relation to a subject | |
EP3182362A1 (en) | Method and sytem for evaluating fitness between eyeglasses wearer and eyeglasses worn thereby | |
JP6262105B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
JP6320237B2 (ja) | 仮想試着装置、仮想試着方法、およびプログラム | |
CN107533642A (zh) | 用于使用神经网络的生物特征用户识别的设备、方法和系统 | |
KR20120140184A (ko) | 얼굴 화상 검색 시스템 및 얼굴 화상 검색 방법 | |
KR20120135469A (ko) | 얼굴 화상 검색 시스템 및 얼굴 화상 검색 방법 | |
KR20170022078A (ko) | 디스플레이 장치 및 그의 제어방법 | |
JP2014071501A (ja) | 画像処理装置、方法、及びプログラム | |
JP2016038813A (ja) | 仮想試着装置、仮想試着システム、仮想試着方法、およびプログラム | |
JP7299923B2 (ja) | 個人識別システムおよび方法 | |
CN111291746A (zh) | 影像处理系统及影像处理方法 | |
WO2016140129A1 (ja) | 動作評価装置、動作評価方法、及びコンピュータ読み取り可能な記録媒体 | |
JP2018116350A (ja) | 着用状態判定システム、着用状態判定方法、及び着用状態判定プログラム | |
JP4736040B2 (ja) | 人体内部情報投影システム | |
CN111279410A (zh) | 显示设备和显示设备控制方法 | |
WO2021100214A1 (ja) | 情報処理方法、情報処理装置、及び制御プログラム | |
TWI663561B (zh) | 虛擬眼鏡選配方法與系統 |