JP2019219766A - 分析装置、分析システム、及び分析プログラム - Google Patents

分析装置、分析システム、及び分析プログラム Download PDF

Info

Publication number
JP2019219766A
JP2019219766A JP2018114995A JP2018114995A JP2019219766A JP 2019219766 A JP2019219766 A JP 2019219766A JP 2018114995 A JP2018114995 A JP 2018114995A JP 2018114995 A JP2018114995 A JP 2018114995A JP 2019219766 A JP2019219766 A JP 2019219766A
Authority
JP
Japan
Prior art keywords
unit
analysis
image
state
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018114995A
Other languages
English (en)
Inventor
梓 森
Azusa Mori
梓 森
篤 原田
Atsushi Harada
篤 原田
龍太郎 ▲濱▼
龍太郎 ▲濱▼
Ryutaro Hama
由香里 高久
Yukari Takaku
由香里 高久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lixil Corp
Original Assignee
Lixil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lixil Corp filed Critical Lixil Corp
Priority to JP2018114995A priority Critical patent/JP2019219766A/ja
Publication of JP2019219766A publication Critical patent/JP2019219766A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】画像に含まれるオブジェクトを精度良く検出することを可能とする技術を提供する。【解決手段】分析装置10は、撮像装置11により時系列的に撮像された複数の画像を一連の画像群として取得する取得部21と、機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズム61を使用して、取得部21により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出ユニット40と、一連の画像群の間で、検出ユニット40により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析ユニット50とを備える。【選択図】図2

Description

本発明は、分析技術に関し、とくに、画像に含まれるオブジェクトを分析する分析装置、分析システム、及び分析プログラムに関する。
特許文献1には、調理者が調理している食材及びその食材に対する調理操作を精度良く特定し、調理者が調理している料理の調理レシピを精度良く推定する技術が開示されている。
特許文献1に記載された調理操作認識システムは、調理操作を行っている調理者の手元の画像と、その調理操作によって生じる環境音との少なくともいずれか一方を含む観測データを取得するセンシング手段と、種々の食材に対して予め想定された種々の調理操作を、各食材に対する調理操作毎に予め定められた確信度であるテンプレート確信度を併せてテーブル形式で記憶する特徴量テンプレートと、前記センシング手段により取得された観測データを基に、調理者が調理している食材及びその食材に対する調理操作の少なくともいずれか一方の確信度を示す観測確信度を算出し、算出した観測確信度を基に、調理者が調理している料理の調理フローを作成する調理フロー作成手段と、前記テンプレート確信度と前記観測確信度とを基に、前記調理フロー作成手段により作成された調理フローを構成する各オブジェクトに対する確信度である一次確信度を算出する一次確信度算出手段と、前記一次確信度算出手段により算出された一次確信度を基に、最終確信度を算出し、算出した最終確信度を新たなテンプレート確信度として、前記特徴量テンプレートを更新し、更新した特徴量テンプレートを基に、前記センシング手段により取得された観測データに対する食材及び調理操作を認識する調理操作認識手段とを備える。
国際公開第2005/088542号
本発明者らは、調理者による調理操作を分析することにより、キッチンなどの商材の開発に有用な情報が得られると考えた。しかし、そのような応用のためには、多数の調理者による調理操作をより精度良く認識するための技術が必要である。
本発明は、このような課題に鑑みてなされ、その目的は、画像に含まれるオブジェクトを精度良く検出することを可能とする技術を提供することにある。
上記課題を解決するために、本発明のある態様の分析装置は、撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、一連の画像群の間で、検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、を備える。
本発明の別の態様の分析システムは、対象者の行動を分析するための分析装置と、対象者の周囲の機器又は環境を制御する制御装置と、を備え、分析装置は、撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、一連の画像群の間で、検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、分析部による分析結果を制御装置へ出力する出力部と、を備え、制御装置は、分析装置から取得した分析結果に応じて機器又は環境を制御する。
本発明の更に別の態様の分析システムは、対象者の行動を分析するための分析装置と、対象者、対象者が購入する商品の販売者、又は商品の開発者に情報を提供する情報提供装置と、を備え、分析装置は、撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、一連の画像群の間で、検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、分析部による分析結果を情報提供装置へ出力する出力部と、を備え、情報提供装置は、分析装置から取得した分析結果を対象者、販売者、又は開発者に提供する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、画像に含まれるオブジェクトを精度良く検出することを可能とする技術を提供することができる。
実施の形態に係る分析システムの構成を示す図である。 実施の形態に係る分析装置の構成を示す図である。 撮像装置により撮像された画像の例を示す図である。 学習データに付与されるラベルの例を示す図である。 複数の対象者が同じ料理を調理する様子を撮像した動画における調理器具の検出数の時間変化を示す図である。 図5と同じ動画における調理器具の移動軌跡を示す図である。
本発明の実施の形態として、分析対象者の行動やオブジェクトの動きを撮像装置により時系列的に撮像し、撮像された画像に含まれる対象者の体の部位やオブジェクトを自動的に検出することにより、分析対象者の行動やオブジェクトの動きなどを分析する技術について説明する。
実施の形態に係る分析装置は、撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得し、それぞれの画像に含まれるオブジェクトの種類、状態、位置、及び数を検出し、一連の画像群の間で、検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する。検出されるオブジェクトは、例えば、対象者の体の部位や、対象者により移動可能な物体などである。これにより、キッチンなどの商品の使用者の行動特性を的確に分析することができるので、商品の開発や使用者に対する提案などに生かすことができる。また、実施の形態に係る分析装置は、撮像された画像に含まれるオブジェクトの検出を自動化することができるので、多数の対象者の行動を分析するために要する期間を飛躍的に短縮することができる。これにより、単独の対象者の行動分析では得られないような新たな知見を得ることができる。
実施の形態では、対象者がキッチンで調理する行動を分析する例について説明する。対象者が、食材と調理器具を用いて料理を作り、食器に盛りつける様子を撮像し、撮像した画像に含まれる食材、器具、料理、食器、対象者の手などのオブジェクトの種類、状態、位置、及び数を検出し、それらの時間変化を分析する。例えば、調理器具の検出数の時間変化を分析することにより、調理器具を洗ったり片付けたりするタイミングの個人差やパターンを把握し、商品開発に有用な知見を得ることができる。また、調理器具の移動軌跡を分析することにより、調理器具の収納場所などを使用者に提案することができる。
図1は、実施の形態に係る分析システムの構成を示す。分析システム1は、キッチン80に設置された撮像装置11及びセンサ12により収集された情報に基づいて対象者3の行動を分析する分析装置10と、対象者3の周囲の機器又は環境を制御する制御装置100と、分析装置10による分析結果を分析装置10から取得して提示する情報提供装置の例である情報提供サーバ200、商品販売サーバ300、使用者端末400、及び開発者端末500を備える。これらの装置は、インターネット2などの通信網により接続される。
制御装置100は、分析装置10により分析された対象者3の行動に関する情報を分析装置10から取得して、分析結果に応じてキッチン80に設置された機器やキッチン80の周囲の環境などを制御する。制御装置100は、例えば、対象者3の行動の分析結果に応じて、キッチン80の温度、湿度、背景音楽、吐水装置の吐水温度、吐水量、吐水口形状、加熱装置のオンオフや温度、換気扇のオンオフや風量、照明器具のオンオフや光量などを制御してもよい。また、制御装置100は、対象者3の行動の分析結果に応じて選択した情報を表示装置83に表示してもよい。例えば、制御装置100は、調理手順やレシピなど、対象者3の行動に関連する情報や、対象者3に推奨される行動を誘導するための情報などを、対象者3の行動特性ごとに分類して記憶し、それらの情報の中から分析結果に応じて選択された情報を表示装置83に表示してもよい。対象者3は、自身の行動に応じた情報をリアルタイムに確認しながら、実行中の行動に役立てることができる。
情報提供サーバ200は、分析装置10により分析された対象者3の行動に関する情報を分析装置10から取得して、取得された情報や、取得された情報に基づいて生成又は選択された情報などを提供する。情報提供サーバ200は、例えば、対象者3本人からの要求に応じて、対象者3の行動の分析結果を提供してもよいし、複数の対象者3のそれぞれの行動の分析結果を取得し、それらの分析結果の統計情報や、それらの分析結果から生成又は分析される情報などを、商品販売サーバ300、使用者端末400、開発者端末500などに提供してもよい。
商品販売サーバ300は、分析装置10により分析された対象者3の行動に関する情報を分析装置10又は情報提供サーバ200から取得し、対象者3が商品販売サーバ300において商品を購入する際に、対象者3の行動の分析結果に応じた商品の情報などを対象者3に提供する。対象者3は、自身の行動の分析結果に合わせた商品の情報を商品販売サーバ300から取得して確認することにより、購入する商品の選択などに役立てることができる。
使用者端末400は、分析装置10により分析された対象者3の行動に関する情報を分析装置10又は情報提供サーバ200から取得して、使用者に提示する。使用者端末400の使用者は、自身や第三者の行動に関する情報を確認することにより、次の自身の行動のために役立てることができる。
開発者端末500は、分析装置10により分析された複数の対象者3の行動に関する情報を分析装置10又は情報提供サーバ200から取得して、対象者3が使用する商品を開発する開発者に提示する。開発者は、開発する商品を使用する複数の対象者3の行動の分析結果を確認することにより、商品の開発や設計などのために役立てることができる。
分析装置10による対象者3の行動の分析は、例えば、キッチン設備を有する実験施設、レシピや調理手順の動画撮影施設、商品選定を行うショールーム、一般家庭等において実行されてもよい。このような施設、ショールーム、家庭等において、対象者の行動を分析することにより、対象者の行動特性に合わせた適正な設備提案を行うことが可能なサービスを展開することができる。
図2は、実施の形態に係る分析装置の構成を示す。分析装置10は、撮像装置11、センサ12、入力装置13、表示装置14、制御装置20、及び記憶装置60を備える。分析装置10は、サーバ装置であってもよいし、パーソナルコンピューターなどの装置であってもよいし、携帯電話端末、スマートフォン、タブレット端末などの携帯端末であってもよい。
撮像装置11は、分析の対象となるオブジェクトを含む画像を撮像する。本実施の形態では、対象者がキッチンで調理する行動を分析するので、撮像装置11は、例えばキッチンの上方又は上方前方に下向きに固定され、上方から俯瞰したキッチン又はキッチンカウンターの一部の画像を撮像する。撮像装置11は、可視光を撮像可能な一般的なCMOSなどの光学イメージセンサを用いたカメラであってもよい。撮像装置11は、2台以上設けられてもよく、それぞれが異なる位置、視線方向、視野、解像度を有していてもよい。
センサ12は、撮像装置11によりオブジェクトの画像が撮像されるときのオブジェクト、対象者、又は対象者の周囲の環境の状態を示す状態量を検知する。状態量は、対象者の行動を撮像している間に時間変化するものであってもよいし、時間変化しない、又は時間変化しないとみなせる程度に時間変化の小さいものであってもよい。センサ12は、例えば、対象者の脳波、心拍数、筋負荷、表情、血圧、体温、オブジェクトの温度、対象者の周囲の温度、湿度、明るさ、キッチン80に設けられた加熱機器、吐水機器、換気機器、照明機器などのオンオフ、使用量などを検知するものであってもよい。
入力装置13は、分析装置10の使用者による指示入力を制御装置20に伝達する。入力装置13は、マウス、キーボード、タッチパッドなどであってもよい。表示装置14は、制御装置20により生成される画面を表示する。表示装置14は、液晶表示装置、有機EL表示装置などであってもよい。入力装置13及び表示装置14は、タッチパネルとして実装されてもよい。
記憶装置60は、制御装置20により使用されるプログラム、データなどを記憶する。記憶装置60は、半導体メモリ、ハードディスクなどであってもよい。記憶装置60は、検出アルゴリズム61及びデータ保持部62を備える。
検出アルゴリズム61は、撮像装置11により撮像された画像に含まれるオブジェクトの種類、状態、位置、及び数を検出するために使用される。検出アルゴリズム61は、機械学習により学習される。検出アルゴリズム61が深層学習により学習される場合、検出アルゴリズム61はニューラルネットワークにより構成されてもよい。
データ保持部62は、撮像装置11により撮像された画像のデータや、センサ12により検知された情報や、入力装置13から入力された情報などを格納する。
制御装置20は、取得部21、入力受付部22、表示部23、学習ユニット30、検出ユニット40、及び分析ユニット50を備える。これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIなどにより実現され、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、またはハードウエアとソフトウエアの組合せなど、いろいろな形で実現できることは、当業者には理解されるところである。
取得部21は、撮像装置11により時系列的に撮像された複数の画像を一連の画像群として取得する。取得部21が撮像装置11から取得するデータは、各画素の座標及び色情報からなる画素データを含む。取得部21は、更に、赤外線カメラなどにより取得される温度データ、測距可能なカメラにより取得される距離又は深度データ、マイクロフォンにより取得される音圧データ、力センサにより取得される力の強度データなどを取得してもよい。取得部21が取得するこれらのデータを総称して「動画」と呼ぶ。
取得部21は、センサ12により検知された情報をセンサ12から取得する。取得部21は、更に、対象者の性別、年齢、職業などの属性情報、対象者の価値観、経済的状況などの個人特性などの情報を、入力装置13や図示しない通信装置などを介して取得する。
入力受付部22は、入力装置13により入力される情報を受け付けて、制御装置20の各構成に伝達する。表示部23は、制御装置20の各構成により生成された表示画面を表示装置14に表示する。
学習ユニット30は、撮像装置11により撮像された画像に含まれるオブジェクトの種類、状態、位置、及び数を検出するための検出アルゴリズム61を学習する。学習ユニット30は、学習データ作成部31、ラベル取得部32、及び学習部33を含む。本実施の形態では、学習ユニット30は、撮像装置11により撮像されたオブジェクトの画像を使用して、画像中に含まれるオブジェクトの画像を抽出し、抽出したオブジェクトの画像にそのオブジェクトの種類及び状態を示すラベルを付与した教師データを作成し、教師あり深層学習により検出アルゴリズム61を学習する。別の例では、他の任意の機械学習技術を利用して検出アルゴリズム61を学習してもよい。例えば、学習ユニット30は、教師なし深層学習により検出アルゴリズム61を学習してもよい。
学習データ作成部31は、検出アルゴリズム61の学習に使用される学習データを作成する。学習データ作成部31は、撮像装置11により撮像された画像に含まれるオブジェクトの画像を抽出し、抽出されたオブジェクトの画像をオブジェクトの種類ごとに分類するとともに、それぞれの種類のオブジェクトの画像をオブジェクトの状態ごとに再分類する。
学習データ作成部31は、予め撮像装置11により撮像されてデータ保持部62に格納されていた、食材や調理器具などを置いていない状態のキッチンの画像をデータ保持部62から読み出して、取得部21により取得された画像と比較し、それぞれの画像においてオブジェクトが撮像されている領域を背景差分法により抽出する。学習データ作成部31は、再帰型ニューラルネットワーク(RNN)を用いた深層学習や、境界検出技術など、既知の任意の技術を利用してオブジェクトの領域を抽出してもよい。
学習データ作成部31は、抽出されたオブジェクトの画像データ群を、教師なし深層学習によりクラスタリングする。また、学習データ作成部31は、撮像装置11により撮像された時系列的な一連の画像群におけるオブジェクトの領域の中心位置を追跡し、抽出されたオブジェクトごとに一意の軌跡(トラックレット)を抽出する。
学習データ作成部31は、抽出されたオブジェクトの画像データ群のクラスタリングと、抽出されたオブジェクトのトラックレットによる分類とのアンサンブル学習により、同一のオブジェクトのトラックレットをオブジェクトのクラスタごとに分離する。あるトラックレットに対応するオブジェクトの画像データ群が、2以上のクラスタにクラスタリングされている場合、それぞれのクラスタは、そのトラックレットに対応する同一のオブジェクトの異なる状態に対応するものであると推定される。
オブジェクトが食材である場合は、そのオブジェクトに対応するトラックレットの途中で、加工されたり調理されたりして形状が変化した場合などに、その前後の画像データ群が異なるクラスタにクラスタリングされうる。オブジェクトが調理器具である場合は、調理器具の方向が変化した場合などに、その前後の画像データ群が異なるクラスタにクラスタリングされうる。
ラベル取得部32は、学習データ作成部31によりクラスタリングされたオブジェクトの画像に対して付与すべきラベルの指定を入力装置13から受け付ける。ラベル取得部32は、オブジェクトの種類及び状態ごとにクラスタリングされたオブジェクトの画像を表示装置14に表示し、オブジェクトの画像に対応するオブジェクトの種類及び状態の指定を入力装置13から取得し、オブジェクトの画像にラベルとして付与する。これにより、複数の画像に含まれる同一の種類及び状態のオブジェクトの画像が集約されて、同一の種類及び状態のオブジェクトの画像の教師データとされる。誤ったオブジェクトの画像が抽出されていた場合は、誤ったオブジェクトの画像の指定を入力装置13から受け付け、指定されたオブジェクトの画像を学習データから削除する。
学習部33は、学習データ作成部31により作成された学習データに、ラベル取得部32により取得されたラベルが付与された教師データを使用して、教師あり深層学習により検出アルゴリズム61を学習する。検出アルゴリズム61は、撮像装置11により撮像された画像を入力とし、その画像に含まれるオブジェクトの種類、状態、及び位置を出力とするニューラルネットワークにより構成される。学習部33は、教師データとして入力された画像に類似する画像が検出アルゴリズム61に入力されたときに、教師データに含まれるラベルにより示されるオブジェクトの種類及び状態が検出アルゴリズム61から出力されるように、検出アルゴリズム61を構成するニューラルネットワークの重みを調整する。
このように、対象者の行動中に、形状や色などが異なる状態に変化しうるオブジェクトであっても、状態ごとに異なる画像を教師データとして検出アルゴリズム61を学習させるので、形状や色などが異なっていても同一のオブジェクトとして精度良く検出することができる。
本実施の形態の技術によれば、分析対象となる画像と同様にして撮像装置11により撮像された画像から学習データを作成するので、検出精度を向上させることができる。検出精度を更に向上させるために、実際に分析する画像に含まれうる様々な状態のオブジェクトの画像の教師データを作成して検出アルゴリズム61を学習させるのが望ましい。例えば、鍋やフライパンなどの器具は、通常、調理中に裏返しにされることはないが、器具を洗っている間や、水切りかごに入れている間などには裏返しにされることもあるので、裏返しにした状態の画像の教師データも使用して検出アルゴリズム61を学習させる。また、食材についても、様々な切り方で切った状態の画像の教師データも使用して検出アルゴリズム61を学習させる。
上記の例では、オブジェクトの画像をオブジェクトの種類及び状態ごとにクラスタリングしてからラベルを付与したが、別の例では、オブジェクトが含まれる画像を表示装置14に表示し、その画像に含まれるオブジェクトの種類、状態、及び範囲の指定を入力装置13から受け付けてもよい。例えば、画像に含まれるオブジェクトの範囲の指定を入力装置13から受け付けるとともに、そのオブジェクトの種類及び状態を示すラベルの指定を入力装置13から受け付けると、学習データ作成部31は、指定された範囲の画像を切り出してオブジェクトの画像を作成し、ラベル取得部32は、指定されたラベルをオブジェクトの画像に付与することにより教師データを作成してもよい。
検出ユニット40は、撮像装置11により撮像された画像に含まれるオブジェクトを検出する。検出ユニット40は、オブジェクト検出部41、集約・分離時処理部42、及び非検出化時処理部43を含む。
オブジェクト検出部41は、学習ユニット30により学習された検出アルゴリズム61を使用して、分析対象の動画に含まれるオブジェクトの種類、状態、位置、及び数を検出する。オブジェクト検出部41は、検出したオブジェクトの種類、状態、位置、及び数を示すデータを、データ保持部62に格納する。
集約・分離時処理部42は、1つのオブジェクトが複数に分離したこと、又は、複数のオブジェクトが1つに集約されたことが検出された場合、オブジェクトの種類に応じて、オブジェクトの分離又は集約の前後におけるオブジェクトの検出数を決定する。例えば、食材が切断されるなどして複数の部分に分離された場合、いずれかの部分を主オブジェクトとし、その他の部分を派生オブジェクトとしてラベルを付与し、検出された部分の数をオブジェクトの数とする。また、分離していた複数の部分が集約された場合、主オブジェクトの名称で統合し、オブジェクトの数を1とする。これにより、食材が加工される過程も的確に把握することができる。調理器具や食器などの器材が複数の部分に分離された場合、複数の部分をそれぞれ主オブジェクトとして扱い、分離される以前から複数のオブジェクトが存在していたものとして、分離された後の部分の数をオブジェクトの数とする。分離される前は、オクルージョン(隠れ)が発生していたものとして扱う。また、複数の部分がその後集約されたとしても、オクルージョンが発生したものとして、オブジェクトの数は検出された部分の数によらず不変であるものとする。リアルタイムに分析を行う場合、分離される以前は、検出されたオブジェクトの数をそのままオブジェクトの数とするが、分離された後は、検出された部分の数をオブジェクトの数とし、以降は不変であるものとする。これにより、器材の数を状態の変化によらず不変であるように扱うことができるので、器材の数の変化を的確に把握することができる。
非検出化時処理部43は、複数の画像のうちいずれかにおいて検出されたオブジェクトが、その画像よりも後に撮像装置11により撮像された別の画像において検出されなかった場合、オブジェクトの種類に応じて、そのオブジェクトが別のオブジェクトに付合した、又は、そのオブジェクトが別のオブジェクトに隠れて検出されなかったと判定する。例えば、食材においては、非検出時に料理に用いられていた場合、食材オブジェクトは料理オブジェクトに包含されるものとして扱う。非検出時に料理に用いられておらず、別のオブジェクトにより被覆され、被覆が除去されて再出現した場合、被覆していたオブジェクトと共に移動を行ったものとして、被覆していたオブジェクトの軌跡で補間する。調理器具においては、非検出時は被覆が行われたものとして、被覆していたオブジェクトと共に移動を行ったものとして補間する。検出されなかったオブジェクトを被覆するオブジェクトを選択する際には、検出されなかったオブジェクトが最後に検出された消失点と、再度検出された出現点に近接する位置に検出された別のオブジェクトの中から、尤もらしいオブジェクトを選択する。尤もらしいオブジェクトは、例えば、検出されなかったオブジェクトよりもサイズの大きいオブジェクト、他のオブジェクトを内包しうる鍋や容器などのオブジェクトなどであってもよい。
分析ユニット50は、検出ユニット40により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する。分析ユニット50は、移動軌跡生成部51、パターン分類部52、及び分析結果出力部53を含む。分析ユニット50は、異なる複数の条件のそれぞれにおいて撮像装置11により時系列的に撮像された複数の動画の間で、それぞれの動画におけるオブジェクトの種類、状態、位置、又は数の変化の異同を分析する。
移動軌跡生成部51は、検出ユニット40により検出されたオブジェクトの移動軌跡を生成する。移動軌跡生成部51は、動画中に検出されたオブジェクトの中心位置の座標を時系列的につなぐことにより、オブジェクトの移動軌跡を生成する。オブジェクトの状態によらない統合的なオブジェクトの移動軌跡を生成してもよいし、オブジェクトの状態ごとに異なる移動軌跡を生成してもよい。また、動画の途中で分離又は集約したオブジェクトの統合的な移動軌跡を生成してもよいし、分離した部分ごとに異なる移動軌跡を生成してもよい。
パターン分類部52は、複数の動画のそれぞれにおけるオブジェクトの種類、状態、位置、又は数の変化、オブジェクトの出現又は消失のタイミング、オブジェクトの移動又は滞留のタイミング、オブジェクトの検出時間、検出頻度、移動距離などのパターンを、複数の動画の間で分類又はクラスタリングする。パターン分類部52は、パターンを機械学習により分類又はクラスタリングしてもよい。例えば、教師あり深層学習により分類してもよいし、教師なし深層学習によりクラスタリングしてもよい。パターン分類部52は、撮像装置11により複数の動画が撮像されたときのオブジェクト、対象者、又は対象者の周囲の環境の状態を示す状態量に更に基づいて、オブジェクトの種類、状態、位置、又は数の変化のパターンを分類又はクラスタリングすることにより、対象者の行動を分析してもよい。
分析結果出力部53は、移動軌跡生成部51により生成されたオブジェクトの移動軌跡や、パターン分類部52により分類されたパターンなど、分析ユニット50による分析結果を出力する。出力された分析結果は、制御装置100、情報提供サーバ200、商品販売サーバ300、使用者端末400、及び開発者端末500などにおいて利用される。
例えば、分析結果出力部53は、調理に関する情報を提供する情報提供サーバ200に分析結果を出力してもよい。情報提供サーバ200は、調理者の調理行動を分析した結果を取得し、調理行動パターンに合わせたリアルタイムな情報提示により調理者の動作を誘導したり、調理後に分析結果をフィードバックしたりすることができる。情報提供サーバ200は、プロジェクター、組み込みディスプレイ、タブレット端末、照明装置、音声出力装置などを用いて、文章、画像、動画、照度差などにより情報を提供してもよい。
分析結果出力部53は、キッチンに設けられた各種の機器や設備などを制御する制御装置100に分析結果を出力してもよい。制御装置100は、調理者の調理行動を分析した結果を取得し、調理行動パターンに合わせて機器や設備を制御することができる。制御装置100は、例えば、吐水装置からの吐水の流量・水圧・吐水口形状などを制御したり、換気扇のオンオフなどを制御したり、照明装置のオンオフ又は照度を制御したり、加熱機器のオンオフ又は温度を制御したりしてもよい。
分析結果出力部53は、キッチンなどの商品の設計や開発などの担当者が使用する開発者端末500に分析結果を出力してもよい。これにより、調理者の調理行動のパターンに合わせたキッチンの構成などを設計又は開発するために有用な情報を開発者に提供することができる。分析結果出力部53は、使用者端末400に分析結果を出力してもよい。これにより、使用者が自身の行動を決定又は改善するために有用な情報を提供することができる。分析結果出力部53は、商品販売サーバ300に分析結果を出力してもよい。これにより、購入者が購入する商品を決定するために有用な情報を提供することができる。
検出ユニット40により誤ったオブジェクトが検出された場合や、検出されたオブジェクトの種類又は状態が誤っていた場合には、学習ユニット30にその情報を供給して、検出アルゴリズム61を再学習させてもよい。例えば、ラベル取得部32は、誤って検出されたオブジェクトの画像に付与すべき正しいラベルの指定を入力装置13から受け付け、正しいラベルを付与したオブジェクトの画像を教師データとして生成する。学習部33は、生成された教師データを使用して検出アルゴリズム61を学習させる。これにより、誤検出を低減させ、検出精度を更に向上させることができる。
検出アルゴリズム61を学習するための構成は、分析装置10とは別に設けられてもよい。この場合、分析装置10は、検出アルゴリズム61を学習する学習装置から、学習済みの検出アルゴリズム61を取得して記憶装置60に格納する。学習装置により検出アルゴリズム61が再学習される場合は、分析装置10は、更新された検出アルゴリズム61を学習装置から再取得してもよい。
図3は、撮像装置により撮像された画像の例を示す。図3(a)は、キッチン80の上面に食材や器具などが置かれていない状態のキッチン80の画像を示す。図3(b)は、キッチン80の上面に食材や器具などが置かれた状態のキッチン80の画像を示す。学習データ作成部31は、図3(a)に示した画像と図3(b)に示した画像の差分から、食材81や器具82などのオブジェクトを抽出し、学習データを作成する。
図4は、学習データに付与されるラベルの例を示す。ラベルは、大分類、中分類、小分類に階層化されており、それぞれの分類は、オブジェクトの種類又は状態を表す。図4の例では、オブジェクトは、まず、大分類として、「食材」、「調味料」などの種類に分類される。大分類が「食材」であるオブジェクトは、更に中分類として、「白米」、「大根」などの種類に分類される。中分類が「白米」であるオブジェクトは、更に小分類として、米びつなどの容器に入った状態を表す「容器」、ざるなどに入れてといでいる状態を表す「とぎ中」、炊飯器により炊き上がった後の状態を表す「炊き上がり」などの状態に分類される。また、中分類が「計量スプーン」であるオブジェクトは、更に小分類として、5mlを計量する青色のスプーンであることを表す「5_青」、2.5mlを計量する赤色のスプーンであることを表す「2.5_赤」などの種類に分類される。このように、必要に応じて、大分類、中分類、小分類が更に複数の階層に分類されてもよい。本実施の形態では、階層化された分類を表すラベルを付与した教師データを使用して検出アルゴリズム61を学習するので、検出アルゴリズム61を使用して画像からオブジェクトを検出することにより、自動的にオブジェクトを階層的に分類することができる。
図5は、複数の対象者が同じ料理を調理する様子を撮像した動画における調理器具の検出数の時間変化を示す。図5(a)〜(f)は、それぞれ、対象者A〜Fが調理したときの調理器具の検出数の時間変化を示す。対象者A及びBでは、調理中に調理器具の検出数が増加と減少を繰り返す波形のパターンを示した。対象者C及びDでは、調理中に調理器具の検出数が単調増加するパターンを示した。対象者E及びFでは、調理の終盤において調理器具の検出数が急激に減少するパターンを示した。
図6は、図5と同じ動画における調理器具の移動軌跡を示す。図6(a)〜(f)は、それぞれ、対象者A〜Fが調理したときのフライパンの移動軌跡を示す。調理器具の検出数が増加と減少を繰り返すパターンを示した対象者A及びBでは、フライパンが加熱機器とシンクの間を何度も行き来しているが、調理器具の検出数が単調増加するパターンを示した対象者C及びDでは、フライパンをあまり移動させていないことが分かる。
このように、本実施の形態の分析装置10は、複数の対象者の行動を撮像した複数の動画を効率良く分析することができるので、商品などの使用者の行動パターンをより精確に把握し、商品開発や商品の使用態様の提案などに役立てることができる。
以上、実施の形態に基づき本発明を説明したが、実施の形態は、本発明の原理、応用を示すにすぎない。また、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が可能である。
実施の形態においては、検出ユニット40は、撮像装置11により撮像された静止画像に含まれるオブジェクトを検出したが、別の例では、検出ユニット40は、撮像装置11により撮像された動画像に含まれるオブジェクトの動きや人などの動作を検出してもよい。この場合、検出アルゴリズム61は、動画像を直接入力し、動画像に含まれるオブジェクトの種類、状態、位置、数、オブジェクトの出現又は消失のタイミング、オブジェクトの移動又は滞留のタイミング、オブジェクトの検出時間、オブジェクトの検出頻度、又はオブジェクトの移動距離や、人などの動作又は状態などを含むメタデータを推定し、推定されたメタデータを動画像に付与するものであってもよく、分析ユニット50は、動画像に付与されたメタデータに基づいて、対象者の行動を分析してもよい。検出アルゴリズム61は、動画像と、動画像に含まれるオブジェクトの種類、状態、位置、数、オブジェクトの出現又は消失のタイミング、オブジェクトの移動又は滞留のタイミング、オブジェクトの検出時間、オブジェクトの検出頻度、又はオブジェクトの移動距離や、人などの動作又は状態などを含むメタデータとを学習データとして、機械学習により学習されてもよい。検出アルゴリズム61は、更に、撮像装置11以外の周辺機器からのセンサー情報をマルチモーダルに用いて学習されてもよい。この場合、検出ユニット40は、撮像装置11により撮像された動画像に加えて、撮像装置11以外の周辺機器からのセンサー情報をマルチモーダルに用いて動画像に付与すべきメタデータを推定してもよい。
実施の形態においては、キッチンで調理する様子を撮像した動画を分析する例について説明したが、本実施の形態の技術は、商品を使用する使用者の行動を撮像した動画や、商品を製造する工場などにおける製造ラインの動画や、建材を施工する施工現場において建材が施工される様子を撮像した動画など、任意の動画を分析するために利用可能である。
以上の実施形態、変形例により具体化される発明を一般化すると、以下の技術的思想が導かれる。
本発明のある態様の分析装置は、撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、一連の画像群の間で、検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、を備える。この態様によると、撮像された画像に含まれるオブジェクトの種類、状態、位置、及び数を高精度に検出することができるので、オブジェクトの種類、状態、位置、又は数の変化を的確に分析することができる。
分析装置は、検出アルゴリズムを機械学習により学習する学習部を更に備えてもよい。この態様によると、オブジェクトの種類、状態、位置、及び数を検出する精度を更に向上させることができる。
学習部は、撮像装置により撮像されたオブジェクトの画像を使用した機械学習により検出アルゴリズムを学習してもよい。この態様によると、オブジェクトの種類、状態、位置、及び数を検出する精度を更に向上させることができる。
学習部は、撮像装置により撮像されたオブジェクトの画像と、画像に含まれるオブジェクトの種類及び状態を示すラベルとを含む学習データを使用した機械学習により検出アルゴリズムを学習してもよい。この態様によると、オブジェクトの種類、状態、位置、及び数を検出する精度を更に向上させることができる。
学習部は、撮像装置により撮像されたオブジェクトの画像をクラスタリングし、クラスタリングされたオブジェクトの画像ごとに、そのオブジェクトの種類及び状態を示すラベルを付与することにより、前記学習データを作成してもよい。この態様によると、オブジェクトの種類、状態、位置、及び数を検出する精度を更に向上させることができる。
検出部は、1つのオブジェクトが複数に分離したこと、又は、複数のオブジェクトが1つに集約されたことが検出された場合、オブジェクトの種類に応じて、オブジェクトの分離又は集約の前後におけるオブジェクトの検出数を決定してもよい。この態様によると、オブジェクトの種類に応じて、的確な分析を行うことができる。
検出部は、複数の画像のうちいずれかにおいて検出されたオブジェクトが、その画像よりも後に撮像装置により撮像された別の画像において検出されなかった場合、オブジェクトの種類に応じて、そのオブジェクトが別のオブジェクトに付合した、又は、そのオブジェクトが別のオブジェクトに隠れて検出されなかったと判定してもよい。この態様によると、オブジェクトの種類に応じて、的確な分析を行うことができる。
分析部は、異なる複数の条件のそれぞれにおいて撮像装置により時系列的に撮像された複数の画像群の間で、それぞれの画像群におけるオブジェクトの種類、状態、位置、又は数の変化の異同を分析してもよい。この態様によると、様々な条件下でのオブジェクトの種類、状態、位置、又は数の変化を的確に分析することができる。
分析部は、それぞれの画像群におけるオブジェクトの種類、状態、位置、又は数の変化、オブジェクトの出現又は消失のタイミング、オブジェクトの移動又は滞留のタイミング、オブジェクトの検出時間、オブジェクトの検出頻度、又はオブジェクトの移動距離のパターンを、複数の画像群の間で分類又はクラスタリングしてもよい。この態様によると、様々な条件下でのオブジェクトの種類、状態、位置、又は数の変化のパターンを的確に分析することができる。
分析部は、パターンを機械学習により分類又はクラスタリングしてもよい。この態様によると、様々な条件下でのオブジェクトの種類、状態、位置、又は数の変化のパターンをより精度良く分析することができる。
オブジェクトは、対象者の体の部位、又は、対象者により移動可能な物体であり、分析部は、オブジェクトの種類、状態、位置、又は数の変化、オブジェクトの出現又は消失のタイミング、オブジェクトの移動又は滞留のタイミング、オブジェクトの検出時間、オブジェクトの検出頻度、又はオブジェクトの移動距離から、対象者の行動を分析してもよい。この態様によると、対象者の行動を的確に分析することができる。
検出部は、撮像装置により撮像された動画像に対して付与すべきメタデータを推定し、推定されたメタデータを動画像に付与し、分析部は、動画像に付与されたメタデータに基づいて、対象者の行動を分析してもよい。この態様によっても、対象者の行動を的確に分析することができる。
分析部は、撮像装置により複数の画像が撮像されたときのオブジェクト、対象者、又は対象者の周囲の環境の状態を示す状態量に更に基づいて、オブジェクトの種類、状態、位置、又は数の変化、又は対象者の行動を分析してもよい。この態様によると、オブジェクトの種類、状態、位置、又は数の変化、又は対象者の行動をより的確に分析することができる。
本発明の別の態様の分析システムは、対象者の行動を分析するための分析装置と、対象者の周囲の機器又は環境を制御する制御装置と、を備え、分析装置は、撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、一連の画像群の間で、検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、分析部による分析結果を制御装置へ出力する出力部と、を備え、制御装置は、分析装置から取得した分析結果に応じて機器又は環境を制御する。この態様によると、対象者の行動に応じて、対象者の周囲の機器又は環境を制御することができるので、対象者の行動を適切に支援することができる。
制御装置は、分析結果に応じて選択された情報を対象者に提示してもよい。この態様によると、対象者の行動に応じて、的確な情報を提示することができるので、対象者の行動を適切に支援することができる。
制御装置は、分析結果に応じて選択された、対象者に推奨される行動に関する情報を対象者に提示してもよい。この態様によると、対象者の行動に応じて、推奨される行動を的確に提示することができるので、対象者の行動を適切に支援することができる。
本発明の更に別の態様の分析システムは、対象者の行動を分析するための分析装置と、対象者、対象者が購入する商品の販売者、又は商品の開発者に情報を提供する情報提供装置と、を備え、分析装置は、撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、一連の画像群の間で、検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、分析部による分析結果を情報提供装置へ出力する出力部と、を備え、情報提供装置は、分析装置から取得した分析結果を対象者、販売者、又は開発者に提供する。この態様によると、対象者の行動に応じて、的確な情報を提示することができるので、対象者、販売者、開発者などを適切に支援することができる。
1 分析システム、3 対象者、10 分析装置、11 撮像装置、12 センサ、13 入力装置、14 表示装置、20 制御装置、21 取得部、22 入力受付部、23 表示部、30 学習ユニット、31 学習データ作成部、32 ラベル取得部、33 学習部、40 検出ユニット、41 オブジェクト検出部、42 集約・分離時処理部、43 非検出化時処理部、50 分析ユニット、51 移動軌跡生成部、52 パターン分類部、53 分析結果出力部、60 記憶装置、61 検出アルゴリズム、62 データ保持部、80 キッチン、81 食材、82 器具、83 表示装置、100 制御装置、200 情報提供サーバ、300 商品販売サーバ、400 使用者端末、500 開発者端末。

Claims (18)

  1. 撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、
    機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、前記取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、
    前記一連の画像群の間で、前記検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、
    を備えることを特徴とする分析装置。
  2. 前記検出アルゴリズムを機械学習により学習する学習部を更に備えることを特徴とする請求項1に記載の分析装置。
  3. 前記学習部は、前記撮像装置により撮像されたオブジェクトの画像を使用した機械学習により前記検出アルゴリズムを学習することを特徴とする請求項2に記載の分析装置。
  4. 前記学習部は、前記撮像装置により撮像されたオブジェクトの画像と、前記画像に含まれるオブジェクトの種類及び状態を示すラベルとを含む学習データを使用した機械学習により前記検出アルゴリズムを学習することを特徴とする請求項3に記載の分析装置。
  5. 前記学習部は、前記撮像装置により撮像されたオブジェクトの画像をクラスタリングし、クラスタリングされたオブジェクトの画像ごとに、そのオブジェクトの種類及び状態を示すラベルを付与することにより、前記学習データを作成することを特徴とする請求項4に記載の分析装置。
  6. 前記検出部は、1つのオブジェクトが複数に分離したこと、又は、複数のオブジェクトが1つに集約されたことが検出された場合、オブジェクトの種類に応じて、オブジェクトの分離又は集約の前後におけるオブジェクトの検出数を決定することを特徴とする請求項1から5のいずれかに記載の分析装置。
  7. 前記検出部は、前記複数の画像のうちいずれかにおいて検出されたオブジェクトが、その画像よりも後に前記撮像装置により撮像された別の画像において検出されなかった場合、オブジェクトの種類に応じて、そのオブジェクトが別のオブジェクトに付合した、又は、そのオブジェクトが別のオブジェクトに隠れて検出されなかったと判定することを特徴とする請求項1から6のいずれかに記載の分析装置。
  8. 前記分析部は、異なる複数の条件のそれぞれにおいて前記撮像装置により時系列的に撮像された複数の画像群の間で、それぞれの画像群における前記オブジェクトの種類、状態、位置、又は数の変化の異同を分析することを特徴とする請求項1から7のいずれかに記載の分析装置。
  9. 前記分析部は、それぞれの画像群における前記オブジェクトの種類、状態、位置、又は数の変化、前記オブジェクトの出現又は消失のタイミング、前記オブジェクトの移動又は滞留のタイミング、前記オブジェクトの検出時間、前記オブジェクトの検出頻度、又は前記オブジェクトの移動距離のパターンを、前記複数の画像群の間で分類又はクラスタリングすることを特徴とする請求項8に記載の分析装置。
  10. 前記分析部は、前記パターンを機械学習により分類又はクラスタリングすることを特徴とする請求項9に記載の分析装置。
  11. 前記オブジェクトは、対象者の体の部位、又は、前記対象者により移動可能な物体であり、
    前記分析部は、前記オブジェクトの種類、状態、位置、又は数の変化から、前記対象者の行動を分析することを特徴とする請求項1から10のいずれかに記載の分析装置。
  12. 前記検出部は、前記撮像装置により撮像された動画像に対して付与すべきメタデータを推定し、推定されたメタデータを前記動画像に付与し、
    前記分析部は、前記動画像に付与されたメタデータに基づいて、対象者の行動を分析することを特徴とする請求項1から11のいずれかに記載の分析装置。
  13. 前記分析部は、前記撮像装置により前記複数の画像が撮像されたときの前記オブジェクト、前記対象者、又は前記対象者の周囲の環境の状態を示す状態量に更に基づいて、前記オブジェクトの種類、状態、位置、又は数の変化、前記オブジェクトの出現又は消失のタイミング、前記オブジェクトの移動又は滞留のタイミング、前記オブジェクトの検出時間、前記オブジェクトの検出頻度、又は前記オブジェクトの移動距離、又は前記対象者の行動を分析することを特徴とする請求項11又は12に記載の分析装置。
  14. コンピュータを、
    撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部、
    機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、前記取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部、
    前記一連の画像群の間で、前記検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部、
    として機能させるための分析プログラム。
  15. 対象者の行動を分析するための分析装置と、
    前記対象者の周囲の機器又は環境を制御する制御装置と、
    を備え、
    前記分析装置は、
    撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、
    機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、前記取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、
    前記一連の画像群の間で、前記検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、
    前記分析部による分析結果を前記制御装置へ出力する出力部と、
    を備え、
    前記制御装置は、
    前記分析装置から取得した分析結果に応じて前記機器又は環境を制御する
    ことを特徴とする分析システム。
  16. 前記制御装置は、前記分析結果に応じて選択された情報を前記対象者に提示することを特徴とする請求項15に記載の分析システム。
  17. 前記制御装置は、前記分析結果に応じて選択された、前記対象者に推奨される行動に関する情報を前記対象者に提示することを特徴とする請求項16に記載の分析システム。
  18. 対象者の行動を分析するための分析装置と、
    前記対象者、前記対象者が購入する商品の販売者、又は前記商品の開発者に情報を提供する情報提供装置と、
    を備え、
    前記分析装置は、
    撮像装置により時系列的に撮像された複数の画像を一連の画像群として取得する取得部と、
    機械学習により学習された、画像に含まれるオブジェクトを検出するための検出アルゴリズムを使用して、前記取得部により取得された複数の画像のそれぞれに含まれるオブジェクトの種類、状態、位置、及び数を検出する検出部と、
    前記一連の画像群の間で、前記検出部により検出されたオブジェクトの種類、状態、位置、又は数の変化を分析する分析部と、
    前記分析部による分析結果を前記情報提供装置へ出力する出力部と、
    を備え、
    前記情報提供装置は、
    前記分析装置から取得した分析結果を前記対象者、前記販売者、又は前記開発者に提供する
    ことを特徴とする分析システム。
JP2018114995A 2018-06-15 2018-06-15 分析装置、分析システム、及び分析プログラム Pending JP2019219766A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018114995A JP2019219766A (ja) 2018-06-15 2018-06-15 分析装置、分析システム、及び分析プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018114995A JP2019219766A (ja) 2018-06-15 2018-06-15 分析装置、分析システム、及び分析プログラム

Publications (1)

Publication Number Publication Date
JP2019219766A true JP2019219766A (ja) 2019-12-26

Family

ID=69096496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114995A Pending JP2019219766A (ja) 2018-06-15 2018-06-15 分析装置、分析システム、及び分析プログラム

Country Status (1)

Country Link
JP (1) JP2019219766A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020045677A (ja) * 2018-09-19 2020-03-26 トヨタホーム株式会社 吐水装置
JP2021152825A (ja) * 2020-03-25 2021-09-30 日本電気株式会社 住宅営業支援装置、住宅営業支援システム、住宅営業支援方法および住宅営業支援プログラム
JPWO2022054124A1 (ja) * 2020-09-08 2022-03-17
CN115019253A (zh) * 2022-06-08 2022-09-06 北京亚洲卫星通信技术有限公司 一种基于云计算大数据分析的智慧明厨亮灶管理系统
US12051239B2 (en) 2020-08-11 2024-07-30 Disney Enterprises, Inc. Item location tracking via image analysis and projection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005211105A (ja) * 2004-01-27 2005-08-11 Osaka Gas Co Ltd 観察対象者の動作解析システム
JP2010257409A (ja) * 2009-04-28 2010-11-11 Nec Soft Ltd 年齢推定装置、年齢推定方法及びプログラム
JP2012164026A (ja) * 2011-02-03 2012-08-30 Nippon Soken Inc 画像認識装置及び車両用表示装置
JP2018020103A (ja) * 2015-08-03 2018-02-08 エンゼルプレイングカード株式会社 ゲーム管理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005211105A (ja) * 2004-01-27 2005-08-11 Osaka Gas Co Ltd 観察対象者の動作解析システム
JP2010257409A (ja) * 2009-04-28 2010-11-11 Nec Soft Ltd 年齢推定装置、年齢推定方法及びプログラム
JP2012164026A (ja) * 2011-02-03 2012-08-30 Nippon Soken Inc 画像認識装置及び車両用表示装置
JP2018020103A (ja) * 2015-08-03 2018-02-08 エンゼルプレイングカード株式会社 ゲーム管理システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020045677A (ja) * 2018-09-19 2020-03-26 トヨタホーム株式会社 吐水装置
JP7206537B2 (ja) 2018-09-19 2023-01-18 トヨタホーム株式会社 吐水装置
JP2021152825A (ja) * 2020-03-25 2021-09-30 日本電気株式会社 住宅営業支援装置、住宅営業支援システム、住宅営業支援方法および住宅営業支援プログラム
JP7512635B2 (ja) 2020-03-25 2024-07-09 日本電気株式会社 住宅営業支援装置、住宅営業支援システム、住宅営業支援方法および住宅営業支援プログラム
US12051239B2 (en) 2020-08-11 2024-07-30 Disney Enterprises, Inc. Item location tracking via image analysis and projection
JPWO2022054124A1 (ja) * 2020-09-08 2022-03-17
WO2022054124A1 (ja) * 2020-09-08 2022-03-17 楽天グループ株式会社 画像判定装置、画像判定方法及びプログラム
US20220309648A1 (en) * 2020-09-08 2022-09-29 Rakuten Group, Inc. Image judgement apparatus, image judgement method and non-transitory computer readable medium
JP7401688B2 (ja) 2020-09-08 2023-12-19 楽天グループ株式会社 画像判定装置、画像判定方法及びプログラム
US12067708B2 (en) * 2020-09-08 2024-08-20 Rakuten Group, Inc. Image judgement apparatus, image judgement method and non-transitory computer readable medium
CN115019253A (zh) * 2022-06-08 2022-09-06 北京亚洲卫星通信技术有限公司 一种基于云计算大数据分析的智慧明厨亮灶管理系统
CN115019253B (zh) * 2022-06-08 2023-01-17 北京亚洲卫星通信技术有限公司 一种基于云计算大数据分析的智慧明厨亮灶管理系统

Similar Documents

Publication Publication Date Title
KR102329592B1 (ko) 재료 인식을 기반으로 하는 음식 준비 방법 및 시스템
JP2019219766A (ja) 分析装置、分析システム、及び分析プログラム
US11345040B2 (en) Systems and methods for operating a robotic system and executing robotic interactions
US11738455B2 (en) Robotic kitchen systems and methods with one or more electronic libraries for executing robotic cooking operations
US20210228022A1 (en) System and Method for Collecting and Annotating Cooking Images for Training Smart Cooking Appliances
CN108778634B (zh) 包括机器人、存放装置及其容器的机器人厨房
JP7332220B2 (ja) オブジェクト認識に基づく機械制御方法及びそのシステム
JP2022101582A (ja) ロボット調理キッチン内の食品調製のための方法及びシステム
JP7239782B2 (ja) 目標検出モデルのマルチパストレーニングによる機器設定の調整
Shimada et al. Kitchen scene context based gesture recognition: A contest in ICPR2012
Plötz et al. Activity recognition and healthier food preparation
US20220118618A1 (en) Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning
Zhou et al. Monitoring dietary behavior with a smart dining tray
Wagner et al. Towards a pervasive kitchen infrastructure for measuring cooking competence
US20210208753A1 (en) Generating a user-specific user interface
CN115803790A (zh) 行动识别装置、行动识别方法以及程序
Jiang et al. Design of Affordable Self-learning Home Cooking Robots
Lin et al. A Study of Automatic Judgment of Food Color and Cooking Conditions with Artificial Intelligence Technology. Processes 2021, 9, 1128
Jain et al. Food Image Recognition and Volume Estimation: A Comprehensive Study for Dietary Assessment
CN114282091A (zh) 食材管理方法、装置、设备和存储介质
JP2022093365A (ja) キッチン情報提示プログラム
TW201929747A (zh) 智慧型烹飪系統及應用於其上的方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180713

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221004