JP2021047659A - 作業関与状況評価装置、作業関与状況評価方法及びプログラム - Google Patents
作業関与状況評価装置、作業関与状況評価方法及びプログラム Download PDFInfo
- Publication number
- JP2021047659A JP2021047659A JP2019169975A JP2019169975A JP2021047659A JP 2021047659 A JP2021047659 A JP 2021047659A JP 2019169975 A JP2019169975 A JP 2019169975A JP 2019169975 A JP2019169975 A JP 2019169975A JP 2021047659 A JP2021047659 A JP 2021047659A
- Authority
- JP
- Japan
- Prior art keywords
- work
- worker
- involvement
- content
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 95
- 238000004458 analytical method Methods 0.000 claims abstract description 68
- 230000008921 facial expression Effects 0.000 claims description 49
- 230000033001 locomotion Effects 0.000 claims description 31
- 238000009826 distribution Methods 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 25
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012854 evaluation process Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000007689 inspection Methods 0.000 description 5
- 238000010977 unit operation Methods 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000007639 printing Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101000831940 Homo sapiens Stathmin Proteins 0.000 description 1
- 206010022998 Irritability Diseases 0.000 description 1
- 102100024237 Stathmin Human genes 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
画像形成装置に係る作業を行う作業者を観察した観察データを取得する状況取得部と、
取得した前記観察データを解析する解析部と、
前記解析の結果に基づいて、前記作業の内容に応じた前記作業者の当該作業に対する意識的な関与状況を評価する評価部と、
を備えることを特徴とする作業関与状況評価装置である。
前記評価部は、前記観察データから前記作業の内容及び前記関与状況に係る評価値を推定し、前記作業の内容と前記関与状況とを対応付ける
ことを特徴とする。
前記評価値には、前記作業者の思考度合が含まれることを特徴とする。
前記評価値には、前記作業者の集中度が含まれることを特徴とする。
前記状況取得部は、前記作業者を撮影する撮影部からのデータを取得し、
前記解析部は、前記撮影部による撮影画像に基づいて前記作業者の表情を解析し、
前記評価部は、前記表情に基づいて前記作業の内容ごとに前記関与状況を評価する
ことを特徴とする。
前記解析部は、前記撮影画像から前記作業者の顔における所定の第1特徴点を特定して、
前記評価部は、前記作業の内容ごとに定められた前記第1特徴点の特性に係る第1自己組織化マップにおける前記表情の特性の分布に応じて、前記作業の内容ごとに前記関与状況を評価する
ことを特徴とする。
前記解析部は、前記作業の内容ごとに前記第1特徴点により前記第1自己組織化マップを生成することを特徴とする。
前記解析部は、前記撮影画像に基づいて前記作業者の姿勢を解析し、当該姿勢の変化の状況に基づいて前記作業の内容を識別することを特徴とする。
前記解析部は、前記撮影画像から前記作業者の姿勢に係る所定の第2特徴点を特定して、前記作業者の動作に応じた前記第2特徴点の位置の時間変化に基づいて前記作業の内容を識別することを特徴とする。
前記解析部は、前記第2特徴点の特性に係る第2自己組織化マップにおける所定時間幅の特性値の配列に基づいて前記動作を規定することを特徴とする。
前記解析部は、前記第2特徴点により前記第2自己組織化マップを生成することを特徴とする。
前記解析部は、前記所定時間幅の前記特性値の配列の特性に係る第3自己組織化マップにおける前記動作の特性の分布に応じて、前記作業の内容を識別することを特徴とする。
前記解析部は、前記所定時間幅の前記特性値の配列により前記第3自己組織化マップを生成することを特徴とする。
前記解析部は、前記動作の所定の基準以上の変化に基づいて前記作業の内容が変化したタイミングを特定することを特徴とする。
前記解析部は、特定された前記タイミングに応じて区分された動作区間ごとの前記動作の特性の分布に応じて、当該動作区間を作業内容ごとにグループ分けすることを特徴とする。
前記状況取得部は、前記画像形成装置から当該画像形成装置に対する入力操作の内容を取得し、
前記解析部は、取得した前記入力操作の内容を前記撮影画像と対応付けて、前記入力操作の分類に基づいて前記作業の内容ごとに前記撮影画像をグループ化することを特徴とする。
前記作業者を撮影する撮影部を備え、
前記状況取得部は、前記撮影部の撮影データを前記観察データとして取得する
ことを特徴とする。
画像形成装置に係る作業を行う作業者を観察した観察データを取得する状況取得ステップ、
取得した前記観察データを解析する解析ステップ、
前記解析の結果に基づいて、前記作業の内容に応じた前記作業者の当該作業に対する意識的な関与状況を評価する評価ステップ、
を含むことを特徴とする作業関与状況評価方法である。
コンピューターを、
画像形成装置に係る作業を行う作業者を観察した観察データを取得する状況取得手段と、
取得した前記観察データを解析する解析手段と、
前記解析の結果に基づいて、前記作業の内容に応じた前記作業者の当該作業に対する意識的な関与状況を評価する評価手段、
として機能させることを特徴とするプログラムである。
図1は、本実施形態の作業関与状況評価装置であるコンピューター100の機能構成を示すブロック図である。
コンピューター100では、上記画像形成装置81に係る作業を行う作業者についての上記取得データを解析して、当該作業者の作業内容と当該作業に対する意識的な関与状況(思考状況)とを対応付ける。作業内容としては、例えば、画像形成装置81への媒体の補充、色材容器の交換といった保守作業、記録媒体の種別の選択設定、ソートやステープルなどの設定、形成された画像の不良確認(検品)、テスト画像の形成(試し刷り)時などにおける濃度、色調や光沢などの画質に係る検査及び調整などが挙げられる。各作業では、それぞれ特定のパターンで姿勢(特に、手足の位置、関節の曲がり具合など)が変化することから、作業者の姿勢の時系列データ(変化の状況。すなわち動作)から作業内容(その相違)を識別、分類することができる。
図2(a)に示すように、姿勢は、例えば、作業者の手、脚、首などの関節及び頭部(目、耳、鼻など)に係る複数の特徴点(例えば、×印で示した18点。第2特徴点)を特定することで、その位置関係によって定められる。姿勢を示す特徴点の時系列内での変化(第2特徴点の位置の時間変化)のパターン(動作)が作業ごとに類型化されることで、作業者の作業の種別が識別される。
撮影装置83による作業者の撮影画像(動画撮影データの各フレームデータ)が取得されると、まず、画像から作業者及びその顔の認識処理がなされて、当該作業者の上記特徴点が特定される。また、これまでに取得された特徴点も参照しながら各特徴量が算出される(PR1:後述の関与状況評価処理の(以下同)ステップS101、S102に対応)。
動作に係る第2学習済モデルSOM2の潜在空間(2次元空間)における動作特性点を時系列順に配列すると、作業の切り替わり時には、特性点の座標が大きく変化する。そこで、動作特性点の座標がマッピング空間における所定の基準距離La(ユークリッド距離)以上変化した場合にこのタイミングで動作群(動作区間)が切り替わるものと判別する。なお、動作群の中には、休憩や他の雑務などのいずれの作業にも属さないものがあってもよい。
以上のうち、ステップS102〜S112の処理が、本実施形態の作業関与状況評価方法における解析ステップ、及び本実施形態のプログラムにおける解析手段を構成する。
ステップS113〜S116の処理が、本実施形態の作業関与状況評価方法における評価ステップ、及び本実施形態のプログラムにおける評価手段を構成する。
そして、制御部10は、関与状況評価処理を終了する。
このように、画像形成装置81に係る作業者の各作業に応じた意識的な関与の度合を定量評価することで、作業者がどの作業に対して意識して関与し、形成画像のクオリティに影響しているか、また、その貢献の度合に作業者の創造性や独自性が貢献しているかを判断することができる。これにより、画像形成装置81の処理に対してどの作業において作業者の動作を尊重し生かしつつ、どの作業においてより自動化が望まれるかといった評価が可能となる。したがって、画像形成の効率及び生産性を向上させつつ、形成画像のクオリティに係る独自性や長所をより効果的に生かすことができる。
すなわち、作業者の表情、特に無意識に生じる細かい表情の変化から作業への意識的な関与の度合を求めるので、ユーザーの申告などによらず、客観的な評価を適切に行うことができる。また、撮影画像を用いるので、作業者に直接計測装置を取り付ける必要がなく、負担をかけない。
すなわち作業者の顔における特定の点(眉、目、鼻、口など)の位置関係及びその変化をSOMにより分類するので、教師データを必要とせずに多くの撮影データから作業者に応じた適切な分類を適切に行うことが可能になる。
例えば、上記実施の形態では、第1学習済モデルSOM1の学習データはランダムに選択されて、学習終了後に解析対象のデータを改めて入力することとしたが、撮影データ全体を解析する場合には、学習終了と同時に出力データ(マッピングデータ)が得られ、再度の入力処理を行わなくてもよい。また、上記実施の形態では、第3学習済モデルSOM3は、作業の区分がなされた解析対象区間の表情の特徴点データにより生成され、同データの第3学習済モデルSOM3からの出力により集中度及び思考度合の算出がなされたが、解析対象区間とは異なる区間の学習データが第1学習済モデルSOM1及び第2学習済モデルSOM2により作業区分されて、当該学習データが作業ごとに学習済モデルSOM3の生成に用いられてもよい。その後、解析対象区間のデータが第1学習済モデルSOM1及び第2学習済モデルSOM2により別途作業区分され、作業ごとに作成済みの第3学習済モデルSOM3に入力されて評価が行われる。あるいは、作業ごとに第3学習済モデルSOM3を生成しない場合には、第1学習済モデルSOM1の生成と第3学習済モデルSOM3の生成とが並列に行われてもよい。
その他、上記実施の形態で示した具体的な構成、処理動作の内容及び手順などは、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
11 CPU
12 メモリー
20 記憶部
21 プログラム
211 機械学習モデル
22 取得データ
30 通信部
40 入出力I/F
50 表示部
60 操作受付部
81 画像形成装置
82 生体センサー
83 撮影装置
100 コンピューター
SOM1 第1学習済モデル
SOM2 第2学習済モデル
SOM3 第3学習済モデル
Claims (19)
- 画像形成装置に係る作業を行う作業者を観察した観察データを取得する状況取得部と、
取得した前記観察データを解析する解析部と、
前記解析の結果に基づいて、前記作業の内容に応じた前記作業者の当該作業に対する意識的な関与状況を評価する評価部と、
を備えることを特徴とする作業関与状況評価装置。 - 前記評価部は、前記観察データから前記作業の内容及び前記関与状況に係る評価値を推定し、前記作業の内容と前記関与状況とを対応付けることを特徴とする請求項1記載の作業関与状況評価装置。
- 前記評価値には、前記作業者の思考度合が含まれることを特徴とする請求項2記載の作業関与状況評価装置。
- 前記評価値には、前記作業者の集中度が含まれることを特徴とする請求項2又は3記載の作業関与状況評価装置。
- 前記状況取得部は、前記作業者を撮影する撮影部からのデータを取得し、
前記解析部は、前記撮影部による撮影画像に基づいて前記作業者の表情を解析し、
前記評価部は、前記表情に基づいて前記作業の内容ごとに前記関与状況を評価する
ことを特徴とする請求項1〜4のいずれか一項に記載の作業関与状況評価装置。 - 前記解析部は、前記撮影画像から前記作業者の顔における所定の第1特徴点を特定して、
前記評価部は、前記作業の内容ごとに定められた前記第1特徴点の特性に係る第1自己組織化マップにおける前記表情の特性の分布に応じて、前記作業の内容ごとに前記関与状況を評価する
ことを特徴とする請求項5記載の作業関与状況評価装置。 - 前記解析部は、前記作業の内容ごとに前記第1特徴点により前記第1自己組織化マップを生成することを特徴とする請求項6記載の作業関与状況評価装置。
- 前記解析部は、前記撮影画像に基づいて前記作業者の姿勢を解析し、当該姿勢の変化の状況に基づいて前記作業の内容を識別することを特徴とする請求項5〜7のいずれか一項に記載の作業関与状況評価装置。
- 前記解析部は、前記撮影画像から前記作業者の姿勢に係る所定の第2特徴点を特定して、前記作業者の動作に応じた前記第2特徴点の位置の時間変化に基づいて前記作業の内容を識別することを特徴とする請求項8記載の作業関与状況評価装置。
- 前記解析部は、前記第2特徴点の特性に係る第2自己組織化マップにおける所定時間幅の特性値の配列に基づいて前記動作を規定することを特徴とする請求項9記載の作業関与状況評価装置。
- 前記解析部は、前記第2特徴点により前記第2自己組織化マップを生成することを特徴とする請求項10記載の作業関与状況評価装置。
- 前記解析部は、前記所定時間幅の前記特性値の配列の特性に係る第3自己組織化マップにおける前記動作の特性の分布に応じて、前記作業の内容を識別することを特徴とする請求項10又は11記載の作業関与状況評価装置。
- 前記解析部は、前記所定時間幅の前記特性値の配列により前記第3自己組織化マップを生成することを特徴とする請求項12記載の作業関与状況評価装置。
- 前記解析部は、前記動作の所定の基準以上の変化に基づいて前記作業の内容が変化したタイミングを特定することを特徴とする請求項9〜13のいずれか一項に記載の作業関与状況評価装置。
- 前記解析部は、特定された前記タイミングに応じて区分された動作区間ごとの前記動作の特性の分布に応じて、当該動作区間を作業内容ごとにグループ分けすることを特徴とする請求項14記載の作業関与状況評価装置。
- 前記状況取得部は、前記画像形成装置から当該画像形成装置に対する入力操作の内容を取得し、
前記解析部は、取得した前記入力操作の内容を前記撮影画像と対応付けて、前記入力操作の分類に基づいて前記作業の内容ごとに前記撮影画像をグループ化することを特徴とする請求項5〜15のいずれか一項に記載の作業関与状況評価装置。 - 前記作業者を撮影する撮影部を備え、
前記状況取得部は、前記撮影部の撮影データを前記観察データとして取得する
ことを特徴とする請求項1〜16のいずれか一項に記載の作業関与状況評価装置。 - 画像形成装置に係る作業を行う作業者を観察した観察データを取得する状況取得ステップ、
取得した前記観察データを解析する解析ステップ、
前記解析の結果に基づいて、前記作業の内容に応じた前記作業者の当該作業に対する意識的な関与状況を評価する評価ステップ、
を含むことを特徴とする作業関与状況評価方法。 - コンピューターを、
画像形成装置に係る作業を行う作業者を観察した観察データを取得する状況取得手段と、
取得した前記観察データを解析する解析手段と、
前記解析の結果に基づいて、前記作業の内容に応じた前記作業者の当該作業に対する意識的な関与状況を評価する評価手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169975A JP7427894B2 (ja) | 2019-09-19 | 2019-09-19 | 作業関与状況評価装置、作業関与状況評価方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169975A JP7427894B2 (ja) | 2019-09-19 | 2019-09-19 | 作業関与状況評価装置、作業関与状況評価方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021047659A true JP2021047659A (ja) | 2021-03-25 |
JP7427894B2 JP7427894B2 (ja) | 2024-02-06 |
Family
ID=74876377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019169975A Active JP7427894B2 (ja) | 2019-09-19 | 2019-09-19 | 作業関与状況評価装置、作業関与状況評価方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7427894B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012171A (ja) * | 2004-06-24 | 2006-01-12 | Hitachi Ltd | 生体認識を用いたレビュー管理システム及び管理方法 |
WO2013186911A1 (ja) * | 2012-06-15 | 2013-12-19 | 株式会社日立製作所 | 刺激呈示システム |
JP2015046732A (ja) * | 2013-08-28 | 2015-03-12 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP2017204672A (ja) * | 2016-05-09 | 2017-11-16 | コニカミノルタ株式会社 | 画像処理装置、画像処理システムおよびプログラム |
JP2019096116A (ja) * | 2017-11-24 | 2019-06-20 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
JP2019121294A (ja) * | 2018-01-10 | 2019-07-22 | 株式会社 日立産業制御ソリューションズ | 計算機システム |
-
2019
- 2019-09-19 JP JP2019169975A patent/JP7427894B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006012171A (ja) * | 2004-06-24 | 2006-01-12 | Hitachi Ltd | 生体認識を用いたレビュー管理システム及び管理方法 |
WO2013186911A1 (ja) * | 2012-06-15 | 2013-12-19 | 株式会社日立製作所 | 刺激呈示システム |
JP2015046732A (ja) * | 2013-08-28 | 2015-03-12 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP2017204672A (ja) * | 2016-05-09 | 2017-11-16 | コニカミノルタ株式会社 | 画像処理装置、画像処理システムおよびプログラム |
JP2019096116A (ja) * | 2017-11-24 | 2019-06-20 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
JP2019121294A (ja) * | 2018-01-10 | 2019-07-22 | 株式会社 日立産業制御ソリューションズ | 計算機システム |
Also Published As
Publication number | Publication date |
---|---|
JP7427894B2 (ja) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6837597B2 (ja) | 能動学習のシステム及び方法 | |
JP6993027B2 (ja) | 画像分析方法、装置及びコンピュータプログラム | |
JP5898221B2 (ja) | 製造されたウェブ製品のデジタルサンプルに対する評価のコンピュータ支援割り当て | |
CN113874912A (zh) | 用于预测、预防和减轻工作场所伤害的系统和方法 | |
CN117115147B (zh) | 一种基于机器视觉的纺织品检测方法及系统 | |
CN113820326B (zh) | 一种长码拉链的缺陷检测系统 | |
JP2010131280A (ja) | 精神状態判定支援方法および装置 | |
CN110147822B (zh) | 一种基于人脸动作单元检测的情绪指数计算方法 | |
CN108392213B (zh) | 基于绘画心理学的心理分析方法及装置 | |
CN113168518A (zh) | 机械设备的磨损检测 | |
CN107392151A (zh) | 基于神经网络的人脸影像多维度情感判别系统及方法 | |
KR20240042143A (ko) | 비전 시스템을 갖는 이미지에서 패턴을 찾고 분류하기 위한 시스템 및 방법 | |
TWI776176B (zh) | 手部作業動作評分裝置、方法及電腦可讀取存儲介質 | |
KR102639558B1 (ko) | 관심영역별 골 성숙 분포를 이용한 성장 분석 예측 장치 및 방법 | |
CN112801859A (zh) | 一种具有美妆指导功能的化妆镜系统 | |
CN111902829A (zh) | 信息处理设备、信息处理方法和程序 | |
JP7427894B2 (ja) | 作業関与状況評価装置、作業関与状況評価方法及びプログラム | |
JP7486751B2 (ja) | 作業稼働率測定装置及び作業稼働率測定方法 | |
Ji et al. | Motion time study with convolutional neural network | |
EP4086811A1 (en) | Problematic behavior classification system and method based on deep neural network algorithm | |
TW202326114A (zh) | 長碼拉鏈的缺陷或瑕疵檢測系統 | |
JP2022186422A (ja) | 分類装置、分類方法、及び、分類プログラム | |
JP2023043625A (ja) | 製品品質検査システム | |
CN118507040A (zh) | 一种基于物联网的人脸识别健康预测系统 | |
Suresh et al. | Fresko pisces: fish freshness identification using deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7427894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |