JP2022006189A - 画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 - Google Patents
画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP2022006189A JP2022006189A JP2021178829A JP2021178829A JP2022006189A JP 2022006189 A JP2022006189 A JP 2022006189A JP 2021178829 A JP2021178829 A JP 2021178829A JP 2021178829 A JP2021178829 A JP 2021178829A JP 2022006189 A JP2022006189 A JP 2022006189A
- Authority
- JP
- Japan
- Prior art keywords
- training
- image
- model
- image processing
- video clips
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願の別の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに一態様に記載の画像処理方法、または別の態様に記載の事前トレーニングモデルのトレーニング方法を実行させる。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される画像処理方法、または事前トレーニングモデルのトレーニング方法を実行させる。
Claims (19)
- 画像処理方法であって、
トレーニングされた事前トレーニングモデルを取得するステップであって、前記事前トレーニングモデルは、トレーニングされた事前トレーニングモデルから出力された画像特徴が、第1の画像特徴距離と第2の画像特徴距離との差が最小であることを満たすように、複数のフレームのトレーニング画像を使用してトレーニングされ、前記第1の画像特徴距離は、同じビデオクリップから抽出されたトレーニング画像の画像特徴間の距離であり、前記第2の画像距離は、異なるビデオクリップから抽出されたトレーニング画像の画像特徴間の距離であるステップと、
前記事前トレーニングモデルに基づいて、ターゲット画像処理タスクを実行する画像処理モデルを生成するステップと、
前記画像処理モデルを使用して、ターゲット画像に対してターゲット画像処理タスクを実行するステップと、を含む。
ことを特徴とする画像処理方法。 - 前記事前トレーニングモデルに基づいて、ターゲット画像処理タスクを実行する画像処理モデルを生成するステップは、
前記ターゲット画像処理タスクに対応するネットワーク層を取得するステップと、
前記事前トレーニングモデルと前記ネットワーク層をスプライシングするステップであって、前記ネットワーク層の入力は、前記事前トレーニングモデルから出力された画像特徴であり、前記ネットワーク層の出力は、前記ターゲット画像タスクの処理結果であるステップと、
前記ターゲット画像処理タスクのトレーニングセットを使用して、スプライシングされた前記事前トレーニングモデル及び前記ネットワーク層をトレーニングして、前記画像処理モデルを取得するステップと、を含む、
ことを特徴とする請求項1に記載の画像処理方法。 - 前記ターゲット画像処理タスクは、画像分類タスク、ターゲット検出タスク、またはオブジェクト認識タスクを含む、
ことを特徴とする請求項1または2に記載の画像処理方法。 - 事前トレーニングモデルのトレーニング方法であって、
複数のビデオクリップを取得するステップと、
前記複数のビデオクリップから複数フレームのトレーニング画像を抽出して、トレーニングセットを取得するステップであって、各前記ビデオクリップから少なくとも2フレームの前記トレーニング画像を抽出するステップと、
前記トレーニングセットを使用して、画像特徴抽出のための事前トレーニングモデルに対してマルチラウンドのトレーニングを実行するステップと、を含み、
各ラウンドのトレーニングは、前記トレーニングセットから、少なくとも2つのビデオクリップから抽出された各トレーニング画像を選択することと、このラウンドで選択された各前記トレーニング画像を前記事前トレーニングモデルに入力して、出力された画像特徴を取得することと、このラウンドで選択された各前記トレーニング画像の画像特徴に基づいて、同じビデオクリップに属するトレーニング画像間の第1の画像特徴距離を決定し、異なるビデオクリップに属するトレーニング画像間の第2の画像特徴距離を決定し、前記第1の画像特徴距離及び前記第2の画像特徴距離に基づいて、前記第1の画像特徴距離と前記第2の画像特徴距離との差が最小となるように、前記事前トレーニングモデルのモデルパラメータを調整することと、を含む、
ことを特徴とする事前トレーニングモデルのトレーニング方法。 - 前記同じビデオクリップに属するトレーニング画像間の第1の画像特徴距離を決定するステップは、
このラウンドのトレーニングで前記事前トレーニングモデルに入力されたトレーニング画像に対して、同じビデオクリップに属する異なるトレーニング画像の画像特徴間のクラス内特徴距離を決定するステップと、
このラウンドのトレーニングで前記トレーニングセットから選択された少なくとも2つのビデオクリップに対して、前記クラス内特徴距離の合計を決定して、前記第1の画像特徴距離を取得するステップと、を含む、
ことを特徴とする請求項4に記載のトレーニング方法。 - 前記異なるビデオクリップに属するトレーニング画像間の第2の画像特徴距離を決定するステップは、
このラウンドのトレーニングで前記事前トレーニングモデルに入力されたトレーニング画像に対して、異なるビデオクリップに属する異なるトレーニング画像の画像特徴間のクラス間特徴距離を決定するステップと、
このラウンドのトレーニングで前記トレーニングセットから選択された少なくとも2つのビデオクリップに対して、前記クラス間特徴距離の合計を決定して、前記第2の画像特徴距離を取得するステップと、を含む、
ことを特徴とする請求項4に記載のトレーニング方法。 - 各前記ビデオクリップから抽出されたトレーニング画像のフレーム数は同じである、
ことを特徴とする請求項4~6のいずれかに記載のトレーニング方法。 - 前記複数のビデオクリップを取得するステップは、
複数のビデオを取得するステップと、
各前記ビデオにおける隣接する画像フレーム間のコンテンツの違いに基づいて分割処理を行って、各前記ビデオの複数のビデオクリップを取得するステップと、を含む、
ことを特徴とする請求項4~6のいずれかに記載のトレーニング方法。 - 画像処理装置であって、
トレーニングされた事前トレーニングモデルを取得するための取得モジュールであって、前記事前トレーニングモデルは、トレーニングされた事前トレーニングモデルから出力された画像特徴が、第1の画像特徴距離と第2の画像特徴距離との差が最小であることを満たすように、複数のフレームのトレーニング画像を使用してトレーニングされ、前記第1の画像特徴距離は、同じビデオクリップから抽出されたトレーニング画像の画像特徴間の距離であり、前記第2の画像距離は、異なるビデオクリップから抽出されたトレーニング画像の画像特徴間の距離である取得モジュールと、
前記事前トレーニングモデルに基づいて、ターゲット画像処理タスクを実行する画像処理モデルを生成するための生成モジュールと、
前記画像処理モデルを使用して、ターゲット画像に対してターゲット画像処理タスクを実行するための処理モジュールと、を含む、
ことを特徴とする画像処理装置。 - 前記生成モジュールが、
前記ターゲット画像処理タスクに対応するネットワーク層を取得し、
前記事前トレーニングモデルとネットワーク層をスプライシングし、前記ネットワーク層の入力が前記事前トレーニングモデルから出力された画像特徴であり、前記ネットワーク層の出力が前記ターゲット画像タスクの処理結果であり、
前記ターゲット画像処理タスクのトレーニングセットを使用して、スプライシングされた前記事前トレーニングモデル及び前記ネットワーク層をトレーニングして、前記画像処理モデルを取得する、
ことを特徴とする請求項9に記載の画像処理装置。 - 前記ターゲット画像処理タスクは、画像分類タスク、ターゲット検出タスク、またはオブジェクト認識タスクを含む、
ことを特徴とする請求項9または10に記載の画像処理装置。 - 事前トレーニングモデルのトレーニング装置であって、
複数のビデオクリップを取得するための取得モジュールと、
前記複数のビデオクリップから複数フレームのトレーニング画像を抽出して、トレーニングセットを取得するための抽出モジュールであって、各前記ビデオクリップから少なくとも2フレームの前記トレーニング画像を抽出する抽出モジュールと、
前記トレーニングセットを使用して、画像特徴抽出のための事前トレーニングモデルに対してマルチラウンドのトレーニングを実行するためのトレーニングモジュールと、を含み、
各ラウンドのトレーニングは、前記トレーニングセットから、少なくとも2つのビデオクリップから抽出された各トレーニング画像を選択することと、このラウンドで選択された各前記トレーニング画像を前記事前トレーニングモデルに入力して、出力された画像特徴を取得することと、このラウンドで選択された各前記トレーニング画像の画像特徴に基づいて、同じビデオクリップに属するトレーニング画像間の第1の画像特徴距離を決定し、異なるビデオクリップに属するトレーニング画像間の第2の画像特徴距離を決定し、前記第1の画像特徴距離及び前記第2の画像特徴距離に基づいて、前記第1の画像特徴距離と前記第2の画像特徴距離との差が最小となるように、前記事前トレーニングモデルのモデルパラメータを調整することと、を含む、
ことを特徴とする事前トレーニングモデルのトレーニング装置。 - 前記トレーニングモジュールが、
このラウンドのトレーニングで前記事前トレーニングモデルに入力されたトレーニング画像に対して、同じビデオクリップに属する異なるトレーニング画像の画像特徴間のクラス内特徴距離を決定し、
このラウンドのトレーニングで前記トレーニングセットから選択された少なくとも2つのビデオクリップに対して、前記クラス内特徴距離の合計を決定して、前記第1の画像特徴距離を取得する、
ことを特徴とする請求項12に記載のトレーニング装置。 - 前記トレーニングモジュールが、
このラウンドのトレーニングで前記事前トレーニングモデルに入力されたトレーニング画像に対して、異なるビデオクリップに属する異なるトレーニング画像の画像特徴間のクラス間特徴距離を決定し、
このラウンドのトレーニングで前記トレーニングセットから選択された少なくとも2つのビデオクリップに対して、前記クラス間特徴距離の合計を決定して、前記第2の画像特徴距離を取得する、
ことを特徴とする請求項12に記載のトレーニング装置。 - 各前記ビデオクリップから抽出されたトレーニング画像のフレーム数は同じである、
ことを特徴とする請求項12~14のいずれかに記載のトレーニング装置。 - 前記取得モジュールが、
複数のビデオを取得し、各前記ビデオにおける隣接する画像フレーム間のコンテンツの違いに基づいて分割処理を行って、各前記ビデオの複数のビデオクリップを取得する、
ことを特徴とする請求項12~14のいずれかに記載のトレーニング装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~3のいずれかに記載の画像処理方法、または請求項4~8のいずれかに記載の事前トレーニングモデルのトレーニング方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~3のいずれかに記載の画像処理方法、または請求項4~8のいずれかに記載の事前トレーニングモデルのトレーニング方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに請求項1~3のいずれかに記載の画像処理方法、または請求項4~8のいずれかに記載の事前トレーニングモデルのトレーニング方法を実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011249923.2A CN112561053B (zh) | 2020-11-10 | 2020-11-10 | 图像处理方法、预训练模型的训练方法、装置和电子设备 |
CN202011249923.2 | 2020-11-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022006189A true JP2022006189A (ja) | 2022-01-12 |
JP7267379B2 JP7267379B2 (ja) | 2023-05-01 |
Family
ID=75041883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021178829A Active JP7267379B2 (ja) | 2020-11-10 | 2021-11-01 | 画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7267379B2 (ja) |
CN (1) | CN112561053B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445683A (zh) * | 2022-01-29 | 2022-05-06 | 北京百度网讯科技有限公司 | 属性识别模型训练、属性识别方法、装置及设备 |
CN114494784A (zh) * | 2022-01-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、图像处理方法和对象识别方法 |
CN116664966A (zh) * | 2023-03-27 | 2023-08-29 | 北京鹰之眼智能健康科技有限公司 | 一种红外图像处理系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501105B2 (en) * | 2018-03-02 | 2022-11-15 | Zoox, Inc. | Automatic creation and updating of maps |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008136466A1 (ja) * | 2007-05-01 | 2008-11-13 | Dep Co., Ltd. | 動画編集装置 |
CN109523526A (zh) * | 2018-11-08 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 组织结节检测及其模型训练方法、装置、设备和系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108235770B (zh) * | 2017-12-29 | 2021-10-19 | 达闼机器人有限公司 | 图像识别方法及云端系统 |
CN109063719B (zh) * | 2018-04-23 | 2022-02-01 | 湖北工业大学 | 一种联合结构相似性和类信息的图像分类方法 |
US10970823B2 (en) * | 2018-07-06 | 2021-04-06 | Mitsubishi Electric Research Laboratories, Inc. | System and method for detecting motion anomalies in video |
CN109101602B (zh) * | 2018-08-01 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 图像检索模型训练方法、图像检索方法、设备及存储介质 |
CN109165566B (zh) * | 2018-08-01 | 2021-04-27 | 中国计量大学 | 一种基于新型损失函数的人脸识别卷积神经网络训练方法 |
US10551846B1 (en) * | 2019-01-25 | 2020-02-04 | StradVision, Inc. | Learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi-camera system and testing method and testing device using the same |
CN109918532B (zh) * | 2019-03-08 | 2023-08-18 | 苏州大学 | 图像检索方法、装置、设备及计算机可读存储介质 |
CN110188641B (zh) * | 2019-05-20 | 2022-02-01 | 北京迈格威科技有限公司 | 图像识别和神经网络模型的训练方法、装置和系统 |
CN111242026B (zh) * | 2020-01-13 | 2022-07-12 | 中国矿业大学 | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 |
CN111553428B (zh) * | 2020-04-30 | 2024-01-12 | 北京百度网讯科技有限公司 | 用于训练判别模型的方法、装置、设备及可读存储介质 |
-
2020
- 2020-11-10 CN CN202011249923.2A patent/CN112561053B/zh active Active
-
2021
- 2021-11-01 JP JP2021178829A patent/JP7267379B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008136466A1 (ja) * | 2007-05-01 | 2008-11-13 | Dep Co., Ltd. | 動画編集装置 |
CN109523526A (zh) * | 2018-11-08 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 组织结节检测及其模型训练方法、装置、设备和系统 |
Non-Patent Citations (2)
Title |
---|
ARTEM ROZANTSEV ET AL.: "Beyond Sharing Weights for Deep Domain Adaptation", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 41, no. 4, JPN6022051790, 8 March 2018 (2018-03-08), US, pages 801 - 814, XP011712935, ISSN: 0004938187, DOI: 10.1109/TPAMI.2018.2814042 * |
遠藤 大樹 外2名: "脳MRI画像からの3D CNNを用いたアルツハイマー病の識別に関する検討", 映像情報メディア学会技術報告, vol. 第44巻 第20号, JPN6022051791, 31 August 2020 (2020-08-31), JP, pages 1 - 4, ISSN: 0004938188 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114494784A (zh) * | 2022-01-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、图像处理方法和对象识别方法 |
CN114445683A (zh) * | 2022-01-29 | 2022-05-06 | 北京百度网讯科技有限公司 | 属性识别模型训练、属性识别方法、装置及设备 |
CN116664966A (zh) * | 2023-03-27 | 2023-08-29 | 北京鹰之眼智能健康科技有限公司 | 一种红外图像处理系统 |
CN116664966B (zh) * | 2023-03-27 | 2024-02-20 | 北京鹰之眼智能健康科技有限公司 | 一种红外图像处理系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112561053A (zh) | 2021-03-26 |
CN112561053B (zh) | 2023-09-08 |
JP7267379B2 (ja) | 2023-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022006189A (ja) | 画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 | |
KR102484617B1 (ko) | 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
US20210209446A1 (en) | Method for generating user interactive information processing model and method for processing user interactive information | |
JP2021089739A (ja) | 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 | |
KR20210037619A (ko) | 멀티 모달 콘텐츠 처리 방법, 장치, 기기 및 저장 매체 | |
US11790553B2 (en) | Method and apparatus for detecting target object, electronic device and storage medium | |
CN111539514A (zh) | 用于生成神经网络的结构的方法和装置 | |
JP2021119381A (ja) | 音声スペクトル生成モデルの学習方法、装置、電子機器及びコンピュータプログラム製品 | |
JP2021184237A (ja) | データセット処理方法、装置、電子機器及び記憶媒体 | |
CN111967256B (zh) | 事件关系的生成方法、装置、电子设备和存储介质 | |
JP2022018095A (ja) | マルチモーダル事前訓練モデル取得方法、装置、電子デバイス及び記憶媒体 | |
CN111582375B (zh) | 数据增强策略搜索方法、装置、设备以及存储介质 | |
US20210319262A1 (en) | Model training, image processing method, device, storage medium, and program product | |
CN111144108A (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
JP2021111334A (ja) | 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器 | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
US11610389B2 (en) | Method and apparatus for positioning key point, device, and storage medium | |
US20220027575A1 (en) | Method of predicting emotional style of dialogue, electronic device, and storage medium | |
US11646050B2 (en) | Method and apparatus for extracting video clip | |
US20220068265A1 (en) | Method for displaying streaming speech recognition result, electronic device, and storage medium | |
CN112507090A (zh) | 用于输出信息的方法、装置、设备和存储介质 | |
US20220004812A1 (en) | Image processing method, method for training pre-training model, and electronic device | |
US20220076470A1 (en) | Methods and apparatuses for generating model and generating 3d animation, devices and storage mediums | |
EP3901905B1 (en) | Method and apparatus for processing image | |
CN112270169B (zh) | 对白角色预测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211101 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7267379 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |