KR20190138238A - Deep Blind Transfer Learning - Google Patents

Deep Blind Transfer Learning Download PDF

Info

Publication number
KR20190138238A
KR20190138238A KR1020180064572A KR20180064572A KR20190138238A KR 20190138238 A KR20190138238 A KR 20190138238A KR 1020180064572 A KR1020180064572 A KR 1020180064572A KR 20180064572 A KR20180064572 A KR 20180064572A KR 20190138238 A KR20190138238 A KR 20190138238A
Authority
KR
South Korea
Prior art keywords
learning
source
target
data
domain
Prior art date
Application number
KR1020180064572A
Other languages
Korean (ko)
Inventor
강유
설정수
김재덕
김정환
허혜문
Original Assignee
삼성전자주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 서울대학교산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020180064572A priority Critical patent/KR20190138238A/en
Publication of KR20190138238A publication Critical patent/KR20190138238A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

How can we transfer a semi-supervised model trained in a source domain to a target domain without transferring any instances within a source data set? In conventional transfer learning, there is no limitation on utilization of source and target data. However, if the size of the source data set is too large to enter a memory or the source data set is personal, we cannot utilize source data while training target data. In the paper, we add a completely blind constraint to a corresponding model, which means that source or target data cannot be used while training each of a target or a source model. The present invention provides a simple and novel semi-supervised transfer learning method utilized for allowing a model learned in a source domain and an aligning neural network to learn a better model in a target domain. The aligning neural network maps a target feature space to a source feature space so that a supervised model learned from classified data of a source domain can be easily used in a target domain. Thus, the most advanced performance in partial-supervised transfer learning is achieved.

Description

딥 블라인드 전의 학습 { Deep Blind Transfer Learning }Deep Blind Transfer Learning

인간 지능을 실현하는 인공 지능 시스템은 현재 다양한 기술분야에서 이용되고 있다. 일반적으로 인공 지능 시스템은 기존의 규칙 기반 스마트 시스템과 달리 기계가 자체적으로 학습하고 결정하며 더 똑똑해 지는 특징을 가진다. 사용자가 인공 지능 시스템을 사용함에 따라 인공 지능 시스템의 인식률이 향상되고, 인공지능 시스템은 사용자의 기호 또는 관심사를 보다 잘 이해 할 수 있다. 따라서 기존의 규칙 기반 스마트 시스템이 심층 학습 기반 AI 시스템으로 대체되고 있다.Artificial intelligence systems for realizing human intelligence are currently used in various technical fields. In general, artificial intelligence systems, unlike conventional rule-based smart systems, have the feature that machines learn and decide on their own and become smarter. As the user uses the artificial intelligence system, the recognition rate of the artificial intelligence system is improved, and the artificial intelligence system can better understand the user's preferences or interests. Therefore, existing rule-based smart systems are being replaced by deep learning-based AI systems.

인공 지능 기술에는 기계 학습(예: 딥 러닝(deep learning)) 및 기계 학습을 사용하는 요소 기술이 포함된다.Artificial intelligence technologies include elementary technologies that use machine learning (eg, deep learning) and machine learning.

기계 학습이란 기계가 입력 데이터의 특성을 분류 및 학습하는 알고리즘 기술을 의미한다. 요소 기술은 딥 러닝과 같은 기계 학습 알고리즘을 사용하여 인간 두뇌의 인지 또는 결정 기능을 시뮬레이션 하는 기술을 말하며, 언어 이해, 시각적 이해, 추론, 예측, 지식 표현의 분야로 나눌 수 있다. Machine learning refers to an algorithmic technique in which a machine classifies and learns characteristics of input data. Elemental technology refers to the technology of simulating the cognitive or deterministic functions of the human brain using machine learning algorithms such as deep learning, and can be divided into the areas of language understanding, visual understanding, reasoning, prediction, and knowledge representation.

인공 지능 기술(AI)은 다양한 분야에 적용될 수 있다. 언어 이해는 인간의 구두(verbal)/서면(written) 언어를 인식, 적용 및 처리하는 기술을 말하며 자연 언어 처리, 기계 번역, 대화 시스템, 질의 응답 및 음성 인식, 음성 합성을 포함한다. 시각적 이해는 인간의 관점에서 물체를 인식하고 처리하는 기술을 말하며, 물체 인식, 물체 추적, 이미지 검색, 인간 인식, 장면 이해, 공간 이해 및 이미지 개선 기술을 포함한다. 추론/예측은 정보를 결정하고 논리적 추론 및 예측을 실행하는 기술을 말하며 지식/확률 기반 추론, 최적화 예측, 선호도 기반 계획 및 추천을 포함한다. 지식 표현은 인간 경험 정보를 자동화된 지식 데이터로 처리하는 기술을 말하며 지식 구성(생성/분류 데이터)과 지식 관리(데이터 활용)을 포함한다. 동작 제어는 차량의 자동 구동 및 로봇의 동작을 제어하는 기술을 말하며, 동작 제어(네비게이션, 충돌, 주행) 및 조작 제어(동작 제어)를 포함한다.Artificial intelligence technology (AI) can be applied to various fields. Language understanding refers to the technology of recognizing, applying and processing human verbal / written languages and includes natural language processing, machine translation, conversation systems, question and answer and speech recognition, and speech synthesis. Visual understanding refers to the technology of recognizing and processing objects from a human perspective, and includes object recognition, object tracking, image retrieval, human recognition, scene understanding, spatial understanding, and image enhancement techniques. Inference / prediction refers to the technique of determining information and performing logical reasoning and prediction, and includes knowledge / probability based inference, optimization prediction, preference based planning and recommendation. Knowledge representation refers to the technology of processing human experience information into automated knowledge data and includes knowledge composition (generation / classification data) and knowledge management (data utilization). The motion control refers to a technology for controlling the automatic driving of the vehicle and the motion of the robot, and includes motion control (navigation, collision, driving) and operation control (motion control).

참조문헌Reference

[1] S. J. pan and Q. Yang, "A survey on transfer learning," IEEE Transactions on knowledge and data engineering, vol,22, no. 10, pp. 1345-1359, 2010[1] S. J. pan and Q. Yang, "A survey on transfer learning," IEEE Transactions on knowledge and data engineering, vol, 22, no. 10, pp. 1345-1359, 2010

[2] K. Weiss, T. M Khoshgoftaar, and D. Wang, "A survey of transfer learning," Journal of Big Data, vol. 3, no. 1, p.9, 2016.[2] K. Weiss, T. M Khoshgoftaar, and D. Wang, "A survey of transfer learning," Journal of Big Data, vol. 3, no. 1, p. 9, 2016.

[3] J. Quionero-Candela, M. Sugiyama, A. Schwaighofer, and N. D. Lawrence, Dataset shift in machine learning. The MIT Press, 2009.[3] J. Quionero-Candela, M. Sugiyama, A. Schwaighofer, and N. D. Lawrence, Dataset shift in machine learning. The MIT Press, 2009.

[4] Y. Aytar and A. Zisserman, "Tabula rasa: Model transfer for object category detection," in Computer Vision (ICCV), 2011 IEEE International Congerence on. IEEE 2011, pp. 2252-2259.[4] Y. Aytar and A. Zisserman, "Tabula rasa: Model transfer for object category detection," in Computer Vision (ICCV), 2011 IEEE International Congerence on. IEEE 2011, pp. 2252-2259.

[5] R.Girshick, J. Donahue, T. Darrell, and J. Malik, "Rich feature hierarchies for accurate object detection and semantic segmentation," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2014, pp. 580-587.[5] R. Girshick, J. Donahue, T. Darrell, and J. Malik, "Rich feature hierarchies for accurate object detection and semantic segmentation," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2014, pp. 580-587.

[6] J. Long. E Shelhamer, and T. Darrell, "Fully convolutional networks for semantic segmentation," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. 3431-3440.[6] J. Long. E Shelhamer, and T. Darrell, "Fully convolutional networks for semantic segmentation," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. 3431-3440.

[7] S. Ren, K. He, R. Girshick, and J. Sun, "Faster r-cnn: Towards real-time object detection with region proposal networks," in Advances in neural information processing systems, 2015, pp. 91-99.[7] S. Ren, K. He, R. Girshick, and J. Sun, "Faster r-cnn: Towards real-time object detection with region proposal networks," in Advances in neural information processing systems, 2015, pp. 91-99.

[8] R. Collobert, J. Weston, L. Bottou, M. Karen, K. Kavukcuoglu, and P. Kuksa, "Natural language processing (almost) from scratch," Journal of machine Learning Reserch, Vol. 12, no. Aug, pp. 2493-2537, 2011.[8] R. Collobert, J. Weston, L. Bottou, M. Karen, K. Kavukcuoglu, and P. Kuksa, "Natural language processing (almost) from scratch," Journal of machine Learning Reserch, Vol. 12, no. Aug, pp. 2493-2537, 2011.

[9] X. Glorot, A. Bordes, and Y. Bengio, "Domain adaptation for large-scale sentiment classification: A deep learning approach," in Proceedings of the 28th international conference on machine learning (ICML-11), 2011, pp. 513-520.[9] X. Glorot, A. Bordes, and Y. Bengio, "Domain adaptation for large-scale sentiment classification: A deep learning approach," in Proceedings of the 28th international conference on machine learning (ICML-11), 2011, pp. 513-520.

[10] M. Chen, Z. Xu, K. Q. Weinberger, and F. Sha, "Marginalized denoising autoencoders for domain adaptation," in Proceedings of the 29th International Coference on International Conference on Machine Learning. Omnipress, 2012, pp. 1627-1634.[10] M. Chen, Z. Xu, K. Q. Weinberger, and F. Sha, "Marginalized denoising autoencoders for domain adaptation," in Proceedings of the 29th International Coference on International Conference on Machine Learning. Omnipress, 2012, pp. 1627-1634.

[11] M Xiao and Y. Guo, "Domain adaptation for sequence labeling tasks with a probabilistic language adaptation model," in Proceedings of the 30th International Conference on Machine Learning Volume 28. JMLR. org, 2013, pp. 1-293.[11] M Xiao and Y. Guo, "Domain adaptation for sequence labeling tasks with a probabilistic language adaptation model," in Proceedings of the 30th International Conference on Machine Learning Volume 28. JMLR. org, 2013, pp. 1-293.

[12] E. Tzeng, J. Hoffman, N. Zhang, K, Saenko, and T. Darrell, "Deep domain confusion: Maximizing for domain invariance," arXiv preprint arXiv: 1412.3474, 2014.[12] E. Tzeng, J. Hoffman, N. Zhang, K, Saenko, and T. Darrell, "Deep domain confusion: Maximizing for domain invariance," arXiv preprint arXiv: 1412.3474, 2014.

[13] E. Tzeng, J. Hoffman, T. Darrel, and K, Saenko, "Simultaneous deep transfer across domains and tasks," in Computer Vision (ICCV), 2015 IEEE International Conference on. IEEE 2015, pp. 4068-4076.[13] E. Tzeng, J. Hoffman, T. Darrel, and K, Saenko, "Simultaneous deep transfer across domains and tasks," in Computer Vision (ICCV), 2015 IEEE International Conference on. IEEE 2015, pp. 4068-4076.

[14] E. Tzeng, J. Hoffman, K. Saenko, and T. Darrel, "Adversarial discriminative domain adaptation," in Computer Vision and Pattern Recognition (CVPR), vol. 1, no. 2, 2017, p.4[14] E. Tzeng, J. Hoffman, K. Saenko, and T. Darrel, "Adversarial discriminative domain adaptation," in Computer Vision and Pattern Recognition (CVPR), vol. 1, no. 2, 2017, p.4

[15] M. Long, Y. Cao, J. Wang, and M. Jordan, "Learning transferable features with deep adaptation networks." International Conference on Machine Learning, 2015, pp. 97-105.[15] M. Long, Y. Cao, J. Wang, and M. Jordan, "Learning transferable features with deep adaptation networks." International Conference on Machine Learning, 2015, pp. 97-105.

[16] M. Long, Y. Cao, J. Wang, and M. Jordan, "Unsupervised domain adaptation with residual transfer networks," in Advances in neural information processing systems, 2016, pp. 136-144.[16] M. Long, Y. Cao, J. Wang, and M. Jordan, "Unsupervised domain adaptation with residual transfer networks," in Advances in neural information processing systems, 2016, pp. 136-144.

[17]-,"Deep transfer learning with joint adaptation networks," International Conference on Machine Learning, 2017, pp. 2208-2217.[17]-, "Deep transfer learning with joint adaptation networks," International Conference on Machine Learning, 2017, pp. 2208-2217.

[18] Y. Ganin and V. Lempitsky, "Unsupervised domain adaptation by backpropagation," International Conference on Machine Learning, 2015, pp. 1180-1189.[18] Y. Ganin and V. Lempitsky, "Unsupervised domain adaptation by backpropagation," International Conference on Machine Learning, 2015, pp. 1180-1189.

[19] Y. Ganin, E. Ustinova, H. Marchand, P. Germain, H. Larochelle, F. Laviolette, M. Marchand, and V. Lempitsky, "Domain-adversarial training of neural networks," The Joural of Machine Learning Reserach, vol. 17, no. 1, pp. 2096-2030, 2016.[19] Y. Ganin, E. Ustinova, H. Marchand, P. Germain, H. Larochelle, F. Laviolette, M. Marchand, and V. Lempitsky, "Domain-adversarial training of neural networks," The Joural of Machine. Learning Reserach, vol. 17, no. 1, pp. 2096-2030, 2016.

[20] K. Bousmalis, G. Trigeorgis, N. Silberman, D. Krishnan, and D. Erhan, "Domain separation networks," in Advances in neural information processing systems, 2016, pp. 343-351.[20] K. Bousmalis, G. Trigeorgis, N. Silberman, D. Krishnan, and D. Erhan, "Domain separation networks," in Advances in neural information processing systems, 2016, pp. 343-351.

[21] X. Zhang, F. X. Yu. S.-F. Chang and S, Wang, "Deep transfer networks: Unsupervised domain adaptation," arXiv preprint arXiv: 1503.00591, 2015.[21] X. Zhang, F. X. Yu. S.-F. Chang and S, Wang, "Deep transfer networks: Unsupervised domain adaptation," arXiv preprint arXiv: 1503.00591, 2015.

[22] F. Ma, D. Meng, Q. Xie, Z. Li, and X, Dong, "Self-paced co-training," in International Conference on Machine Learning, 2017, pp. 2275-2284.[22] F. Ma, D. Meng, Q. Xie, Z. Li, and X, Dong, "Self-paced co-training," in International Conference on Machine Learning, 2017, pp. 2275-2284.

[23] K. Saito, Y. Ushiku, and T. Harada, "Asymmetric tri-training for unsupervised domain adaptation," arXiv preprint arXiv: 1702.08400, 2017.[23] K. Saito, Y. Ushiku, and T. Harada, "Asymmetric tri-training for unsupervised domain adaptation," arXiv preprint arXiv: 1702.08400, 2017.

[24] A. Kumar, P. Sattigeri, and T. Fletcher, "Semi-supervised learning with in Advances in neural information processing systems,[24] A. Kumar, P. Sattigeri, and T. Fletcher, "Semi-supervised learning with in Advances in neural information processing systems,

[25] Z. Dai, Z. Yang, F. Yang, W. W. Cohen, and R. R. Salakhutdinov, "Good semi-supervised learning that requires a bad gan," in Advances in neural information processing systems, 2017, pp. 6513-6523.[25] Z. Dai, Z. Yang, F. Yang, W. W. Cohen, and R. R. Salakhutdinov, "Good semi-supervised learning that requires a bad gan," in Advances in neural information processing systems, 2017, pp. 6513-6523.

[26] T. Miyato, S-i. Maeda, M. Koyama, and S. Ishii, "Virtual adversarial training: a regularization method for supervised and semi-supervised learning: arXiv preprint arXiv: 1704.03976, 2017.[26] T. Miyato, S-i. Maeda, M. Koyama, and S. Ishii, "Virtual adversarial training: a regularization method for supervised and semi-supervised learning: arXiv preprint arXiv: 1704.03976, 2017.

[27] C. N. d. Santos, K. Wadhawan, and B. Zhou, "Learning loss functions for semi-supervised learning via discriminative adversarial network," arXiv preprint arXiv: 1707.02198, 2017.[27] C. N. d. Santos, K. Wadhawan, and B. Zhou, "Learning loss functions for semi-supervised learning via discriminative adversarial network," arXiv preprint arXiv: 1707.02198, 2017.

[28] L. Duan, I. W. Tsang, D. Xu, and T.-S. Chua, "Domain adaptation from multiple sources via auxiliary classifiers," in Proceedings of the 26th Annual International Conference on Machine Learning. ACM, 2009, pp. 289-296.[28] L. Duan, I. W. Tsang, D. Xu, and T.-S. Chua, "Domain adaptation from multiple sources via auxiliary classifiers," in Proceedings of the 26th Annual International Conference on Machine Learning. ACM, 2009, pp. 289-296.

[29] H. Daume III, A. Kurnar, and A. Saha, "Frustratingly easy semi-supervised domain adaptation," in Proceedings of the 2010 Workshop on Domain Adaptation for Natural Language Processing. Association for Computational Linguistics, 2010, pp. 53-59[29] H. Daume III, A. Kurnar, and A. Saha, "Frustratingly easy semi-supervised domain adaptation," in Proceedings of the 2010 Workshop on Domain Adaptation for Natural Language Processing. Association for Computational Linguistics, 2010, pp. 53-59

[30] J. Donahue, J. Hoffman, E. Rodner, K. Saenko, and T. Darrell, "semi-supervised domain adaptation with instance constraints," in Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. IEEE, 2013, pp. 668-675[30] J. Donahue, J. Hoffman, E. Rodner, K. Saenko, and T. Darrell, "semi-supervised domain adaptation with instance constraints," in Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. IEEE, 2013, pp. 668-675

[31] T. Yao, Y. Pan, C.-W. Ngo H. Li, and T. Mei, "Semi-supervised domain adaptation with subspace learning for visual recognition," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. 2142-2150.[31] T. Yao, Y. Pan, C.-W. Ngo H. Li, and T. Mei, "Semi-supervised domain adaptation with subspace learning for visual recognition," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. 2142-2150.

[32] N. Papernot, M. Abadi U. Erlingsson, I. Goodfellow, and K. Talwar, "Semi-supervised knowledge transfer for deep learning form private training data." arXiv preprint arXiv: 1610.05755, 2016.[32] N. Papernot, M. Abadi U. Erlingsson, I. Goodfellow, and K. Talwar, "Semi-supervised knowledge transfer for deep learning form private training data." arXiv preprint arXiv: 1610.05755, 2016.

[33] S. Ao, X. Li, and C. X. Ling, "Fast generalized distillation for semi-supervised domain adaptation," in AAAL, 2017, pp. 1719-1725.[33] S. Ao, X. Li, and C. X. Ling, "Fast generalized distillation for semi-supervised domain adaptation," in AAAL, 2017, pp. 1719-1725.

[34] M. Chen, K. Q. Weinberger, and J. Blitzer, "Co-training for domain adaptation," in Advances in neural information processing systems, 2011, pp. 2456-2464.[34] M. Chen, K. Q. Weinberger, and J. Blitzer, "Co-training for domain adaptation," in Advances in neural information processing systems, 2011, pp. 2456-2464.

[35] M. Rohrbach, S. Ebert, and B. Schiele, "Transfer learning in a transductive setting," in Advances in neural information processing systems, 2013, pp. 46-54.[35] M. Rohrbach, S. Ebert, and B. Schiele, "Transfer learning in a transductive setting," in Advances in neural information processing systems, 2013, pp. 46-54.

[36] D.-H. Lee, "Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks," in Workshop on Challenges in Representation Learning, ICML, vol. 3, 2013, p.2.[36] D.-H. Lee, "Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks," in Workshop on Challenges in Representation Learning, ICML, vol. 3, 2013, p.2.

[37] S. Khamis and C. H. Lampert, "Coconut: Co-classification with output space regularization." in BMVC, 2014.[37] S. Khamis and C. H. Lampert, "Coconut: Co-classification with output space regularization." in BMVC, 2014.

[38] O. Sener, H. O. Song, A. Saxena, and S. Savarese, "Learning transferrable representations for unsupervised domain adaptation," in Advances in Neural Information Processing Systems, 2016, pp. 2110-2118. [38] O. Sener, H. O. Song, A. Saxena, and S. Savarese, "Learning transferable representations for unsupervised domain adaptation," in Advances in Neural Information Processing Systems, 2016, pp. 2110-2118.

[39] N. N. Pise and P. Kulkarni, "A survey of semi-supervised learning methods," in Computational Intelligence and Security, 2008. CIS'08. International Conference on, vol. 2. IEEE, 2008, pp. 30-34.[39] N. N. Pise and P. Kulkarni, "A survey of semi-supervised learning methods," in Computational Intelligence and Security, 2008. CIS'08. International Conference on, vol. 2. IEEE, 2008, pp. 30-34.

[40] V. J. Prakash and D. L. Nithya, "A survey on semi-supervised learning techniques," arXiv preprint arXiv: 1402.4645, 2014.[40] V. J. Prakash and D. L. Nithya, "A survey on semi-supervised learning techniques," arXiv preprint arXiv: 1402.4645, 2014.

본 개시는 소스 및 타겟 특징 공간들을 정렬함으로써 특징 분포 시프트 문제를 해결하는 딥 블라인드 전의 학습(Deep Blind Transfer Learning: DBTL)에 관한 것이다.DETAILED DESCRIPTION The present disclosure relates to deep blind transfer learning (DBTL) that solves a feature distribution shift problem by aligning source and target feature spaces.

도 1은 DBTL의 구조 및 학습에 관한 도면이다. 1단계에서, 라벨링되지 않은 소스 인스턴스를 통해 자동인코더(auto encoder)를 학습시킨다. 2단계에서, 라벨링된 소스 인스턴스를 통해 분류자 및 인코더의 스택(stack)을 학습시킨다. 그 후, 위 모델을 타겟 도메인으로 전이시킨 후, 3단계에서, 라벨링되지 않은 타겟 인스턴스를 통해 자동인코더를 미세 조정(fine-tune) 시킨다. 4단계에서, 라벨링되지 않은 인스턴스를 사용해 타겟 특징 공간을 소스 특징 공간으로 맵핑 시키며 정렬자(aligner)를 학습시킨다. 마지막으로 5단계에서, 라벨링된 타겟 인스턴스에 인코더, 분류자, 정렬자의 전체 스택(stack)을 학습시킨다.1 is a diagram of the structure and learning of DBTL. In step 1, an auto encoder is learned through an unlabeled source instance. In step 2, a stack of classifiers and encoders is learned through a labeled source instance. Then, after the model is transferred to the target domain, in step 3, the autoencoder is fine-tuned through the unlabeled target instance. In step 4, we use an unlabeled instance to map the target feature space to the source feature space and train the aligner. Finally, in step 5, we train the entire stack of encoders, classifiers, and sorters on the labeled target instance.

I. 도입I. Introduction

데이터 가시성(visibility)의 제약하에서 어떻게 학습된 심층 학습 모델을 소스에서 타겟으로 전의할 수 있는가? 심층 순환 신경망(deep neural network, DNN)의 최근 향상된 성능을 나타내기 위해서는 대량의 라벨링된 데이터를 필요로 한다. 다만, 대부분의 경우 라벨링되지 않은 데이터가 라벨링 된 데이터보다 많으며, 라벨링되지 않은 데이터를 라벨링하는데 비용이 많이 들게 된다. 따라서, 본 개시에서는 적은양의 라벨링된 데이터를 사용하면서 약간 다른 분포를 가지지만 양은 충분한 관련 데이터를 추가적으로 사용할 수 있다. 라벨링되지 않은 데이터의 획득은 비교적 비용이 적게 들기 때문에 본 개시에서는 심층 순환 신경망(DNN)을 학습시키기 위해 라벨링되지 않은 데이터를 활용할 수 있다.How can you transfer a trained deep learning model from source to target under the constraints of data visibility? The latest improved performance of deep neural networks (DNNs) requires large amounts of labeled data. However, in most cases, there is more unlabeled data than labeled data, and it is expensive to label the unlabeled data. Thus, the present disclosure may additionally use relevant data that has a slightly different distribution while using a small amount of labeled data. Since acquisition of unlabeled data is relatively inexpensive, the present disclosure may utilize unlabeled data to train a deep circulatory neural network (DNN).

다른 소스 도메인에 대한 풍부한 라벨링된 데이터의 정보를 활용하는 전의 학습 방법[1, 2]은 기계 학습(머신 러닝) 분야에서 많은 관심을 받았다. 다른 학습 방법과는 달리 전의 학습은 소스 도메인으로부터 다르지만 관련된 타겟 도메인으로 지식 학습을 적용한다. 소스 도메인과 타겟 도메인이 다른 분포를 가지거나 다른 역할을 수행할 수 있기 때문에 타겟 도메인에서 예측에 도움이 되는 적절한 정보를 소스 도메인으로 전의하는 것은 어렵다 [3].Previous learning methods [1, 2] that leveraged information from rich labeled data for other source domains have received a lot of attention in the field of machine learning (machine learning). Unlike other learning methods, previous learning applies knowledge learning from the source domain to the relevant target domain. Since the source and target domains may have different distributions or play different roles, it is difficult to transfer appropriate information from the target domain to the source domain to aid in prediction [3].

실용적인 순방향 딥 전의 학습 설정(straight-forward deep transfer) [4, 5, 6, 7, 8, 9, 10, 11]에서는 소스 기반 피드-포워드(feedforward) 네트워크의 일부 저 수준(low-level) 매개변수가 복사되고 대상 데이터에 맞게 미세 조정 될 수 있다. 소스 도메인의 학습 과정은 타겟 도메인의 학습 과정과 엄격히 구분된다. 이와 대조적으로 최근의 딥 전의(deep transfer) 학습 방법 [12, 13, 14, 15, 16, 17, 18, 19, 20, 21]은 소스와 타겟 도메인 간의 피쳐 분포 불일치를 최소화하기 위해 소스와 타겟 데이터를 함께 학습 시킨다. In a practical straight-forward deep transfer [4, 5, 6, 7, 8, 9, 10, 11], some low-level parameters of source-based feedforward networks Variables can be copied and fine-tuned to the target data. The learning process of the source domain is strictly separated from the learning process of the target domain. In contrast, recent deep transfer learning methods [12, 13, 14, 15, 16, 17, 18, 19, 20, 21] have been used to minimize feature distribution discrepancies between source and target domains. Train the data together.

그러나, 일부 전의 학습 응용 프로그램에서는 비 효과 적인 소스 데이터의 대용량 첨부 또는 소스 데이터의 프라이버스에 민감한 특성 때문에 소스 데이터 집합을 타겟 데이터 프로세스에 활용할 수 없다. 본 개시에서는 전의 학습에 있어서 블라인드 전의 학습 프로그램을 제안한다. 블라인드 전의 학습 프로그램은 소스 데이터 및 타겟 데이터 세트에 대한 학습 과정이 엄격히 분리된다. 블라인드 제약하에서 소스 도메인으로부터의 지식은 소스 도메인으로 단 한번만 전의될 수 있다. 타겟 데이터는 소스 데이터의 학습 중에 활용될 수 없으며, 그 반대의 경우도 마찬가지이다. 블라인드 제약 조건은 명확하지 않으며 이전 연구에서 연구되지 않았다. 블라인드 제약하 학습과정에서 경험적으로 분포의 불일치를 계산하거나 최적화하는 것은 불가능하며, 데이터 분포의 변화를 줄이는 것이 더욱 어려워 진다.However, some previous learning applications cannot use source datasets in target data processes because of the large volume of ineffective source data or the sensitivity of source data to privacy. In the present disclosure, a learning program before blind is proposed in the previous learning. In the learning program before the blind, the learning process for the source data and the target data set is strictly separated. Under blind constraints knowledge from the source domain can only be transferred once to the source domain. The target data cannot be utilized during the learning of the source data, and vice versa. Blind constraints are not clear and have not been studied in previous studies. Under blind constraints, it is impossible to empirically calculate or optimize the distribution inconsistency in the learning process, and it becomes more difficult to reduce the change in the data distribution.

본 개시에서는 소스 도메인 및 타겟 도메인 모두에 라벨링이 된 인스턴스와 라벨링이 없는 인스턴스가 포함되어 있는지 여부에 따라, 전체 및 부분적인 준 감독 전의 학습(semi-supervised transfer learning)으로 구분된다. 전체 준 감독 전의 학습의 경우 학습 과정은 소스/타겟 데이터 세트에서 감독/감독되지 않은 모델을 순차적으로 미세조정 함으로써 휠씬 복잡해 질 수 있다. 서로 다른 데이터 또는 오브젝트를 통한 복수의 미세 조정은 이전 학습을 지우고 정보의 손실을 가져올 수 있다. 게다가, 소스 및 타겟 특징 공간은 구별될 수 있으며, 소스 분류자(classifier)는 타겟 특징 공간과 양립 할 수 없다. 순차적인 미세조정 접근법은 타겟 도메인의 최종 모델에서 좋은 성능을 보장할 수 없다.In the present disclosure, both source and target domains are classified into full and partial semi-supervised transfer learning depending on whether labeled instances and unlabeled instances are included. For pre-supervised learning, the learning process can be even more complicated by sequentially tweaking unsupervised models in the source / target data set. Multiple fine-tuning through different data or objects can erase previous learning and result in loss of information. In addition, the source and target feature spaces can be distinguished and the source classifier is incompatible with the target feature space. Sequential fine tuning approaches cannot guarantee good performance in the final model of the target domain.

본 개시에서는 소스 및 타겟 특징 공간을 정렬하여 특징 분포 시프트 문제를 해결하는 DBTL(Deep Blind Transfer Learning)을 제안한다. DBTL은 간단한 미세조정 접근법을 순환신경망의 간단한 정렬과 함께 확장하여 타겟 특징을 소스 특징 공간으로 매핑한다. 구체적으로 소스 및 타겟 특징의 매핑은 각각의 도메인에서 감독되지 않은 방식으로 개별적으로 학습될 수 있다. 그 후, 타겟 대상 특징을 소스 특징으로 맵핑하여 타겟이 라벨링되지 않은 소스 특징을 타겟 특징에 매핑함으로 다른 순환신경망을 학습한다. 특징 공간 정렬로 인해 분류자(classifier)는 타겟 데이터가 적용된 소스 도메인에서 학습된다(learned in). 타겟 라벨링된 데이터 세트에서 전체 구조를 미세조정하면 최종 모델이 생성된다. 이 과정에서 복수의 데이터 또는 목적(objective) 함수에 대한 단일 구조의 순차 미세조정은 이전의 학습을 제거하기 않고 블라인드 제약을 충족시킬 수 있다. 소스/ 타겟 라벨링/타겟 라벨링되지 않은 데이터의 모든 정보가 보존되어 최종 모델이 향상 될 수 있다. 이러한 본 개시의 방법에 관한 실험 결과는 우수한 성능을 보여준다.The present disclosure proposes a deep blind transfer learning (DBTL) for aligning source and target feature spaces to solve a feature distribution shift problem. DBTL extends a simple refinement approach with simple alignment of the cyclic neural network to map target features into the source feature space. Specifically, the mapping of source and target features can be learned individually in an unsupervised manner in each domain. Thereafter, the target target feature is mapped to the source feature to learn another circulatory neural network by mapping a source feature that is not labeled with the target feature to the target feature. Due to the feature space alignment, the classifier is learned in the source domain to which the target data is applied. Fine tuning the entire structure in the target labeled data set produces the final model. In this process, sequential refinement of a single structure over multiple data or objective functions can satisfy blind constraints without eliminating previous learning. All information in the source / target labeling / target unlabeled data can be preserved to improve the final model. Experimental results on the method of this disclosure show excellent performance.

II. 서설II. Introduction

자동 인코딩은 인코더(encoder)와 디코더(decoder) 두 부분[?]으로 구성된다. 인코더는 저 차원 공간에서 새로운 표현(representation)을 얻기 위해 입력 데이터를 은닉 레이어에 매핑(mapping)하는 것을 목표로 한다. 디코더는 원래의 입력과 재구성된 출력간의 오차를 최소화 함으로 은닉 표현을 사용하여 원래의 입력을 재구성하려고 시도한다.Automatic encoding consists of two parts: an encoder and a decoder. The encoder aims to map the input data to the hidden layer to obtain a new representation in low dimensional space. The decoder attempts to reconstruct the original input using a hidden representation by minimizing the error between the original input and the reconstructed output.

본 개시에서는

Figure pat00001
를 m개의 샘플,
Figure pat00002
차원에 대한 입력 데이터 셋으로 정의한다. 인코더와 디코더는 다음과 같이 형성된다.In the present disclosure
Figure pat00001
M samples,
Figure pat00002
Defined as the input data set for the dimension. The encoder and decoder are formed as follows.

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
은 은닉 표현이고,
Figure pat00006
는 원래의 특징
Figure pat00007
에 대한 재구성된 출력이다. 모델 매개변수
Figure pat00008
는 가중치 행렬
Figure pat00009
,
Figure pat00010
및 편향
Figure pat00011
,
Figure pat00012
을 포함한다.
Figure pat00005
Is a hidden expression,
Figure pat00006
Original features
Figure pat00007
Reconstructed output for. Model parameters
Figure pat00008
Is the weight matrix
Figure pat00009
,
Figure pat00010
And deflection
Figure pat00011
,
Figure pat00012
It includes.

자동 인코더의 목표는 주어진 데이터 집합 X와 목적 함수에 대한 재구성 오차를 최소화 하여 모델 매개변수

Figure pat00013
를 학습하는 것이다. The goal of the automatic encoder is to minimize model reconstruction errors for a given data set X and objective function.
Figure pat00013
To learn.

Figure pat00014
Figure pat00014

여기서 R(W, W')는 정규자(regularization)로 사용된다.Where R (W, W ') is used as the regularization.

III. 제안하는 방법III. How to suggest

이 절에서는 본 개시의 블라인드 완전 준 감독 전이 학습방법인, 딥 블라인드 전이 학습(Deep Blind Transfer Learning)방법을 자세히 설명한다.This section describes in detail the deep blind transfer learning method, which is the blind full semi-supervised transfer learning method of the present disclosure.

A. OverviewA. Overview

완전 준 감독(full semi-supervised) 전의 학습방법에 있어서, (라벨링된/라벨링되지 않은, 소스/ 타겟) 네 가지의 데이터가 있다. 소스 도메인에 대한 라벨링되지 않은 샘플을

Figure pat00015
로 정의하고, 타겟 도메인에 대한 라벨링되지 않은 샘플을
Figure pat00016
로 정의한다. 소스 도메인에 대한 라벨링된 샘플을
Figure pat00017
로 정의하고, 타겟 도메인에 대한 라벨링된 샘플을
Figure pat00018
로 정의한다. In the method of learning before full semi-supervised, there are four types of data (labeled / unlabeled, source / target). Unlabeled Samples for Source Domain
Figure pat00015
To be unlabeled samples of your target domain
Figure pat00016
Defined as Labeled samples for source domains
Figure pat00017
, And labeled samples for your target domain
Figure pat00018
Defined as

블라인드 완전 준 감독 전이 학습 (full semi-supervised transfer learning) 과정은 다음과 같이 모델 학습과정을 제약(constrain)한다. 위 모델은

Figure pat00019
Figure pat00020
에 대한 접근 없이
Figure pat00021
Figure pat00022
를 바탕으로 처음 학습된다 그 후, 학습된 모델은 전의되고,
Figure pat00023
Figure pat00024
에 대한 접근 없이
Figure pat00025
Figure pat00026
를 통해 학습된다. 블라인드 제약하에서는 두 가지 과제(challenge)가 있다. 첫 번째로 소스 및 타겟 데이터가 학습과정에서 함께 사용되지 않으므로, 샘플링 접근으로부터 특징 분포 차이를 계산하기 힘들다. 두 번째로 소스 데이터에 대해 학습된 특징 표현과 분류자를 모두 활용하는 것은 학습된 특징 표현이 소스 및 타겟 도메인간에서 다르기 때문에 어렵다. 본 개시는 이러한 어려움을 해결하기 위해 딥 블라인드 전의 학습 모델을 제안한다. 소스와 타겟 특징 공간 간의 불일치를 최소화 하는 대신 위 모델에서는 타겟 특징 공간을 소스 특징 공간과 정렬하는 방법을 학습한다. 타겟 도메인에 대해서만 맵핑을 학습 함으로써, 블라인드 제약이 만족된다. 또한, 타겟 자동인코더의 맨 위에 타겟에서 소스 특징으로의 맵핑은 소스 특징 공간에서 학습된 분류자가 타겟 데이터를 계속 예측할 수 있도록 한다.The blind semi-supervised transfer learning process constrains the model learning process as follows. The above model
Figure pat00019
and
Figure pat00020
Without access to
Figure pat00021
and
Figure pat00022
Is trained first based on the trained model.
Figure pat00023
and
Figure pat00024
Without access to
Figure pat00025
and
Figure pat00026
Are learned through. There are two challenges under blind constraints. First, since the source and target data are not used together in the learning process, it is difficult to calculate the feature distribution difference from the sampling approach. Second, utilizing both learned feature representations and classifiers on source data is difficult because the learned feature representations differ between the source and target domains. The present disclosure proposes a learning model before deep blinds to solve this difficulty. Instead of minimizing discrepancies between the source and target feature spaces, the model learns how to align the target feature spaces with the source feature spaces. By learning the mapping only for the target domain, blind constraints are satisfied. In addition, the mapping from target to source feature on top of the target autoencoder allows the classifier learned in the source feature space to continue to predict the target data.

B. DBTLB. DBTL

본 개시에 따른 모델은 도1의 가장 왼쪽에 보이는 것과 같이 3개의 신경망 구조로 구성되어 있다. 본 개시에 따른 모델을 이용하여 특징 공간의 구조를 학습하기 위해 라벨링 없는 데이터를 통해 첫번째 신경망을 자동인코더기로 학습시킨다. 두 번째 신경망은 타겟 자동인코더의 출력을 소스 자동인코더의 출력에 매핑함으로 학습된다. 세 번째 신경망은 라벨링된 데이터와 함께 일반적인 감독 방식으로 학습된다. 첫 번째, 두 번째, 세 번째 신경망을 각각 인코더(encoder), 정렬자(aligner) 및 분류자(classifier)로 정의한다. 블라인드 제약 조건을 만족시키기 위해 다음 5단계에서 라벨링되지 않은 소스/타겟 데이터 및 라벨링된 소스/타겟 데이터를 순차적으로 학습시킨다.The model according to the present disclosure is composed of three neural network structures as shown on the left side of FIG. 1. The first neural network is trained with an autoencoder through unlabeled data to learn the structure of the feature space using the model according to the present disclosure. The second neural network is learned by mapping the output of the target autoencoder to the output of the source autoencoder. The third neural network is trained in a general supervisory fashion with labeled data. The first, second, and third neural networks are defined as encoders, aligners, and classifiers, respectively. In order to satisfy the blind constraint, the next unlabeled source / target data and the labeled source / target data are sequentially learned.

1단계: 인코더는 자동인코더의 재구성 손실(autoencoder reconstruction loss)을 사용하여 라벨링되지 않은 소스 데이터에 대해 학습시킨다. Step 1: The encoder learns about unlabeled source data using the autoencoder reconstruction loss.

2단계: 미세 조정된 라벨링된 타겟 데이터를 이용해 사전 인코더 위의 분류자(classifier on top of the previous encoder)를 학습시킨다. Step 2: Train the classifier on top of the previous encoder using the finely tuned labeled target data.

3단계: 인코더는 표준 자동인코더의 재구성 손실로 라벨링되지 않은 타겟 데이터에서 다시 미세조정 된다. 이 단계에서 미세조정된 파라미터를 가진 인코더를 타겟 인코더로 부른다. Step 3: The encoder is fine-tuned again on unlabeled target data due to the reconstruction loss of the standard autoencoder. In this step, an encoder with fine-tuned parameters is called a target encoder.

4단계: 정렬자는 타겟 인코딩을 라벨링되지 않은 타겟 데이터의 소스 인코딩에 매핑하도록 학습한다. 이 단계에서 정렬자(녹색 부분)만 학습시킨다. Step 4: The sorter learns to map the target encoding to the source encoding of unlabeled target data. At this stage, only the sorter (green part) is trained.

5단계: 인코더, 정렬자 및 분류자의 스택(stack)은 타겟 라벨링된 데이터에서 미세조정 된다. Step 5: The stack of encoders, sorters, and classifiers is refined in the target labeled data.

소스 및 타겟 인코더는 각각 소스 및 타겟 인코더에 의해 인코딩된 특징 공간으로 정의된다. 소스 특징 공간과 함께 타겟 특징 공간을 정렬하기 위해 정렬자를 학습하는 것을 목표로 한다.Source and target encoders are defined as feature spaces encoded by the source and target encoders, respectively. It aims to learn the aligner to align the target feature space with the source feature space.

C. 모델 특성C. Model properties

블라인드 구속, 모든 학습 단계에서 소스 데이터 집합이나 타겟 데이터 집합만 사용한다. 학습단계에서 1단계와 2단계에서 모델은 소스 데이터 집합에 대해 학습되며, 타겟 데이터 집합은 필요하지 않는다. 대조적으로 3단계와 4단계 및 5단계는 소스 데이터집합에 엑세스 하지 않고 타겟 데이터 집합을 활용한다. 2단계와 3단계 사이에 전달되는 유일한 정보는 소스 자동 인코딩 및 소스 분류자이다. 학습과정에서의 이러한 명확한 분리는 블라인드 제약을 만족시킨다.Blind constraints, use only source or target datasets for all learning phases. In the training phase, in the first and second stages, the model is trained on the source data set, and no target data set is required. In contrast, steps 3, 4, and 5 utilize the target data set without accessing the source data set. The only information passed between steps 2 and 3 is the source auto-encoding and source classifier. This clear separation in the learning process satisfies the blind constraint.

성능의 예측. 3단계의 타겟 자동 인코딩은 2단계에서 미세 조정된 소스 자동 인코딩을 통해 매핑된 다른 특징(feature)을 제공한다. 이러한 차이점 때문에 2단계에서 학습된 소스 분류자는 타겟 자동 인코딩으로 부터의 특징에 대해 일관된 성능을 제공하지 않는다. 3단계에서는 타겟 데이터 집합의 구조를 학습하는 동안 소스 분류자의 예측 성능이 저하된다. 따라서, 4단계에서 정렬자를 도입한다. 정렬자를 학습하여 소스 자동 인코더의 인코딩을 타겟 자동인코더의 인코딩에 매핑한다. 타겟 자동인코더 및 정렬 신경 네트워크의 스택은 타겟 도메인의 데이터를 소스 특징 공간으로 매핑한다. 그 후 소스 분류자는 정렬된 특징 공간에서 좋은 예측 성능을 제공한다.  Forecast of performance. The target auto encoding of step 3 provides another feature mapped through the source auto encoding fine tuned in step 2. Because of these differences, the source classifier learned in step 2 does not provide consistent performance for features from target auto encoding. In the third stage, the predictive performance of the source classifier is degraded while learning the structure of the target data set. Therefore, the sorter is introduced in step 4. Learn the sorter to map the encoding of the source autoencoder to the encoding of the target autoencoder. The stack of target autoencoder and alignment neural network maps data of the target domain into the source feature space. The source classifier then provides good prediction performance in the ordered feature space.

IV. 실험 결과IV. Experiment result

이 섹션에서는 광범위한 실험을 통해 DBTL의 성능을 검증한다. 본 개시는 다음 질문에 답하고자 한다.In this section, extensive experiments verify the performance of the DBTL. This disclosure attempts to answer the following questions.

Q1. (성능의 예측) DBTL은 블라인드 준 감독 전의(semi-supervised transfer) 학습을 어떻게 수행하는가?Q1. (Expectation of performance) How does DBTL perform blind semi-supervised transfer learning?

Q2. (준 감독 학습에서 라벨링되지 않은 데이터 이용) 라벨링된 데이터가 희박할 때 라벨링이 되지 않은 데이터를 효과적으로 이용하는가?Q2. (Use unlabeled data in quasi-supervised learning) Do you effectively use unlabeled data when the labeled data is sparse?

Q3. (정렬자 학습의 효과) 정렬자의 이점은 더 많은 계층을 배치하는 것보다 특징을 정렬하는 것에서 비롯되는가?Q3. (The effect of sorter learning) Does the sorter's benefit come from sorting features rather than placing more layers?

A. 실험설정A. Experiment setup

데이터세트. 본 개시에서는 HEPMASS, HIGGS, SUSY, Sensorless Gas와 같은 다차원 구조의 5가지 실제 데이터를 통해 실험을 수행한다. 세 개의 데이터 세트(HEPMASS, HIGGS and SUSY)는 입자 충돌 실험의 센서 관측이다. 여기서 라벨링은 실재 관심세대와 이진(Binary)이다. 다른 데이터 세트(Sensorless Gas)는 라벨링은 모터 상태상태의 진단 및 화학반응에서의 가스 유형에 관한 센서 관측이다. 데이터의 통계는 표 1에 나와있다. 모든 데이터 세트는 UCL 머신 러닝(기계 학습) 저장소에서 사용할 수 있다.Dataset. In the present disclosure, the experiment is performed through five actual data of a multidimensional structure such as HEPMASS, HIGGS, SUSY, and Sensorless Gas. Three data sets (HEPMASS, HIGGS and SUSY) are sensor observations of particle collision experiments. The labeling here is the actual generation of interest and the binary. Another data set (Sensorless Gas) is labeling, which is a sensor observation of the type of gas in the diagnosis and chemical reaction of a motor condition. The statistics of the data are shown in Table 1. All data sets are available in the UCL machine learning (machine learning) repository.

표 1Table 1

데이터 세트의 통계에 따르면, 모든 데이터 세트는 UCL 머신러닝 자료실에서 사용할 수 있다. URL:HTTP:ARCHIVE.ICS.UCI.EDU/ML According to the data set statistics, all data sets are available in the UCL machine learning archive. URL: HTTP: ARCHIVE.ICS.UCI.EDU/ML

Figure pat00027
Figure pat00027

데이터 처리. 완전 준 감독 전이(Full semi-supervised transfer) 실험을 수행하기 위해, 소스 / 타겟, 라벨링된 / 라벨링되지 않은 인스턴스가 있는 데이터 세트가 필요하다. 위의 데이터를 소스 / 타겟으로 분할하고 다음과 같이 라벨링을 지정하거나 라벨링을 지정하지 않는다. Data processing . To perform a full semi-supervised transfer experiment, you need a data set with source / target, labeled / unlabeled instances. Split the above data into source / target and specify labeling or no labeling as follows:

1단계: 먼저 특징범위를 정규화 한다. 특징이 음의 값을 포함하면, -1 ~ 1의 범위로 정규화 될 수 있다. 음의 값을 포함하지 않는 경우 0 ~ 1의 범위로 정규화 될 수 있다. Step 1: First normalize the feature range. If the feature contains a negative value, it can be normalized to the range -1 to 1. If it does not contain a negative value, it can be normalized in the range of 0 to 1.

2단계: K를 10으로 설정한 K-means 클러스터링 알고리즘을 이용하여 전체 데이터의 10%를 타겟 데이터로 선택한다. 타겟 데이터는 충분한 크기의 클러스터에서 샘플링 된다.Step 2: Using the K-means clustering algorithm with K set to 10, 10% of the total data is selected as the target data. Target data is sampled in clusters of sufficient size.

3단계: 전체 데이터의 1%를 소스 데이터로 샘플링하고 해당 파티션으로부터 타겟 테스트 데이터를 샘플링한다. 본 개시에서는 set을 학습 데이터로 설정한다.Step 3: Sample 1% of the total data as source data and sample target test data from the partition. In the present disclosure, set is set as learning data.

4단계: 본 개시에서는 무작위로 소스 및 타겟 학습데이터의 90%를 선택하고, 학습데이터로 라벨링되지 않은 데이터를 얻기위해 라벨링을 지운다.Step 4: The present disclosure randomly selects 90% of the source and target training data and deletes the labeling to obtain data that is not labeled with the training data.

K-means 클러스터링에서 각 클러스터의 인스턴스는 다른 클러스터의 인스턴스에 비해 서로 더 가깝다. 타겟 데이터 인스턴스는 동일한 클러스터에서 샘플링 되므로 소스 및 타겟 데이터는 의도된 다른 특징 분포를 가진다. 최종 데이터 비율은 라벨링된 소스: 라벨링되지 않은 소스: 테스트 소스: 라벨링된 타겟: 라벨링되지 않은 타겟 = 80.1:8.9:1:8.1:0.9:1. 이다. In K-means clustering, instances in each cluster are closer to each other than instances in other clusters. Since the target data instance is sampled in the same cluster, the source and target data have different intended feature distributions. The final data rate is labeled source: unlabeled source: test source: labeled target: unlabeled target = 80.1: 8.9: 1: 8.1: 0.9: 1. to be.

B. 성능의 예측  B. Prediction of Performance

본 개시의 일 실시 예에 따르면 DBTL의 예측성능을 블라인드 전체 준 감독 전의(blind full semi-supervised transfer) 학습에 대한 성능으로 설정한다. 본 개시에 따른 방법은 네 가지 유형의 학습 데이터를 모두 사용한다. 데이터의 일부만 사용하는 4가지의 다른 기준 방법과 본 개시에 따른 방법을 비교한다.According to an embodiment of the present disclosure, the predictive performance of the DBTL is set as the performance for blind full semi-supervised transfer learning. The method according to the present disclosure uses all four types of training data. Compare the methods according to the present disclosure with four other reference methods that use only a portion of the data.

1) T-L: 하나의 신경망이 라벨링된 타겟 데이터세트로만 학습된다.One) T-L: One neural network is trained only with labeled target datasets.

2) ST-L: 단일 신경망은 라벨링된 소스 데이터 세트로 사전 학습을 받았고, 라벨링된 타겟 데이터 세트에 미세조정 되었다. 이는 라벨링된 소스 데이터 세트를 활용하는 간단한 전의 학습 접근법이다.2) ST-L: A single neural network was pretrained with a labeled source data set and fine tuned to a labeled target data set. This is a simple pre-learning approach that utilizes a labeled source data set.

3) T-LU: 인코더와 신경망 분류자의 스택(STACK)으로 인코더가 자동 인코더로 라벨링되지 않은 타겟 데이터 세트에 대해 학습되고 전체 네트워크가 라벨링된 타겟 데이터 세트에 대해 추가로 학습된다. 이는 라벨링없는 타겟 데이터 세트를 활용하는 간단한 준-감독(semi-supervised) 학습 접근법이다.3) T-LU: A stack of encoders and neural network classifiers (STACKs) where the encoder is trained on a target data set that is not labeled with an automatic encoder and the entire network is further trained on a labeled target data set. This is a simple semi-supervised learning approach that takes advantage of unlabeled target data sets.

4) ST-LU: 인코더와 신경망 분류자의 스택(stack)은 정렬자가 없는 것만 제외하고는 DBTL방법과 같이 학습된다. 이는 준-감독 학습과 전의를 결합하는 자연스러운 접근법이다.4) ST-LU: The stack of encoders and neural network classifiers is learned like the DBTL method except that there is no sorter. This is a natural approach that combines quasi-supervised learning with advocacy.

동일한 지면(ground)에서 비교하기 위해 인코더, 정렬자 및 분류자의 구조를 각각 80_40_20_10, 100_50_100 및 00_300_300_300_300으로 고정한다. 각 DBTL단계의 최적화 과정에서 학습률 0.001, 배치 크기 100의 adam 최적화(optimizer)를 사용한다. 학습은 테스트 데이터 집합의 성능이 수렴될 때까지 계속된다. 레이어의 크기 증가의 잠재적인 이점은 IV_D파트에서 분석된다. In order to compare on the same ground, the structure of the encoder, the aligner and the classifier is fixed to 80_40_20_10, 100_50_100 and 00_300_300_300_300, respectively. In the optimization process for each DBTL step, we use adam optimizer with a learning rate of 0.001 and a batch size of 100. Learning continues until the performance of the test data set converges. The potential benefit of increasing the size of the layer is analyzed in part IV_D.

타겟 테스트 세트에 대한 정확도 예측은 표2에 요약되어 있다. 최종 성능은 멀티-클레스 데이터 세트(Gas, Sensorless) 및 이진 라벨링된 데이터 세트(HEPMASS, HIGGS, SUSY)의 정확도로 보고된다. 모든 데이터 세트에 대해 DBTL은 ST-LU의 자연스러운 접근 방식에서 가장 좋은 예측성능을 나타내었다. 자연스러운(naive) 감독학습과 비교할 때 DBTL은 멀티-클레스 데이터세트에서 6%, 이진 라벨링된 데이터 세트에서 3~12%의 성능향상이 나타났다. 게다가, 전의 및 준-감독 학습학습의 적용은 자연스러운 학습에 비해 예측성능을 향상시켰다. 전의 학습 모델은 1~8%의 성능 증가를 보인 반면, 준-감독 학습 모델은 1~3%의 성능 증가를 보였다.Accuracy predictions for the target test set are summarized in Table 2. Final performance is reported with the accuracy of multi-class data sets (Gas, Sensorless) and binary labeled data sets (HEPMASS, HIGGS, SUSY). For all data sets, DBTL showed the best predictive performance in the natural approach of ST-LU. Compared with naive supervised learning, DBTL improved performance by 6% in multi-class datasets and 3-12% in binary labeled datasets. In addition, the application of previous and quasi-supervised learning has improved predictive performance over natural learning. The previous learning model showed a performance increase of 1-8%, while the semi-supervised learning model showed a performance increase of 1-3%.

표 2TABLE 2

DBTL의 예측 성과. 블라인드 준-감독 전의 학습문제에서 네 가지 기본 방법과 비교되는 DBTL의 성능을 나타내었다. 본 개시에 따른 방법 DBTL은 모든 5가지 데이터베이스에 대해 최상의 예측 성능을 달성하였다.DBTL predictive performance. We showed the performance of DBTL compared with the four basic methods in the blind pre-supervised learning problem. The method DBTL according to the present disclosure achieved the best prediction performance for all five databases.

Figure pat00028
Figure pat00028

C. 준-감독 학습의 라벨링되지 않은 데이터 활용C. Leverage unlabeled data from semi-supervised learning

본 개시에서는 DBTL에서 준-감독 학습의 효과를 실험하였다.In this disclosure, we examined the effects of semi-supervised learning in DBTL.

D. 정렬 학습의 효과D. Effect of Sort Learning

본 개시에서는 DBTL의 정렬자 학습의 효과를 실험하였다.In the present disclosure, the effect of sorter learning of DBTL was tested.

V. 관련 연구 V. related research

딥 신경망 네트워크(DNN)을 학습하려면 엄청난 양의 데이터 세트가 필요하다. 그러나 작업이 정해진 라벨링된 데이터 세트는 일반적으로 부족하다. 딥 신경망 네트워크를 학습하려면 엄청난 양의 데이터 집합이 필요하지만 다른 도메인으로부터 라벨링된 데이터 세트 또는 라벨링되지 않은 데이터 세트의 집합도 필요하다.Learning deep neural network (DNN) requires huge data sets. However, labeled job data sets are generally lacking. Learning a deep neural network requires a huge amount of data sets, but it also requires a set of labeled or unlabeled data sets from other domains.

전의 학습[1, 2]은 학습된 데이터로부터 다른 분포를 갖는 다른 도메인으로 머신러닝 모델을 전의하는 것을 목표로 한다. 소스 도메인에서 습득한 일반화 가능한 지식을 활용하여 대상 도메인에서 더 나은 모델을 학습한다. 컴퓨터 비전[4, 5, 6, 7]과 자연 언어 처리[8, 9, 10, 11]영역에서 최첨단 성능을 얻기 위해 전의 학습을 적용하는 연구가 많이 있었다. The previous training [1, 2] aims to transfer the machine learning model from the learned data to different domains with different distributions. Leverage generalizable knowledge gained from the source domain to learn better models in the target domain. In the field of computer vision [4, 5, 6, 7] and natural language processing [8, 9, 10, 11], there have been a lot of studies applying previous learning to obtain the most advanced performance.

딥 전의(deep transfer) 학습에 대한 기존의 방법은 소스와 타겟 도메인 간의 특징 분포 불일치를 자주(frequently) 최소화 한다 [12, 13, 14, 15, 16, 17, 18, 19, 20]. 이러한 방법은 학습과정에서 소스 및 타겟 데이터를 함께 사용하여 특징 분포 불일치를 계산하고 최적화 한다. 전의 학습에 대한 다른 연구는 라벨링되지 않은 데이터와 타겟 데이터에 의해 유사 라벨링(pseudo-lables)을 각각 학습하고 할당한다 [34, 35, 36, 37, 38, 22, 23]. 이러한 방법은 소스 및 타겟 데이터에서 모델을 반복적으로 미세 조정하여 더 나은 유사-라벨링을 제공한다. Existing methods for deep transfer learning frequently minimize feature distribution discrepancies between source and target domains [12, 13, 14, 15, 16, 17, 18, 19, 20]. This method uses source and target data together in the learning process to calculate and optimize feature distribution inconsistencies. Other studies of previous learning have learned and assigned pseudo-lables by unlabeled and target data, respectively [34, 35, 36, 37, 38, 22, 23]. This method iteratively fine tunes the model in the source and target data to provide better pseudo-labeling.

준-감독 학습[39, 40]은 라벨링 예측에 대한 더 나은 성능을 위해 라벨링된 데이터와 라벨링되지 않은 데이터를 모두 활용하려고 한다. 라벨링되지 않은 데이터는 특징 공간 구조에서 구조를 발견하거나 작은 라벨링된 데이터에서 초과 피팅(over-fitting)으로 모델을 정규화 하는데 사용된다. 가장 최근에 제안된 연구 [24, 25, 26, 27]는 adversarial 학습을 이용하여 특징 공간에서의 구조를 학습하였다. 일부 연구는 준-감독 영역 적응의 문제를 연구하였다 [28, 29, 30, 31]. 또한 이러한 연구는 소스 및 타겟 데이터를 모두 사용하여 데이터 분포의 불일치를 측정하였다. Semi-supervised learning [39, 40] seeks to utilize both labeled and unlabeled data for better performance with labeling predictions. Unlabeled data is used to find the structure in the feature space structure or to normalize the model with over-fitting on small labeled data. The most recent study [24, 25, 26, 27] used adversarial learning to learn the structure in feature space. Some studies have studied the problem of semi-supervision adaptation [28, 29, 30, 31]. The study also used both source and target data to measure inconsistencies in the data distribution.

본 개시에서는 학습과정에서 소스 및 타겟 데이터 세트의 가시성(visibility)을 명시적으로 제한하였다. 우리가 알고 있는 바에 따르면, 준-감독 학습의 학습과정에서 타겟 데이터로부터 소스 테이터의 격리(isolation)는 최근 [32, 33]에서만 고려되었다. 이 연구에서는 소스 도메인에서 학습한 훈련(teacher) 분류자가 학습(student) 분류자가 학습할 수 있도록 타겟 도메인의 유사 라벨링을 제공한다. 그러나 앙상블(ensembling) [32]이나 증류(distillation) [33]가 있더라도 이러한 모델은 잘못된 라벨이 붙은 데이터로 학습될 수 있다. 본 개시의 작업은 최종 모델의 학습에서 모든 소스 / 타겟, 라벨링된 / 라벨링되지 않은 데이터를 활용하고 블라인드 제약 조건을 충족시키기 위한 원칙적은 접근 방법을 제공한다. 게다가, 본 개시의 작업은 준-감독 전의 학습의 문제를 가장 먼저 다루는 것이다. 문제 설정 간의 차이점은 표3에 요약되어 있다. In the present disclosure, the visibility of the source and target data sets is explicitly limited in the learning process. As we know, the isolation of source data from target data in the learning process of semi-supervised learning has only recently been considered [32, 33]. In this study, we provide similar labeling of target domains so that trained classifiers can learn from classifiers. However, even with ensembling [32] or distillation [33], these models can be trained with incorrectly labeled data. The work of this disclosure utilizes all source / target, labeled / unlabeled data in the training of the final model and provides a principled approach to satisfying blind constraints. In addition, the task of this disclosure is to first address the issue of pre-supervision learning. The differences between the problem settings are summarized in Table 3.

표 3TABLE 3

문제 설정간의 차이점 요약. 본 개시에 따른 방법은 모든 다른 유형의 데이터 베이스를 활용하고, 블라인드 제약을 충족한다.Summary of differences between problem settings. The method according to the present disclosure utilizes all other types of databases and meets blind constraints.

Figure pat00029
Figure pat00029

VI. 결론VI. conclusion

본 개시는 타겟 학습동안 소스 데이터에 대한 가시성 제약 조건을 가진 완전 준-감독 설정하에서 새로운 딥 전의 학습 방법(deep transfer learning method)을 제안한다. 본 개시는 신중하게 모든 데이터의 활용도를 최대화 하고, 블라인드 제약 조건을 충족시키기 위해 학습 과정을 설정한다. 블라인드 제약으로 인해 유사-라벨링에 대한 불일치를 최소화 하거나 반복적으로 학습하는 이전의 접근법은 적용할 수 없다. 소스 도메인에서 학습한 분류자를 활용하기 위해 자동 인코딩을 통해 타겟 특징을 소스 특징 영역에 매핑한다. 이 방법으로 타겟 데이터에 대한 감독되지 않은 학습으로부터의 정보와 소스 데이터에 대한 감독된 학습으로부터의 정보 모두를 활용한다. 블라인드 제약하 실제 세계 데이터에 대한 완전한 준-감독 전의 학습에서 최첨단의 성능을 가진 효과적인 접근법을 보여준다. The present disclosure proposes a new deep transfer learning method under full semi-supervision with visibility constraints on source data during target learning. The present disclosure carefully sets the learning process to maximize the utilization of all data and to meet blind constraints. Because of blind constraints, previous approaches to minimizing or repeating learning for pseudo-labeling are not applicable. In order to take advantage of classifiers learned in the source domain, the target feature is mapped to the source feature region through automatic encoding. In this way, both information from unsupervised learning of target data and information from supervised learning of source data are utilized. It demonstrates an effective approach with state-of-the-art performance in full pre-supervised learning of real-world data under blind constraints.

Claims (6)

인공지능 신경망 모델의 딥 블라인드 전의 학습(Deep Blind Transfer Learning)방법에 있어서,
라벨링되지 않은(unlabeled) 소스 데이터(source data)를 통해 인코더(encoder)를 학습하는 단계;
라벨링된 소스 데이터를 통해 분류자(classifier) 및 상기 인코더(encoder)를 학습하는 단계;
라벨링되지 않은 타겟 데이터(target data)를 통해 상기 인코더를 미세조정(fine-tune)하는 단계;
상기 라벨링되지 않은 타겟 데이터를 통해 정렬자(aligener)를 학습하는 단계; 및
라벨링된 타겟 데이터를 통해 상기 분류자, 정렬자, 인코더의 전체 스택을 학습하는 단계;
를 포함하는 학습 방법.
In the Deep Blind Transfer Learning method of the artificial intelligence neural network model,
Learning an encoder through unlabeled source data;
Learning a classifier and the encoder through labeled source data;
Fine-tuneing the encoder via unlabeled target data;
Learning an alien from the unlabeled target data; And
Learning the entire stack of classifier, sorter, and encoder from labeled target data;
Learning method comprising a.
제1항에 있어서,
상기 소스 데이터(source data)를 통해 인코더(encoder)를 학습하는 단계는,
자동인코더(autoencoder)의 재구성 손실(reconstruction loss)을 바탕으로 라벨링되지 않은 소스 데이터를 통해 인코더를 학습하는 것을 특징으로 하는 학습 방법.
The method of claim 1,
Learning an encoder through the source data,
A learning method comprising learning an encoder through unlabeled source data based on a reconstruction loss of an autoencoder.
제1항에 있어서,
상기 분류자는 상기 라벨링된 데이터를 바탕으로 일반적인 감독방식(common supervised fashion)으로 학습되는 것을 특징으로 하는 학습 방법.
The method of claim 1,
The classifier is trained in a common supervised fashion based on the labeled data.
제1항에 있어서,
상기 정렬자를 학습하는 단계는,
타겟 특징 공간(target feature space)을 소스 특징 공간(sorce feature space)으로 맵핑(mapping)하여 학습하는 단계인 것을 특징으로 하는 학습 방법.
The method of claim 1,
Learning the sorter,
And learning by mapping a target feature space to a source feature space.
제1항에 있어서,
상기 정렬자가 학습되는 동안, 상기 인코더 및 분류자는 학습되지 않는 것을 특징으로 하는 학습 방법.
The method of claim 1,
The encoder and classifier are not trained while the sorter is trained.
제1항에 있어서,
각 학습 단계에서 상기 소스 데이터 및 타겟 데이터는 동시에 사용되지 않는 것을 특징으로 하는 학습 방법.
The method of claim 1,
The learning method characterized in that the source data and the target data are not used at the same time in each learning step.
KR1020180064572A 2018-06-04 2018-06-04 Deep Blind Transfer Learning KR20190138238A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180064572A KR20190138238A (en) 2018-06-04 2018-06-04 Deep Blind Transfer Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180064572A KR20190138238A (en) 2018-06-04 2018-06-04 Deep Blind Transfer Learning

Publications (1)

Publication Number Publication Date
KR20190138238A true KR20190138238A (en) 2019-12-12

Family

ID=69003830

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180064572A KR20190138238A (en) 2018-06-04 2018-06-04 Deep Blind Transfer Learning

Country Status (1)

Country Link
KR (1) KR20190138238A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119687B1 (en) * 2020-03-02 2020-06-05 엔에이치네트웍스 주식회사 Learning Apparatus and Method of Image
CN111898755A (en) * 2020-08-11 2020-11-06 中国人民解放军海军航空大学 Single track intelligent synthesis method and device
KR102183310B1 (en) * 2020-03-02 2020-11-26 국민대학교산학협력단 Deep learning-based professional image interpretation device and method through expertise transplant
CN112364916A (en) * 2020-11-10 2021-02-12 中国平安人寿保险股份有限公司 Image classification method based on transfer learning, related equipment and storage medium
CN112729835A (en) * 2021-01-30 2021-04-30 温州大学 Multi-domain semi-supervised fault diagnosis method and device for axial plunger pump bearing
KR20210134153A (en) 2020-04-29 2021-11-09 (주)휴톰 Method and apparatus for deep knowledge transfer via prerequisite learning
WO2021225294A1 (en) * 2020-05-07 2021-11-11 에스케이텔레콤 주식회사 Transfer learning apparatus and method using sample-based regularization technique
CN113657387A (en) * 2021-07-07 2021-11-16 复旦大学 Semi-supervised three-dimensional point cloud semantic segmentation method based on neural network
CN113742520A (en) * 2020-05-29 2021-12-03 北京大学 Video query retrieval method based on dense video description algorithm of semi-supervised learning
CN114136622A (en) * 2021-08-10 2022-03-04 南京航空航天大学 DBN-DTL-based aeroengine gas circuit fault diagnosis method
KR20220087301A (en) 2020-12-17 2022-06-24 주식회사 포스코 Knowledge transfer model and computer-readable storage medium in which program to perform them are stored
CN115082792A (en) * 2022-06-29 2022-09-20 华南理工大学 Cross-domain water surface target detection method based on feature antagonistic migration and semi-supervised learning
KR20230089999A (en) 2021-12-14 2023-06-21 한국기술교육대학교 산학협력단 Transfer learning method and device specialized for MLCC data based on deep learning

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102183310B1 (en) * 2020-03-02 2020-11-26 국민대학교산학협력단 Deep learning-based professional image interpretation device and method through expertise transplant
KR102119687B1 (en) * 2020-03-02 2020-06-05 엔에이치네트웍스 주식회사 Learning Apparatus and Method of Image
KR20210134153A (en) 2020-04-29 2021-11-09 (주)휴톰 Method and apparatus for deep knowledge transfer via prerequisite learning
WO2021225294A1 (en) * 2020-05-07 2021-11-11 에스케이텔레콤 주식회사 Transfer learning apparatus and method using sample-based regularization technique
KR20210136344A (en) * 2020-05-07 2021-11-17 에스케이텔레콤 주식회사 Method and Apparatus for Transfer Learning Using Sample-based Regularization
CN113742520B (en) * 2020-05-29 2023-11-07 北京大学 Video query and search method of dense video description algorithm based on semi-supervised learning
CN113742520A (en) * 2020-05-29 2021-12-03 北京大学 Video query retrieval method based on dense video description algorithm of semi-supervised learning
CN111898755B (en) * 2020-08-11 2023-09-12 中国人民解放军海军航空大学 Single track intelligent synthesis method and device
CN111898755A (en) * 2020-08-11 2020-11-06 中国人民解放军海军航空大学 Single track intelligent synthesis method and device
CN112364916A (en) * 2020-11-10 2021-02-12 中国平安人寿保险股份有限公司 Image classification method based on transfer learning, related equipment and storage medium
CN112364916B (en) * 2020-11-10 2023-10-27 中国平安人寿保险股份有限公司 Image classification method based on transfer learning, related equipment and storage medium
KR20220087301A (en) 2020-12-17 2022-06-24 주식회사 포스코 Knowledge transfer model and computer-readable storage medium in which program to perform them are stored
CN112729835A (en) * 2021-01-30 2021-04-30 温州大学 Multi-domain semi-supervised fault diagnosis method and device for axial plunger pump bearing
CN113657387B (en) * 2021-07-07 2023-10-13 复旦大学 Semi-supervised three-dimensional point cloud semantic segmentation method based on neural network
CN113657387A (en) * 2021-07-07 2021-11-16 复旦大学 Semi-supervised three-dimensional point cloud semantic segmentation method based on neural network
CN114136622A (en) * 2021-08-10 2022-03-04 南京航空航天大学 DBN-DTL-based aeroengine gas circuit fault diagnosis method
KR20230089999A (en) 2021-12-14 2023-06-21 한국기술교육대학교 산학협력단 Transfer learning method and device specialized for MLCC data based on deep learning
CN115082792A (en) * 2022-06-29 2022-09-20 华南理工大学 Cross-domain water surface target detection method based on feature antagonistic migration and semi-supervised learning
CN115082792B (en) * 2022-06-29 2024-05-28 华南理工大学 Cross-domain water surface target detection method based on feature countermeasure migration and semi-supervised learning

Similar Documents

Publication Publication Date Title
KR20190138238A (en) Deep Blind Transfer Learning
Wang et al. Deep visual domain adaptation: A survey
CN114241282B (en) Knowledge distillation-based edge equipment scene recognition method and device
Connie et al. Facial expression recognition using a hybrid CNN–SIFT aggregator
CN112528780B (en) Video motion segmentation by hybrid temporal adaptation
KR20200028330A (en) Systems and methods that enable continuous memory-based learning in deep learning and artificial intelligence to continuously run applications across network compute edges
Elaraby et al. Deep Learning: Effective tool for big data analytics
US11908457B2 (en) Orthogonally constrained multi-head attention for speech tasks
CN110210468B (en) Character recognition method based on convolutional neural network feature fusion migration
Mao et al. Cmd: Self-supervised 3d action representation learning with cross-modal mutual distillation
Tang et al. Towards uncovering the intrinsic data structures for unsupervised domain adaptation using structurally regularized deep clustering
Srinivas et al. A comprehensive survey of techniques, applications, and challenges in deep learning: A revolution in machine learning
Huttunen Deep neural networks: A signal processing perspective
CN116258990A (en) Cross-modal affinity-based small sample reference video target segmentation method
Xu et al. Weakly supervised facial expression recognition via transferred DAL-CNN and active incremental learning
CN117033657A (en) Information retrieval method and device
Xu et al. Deep learning for cross-domain few-shot visual recognition: A survey
Yang et al. Categories of response-based, feature-based, and relation-based knowledge distillation
CN114492581A (en) Method for classifying small sample pictures based on transfer learning and attention mechanism element learning application
Robert The Role of Deep Learning in Computer Vision
CN114170426A (en) Algorithm model for classifying rare tumor category small samples based on cost sensitivity
CN114169408A (en) Emotion classification method based on multi-mode attention mechanism
Pan et al. Teach machine to learn: hand-drawn multi-symbol sketch recognition in one-shot
Alharbi et al. Learning interpretation with explainable knowledge distillation
CN117453949A (en) Video positioning method and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal