KR20230142164A - 구조식 이미지를 인식하는 인공 지능 장치 및 그 방법 - Google Patents
구조식 이미지를 인식하는 인공 지능 장치 및 그 방법 Download PDFInfo
- Publication number
- KR20230142164A KR20230142164A KR1020220041054A KR20220041054A KR20230142164A KR 20230142164 A KR20230142164 A KR 20230142164A KR 1020220041054 A KR1020220041054 A KR 1020220041054A KR 20220041054 A KR20220041054 A KR 20220041054A KR 20230142164 A KR20230142164 A KR 20230142164A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- atomic
- image
- atomic region
- processor
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 65
- 238000000034 method Methods 0.000 title claims description 26
- 239000011159 matrix material Substances 0.000 claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 description 34
- 238000010801 machine learning Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 210000002569 neuron Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 239000000126 substance Substances 0.000 description 5
- 210000000225 synapse Anatomy 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
본 개시의 일 실시 예에 따른 인공 지능 장치는 구조식 이미지를 저장하는 메모리 및 구조식 이미지에서 복수의 원자 영역 정보를 획득하고, 복수의 원자 영역 정보를 기초로 복수의 원자 간의 결합 관계 정보를 획득하고, 복수의 원자 영역 정보 및 복수의 원자 간의 결합 관계 정보를 기초로 인접 행렬을 생성하고, 인접 행렬을 기초로 구조식 이미지에 대응하는 소정의 문자열 포맷을 생성하는 프로세서를 포함한다.
Description
본 개시는, 구조식 이미지를 인식하는 인공 지능 장치 및 그 방법에 관한 것이다. 구체적으로, 화학 구조식 이미지 또는 분자 구조식 이미지를 인식하여 구조식 이미지로부터 소정의 문자열로 변환할 수 있는 인공 지능 장치 및 그 방법에 관한 것이다.
구조식(structural formula) 는 화학 구조 또는 분자 구조를 그래픽으로 표현된 것을 의미한다. 구조식은 3차원 공간에서 원자가 어떻게 배열되는지를 보여줄 수 있다. 분자의 화학 결합도 분명하게 하거나 내포하여 표시할 수 있다.
특히, 한정된 수의 기호를 갖고 제한된 서술만을 할 수 있는 분자식과는 달리, 구조식은 분자 구조의 기하학적 정보를 제공할 수 있다. 예를 들어, 분자식은 같지만 원자의 구조나 배열이 다른 이성질체를 표현할 수 있다.
특히, 각종 문헌, 논문 등에서 구조식은 이미지 형태로 제공된다. 그러나 구조식 이미지는 일반적으로 검색을 어렵게 하는 문제점이 있다.
따라서, 구조식 이미지를 소정의 문자열로 변환하여 검색을 원활하게 할 수 있도록 할 필요성이 대두되고 있다.
본 개시는 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.
본 개시는 구조식 이미지에서 원자에 관한 정보를 획득하고, 원자와 원자 간의 결합관계를 보다 정확하게 인식할 수 있는 인공 지능 장치 및 그 방법을 제공하는 것을 목적으로 한다.
본 개시는 구조식 이미지를 인식하여 소정의 문자열 포맷으로 변환할 수 있는 인공 지능 장치 및 그 방법을 제공하는 것을 목적으로 한다.
본 개시의 일 실시 예는 구조식 이미지를 저장하는 메모리, 및 구조식 이미지에서 복수의 원자 영역 정보를 획득하고, 복수의 원자 영역 정보를 기초로 복수의 원자 간의 결합 관계 정보를 획득하고, 복수의 원자 영역 정보 및 복수의 원자 간의 결합 관계 정보를 기초로 인접 행렬을 생성하고, 인접 행렬을 기초로 구조식 이미지에 대응하는 소정의 문자열 포맷을 생성하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 일 실시 예는 구조식 이미지를 원자 영역 인식 모델에 입력하고, 원자 영역 인식 모델로부터 출력되는 복수의 원자 영역 정보를 획득하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 일 실시 예는 복수의 원자 영역 정보 중 제1 원자 영역 정보 및 제2 원자 영역 정보를 기초로 제1 원자 및 제2 원자 사이의 결합 이미지를 획득하고, 결합 이미지를 기초로 제1 원자 및 제2 원자의 결합 관계 정보를 획득하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 일 실시 예는 결합 이미지를 결합 관계 인식 모델에 입력하고, 결합 관계 인식 모델로부터 출력되는 결합 관계 정보를 획득하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 일 실시 예는 제1 원자 영역 정보 및 제2 원자 영역 정보를 기초로 제1 원자 영역의 중심점 위치와 제2 원자 영역의 중심점 위치를 포함하는 결합 이미지를 획득하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 일 실시 예는 제1 원자 영역 정보를 기초로 소정의 거리 내에 위치하는 제2 원자 영역을 선택하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 일 실시 예는 복수의 원자 영역 정보를 기초로 복수의 원자들 각각을 정점으로, 복수의 원자 각각의 결합 관계 정보를 간선으로 하여 인접 행렬을 생성하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 일 실시 예는 생성된 인접 행렬을 기초로 SMILES(Simplified Molecular Input Line Entry System)를 포함하는 소정의 문자열 포맷으로 구조식 이미지를 변환하는 프로세서를 포함하는 인공 지능 장치를 제공한다.
본 개시의 실시 예에 따르면, 인공 지능 장치는 구조식 이미지에서 원자에 관한 정보를 획득할 수 있으며, 원자와 원자 간의 결합관계를 정확하게 인식할 수 있다.
본 개시의 실시 예에 따르면, 인공 지능 장치는 구조식 이미지를 인식하여 소정의 문자열 포맷으로 변환할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 인공 지능 장치를 나타낸다.
도 2는 본 개시의 일 실시 예에 따른 인공 지능 서버를 나타낸다.
도 3은 본 개시의 일 실시 예에 따른 구조식 인식 방법을 설명하기 위한 순서도 있다.
도 4는 본 개시의 일 실시 예에 따른 구조식 이미지를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 원자 영역 인식 모델을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 복수의 원자 영역 정보를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 결합 관계 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 결합 관계 인식 모델을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 인공 지능 서버를 나타낸다.
도 3은 본 개시의 일 실시 예에 따른 구조식 인식 방법을 설명하기 위한 순서도 있다.
도 4는 본 개시의 일 실시 예에 따른 구조식 이미지를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 원자 영역 인식 모델을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 복수의 원자 영역 정보를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 결합 관계 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 결합 관계 인식 모델을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않은 것으로 이해되어야 할 것이다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
도 1은 본 개시의 일 실시 예에 따른 인공 지능 장치를 나타낸다.
인공 지능(AI) 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)와 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 개시의 일 실시 예에 따른 인공 지능 서버를 나타낸다.
도 2를 참조하면, 인공 지능 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3는 본 개시의 일 실시 예에 따른 구조식 인식 방법을 설명하기 위한 순서도 있다.
프로세서(180)는 구조식 이미지를 획득할 수 있다(S301). 구조식 이미지는 메모리(170)에 저장된 이미지이거나 통신부(110)를 통해 외부 장치로부터 수신되어 저장된 이미지일 수 있다.
구조식 이미지는 구조식이 그래픽 형태로 표현된 이미지일 수 있다.
구조식(structural formula)은 화학 구조 또는 분자 구조를 그래픽적으로 표현한 것을 의미할 수 있다. 구조식은 3차원 공간에서의 원자의 배열에 관한 정보를 포함할 수 있다. 또한, 원자 간의 화학 결합도 표현할 수 있다.
한편, 구조식 이미지는 주석을 포함할 수 있다. 예를 들어, 주석은 화합물의 명칭 등을 의미할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 구조식 이미지를 설명하기 위한 도면이다.
구조식 이미지(400)는 분자 구조를 그래픽적으로 표현한 구조식(401)를 포함할 수 있다. 또한, 구조식 이미지(400)는 주석(402)을 포함할 수 있다. 구조식 이미지(400)가 생성되는 경우 구조식 이미지에 분자 구조에 관한 설명 또는 명칭으로서 주석이 이미지화되어 포함되는 경우가 있다. 따라서, 구조식 이미지(400)를 인식하여 소정의 문자열 포맷으로 변환하고자 하는 경우, 구조식 이미지(400)에 포함된 주석(402)을 제외하고 구조식(401)만을 인식 대상으로 필터링할 필요성이 있다.
한편, 프로세서(180)는 구조식 이미지에서 복수의 원자 영역 정보를 획득할 수 있다(S302).
원자 영역 정보는 구조식 이미지에서의 원자 영역 식별 정보, 원자 위치 정보 및 원자 정보 중 적어도 하나를 포함할 수 있다.
원자 영역 식별 정보는 구조식 이미지에서 인식된 복수의 원자 영역 각각을 구별할 수 있는 식별 정보(또는 번호)를 의미할 수 있다.
또한, 원자 위치 정보는 구조식 이미지에서 원자 영역에 해당하는 좌표 정보를 의미할 수 있다. 예를 들어, 원자 영역이 사각형으로 표현되는 경우, 원자 위치 정보는 원자 영역에 해당하는 사각형 각각의 꼭지점 좌표 및 사각형의 중심점 좌표를 포함할 수 있다.
또한, 원자 정보는 원자 영역에 해당하는 원자의 원소 기호 정보를 포함할 수 있다. 예를 들어, 원자 영역에 해당하는 이미지가 꼭지점으로 표현되는 경우 탄소(C)가 원자 정보에 해당할 수 있다. 또한, 원자 영역에 해당하는 이미지에 원소 기호(예를 들어, 산소(O))가 기재되어 있는 경우 해당 원소 기호(O) 정보가 원자 정보에 해당할 수 있다.
한편, 원자 영역 정보는 구조식 이미지에서 획득한 원자 영역 정보의 신뢰도 정보를 포함할 수 있다. 예를 들어, 프로세서(180)는 구조식 이미지에서 획득한 원자 영역 정보의 신뢰도 정보를 0.00에서 1.00 사이의 값으로 획득할 수 있으며, 소정의 값 이상의 신뢰도 정보를 갖는 원자 영역 정보만을 이용할 수 있다.
한편, 프로세서(180)는 구조식 이미지를 원자 영역 인식 모델에 입력하고, 원자 영역 인식 모델로부터 출력되는 복수의 원자 영역 정보를 획득할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 원자 영역 인식 모델을 설명하기 위한 도면이다.
도 5를 참고하면, 프로세서(180)는 구조식 이미지(501)를 원자 영역 인식 모델(502)에 입력하고, 원자 영역 인식 모델(502)로부터 출력되는 원자 영역 정보를 획득할 수 있다.
원자 영역 인식 모델(502)은 입력된 구조식 이미지(501)에 대하여 이미지에 포함된 적어도 하나의 원자 영역 정보(503)를 출력하도록 훈련된 인공 신경망(ANN: Artificial Neural Network)일 수 있다. 인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로서, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 예를 들어, 원자 영역 인식 모델(502)은 CNN(Convolutional Neural Networks) 기반의 인공 신경망 모델일 수 있다
러닝 프로세서(130)는 구조식 이미지와 원자 영역 정보에 관한 학습 데이터를 이용하여 인공 신경망으로 구성된 원자 영역 인식 모델(502)을 학습시킬 수 있다. 한편, 원자 영역 인식 모델(502)은 인공 지능 서버(200)의 러닝 프로세서(240)에 의해 학습된 모델일 수 있다.
학습된 원자 영역 인식 모델(502)은 메모리(170)에 저장되거나, 인공 지능 서버(200)의 모델 저장부(231)에 저장될 수 있다. 프로세서(180)는 메모리(170) 또는 모델 저장부(231)에 저장된 원자 영역 인식 모델(502)을 이용할 수 있다.
한편, 도 6은 본 개시의 일 실시 예에 따른 복수의 원자 영역 정보를 설명하기 위한 도면이다.
도 6을 참고하면, 프로세서(180)는 원자 영역 인식 모델(502)로부터 출력되는 복수의 원자 영역 정보(601, 602, 603, 604, 605, 606, 607, 608, 609, 610, 611)를 획득할 수 있다.
복수의 원자 영역 정보는 구조식에서 꼭지점 영역(601, 602, 603, 604, 605, 606, 608, 609, 610), 원소 기호가 기술된 원소 기호 영역(607) 및 주석 영역(611)에 관한 정보를 포함할 수 있다. 예를 들어, 원자 영역 인식 모델(502)은 원소 기호가 기술된 원소 기호 영역(607)도 출력할 수 있도록 훈련될 수 있으므로, 원자 영역 인식 모델(502)이 주석 영역(611)을 원자 영역 정보로 출력하는 경우도 발생할 수 있다. 따라서, 복수의 원자 영역 정보에서 주석 영역에 관한 정보를 필터링할 필요성이 있다. 예를 들어, 주석 영역(611)은 다른 원자 영역들과 결합 관계가 도시되어 있지 않으므로, 프로세서(180)는 주석 영역(611)과 다른 원자 영역들간에 결합 관계가 존재하지 않는 경우, 주석 영역(611)을 주석으로 분류할 수 있다.
한편, 프로세서(180) 복수의 원자 영역 정보를 기초로 복수의 원자 간의 결합 관계 정보를 획득할 수 있다(S303).
프로세서(180)는 복수의 원자 영역 정보를 기초로 각각의 원자 영역에 대하여 다른 원자 영역과의 결합 관계 정보를 획득할 수 있다.
프로세서(180) 복수의 원자 영역 정보 중 제1 원자 영역 정보 및 제2 원자 영역 정보를 기초로 제1 원자 및 제2 원자 사이의 결합 이미지를 획득하고, 획득한 결합 이미지를 기초로 제1 원자 및 제2 원자의 결합 관계 정보를 획득할 수 있다.
한편, 도 7은 본 개시의 일 실시 예에 따른 결합 관계 정보를 획득하는 방법을 설명하기 위한 도면이다.
프로세서(180)는 복수의 원자 영역 정보 중 제1 원자 영역 정보(301)를 선택할 수 있다. 또한, 프로세서(180)는 제1 원자 영역 정보와 다른 제2 원자 영역 정보(602)를 선택할 수 있다. 또한, 프로세서(180)는 제1 원자 영역 정보(601)의 제1 원자 위치 정보(702) 및 제2 원자 영역 정보(602)의 제2 원자 위치 정보(703)를 기초로 제1 원자와 제2 원자 사이의 결합 이미지(701)를 획득할 수 있다. 이 경우, 제1 원자 위치 정보(702) 및 제2 원자 위치 정보(703)는 각 원자 영역의 중심점 위치일 수 있다. 그러나, 원자 영역의 중심점 위치로 한정되는 것은 아니다.
프로세서(180)는 프로세서(180)는 제1 원자 영역 정보(601)의 제1 원자 위치 정보(702) 및 제2 원자 영역 정보(602)의 제2 원자 위치 정보(703)를 기초로 각 원자 영역의 중심점 위치를 포함하는 결합 이미지(701)를 획득할 수 있다. 또한, 프로세서(180)는 제1 원자 영역 정보(601) 및 제2 원자 영역 정보(602)를 기초로 제1 원자 영역 및 제2 원자 영역을 포함하는 결합 이미지(704)를 획득할 수도 있다. 결합 이미지의 크기 및 형태는 다양하게 조절될 수 있다.
한편, 프로세서(180)는 복수의 원자 영역 각각에 대하여 조합 가능한 원자 사이의 결합 이미지를 획득할 수 있다. 그러나 조합 가능한 모든 원자 사이의 결합 이미지를 획득하는 경우 연산량이 증가할 수 있다. 따라서, 프로세서(180)는 복수의 원자 영역 정보를 기초로 서로 소정의 거리 내에 있는 제1 원자와 제2 원자 간의 결합 이미지만을 획득할 수 있다.
예를 들어, 프로세서(180)는 복수의 원자 영역 정보 중 제1 원자 영역 정보를 기초로 제1 원자 영역과 소정의 거리 내에 위치하는 제2 원자 영역을 선택할 수 있다. 도 7을 참고하면, 프로세서(180)는 제1 원자 영역(601)에서 소정의 거리 내에 위치하는 제2 원자 영역들(602, 603, 608, 609, 610)을 특정하고, 제1 원자(601)와 각각의 제2 원자 사이의 결합 이미지들을 획득하여, 제1 원자 및 제2 원자들 간의 결합 관계 정보를 획득할 수 있다. 또한, 프로세서(180)는 제1 원자 영역(601)에서 소정의 거리 밖에 위치하는 제3 원자 영역들(604, 605, 606, 607, 611)은 결합관계가 없는 것으로 판별할 수 있다. 따라서, 연산량을 줄일 수 있다.
한편, 프로세서(180)는 획득한 결합 이미지를 기초로 원자 간의 결합 관계 정보를 획득할 수 있다.
예를 들어, 프로세서(180)는 결합 이미지를 결합 관계 인식 모델에 입력하고, 결합 관계 인식 모델로부터 출력되는 결합 관계 정보를 획득할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 결합 관계 인식 모델을 설명하기 위한 도면이다.
도 8을 참고하면, 프로세서(180)는 결합 이미지(801)를 결합 관계 인식 모델(802)에 입력하고, 결합 관계 인식 모델(802)로부터 출력되는 결합 관계 정보를 획득할 수 있다.
결합 관계 정보는 원자 간 결합에 관한 정보로서 미결합, 단일 결합, 이중 결합, 삼중 결합, 업 방향 결합, 다운 방향 결합 등에 관한 정보를 포함할 수 있다. 미결합은 원자 간에 결합이 존재하지 않는 경우를 의미할 수 있다. 업 방향 결합은 쐐기선(wedge)으로 표시되는 평면 앞으로 나오는 결합을 의미할 수 있다. 또한, 다운 방향 결합은 점선(dash)으로 표시되는 평면 뒤로 들어가는 결합을 의미할 수 있다.
결합 관계 인식 모델(802)은 입력된 결합 이미지(801)에 대하여 결합 관계 정보(803)를 출력하도록 훈련된 인공 신경망(ANN: Artificial Neural Network)일 수 있다. 인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로서, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 예를 들어, 결합 관계 인식 모델(802)은 CNN(Convolutional Neural Networks) 기반의 인공 신경망 모델일 수 있다
러닝 프로세서(130)는 결합 이미지와 결합 관계 정보에 관한 학습 데이터를 이용하여 인공 신경망으로 구성된 결합 관계 인식 모델(802)을 학습시킬 수 있다. 한편, 결합 관계 인식 모델(802)은 인공 지능 서버(200)의 러닝 프로세서(240)에 의해 학습된 모델일 수 있다.
학습된 결합 관계 인식 모델(802)은 메모리(170)에 저장되거나, 인공 지능 서버(200)의 모델 저장부(231)에 저장될 수 있다. 프로세서(180)는 메모리(170) 또는 모델 저장부(231)에 저장된 결합 관계 인식 모델(802)을 이용할 수 있다.
한편, 프로세서(180)는 복수의 원자 영역 정보 및 복수의 원자 간의 결합 관계 정보를 기초로 인접 행렬을 생성할 수 있다(S304).
프로세서(180)는 복수의 원자들 각각을 정점으로, 복수의 원자 각각의 결합 관계 정보를 간선으로 하여 인접 행렬을 생성할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 인접 행렬을 설명하기 위한 도면이다.
도 9를 참고하면, 프로세서(180)는 복수의 원자 영역(601 내지 611)의 각각의 원자들을 인접 행렬의 정점으로 생성할 수 있다. 한편, 프로세서(180)는 복수의 원자 각각의 결합 관계 정보를 간선으로 하여 인접 행렬을 생성할 수 있다. 예를 들어, 프로세서(180)는 결합 관계 정보 각각을 임의의 숫자로 대응하여 인접 행렬의 간선 값으로 생성할 수 있다. 예를 들어, 프로세서(178)는 미결합은 '0'으로, 단일 결합은 '1', 이중 결합은 '2', 삼중 결합은 '3'으로 대응시킬 수 있다.
또한, 프로세서(180)는 업 방향 결합은 방향성을 나타내기 위하여 행을 출발 정점으로 열을 도착 정점으로 하여 행과 열 순으로 업 방향으로 결합된 경우 '5'로 대응시키고, 그 반대 방향에 대하여는 '0'으로 대응시킬 수 있다. 예를 들어, 도 9를 참고하면 인접행렬의 5번째 행의 6번째 열의 값은 제1 원자(605)에서 제2 원자(606)로 업 방향 결합이 되어 있는바 대응되는 '5'의 값이 생성될 수 있다. 한편, 그 반대 방향인 인접행렬의 6번째 행의 5번째 열의 값은 '0'으로 생성될 수 있다.
마찬가지로, 프로세서(180)는 다운 방향 결합은 방향성을 나타내기 위하여 행을 출발 정점으로 열을 도착 정점으로 하여 행과 열 순으로 다운 방향으로 결합된 경우 '6'으로 대응시키고, 그 반대 방향에 대하여는 '0'으로 대응시킬 수 있다.
한편, 프로세서(180)는 생성된 인접 행렬을 기초로 구조식 이미지에 대응하는 소정의 문자열 포맷을 생성할 수 있다(S305).
프로세서(180)는 인접 행렬의 정점에 대응하는 원자 영역들 각각을 순회하면서 다른 원자들과의 결합 관계 정보를 획득할 수 있다. 프로세서(180)는 획득한 원자 간의 결합 관계 정보들을 이용하여 복수의 원자 영역 각각의 원자 정보를 특정하고, 복수의 원자 정보 및 복수의 원자 간의 결합 관계 정보를 기초로 구조식 이미지에 대응하는 소정의 문자열 포맷을 생성할 수 있다.
이 경우, 문자열 포맷은 화합물들의 정보(예를 들어, 원소의 위치, 결합 관계 등)을 나타낼 수 있는 파일 포맷으로 mol 파일 포맷 또는 sdf 파일 포맷 등을 포함할 수 있다. 한편, 문자열 포맷은 SMILES(Simplified Molecular Input Line Entry System)에 관한 정보를 포함할 수 있다.
전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 인공지능장치(100)의 프로세서(180)를 포함할 수도 있다.
Claims (18)
- 구조식 이미지를 저장하는 메모리;
상기 구조식 이미지에서 복수의 원자 영역 정보를 획득하고, 상기 복수의 원자 영역 정보를 기초로 복수의 원자 간의 결합 관계 정보를 획득하고, 상기 복수의 원자 영역 정보 및 상기 복수의 원자 간의 결합 관계 정보를 기초로 인접 행렬을 생성하고, 상기 인접 행렬을 기초로 상기 구조식 이미지에 대응하는 소정의 문자열 포맷을 생성하는 프로세서를 포함하는,
인공 지능 장치. - 제1항에 있어서,
상기 프로세서는,
상기 구조식 이미지를 원자 영역 인식 모델에 입력하고, 상기 원자 영역 인식 모델로부터 출력되는 상기 복수의 원자 영역 정보를 획득하는,
인공 지능 장치. - 제2항에 있어서,
상기 복수의 원자 영역 정보는,
원자 위치 정보 및 원자 정보를 포함하는,
인공 지능 장치. - 제3항에 있어서,
상기 프로세서는,
상기 복수의 원자 영역 정보 중 제1 원자 영역 정보 및 제2 원자 영역 정보를 기초로 제1 원자 및 제2 원자 사이의 결합 이미지를 획득하고, 상기 결합 이미지를 기초로 상기 제1 원자 및 상기 제2 원자의 결합 관계 정보를 획득하는,
인공 지능 장치. - 제4항에 있어서,
상기 프로세서는,
상기 결합 이미지를 결합 관계 인식 모델에 입력하고, 상기 결합 관계 인식 모델로부터 출력되는 상기 결합 관계 정보를 획득하는,
인공 지능 장치. - 제4항에 있어서,
상기 프로세서는,
상기 제1 원자 영역 정보 및 상기 제2 원자 영역 정보를 기초로 상기 제1 원자 영역의 중심점 위치와 상기 제2 원자 영역의 중심점 위치를 포함하는 상기 결합 이미지를 획득하는,
인공 지능 장치. - 제4항에 있어서,
상기 프로세서는,
상기 제1 원자 영역 정보를 기초로 소정의 거리 내에 위치하는 상기 제2 원자 영역을 선택하는,
인공 지능 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 원자 영역 정보를 기초로 복수의 원자들 각각을 정점으로, 복수의 원자 각각의 결합 관계 정보를 간선으로 하여 상기 인접 행렬을 생성하는,
인공 지능 장치. - 제1항에 있어서,
상기 프로세서는,
상기 생성된 인접 행렬을 기초로 SMILES(Simplified Molecular Input Line Entry System)를 포함하는 소정의 문자열 포맷으로 상기 구조식 이미지를 변환하는,
인공 지능 장치. - 구조식 이미지에서 복수의 원자 영역 정보를 획득하는 단계;
상기 복수의 원자 영역 정보를 기초로 복수의 원자 간의 결합 관계 정보를 획득하는 단계;
상기 복수의 원자 영역 정보 및 상기 복수의 원자 간의 결합 관계 정보를 기초로 인접 행렬을 생성하는 단계; 및
상기 인접 행렬을 기초로 상기 구조식 이미지에 대응하는 소정의 문자열 포맷을 생성하는 단계를 포함하는,
구조식 이미지 인식 방법. - 제10항에 있어서,
상기 복수의 원자 영역 정보를 획득하는 단계는,
상기 구조식 이미지를 원자 영역 인식 모델에 입력하는 단계; 및
상기 원자 영역 인식 모델로부터 출력되는 상기 복수의 원자 영역 정보를 획득하는 단계를 포함하는,
구조식 이미지 인식 방법. - 제11항에 있어서,
상기 복수의 원자 영역 정보는,
원자 위치 정보 및 원자 정보를 포함하는,
구조식 이미지 인식 방법. - 제12항에 있어서,
상기 결합 관계 정보를 획득하는 단계는,
상기 복수의 원자 영역 정보 중 제1 원자 영역 정보 및 제2 원자 영역 정보를 기초로 제1 원자 및 제2 원자 사이의 결합 이미지를 획득하는 단계; 및
상기 결합 이미지를 기초로 상기 제1 원자 및 상기 제2 원자의 결합 관계 정보를 획득하는 단계를 포함하는,
구조식 이미지 인식 방법. - 제13항에 있어서,
상기 결합 관계 정보를 획득하는 단계는,
상기 결합 이미지를 결합 관계 인식 모델에 입력하는 단계; 및
상기 결합 관계 인식 모델로부터 출력되는 상기 결합 관계 정보를 획득하는 단계를 포함하는,
구조식 이미지 인식 방법. - 제13항에 있어서,
상기 결합 이미지를 획득하는 단계는,
상기 제1 원자 영역 정보 및 상기 제2 원자 영역 정보를 기초로 상기 제1 원자 영역의 중심점 위치와 상기 제2 원자 영역의 중심점 위치를 포함하는 상기 결합 이미지를 획득하는 단계를 포함하는,
구조식 이미지 인식 방법. - 제13항에 있어서,
상기 결합 관계 정보를 획득하는 단계는,
상기 제1 원자 영역 정보를 기초로 소정의 거리 내에 위치하는 상기 제2 원자 영역을 선택하는 단계를 포함하는,
구조식 이미지 인식 방법. - 제10항에 있어서,
상기 인접 행렬을 생성하는 단계는,
상기 복수의 원자 영역 정보를 기초로 복수의 원자들 각각을 정점으로, 복수의 원자 각각의 결합 관계 정보를 간선으로 하여 상기 인접 행렬을 생성하는,
구조식 이미지 인식 방법. - 제10항에 있어서,
상기 소정의 문자열 포맷을 생성하는 단계는,
상기 생성된 인접 행렬을 기초로 SMILES(Simplified Molecular Input Line Entry System)를 포함하는 소정의 문자열 포맷으로 상기 구조식 이미지를 변환하는 단계를 포함하는,
구조식 이미지 인식 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220041054A KR20230142164A (ko) | 2022-04-01 | 2022-04-01 | 구조식 이미지를 인식하는 인공 지능 장치 및 그 방법 |
PCT/KR2023/003770 WO2023191374A1 (ko) | 2022-04-01 | 2023-03-22 | 구조식 이미지를 인식하는 인공 지능 장치 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220041054A KR20230142164A (ko) | 2022-04-01 | 2022-04-01 | 구조식 이미지를 인식하는 인공 지능 장치 및 그 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230142164A true KR20230142164A (ko) | 2023-10-11 |
Family
ID=88202558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220041054A KR20230142164A (ko) | 2022-04-01 | 2022-04-01 | 구조식 이미지를 인식하는 인공 지능 장치 및 그 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20230142164A (ko) |
WO (1) | WO2023191374A1 (ko) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102514697B1 (ko) * | 2015-04-09 | 2023-03-29 | 한국전자통신연구원 | 골프 동작 분석 장치 및 방법 |
KR102607880B1 (ko) * | 2018-06-19 | 2023-11-29 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
US11182922B2 (en) * | 2019-06-05 | 2021-11-23 | Lg Electronics Inc. | AI apparatus and method for determining location of user |
KR20210042777A (ko) * | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 화학구조를 생성하는 장치 및 방법 |
KR20210147862A (ko) * | 2020-05-29 | 2021-12-07 | 삼성전자주식회사 | 역합성 예측 모델의 학습 방법 및 장치 |
-
2022
- 2022-04-01 KR KR1020220041054A patent/KR20230142164A/ko not_active Application Discontinuation
-
2023
- 2023-03-22 WO PCT/KR2023/003770 patent/WO2023191374A1/ko unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023191374A1 (ko) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11663516B2 (en) | Artificial intelligence apparatus and method for updating artificial intelligence model | |
CN110599557B (zh) | 图像描述生成方法、模型训练方法、设备和存储介质 | |
US11200467B2 (en) | Artificial intelligence apparatus and method for recognizing object included in image data | |
US11170201B2 (en) | Method and apparatus for recognizing object | |
US11288514B2 (en) | Video processing method and device, and storage medium | |
KR102535411B1 (ko) | 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법 | |
WO2018079020A1 (ja) | 情報処理装置および情報処理方法 | |
US11651214B2 (en) | Multimodal data learning method and device | |
KR20210039049A (ko) | 음성 인식을 수행하는 인공 지능 장치 및 그 방법 | |
KR20190019401A (ko) | 전자 장치 및 그 제어 방법 | |
US20190228294A1 (en) | Method and system for processing neural network model using plurality of electronic devices | |
KR20210077482A (ko) | 복수의 갱신 정보를 융합하여 인공 지능 모델을 갱신하는 인공 지능 서버 및 그 방법 | |
US20190251355A1 (en) | Method and electronic device for generating text comment about content | |
US11378407B2 (en) | Electronic apparatus and method for implementing simultaneous localization and mapping (SLAM) | |
US20210166084A1 (en) | Artificial intelligence apparatus and method for recognizing object | |
Kuriakose et al. | SceneRecog: a deep learning scene recognition model for assisting blind and visually impaired navigate using smartphones | |
US20210334461A1 (en) | Artificial intelligence apparatus and method for generating named entity table | |
US11430137B2 (en) | Electronic device and control method therefor | |
US20210004702A1 (en) | System and method for generating information for interaction with a user | |
US20240160929A1 (en) | Device for training and managing a visual scene graph model and control method thereof | |
KR20220097239A (ko) | 인공지능에 기반하여 시놉시스 텍스트를 분석하고 시청률을 예측하는 서버 | |
KR102229562B1 (ko) | 음성 인식 서비스를 제공하는 인공 지능 장치 및 그의 동작 방법 | |
KR102231909B1 (ko) | 인공지능 장치 | |
KR20190061824A (ko) | 전자장치 및 그 제어 방법 | |
KR20210052958A (ko) | 인공 지능 서버 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |