KR102615420B1 - 인공지능 기반의 법률 문서에 대한 자동 분석 장치 - Google Patents
인공지능 기반의 법률 문서에 대한 자동 분석 장치 Download PDFInfo
- Publication number
- KR102615420B1 KR102615420B1 KR1020220153652A KR20220153652A KR102615420B1 KR 102615420 B1 KR102615420 B1 KR 102615420B1 KR 1020220153652 A KR1020220153652 A KR 1020220153652A KR 20220153652 A KR20220153652 A KR 20220153652A KR 102615420 B1 KR102615420 B1 KR 102615420B1
- Authority
- KR
- South Korea
- Prior art keywords
- target document
- component
- crime
- matching
- artificial intelligence
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims description 70
- 238000004458 analytical method Methods 0.000 title description 5
- 239000000284 extract Substances 0.000 claims description 27
- 239000000470 constituent Substances 0.000 claims description 15
- 230000003340 mental effect Effects 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 9
- 230000002457 bidirectional effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 16
- 239000000203 mixture Substances 0.000 abstract description 6
- 238000012552 review Methods 0.000 description 40
- 238000000034 method Methods 0.000 description 32
- 238000012549 training Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000011835 investigation Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000007123 defense Effects 0.000 description 4
- 230000001364 causal effect Effects 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3338—Query expansion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Tourism & Hospitality (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Primary Health Care (AREA)
- Databases & Information Systems (AREA)
- Technology Law (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
Abstract
본 발명의 실시 예에 따른 전자 장치는 대상 문서를 저장하는 메모리 및 상기 대상 문서를 분석하여 범죄가 성립하기 위한 구성 요건을 식별하는 프로세서를 포함하고, 상기 프로세서는, 개체명 추출이 요구되는 구성 요건의 기재 여부를 판단하는 제1 모듈, 기저장된 텍스트와 동일한 의미를 갖는 텍스트의 기재 여부를 판단하는 제2 모듈, 및 구절 단위의 텍스트를 기반으로 의미의 추론이 요구되는 구성 요건의 기재 여부를 판단하는 제3 모듈을 각각 제어할 수 있다.
Description
본 발명은 인공지능에 기반하여, 형사 사건을 다루는 법률 문서에 대한 자동 분석을 수행하는 장치에 관한 것이다.
수사 문서의 작성에 있어, 수사관 본인의 법률지식에 의존하여 비정형화 텍스트 데이터에서 범죄 구성요건을 식별해야 하나, 일상언어를 법률용어로 치환하는 것이 어렵고 수사관에 따라 법률 지식 및 경험이 달라 문서 분석의 정확도가 감소하는 문제가 있다.
한편, 종래의 법정보 기술 산업은 법과 기술이 결합된 새로운 산업서비스로 법률, 법원명, 키워드 등을 사용한 단순 검색을 제공할 뿐으로, 인공지능을 통해 추론이 필요한 인과관계나 고의성을 식별하지는 못하는 실정이다.
이에 따라 형사 사건에 전문화되며, 인과관계 등 추론이 필요한 영역에 대하여 내용 추출을 기반으로 법률문서를 검토하는 인공지능 기반의 분석 시스템이 요구되는 바이다.
본 발명의 다양한 실시 예는 형사 사건의 법적 분석 및 검증을 위한 법적 구성요건을 자동으로 추출하기 위해 고안되었다.
또한 본 발명의 다양한 실시 예는 인공지능 모델을 활용하여 법적 핵심 정보를 추출하고, 기분석된 법적 구성요건에 대한 데이터를 활용하여 누락사항을 식별함을 통해 법적 구성요건에 대한 직관적 이해를 돕기 위한 목적으로 고안되었다.
본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 실시 예에 따른 전자 장치는 대상 문서를 저장하는 메모리 및 상기 대상 문서를 분석하여 범죄가 성립하기 위한 구성 요건을 식별하는 프로세서를 포함하고, 상기 프로세서는, 개체명 추출이 요구되는 구성 요건의 기재 여부를 판단하는 제1 모듈, 기저장된 텍스트와 동일한 의미를 갖는 텍스트의 기재 여부를 판단하는 제2 모듈, 및 구절 단위의 텍스트를 기반으로 의미의 추론이 요구되는 구성 요건의 기재 여부를 판단하는 제3 모듈을 각각 제어할 수 있다.
구체적으로, 상기 프로세서는, 상기 대상 문서에 매칭되는 범죄 유형을 바탕으로 복수의 구성 요건을 식별하고, 기저장된 분류 정보에 따라 상기 복수의 구성 요건을 제1 구성 요건, 제2 구성 요건, 및 제3 구성 요건으로 분류할 수 있다.
그리고 상기 제1 구성 요건은, 매칭되는 기재사항이 단어의 형태로 추출될 수 있는 항목에 해당하며, 이름, 나이, 범죄 유형, 범행 장소, 범행 일자 중 적어도 하나를 포함할 수 있다. 그리고 상기 제2 구성 요건은, 매칭되는 기재사항이 동일 의미의 텍스트로 추출될 수 있는 항목에 해당하며, 심신 미약, 심신 상실 중 적어도 하나를 포함할 수 있다. 그리고 상기 제3 구성 요건은, 매칭되는 기재사항이 구절의 형태로 추출될 수 있는 항목에 해당하며, 피의자와 피해자의 관계, 행위, 결과, 고의, 과실, 위법성 중 적어도 하나를 포함할 수 있다.
또한, 상기 제1 모듈은 상기 제1 구성 요건에 대한 텍스트를 추출하고, 상기 제2 모듈은 상기 제2 구성 요건에 대한 텍스트를 추출하고, 상기 제3 모듈은 상기 제3 구성 요건에 대한 텍스트를 추출할 수 있다.
보다 상세하게, 상기 제1 모듈은, 상기 제1 구성요건에 매칭되는 적어도 하나의 개체명을 식별하도록 BERT(Bidirectional Encoder Representations from Transformers) 모델에 Fine-Tuning 방식으로 훈련된 제1 인공지능 모델에 상기 대상 문서를 입력하고, 상기 제1 인공지능 모델의 연산을 통해 상기 대상 문서 내에서 제1 구성요건과의 연관성 정도가 기준치 이상인 것으로 판단된 단어를 상기 제1 구성요건에 매칭되는 기재사항으로 추출할 수 있다.
또한, 상기 제2 모듈은, 상기 대상 문서 내에서 상기 제2 구성요건에 대응하는 기저장된 복수의 단어 중 적어도 하나와 일치하는 텍스트를 제2 구성요건에 매칭되는 기재사항으로 추출할 수 있다.
또한, 상기 제3 모듈은, 상기 제3 구성요건에 매칭되는 적어도 하나의 구절을 식별하도록 BERT(Bidirectional Encoder Representations from Transformers) 모델에 Fine-Tuning 방식으로 훈련된 제3 인공지능 모델에 상기 대상 문서를 입력하고, 상기 제3 인공지능 모델의 연산을 통해 상기 대상 문서 내에서 제3 구성요건과 관련된 복수의 연속하는 질문에 대한 답변을 산출하고, 산출된 복수의 답변을 기반으로 제3 구성요건과의 연관성 정도가 기준치 이상인 것으로 판단된 구절을 상기 제3 구성요건에 매칭되는 기재사항으로 추출할 수 있다.
또한, 상기 프로세서는 범죄 사건에 대한 정보가 저장된 DB에서 대상 문서와 유사한 범죄 사건을 검색하여 제공하되, 상기 대상 문서로부터 추출된 구성요건에 매칭되는 기재사항을 기반으로 대상 문서의 범죄 사건에 대한 세부 유형을 식별하고, 식별된 상기 세부 유형에 대응하는 코드 정보를 확인하여 상기 코드 정보가 동일한 범죄 사건을 유사 범죄 사건으로 검색하는 연관 정보 탐색부를 포함할 수 있다.
또한, 상기 프로세서는 상기 대상 문서에 매칭되는 범죄 유형을 식별하지 않고 구성요건에 매칭되는 기재사항을 추출한 경우, 기재사항이 추출된 구성요건의 항목 종류 및 추출된 기재사항의 내용을 바탕으로 상기 대상 문서에 기재된 사건의 범죄 유형을 식별할 수도 있다.
본 발명의 실시 예는 형사사건에 대하여 기술된 문서에서 자동으로 법적 구성요건을 추출하므로, 관련된 전문적 법률 지식이 없는 작성자로 하여금 용이하게 구성요건을 갖춘 수사 결과에 대한 보고서 작성이 가능하도록 도울 수 있다.
또한 본 발명의 다양한 실시 예는 자동으로 법적 구성요건에 해당하는 문서 내 기재사항을 추출하여 표기할 수 있으므로, 사람이 직접 문서 전체를 읽고 검토하지 않더라도 필요한 핵심 사항을 간단하게 확인할 수 있게 한다.
또한 본 발명의 다양한 실시 예는 유사한 사건과 관련 사건에 적용되는 법조문을 탐색하여 제공할 수 있으며, 이에 따라 형사 사건과 관련된 업무의 효율적인 처리가 가능하다.
도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 도시한 도면이다.
도 2 및 도3은 본 발명의 실시 예에 따른 대상 문서에 대한 구성요건 검토 동작의 순서를 도시한 순서도이다.
도 4는 본 발명의 실시 예에 따른 범죄의 법적 구성요건에 해당하는 항목들을 도시한 도면이다.
도 5a 및 도 5b는 본 발명의 실시 예에 따른 대상 문서에 대한 검토 동작의 예시를 도시한 도면이다.
도 2 및 도3은 본 발명의 실시 예에 따른 대상 문서에 대한 구성요건 검토 동작의 순서를 도시한 순서도이다.
도 4는 본 발명의 실시 예에 따른 범죄의 법적 구성요건에 해당하는 항목들을 도시한 도면이다.
도 5a 및 도 5b는 본 발명의 실시 예에 따른 대상 문서에 대한 검토 동작의 예시를 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하에서는, 도면을 참조하여 본 발명의 다양한 실시 예에 대하여 설명하기로 한다.
먼저, 도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 도시한 도면이다.
도 1에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 전자 장치(100)는 메모리(110) 및 프로세서(120)를 포함하여 구성될 수 있다.
상기 메모리(110)는 인공지능 모델(111), 구성요건 분류 정보(112) 및 대상 문서(113)를 포함할 수 있다.
상기 인공지능 모델(111)은 본 발명의 실시 예에 따라 3종의 모델로 구성될 수 있다. 구체적으로, 상기 인공지능 모델(111)은 대상 문서(예, 수사결과 보고서)에서 단어 형식의 개체명을 식별하도록 훈련된 제1 인공지능 모델(개체명 추출형 모델), 대상 문서에서 기저장된 단어 또는 구절과 일치하는 텍스트를 추출하도록 훈련된 제2 인공지능 모델(패턴 추출형 모델), 복수의 구절 형식의 텍스트를 기반으로 의미를 판단하도록 훈련된 제3 인공지능 모델(추론형 모델)을 포함하여 구성될 수 있다.
이러한 인공지능 모델(111)은 범죄에 대한 법적 구성요건이 포함된 형식의 문서(예, 판결문)에 기재된 텍스트들을 학습용 데이터로 설정하여 학습될 수 있다.
그리고 다양한 실시 예에 따라, 상기 인공지능 모델은 기 공개된 사전 학습된 언어모델을 사용하여 다운스트림 NLP(Natural language processing, 자연어 처리) 작업에서 법적 도메인별 말뭉치로 fine-tuning을 통해 학습될 수 있다.
이 때, Fine-tuning이란 전이 학습 영역에서 유래한 것으로 작업 x를 해결하기 위한 모델을 가져와서 작업 y를 해결하기 위해 용도를 변경하는 것을 의미한다. 또한 Fine-tuning은 사전 학습된 BERT(Bidirectional Encoder Representations from Transformers; 2018년 10월에 구글이 발표한 사전 훈련 기반 딥러닝 언어모델로 트랜스포머 인코더만을 사용하는 특징이 있음. 모델 크기에 따라 Base 모델과 Large모델을 사용하는데, BERT Base는 12개의 트랜스포머 블록으로 이루어져있고, BERT Large는 24개의 트랜스포머 블록으로 이루어짐) 모델의 끝에 학습되지 않은 뉴런 출력 레이어를 추가해 라벨링된 법률 말뭉치로 학습하게 되는 과정이다.
특정 도메인 데이터에 Fine-tuning된 모델은 대상 도메인의 특성 및 어휘와 더 유사하게 업데이트된 가중치를 갖게 되며, 이러한 방식의 학습은 훨씬 적은 양의 데이터로 빠르고 저렴하게 이루어진다는 점에서 매우 큰 장점이 있다. 이 방식의 학습은 BERT-Base의 사전 학습이 이미 일반 영역에서 대부분의 단어에 대한 지식을 인코딩했다는 점을 감안할 때 법적 맥락에서 기능하도록 하기 위해 비교적 적은 항목의 조정만 필요하다.
따라서, 본 발명의 실시 예에 따른 인공지능 모델은 기존에 존재하는 언어모델(BERT)에 대하여 Fine-tuning 방식을 활용함을 통해, 범죄의 구성요건에 해당하는 내용 추출에 있어 비교적 적은 노력으로 정확도를 높일 수 있다.
한편, 상기 인공지능 모델(111)의 학습 방법에 있어, 상기 인공지능 모델(111)의 각 모델(제1 인공지능 모델 내지 제3 인공지능 모델)은 서로 상이한 방식의 학습 기법과 상이한 종류의 데이터를 통해 학습될 수 있다.
먼저, 상기 제1 인공지능 모델을 훈련하기 위한 학습용 데이터는 제1 구성요건에 해당하는 항목과 학습용 문서(예, 판결문) 내 단어 형식의 데이터로 설정될 수 있다.
또한, 상기 제1 인공지능 모델은 범죄의 구성요건에 해당하는 다양한 항목들 중 제1 구성요건에 해당하는 항목(매칭되는 기재사항이 단어 형태로 추출될 수 있는 구성요건들로, 예컨대, 이름, 나이, 범죄 유형, 범행 장소, 범행 일자 등이 해당됨)들에 대응하는 기재사항을 대상 문서에서 추출하기 위해, 제1 구성요건에 해당하는 개별 항목과 문서에서 확인되는 단어 간 연관성의 정도를 판단하고, 연관성이 기준치 이상인 것으로 판단되는 단어를 해당 항목에 매칭되는 기재사항으로 추출하도록 훈련될 수 있다.
구체적으로, 본 발명의 실시 예에 따른 제1 인공지능 모델을 학습시키는 과정에서 판결문과 제1 구성요건의 개별 항목들은 입력용 훈련 데이터로 활용될 수 있고, 어노테이션 도구를 사용해 판결문 내 각 구성요건에 해당하는 단어는 라벨링되어 출력용 훈련 데이터로 활용될 수 있다. 예를 들어, 제1 인공지능 모델은 제1 구성요건 중 '이름'이라는 항목에 대응하는 단어를 추출하도록 학습시키기 위해, 판결문과 '이름'이라는 제1 구성요건의 항목이 입력용 훈련 데이터로 투입되고, 판결문 내 사람 이름인 단어(예, 홍길동)를 출력용 훈련 데이터로 투입될 수 있다. 이에 따라 상기 제1 인공지능 모델은 판결문에서 이름을 추출하고자 할 시, 홍길동을 추출하도록 훈련될 수 있다.
상기 제1 인공지능 모델은 앞서 언급한 종류의 입력용 훈련데이터와 출력용 훈련 데이터가 BERT 모델의 끝에 더해지는 레이어 층에서 투입됨을 통해 학습될 수 있고, 입력용 훈련 데이터로부터 출력용 훈련 데이터가 산출되도록 하는 최적의 가중치(weight) 값을 추적하여 인공지능 모델의 연산 정확도를 높일 수 있다.
또한, 상기 제1 인공지능 모델은 기재사항 추출 동작의 정확도를 높이기 위해 라벨링 데이터의 증강 동작에 따라 증가된 양의 훈련 데이터를 활용하여 학습될 수 있다. 이 때 데이터 증강은 예컨대, Round-trip translation 기법을 통해 이루어질 수 있다.
상기 제2 인공지능 모델은 제2 구성요건(매칭되는 기재사항이 기저장된 특정 텍스트와 동일한 텍스트이거나 또는 유사 의미를 갖는 텍스트로 추출될 수 있는 구성요건으로, 예컨대, '심신미약'이 이에 해당됨)의 각 항목에 매칭되는 기재사항을 추출하기 위해 사용되는 모델이다.
예컨대, 상기 제2 인공지능 모델은 제2 구성요건의 항목 중 하나인 '심신미약'항목에 매칭되는 기재사항으로 '의사결정 능력' 또는 '사물변별 능력'이라는 텍스트를 추출할 수 있다.
본 발명의 실시 예에 따라 제2 인공지능 모델은 생략될 수 있다. 제2 인공지능 모델이 생략됨에 따라, 제2 구성요건에 매칭되는 기재사항을 추출하는 동작은 기저장된 텍스트를 추출하는 동작으로 수행될 수 있다.
상기 제3 인공지능 모델은 제3 구성요건에 매칭되는 기재사항을 추출하기 위한 모델로, 단어가 아닌 구절 단위의 텍스트로 그 의미가 추론되어야 하는 기재사항을 추출할 수 있다.
제3 인공지능 모델은 종래의 질의 응답형 모델과 유사한 텍스트 추출 방식을 활용할 수 있다. 예컨대, 상기 제3 인공지능 모델이 '정당방위'라는 제3 구성요건의 한 항목에 대한 기재사항을 추출하고자 하는 경우, 제1 질문인 '피의자는 피해자에게 공격받았는가?'에 대한 답변(제1 답변)으로 '집단구타를 당하던 피고인'을 추출하고, 제1 답변이 추출됨에 따라 제2 질문인 '피의자는 공격을 피할 수 있었는가?'로 이어져 질문할 수 있다. 그리고 제3 인공지능 모델은 제2 질문에 대한 제2 답변인 '칼을 들고 있던 피해자가 달려들어'라는 텍스트를 추출할 수 있다. 상기 제3 인공지능 모델은 제1 답변 및 제2 답변을 종합하여 '정당방위'에 해당하는 기재사항을 추출할 수 있고, '정당방위'에 해당하는 기재사항이 추출됨에 따라 대상 문서에서'정당방위'의 항목이 충족된 것으로 판단할 수 있다.
이러하듯 제3 인공지능 모델은 복수의 질문이 연달아 이어져야 하는 경우 사용되며, 복수의 질문에 대한 답변을 통해 추론 과정을 거쳐 제3 구성요건에 매칭되는 기재사항을 추출할 수 있다.
이러한 상기 제3 인공지능 모델을 훈련하기 위한 학습용 데이터는 제3 구성요건에 해당하는 항목(예, 피의자와 피해자의 관계, 행위, 결과, 고의, 과실, 위법성 등)과 학습용 문서(예, 판결문) 내 구절 단위의 데이터로 설정될 수 있다.
구체적으로, 본 발명의 실시 예에 따른 제3 인공지능 모델을 학습시키는 과정에서 판결문과 제3 구성요건의 개별 항목들은 입력용 훈련 데이터로 활용될 수 있고, 어노테이션 도구를 사용해 판결문 내 제3 구성요건의 각 항목에 대응하는 구절 단위의 텍스트는 라벨링되어 출력용 훈련 데이터로 활용될 수 있다. 예를 들어, 제3 인공지능 모델은 제3 구성요건 중 '행위' 라는 항목에 대응하는 구절을 추출하도록 학습시키기 위해, 판결문과 '행위'라는 제3 구성요건의 항목이 입력용 훈련 데이터로 투입되고, 판결문 내 범죄 행위에 해당하는 구절(예, '차용금 명목으로 3,000만원을 송금받았다')이 출력용 훈련 데이터로 투입될 수 있다. 이에 따라 상기 제1 인공지능 모델은 대상 문서에서 '행위'에 해당하는 기재사항을 추출하도록 요청됨에 따라, '차용금 명목으로 3,000만원을 송금받았다'와 같은 범죄 행위에 대한 구절을 추출하도록 훈련될 수 있다.
상기 제3 인공지능 모델은 제1 인공지능 모델의 학습 방식과 같이, 앞서 언급한 종류의 입력용 훈련데이터와 출력용 훈련 데이터가 BERT 모델의 끝에 더해지는 레이어 층에서 투입됨을 통해 학습될 수 있고, 입력용 훈련 데이터로부터 출력용 훈련 데이터가 산출되도록 하는 최적의 가중치(weight) 값을 추적하여 인공지능 모델의 연산 정확도를 높일 수 있다.
또한, 상기 제3 인공지능 모델은 기재사항 추출 동작의 정확도를 높이기 위해 라벨링 데이터의 증강 동작에 따라 증가된 양의 훈련 데이터를 활용하여 학습될 수 있다. 이 때 데이터 증강은 예컨대, Round-trip translation 기법을 통해 이루어질 수 있다.
상기 메모리(110) 내 저장되는 요소 중 상기 구성요건 분류 정보(112)는 범죄에 대한 법적 구성요건의 항목들에 대한 정보를 포함할 수 있다.
상기 구성요건이란 형법 각칙에서 어떠한 행위가 범죄가 된다고 규정하고 있는 부분으로, 구성요건을 충족한다 또는 구성요건에 해당한다는 뜻은 실생활에서 유해한 행위가 법규정의 해석을 통해 그 행위 및 사태가 법 규정에 들어맞음을 의미한다.
먼저, 상기 구성요건 분류 정보(112)는 도 4에서 도시되는 바와 같이 계층별 분류 정보를 포함할 수 있다.
도 4는 본 발명의 실시 예에 따른 범죄의 법적 구성요건에 해당하는 항목들을 도시한 도면이다.
도 4에서 도시되는 바와 같이, 구성요건은 각 계층에 따라 1-depth, 2-depth, 3-depth와 같이 분류될 수 있다. 그리고 각 계층별 구성요건을 살펴보면, 1-depth에 해당하는 구성요건 항목으로 '기본정보', '객관적 구성요건', '주관적 구성요건', '위법성', '책임'이 있고, 2-depth에 해당하는 구성요건은 상기 1-depth의 항목들에 대한 세부 항목들로 상기 '기본정보'에 대하여는 '범죄 유형', '범행일자', '범행장소'가 있다. 그리고 '객관적 구성요건'에 대한 세부 항목(2-depth)은 '누가(주체)', '어떻게(행위)', '누구를(객체)', '인과관계', '결과'가 포함될 수 있다. 이 외에, 언급되지 않은 구성요건의 항목들은 도 4에 기재된 사항을 따라 계층별 분류가 이루어질 수 있다.
또한 상기 구성요건 분류 정보(112)는 법적 구성요건에 해당하는 항목들을 데이터 분석 동작을 수행하는 데 요구되는 방법에 따라 유형 별(예, 제1 구성요건 내지 제3 구성요건)로 분류한 내역에 대한 정보를 의미할 수 있다.
제1 구성요건은 매칭되는 기재사항이 단어의 형태로 추출될 수 있는 항목에 해당하며, 이름, 나이, 범죄 유형, 범행 장소, 범행 일자 중 적어도 하나를 포함할 수 있다.
제2 구성요건은 매칭되는 기재사항이 기저장된 특정 용어와 동일한 텍스트 또는 동일 의미를 갖는 유사한 텍스트의 형태로 추출될 수 있는 항목에 해당한다. 제2 구성요건은 심신 미약, 심신 상실 중 적어도 하나의 항목을 포함할 수 있다.
그리고 제3 구성요건은 매칭되는 기재사항이 구절의 형태로 추출될 수 있는 항목에 해당하며, 피의자와 피해자의 관계, 행위, 결과, 고의, 과실, 위법성 중 적어도 하나를 포함할 수 있다. 이 때 제3 구성요건의 종류로 언급된 항목들 중 비교적 상위 계층에 속해 하위 항목이 존재하는 경우, 하위 항목까지 제3 구성요건으로 분류되어야 함이 마땅하다.
예를 들어, '피의자와 피해자의 관계'는 하위 항목이 없으나, '위법성'은 1-depth에 해당하는 항목으로, 위법성의 하위 계층에 해당하는 항목들(예, 정당행위, 긴급피난, 자구행위, 피해자의 승낙 등)이 모두 제3 구성요건으로 분류될 수 있다.
메모리(110)에 저장되는 요소 중 상기 대상 문서(113)는 검토의 대상이 되는 문서를 의미하며, 본 발명에 따른 상기 대상 문서(113)는 수사결과 보고서를 의미하는 것이 바람직하다. 그러나 이에 한정되지 않으며, 상기 대상 문서(113)는 판결문을 포함한 다양한 종류의 형사 사건과 관련된 문서를 포함하는 개념으로 이해될 수 있다.
다음으로, 본 발명의 실시 예에 따른 프로세서(120)의 구성에 대하여 설명하기로 한다.
본 발명의 실시 예에 따른 상기 프로세서(120)는 전자 장치(100)를 통해 대상 문서가 범죄에 대한 구성요건을 충족하도록 작성되었는지 여부를 검토하기 위한 일련의 동작을 수행할 수 있다.
먼저, 상기 프로세서(120)는 대상 문서에 해당하는 범죄 유형을 바탕으로, 범죄 유형에 대응하는 구성요건을 검토 대상이 되는 항목으로 식별할 수 있다. 이후 상기 프로세서(120)는 대상 문서가 해당하는 범죄 유형에서 요구되는 구성요건에 매칭되는 내용을 상기 대상 문서가 기재하고 있는지 여부를 판단하고, 상기 구성요건에 매칭되는 내용을 추출할 수 있다. 또한 이수 상기 프로세서(120)는 대상 문서에서 구성요건에 매칭되는 내용이 누락되어 있는지 여부를 판단할 수 있으며, 적어도 하나의 구성요건에 대응하는 기재사항이 누락된 것으로 판단되는 경우 해당 구성요건에 대한 내용을 보완하도록 안내하는 방식으로 대상 문서에 대한 검토 결과를 제공할 수 있다.
그리고 상기 프로세서(120)는 이와 같은 대상 문서의 검토 동작을 위해, 항목 지정부(121), 검토 수행부(122) 및 연관 정보 탐색부(123)를 포함할 수 있다.
각 구성에 대하여 구체적으로 설명하면, 먼저 상기 항목 지정부(121)는 대상 문서(예, 수사결과 보고서)가 구성요건을 충족하도록 형식에 맞춰서 기재되었는지 여부를 판단하기 위해, 대상 문서의 메타 정보를 토대로 범죄 유형을 판단할 수 있다. 상기 항목 지정부(121)는 범죄 유형이 확인되면, 해당 범죄 유형에 대응하는 구성요건의 항목들을 식별할 수 있고, 식별된 범죄 유형 별 구성요건을 검토 항목으로 설정할 수 있다.
이처럼 상기 항목 지정부(121)가 범죄 유형을 먼저 확인한 후 범죄 유형 별 구성요건을 선택하는 동작을 수행하는 이유는, 범죄 유형이 달라짐에 따라 검토 대상이 되는 구성요건의 항목이 달라질 수 있기 때문이다. 예를 들어, 범죄 유형이 '성폭력'에 해당하는 경우 필수적으로 검토해야 하는 구성요건으로'위법성'의 하위 항목인 '피해자의 승낙'이 포함될 수 있으나, 범죄 유형이'살인'의 경우에는 '피해자의 승낙'이 검토해야 하는 구성요건에 포함되지 않는 등 범죄 유형에 따라 검토되어야 하는 구성요건이 상이하게 적용될 수 있다.
또한, 상기 항목 지정부(121)는 범죄 유형 별 구성요건 항목들을 식별하는 동작에 더하여, 복수의 구성요건 항목들을 기저장된 분류 정보(예, 구성요건 분류 정보)에 따라 제1 구성요건 내지 제3 구성요건으로 분류할 수 있다.
상기 제1 구성요건은 매칭되는 기재사항이 단어의 형태로 추출될 수 있는 항목에 해당하며, 이름, 나이, 범죄 유형, 범행 장소, 범행 일자 중 적어도 하나를 포함할 수 있다. 제2 구성요건은 매칭되는 기재사항이 동일 의미의 텍스트로 추출될 수 있는 항목에 해당하며, 심신 미약, 심신 상실 중 적어도 하나를 포함할 수 있다. 상기 제3 구성요건은 매칭되는 기재사항이 구절의 형태로 추출될 수 있는 항목에 해당한다. 제3 구성요건에 해당하는 항목은 피의자와 피해자의 관계, 행위, 결과, 고의, 과실, 위법성 중 적어도 하나가 포함될 수 있다.
요컨대, 상기 항목 지정부(121)는 대상 문서의 메타정보로부터 범죄 유형을 식별하고, 상기 범죄 유형에 대응하는 구성요건의 항목들을 기 설정된 분류 조건에 따라 제1 구성요건 내지 제3 구성요건으로 식별할 수 있다.
다음으로는 프로세서(120)의 구성 중 검토 수행부(122)에 대하여 기술하기로 한다.
상기 검토 수행부(122)는 제1 모듈 내지 제3 모듈을 각각 제어하여 대상 문서에서 구성요건에 매칭되는 기재사항을 추출하고, 기재사항이 추출되지 않는 경우 해당 구성요건이 누락된 것으로 판단할 수 있다.
구체적으로, 상기 검토 수행부(122)는 개체명 추출이 요구되는 제1 구성 요건의 기재 여부를 판단하는 제1 모듈, 패턴 분석이 요구되는 제2 구성 요건의 기재 여부를 판단하는 제2 모듈, 단어가 아닌, 구절 단위의 텍스트를 기반으로 의미의 추론이 요구되는 제3 구성 요건의 기재 여부를 판단하는 제3 모듈을 각각 제어할 수 있다.
그리고 상기 검토 수행부(122)는 제1 모듈이 제1 인공지능 모델(제1 구성요건에 매칭되는 적어도 하나의 개체명을 식별하도록 훈련된 모델)에 대상 문서를 입력하여 제1 구성요건에 매칭되는 기재사항을 대상 문서에서 추출하도록 제어할 수 있다. 상기 검토 수행부(122)는 제 1모듈이 제1 구성요건에 매칭되는 기재사항을 추출되지 못하는 경우 제1 구성요건에 매칭되는 기재사항이 존재하지 않는 것으로 판단할 수 있다.
그리고 상기 검토 수행부(122)는 제2 모듈이 제2 인공지능 모델(기 설정된 텍스트와 동일한 텍스트 또는 동일한 의미를 갖는 단어 또는 구절을 추출하도록 훈련된 모델)에 대상 문서를 입력하여, 제2 구성요건에 매칭되는 기재사항을 대상 문서에서 추출하도록 제어할 수 있다. 상기 검토 수행부(122)는 제2 모듈이 제2 구성요건에 매칭되는 기재사항을 추출하지 못하는 경우 제2 구성요건에 매칭되는 기재사항이 존재하지 않는 것으로 판단할 수 있다.
다양한 실시 예에 따라 상기 검토 수행부(122)는 별도의 인공지능 모델을 활용하지 않고, 기 설정된 텍스트 추출 알고리즘을 통해 기저장된 제2 구성요건에 대응하는 텍스트를 추출하고, 추출이 이루어짐에 따라 제2 구성요건이 충족된 것(제2 구성요건에 매칭되는 기재사항이 존재하는 것으로)으로 판단할 수 있다.
상기 검토 수행부(122)는 제3 모듈이 제3 인공지능 모델(제3 구성요건에 매칭되는 적어도 하나의 구절을 식별하도록 훈련된 모델)에 대상 문서를 입력하여 제3 구성요건에 매칭되는 기재사항을 대상 문서 내 구절 단위의 텍스트를 통해 추출할 수 있다.
상기 검토 수행부(122)는 제3 모듈이 제3 구성요건에 매칭되는 기재사항을 추출하는 과정에서, 복수의 질문이 연이어지고, 상기 복수의 질문에 대응하는 답변을 추출하는 동작을 수행하도록 제어할 수 있다. 상기 검토 수행부(122)는 제3 구성요건에 매칭되는 기재사항을 추출함에 있어서, 이와 같이 연이어지는 복수의 질문에 대응하는 복수의 답변을 조합하여 제3 구성요건의 답변에 해당하는 기재사항을 추론할 수 있다. 이 때 사이 검토 수행부(122)가 최종으로 추출하는 제3 구성요건에 대응하는 기재사항은 구절 형식의 텍스트일 수 있다.
그리고 상기 검토 수행부(122)는 제3 모듈이 제3 구성요건에 매칭되는 기재사항을 대상 문서 내에서 추출하지 못한 경우, 제3 구성요건의 기재가 누락된 것으로 판단할 수 있다.
다양한 실시 예에 따라, 상기 검토 수행부(122)는 대상 문서의 메타 정보를 기반으로 범죄 유형을 식별하는 동작을 생략할 수 있다. 예를 들어 상기 검토 수행부(122)는 대상 문서의 메타 정보에 범죄 유형에 대한 정보가 존재하지 않는 등 범죄 유형 파악이 되지 않는 경우라 하더라도 본 발명의 실시 예에 따른 대상 문서의 검토 동작을 수행할 수 있다. 이 경우 상기 검토 수행부(122)는 대상 문서에 대하여, 제1 내지 제3 모듈을 통해 추출된 범죄 요건에 대한 기재사항들과 적어도 하나의 범죄 유형의 구성요건의 항목들을 비교해서, 범죄 유형을 유추할 수 있다.
또한 상기 검토 수행부(122)는 대상 문서에 대하여 제1 내지 제3 모듈에 의해 각 구성요건들에 매칭되는 기재사항들이 도 5에서와 같이 화면에 표시되도록 제어할 수 있다.
도 5a 및 도 5b는 본 발명의 실시 예에 따른 대상 문서에 대한 검토 동작의 예시를 도시한 도면이다.
도 5a는 본 발명의 실시 예에 따라, 대상 문서로 선택된 수사 결과 보고서의 내용을 도시하고 있다.
도 5a에서 도시되는 바와 같이, 상기 검토 수행부(122)는 대상 문서에 기재된 전체 텍스트를 대상으로 제1 모듈 내지 제3 모듈을 통한 구성요건 충족 여부를 판단하고, 대상 문서에 해당하는 범죄 유형에 따라 필수적으로 검토되어야 하는 구성요건을 식별하고, 식별된 구성요건들에 매칭되는 기재사항을 추출할 수 있다.
그리고 상기 검토 수행부(122)는 도 5b에서와 같이, 대상 문서에서 추출된 기재사항들을 각 구성요건의 항목에 대응하여 표시할 수 있다. 상기 검토 수행부(122)는 예컨대, '행위'의 하위 항목인'기망행위'라는 구성요건 항목에 대응하여 '동시에 대출을 신청한 사실이 없다는 취지로 거짓말을 하였다'는 텍스트를 추출하여 화면에 표시할 수 있다.
한편, 도5b에서 '착오'의 하위 항목인 '피기망자의 착오 발생'이라는 구성요건 항목에 대응하여는 '해당 구성요건을 찾지 못했습니다'라는 내용을 표시하고 있다. 이와 같이 상기 검토 수행부(122)는 각 구성요건의 항목에 대응하는 기재사항을 추출하지 못한 경우, 해당 구성요건이 만족되지 않음을 사용자에게 안내할 수 있다. 사용자는 이와 같이 대상 문서에서 구성요건이 만족되지 않음을 검토 과정에서 확인할 수 있고, 그에 따라 해당 구성요건이 만족되도록 문서를 보완할 수 있게 된다.
상기 프로세서(120)의 구성 요소 중 상기 연관 정보 탐색부(123)는 대상 문서에서 추출된 구성요건의 충족 여부를 판단하는 동작 및 각 구성요건의 항목에 매칭되는 기재사항을 추출하여 표시하는 동작 외에, 다양한 연관 정보를 탐색하여 제공하는 동작을 수행할 수 있다.
상기 연관 정보 탐색부(123)는 도 5b의 상단에 도시된 바와 같이, 대상 문서에 해당하는 범죄 유형 및 범죄 사실과 관련된 참조 법조문을 검색하고 이를 화면에 표시할 수 있다.
그 밖에도 상기 연관 정보 탐색부(123)는 대상 문서에 기재된 내용과 유사한 범죄 사건을 외부 서버 또는 DB를 통해 탐색할 수 있다. 상기 연관 정보 탐색부(123)는 대상 문서의 메타 정보를 통해 파악된 범죄 유형에 대한 정보와, 대상 문서에 기재된 텍스트 전체(또는 기 추출된 각 구성요건에 매칭되는 기재사항)를 바탕으로 해당 범죄 사건에 대한 세부 유형을 지정할 수 있고, 상기 세부 유형에 따라 코드가 지정될 수 있다. 이 때 상기 세부 유형에 대한 식별을 위해 지정된 코드는 하나의 사건에 대하여 다수 개 설정될 수 있으며, 이에 따라, 추후 상기 연관 정보 탐색부(123)는 코드 정보가 동일한 타 범죄 사건을 용이하게 검색할 수 있게 된다.
상기 연관 정보 탐색부(123)는 예를 들어, 대상 문서의 범죄 유형을 메타정보를 통해 '살인'으로 확인한 후, 해당 사건과 관련된 보다 구체적인 정보를 토대로 범죄의 유형을'존속 살인', '영아 살인', '촉탁에 의한 살인' 등의 세부 항목으로 분류할 수 있고, 그에 대한 코드를 지정할 수 있다. 또한 상기 연관 정보 탐색부(123)는 피해자 및 피의자의 연령대, 피해자 및 피의자의 직업 등의 요소를 기반으로 사건의 유형을 분류하고 코드명을 지정할 수 있다.
이에 따라 추후, 상기 연관 정보 탐색부(123)는 다양한 관점에서 동일 유형의 사건을 검색할 수 있게 되며, 이는 수사 담당자가 수사 문서 작성 단계에서 누락된 내용을 확인하고 보완하는 데 도움을 제공할 수 있다.
또한 상기 연관 정보 탐색부(123)는 대상 문서에 기재된 구성요건에 대한 직관적인 이해를 돕기 위해, 그래프 등 시각화 자료를 생성할 수 있다. 예를 들어 상기 연관 정보 탐색부(123)는 필수로 검토되어야 하는 구성요건의 전체 개수 중 기재사항이 확인된 항목들의 비율을 그래프 등의 형태로 제시할 수 있다. 이를 통해 대상 문서를 검토하는 사용자는 보완해야할 사항의 비중을 직관적으로 확인할 수 있다.
이하에서는, 도 2 내지 도 3을 참조하여 본 발명의 실시 예에 따른 대상 문서에 대한 구성요건 검토 동작의 순서를 설명하기로 한다.
도 2 및 도3은 본 발명의 실시 예에 따른 대상 문서에 대한 구성요건 검토 동작의 순서를 도시한 순서도이다.
도 2에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 프로세서(120)는 검토할 대상 문서를 선택하는 205단계를 수행할 수 있다. 이 때 상기 대상 문서는 범죄에 대한 수사결과 보고서가 해당될 수 있다.
상기 205단계 이후, 상기 프로세서(120)는 대상 문서에 매칭되는 범죄 유형을 판단하는 210단계를 수행할 수 있다. 이 때 상기 프로세서(120)는 대상 문서의 메타 정보를 확인할 수 있고, 대상 문서의 메타 정보에 포함된 범죄 유형 정보를 식별할 수 있다. 다양한 실시 예에 따라 범죄 유형을 판단하는 210단계의 동작은 생략될 수도 있다. 그리고 범죄 유형을 판단하는 동작이 생략된 채 구성요건의 충족 여부를 판단하는 경우, 구성요건과 관련된 기재사항을 토대로 범죄의 유형을 판단하는 과정이 추후(예, 구성요건에 매칭되는 기재 사항을 추출한 이후의 단계) 수행될 수 있다.
상기 210 단계 이후, 상기 프로세서(120)는 210단계에서 판단된 범죄 유형에 대한 정보에 대응하는 구성요건의 항목을 식별하는 215단계를 수행할 수 있다.
상기 215단계 이후, 상기 프로세서(120)는 구성요건의 항목들을 기저장된 분류 정보에 따라 유형을 분류하는 220단계를 수행할 수 있다. 상기 프로세서(120)는 이 때 구성요건의 항목들을 제1 구성요건(대상 문서에 기재된 매칭 내용이 단어 형태로 추출될 수 있는 구성요건에 해당하며, 이름, 나이, 범죄 유형, 범행 일자 등이 해당됨), 제2 구성요건(대상 문서에 기재된 매칭 내용이 기저장된 텍스트와 동일하거나 유사 의미를 갖는 텍스트로 추출될 수 있는 구성요건) 및 제3 구성요건(대상 문서에 기재된 매칭 내용이 구절 단위의 텍스트로 추출될 수 있으며, 복수의 질문에 대한 답변을 토대로 추론을 통해 매칭되는 기재사항을 판단할 수 있음)으로 분류할 수 있다.
상기 220단계 이후, 상기 프로세서(120)는 구성요건에 매칭되는 내용을 대상 문서에서 추출하는 225단계를 수행할 수 있다. 225단계는 세부 루틴을 포함하고 있는 단계이며, 225단계의 세부 동작 순서는 도 3을 참고하여 후술하기로 한다.
상기 220단계 이후, 상기 프로세서(120)는 대상 문서에서의 구성요건 누락 여부를 판단하고, 누락된 경우 보완 사항을 안내하는 230단계를 수행할 수 있다.
상기 225단계는 앞서 언급한 바와 같이, 세부 동작 단계를 포함하고 있는데, 도 3에서 225단계의 세부 동작 순서가 개시되고 있다.
도 3을 참조하면, 본 발명의 실시 예에 따른 상기 프로세서(120)는 추출하고자 하는 대상 문서 내 기재사항이 제1 구성요건에 매칭되는지 여부를 판단하는 305동작을 수행할 수 있다. 이 때 제1 구성요건(단어 형태의 답변이 매칭될 수 있는 요건에 해당하며, 이름, 나이, 직업 등의 항목이 포함될 수 있음)에 대한 내용을 추출하고자 하는 경우, 상기 프로세서(120)는 제1 모듈을 이용해 제1 인공지능 모델로 관련 내용을 추출하는 320단계를 수행할 수 있다. 320단계에서 추출되는 대상 문서 내 기재사항은 제1 구성요건에 대응하므로, '홍길동', '34세', '교사'와 같은 단어의 형태를 갖는다.
305단계에서 상기 프로세서(120)가 수행하고자 하는 검토 과정이, 제1 구성요건에 대한 판단 과정이 아닌 경우, 상기 프로세서(120)는 제2 구성요건에 매칭되는 내용 추출 동작인지 여부를 판단하는 310 단계를 수행할 수 있다. 상기 프로세서(120)는 310단계의 판단 결과 Yes에 해당하는 경우 제2 인공지능 모델로 관련 내용을 추출할 수 있다.
반면 310단계에서 상기 프로세서(120)가 제2 구성요건에 대한 내용 추출이 아니라고 판단하면 제3 구성요건에 매칭되는 내용 추출 동작으로 판단하는 315단계를 수행할 수 있다. 이후 상기 프로세서(120)는 제3 구성요건에 매칭되는 내용 추출을 위해 제3 인공지능 모델을 적용하여 내용 추출을 수행하는 330단계를 수행할 수 있다.
프로세서(120)가 제1 구성요건 내지 제3 구성요건 각각에 대한 내용 추출 동작에 대하여 제1 인공지능 모델 내지 제3 인공지능 모델을 각각 활용하는 점과, 제1 인공지능 모델 내지 제3 인공지능 모델을 통해 각각 상이한 방식의 기재사항 추출 동작을 수행하는 점에 대하여 메모리(110) 및 검토 수행부(122)에 대한 설명에서 기술하였으므로, 자세한 내용은 생략하기로 한다.
요컨대, 본 발명의 실시 예에 따른 전자 장치는 대상 문서를 저장하는 메모리 및 상기 대상 문서를 분석하여 범죄가 성립하기 위한 구성 요건을 식별하는 프로세서를 포함하고, 상기 프로세서는, 개체명 추출이 요구되는 구성 요건의 기재 여부를 판단하는 제1 모듈, 기저장된 텍스트와 동일한 의미를 갖는 텍스트의 기재 여부를 판단하는 제2 모듈, 및 구절 단위의 텍스트를 기반으로 의미의 추론이 요구되는 구성 요건의 기재 여부를 판단하는 제3 모듈을 각각 제어할 수 있다.
구체적으로, 상기 프로세서는, 상기 대상 문서에 매칭되는 범죄 유형을 바탕으로 복수의 구성 요건을 식별하고, 기저장된 분류 정보에 따라 상기 복수의 구성 요건을 제1 구성 요건, 제2 구성 요건, 및 제3 구성 요건으로 분류할 수 있다.
그리고 상기 제1 구성 요건은, 매칭되는 기재사항이 단어의 형태로 추출될 수 있는 항목에 해당하며, 이름, 나이, 범죄 유형, 범행 장소, 범행 일자 중 적어도 하나를 포함할 수 있다. 그리고 상기 제2 구성 요건은, 매칭되는 기재사항이 동일 의미의 텍스트로 추출될 수 있는 항목에 해당하며, 심신 미약, 심신 상실 중 적어도 하나를 포함할 수 있다. 그리고 상기 제3 구성 요건은, 매칭되는 기재사항이 구절의 형태로 추출될 수 있는 항목에 해당하며, 피의자와 피해자의 관계, 행위, 결과, 고의, 과실, 위법성 중 적어도 하나를 포함할 수 있다.
또한, 상기 제1 모듈은 상기 제1 구성 요건에 대한 텍스트를 추출하고, 상기 제2 모듈은 상기 제2 구성 요건에 대한 텍스트를 추출하고, 상기 제3 모듈은 상기 제3 구성 요건에 대한 텍스트를 추출할 수 있다.
보다 상세하게, 상기 제1 모듈은, 상기 제1 구성요건에 매칭되는 적어도 하나의 개체명을 식별하도록 BERT(Bidirectional Encoder Representations from Transformers) 모델에 Fine-Tuning 방식으로 훈련된 제1 인공지능 모델에 상기 대상 문서를 입력하고, 상기 제1 인공지능 모델의 연산을 통해 상기 대상 문서 내에서 제1 구성요건과의 연관성 정도가 기준치 이상인 것으로 판단된 단어를 상기 제1 구성요건에 매칭되는 기재사항으로 추출할 수 있다.
또한, 상기 제2 모듈은, 상기 대상 문서 내에서 상기 제2 구성요건에 대응하는 기저장된 복수의 단어 중 적어도 하나와 일치하는 텍스트를 제2 구성요건에 매칭되는 기재사항으로 추출할 수 있다.
또한, 상기 제3 모듈은, 상기 제3 구성요건에 매칭되는 적어도 하나의 구절을 식별하도록 BERT(Bidirectional Encoder Representations from Transformers) 모델에 Fine-Tuning 방식으로 훈련된 제3 인공지능 모델에 상기 대상 문서를 입력하고, 상기 제3 인공지능 모델의 연산을 통해 상기 대상 문서 내에서 제3 구성요건과 관련된 복수의 연속하는 질문에 대한 답변을 산출하고, 산출된 복수의 답변을 기반으로 제3 구성요건과의 연관성 정도가 기준치 이상인 것으로 판단된 구절을 상기 제3 구성요건에 매칭되는 기재사항으로 추출할 수 있다.
또한, 상기 프로세서는 범죄 사건에 대한 정보가 저장된 DB에서 대상 문서와 유사한 범죄 사건을 검색하여 제공하되, 상기 대상 문서로부터 추출된 구성요건에 매칭되는 기재사항을 기반으로 대상 문서의 범죄 사건에 대한 세부 유형을 식별하고, 식별된 상기 세부 유형에 대응하는 코드 정보를 확인하여 상기 코드 정보가 동일한 범죄 사건을 유사 범죄 사건으로 검색하는 연관 정보 탐색부를 포함할 수 있다.
또한, 상기 프로세서는 상기 대상 문서에 매칭되는 범죄 유형을 식별하지 않고 구성요건에 매칭되는 기재사항을 추출한 경우, 기재사항이 추출된 구성요건의 항목 종류 및 추출된 기재사항의 내용을 바탕으로 상기 대상 문서에 기재된 사건의 범죄 유형을 식별할 수도 있다.
본 발명의 실시 예에 따른 전자 장치(100)는 메모리(110), 통신부(미도시) 및 프로세서(120)를 포함할 수 있다.
메모리는 전자 장치의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.
통신부는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 침(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
프로세서(120)는 메모리에 저장된 각종 프로그램을 이용하여 사용자 기기의 전반적인 동작을 제어할 수 있다. 프로세서는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.
RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.
ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(200)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
메인 CPU는 메모리에 액세스하여, 메모리에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
한편, 나아가, 프로세서는 인공지능 모델을 제어할 수 있다. 이 경우, 제어부는 인공지능 모델을 제어하기 위한 그래픽 전용 프로세서(예: GPU)를 포함할 수 있음은 물론이다.
프로세서는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.
한편, 프로세서는 프로세서 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(130)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리에는 프로세서의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 저장부에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.
100 : 전자 장치
110 : 메모리
111 : 인공지능 모델
112 : 구성요건 분류 정보
113 : 대상 문서
120 : 프로세서
121 : 항목 지정부
122 : 검토 수행부
123 : 연관정보 탐색부
110 : 메모리
111 : 인공지능 모델
112 : 구성요건 분류 정보
113 : 대상 문서
120 : 프로세서
121 : 항목 지정부
122 : 검토 수행부
123 : 연관정보 탐색부
Claims (8)
- 전자 장치에 있어서,
대상 문서 및 형법에 규정된 구성요건의 항목들을 저장하는 메모리; 및
상기 대상 문서의 메타 정보를 기반으로 범죄 유형을 판단하고, 상기 대상 문서를 분석하기 위해 적용할 구성 요건의 항목을 상기 판단된 범죄 유형에 대응하여 선택하고, 상기 대상 문서의 내용에서 상기 선택된 구성요건의 항목에 해당하는 텍스트를 식별하는 프로세서;를 포함하고,
상기 프로세서는,
기저장된 분류 정보에 따라 상기 구성요건을 제1 구성요건, 제2 구성요건, 및 제3 구성요건으로 분류하고,
상기 제1 구성요건에 대응하는 텍스트를 추출하는 제1 모듈, 상기 제2 구성요건에 대응하는 텍스트를 추출하는 제2 모듈 및 상기 제3 구성요건에 대응하는 텍스트를 추출하는 제3 모듈을 제어하며,
상기 제1 구성요건은, 매칭되는 기재사항이 단어의 형태로 추출되는 항목을 포함하되, 이름, 나이, 범죄 유형, 범행 장소, 범행 일자 중 적어도 하나의 항목을 포함하고,
상기 제2 구성요건은, 매칭되는 기재사항이 동일 의미의 텍스트로 추출되는 항목을 포함하되, 심신 미약, 심신 상실 중 적어도 하나의 항목을 포함하고,
상기 제3 구성요건은, 매칭되는 기재사항이 구절의 형태로 추출될 수 있는 항목을 포함하되, 피의자와 피해자의 관계, 행위, 결과, 고의, 과실, 위법성 중 적어도 하나의 항목을 포함하는, 전자 장치. - 삭제
- 삭제
- 제1항에 있어서,
상기 제1 모듈은,
상기 제1 구성요건에 매칭되는 적어도 하나의 개체명을 식별하도록 BERT(Bidirectional Encoder Representations from Transformers) 모델에 Fine-Tuning 방식으로 훈련된 제1 인공지능 모델에 상기 대상 문서를 입력하고, 상기 제1 인공지능 모델의 연산을 통해 상기 대상 문서 내에서 제1 구성요건과의 연관성 정도가 기준치 이상인 것으로 판단된 단어를 상기 제1 구성요건에 매칭되는 기재사항으로 추출하는, 전자 장치. - 제1항에 있어서,
상기 제2 모듈은,
상기 대상 문서 내에서 상기 제2 구성요건에 대응하는 기저장된 복수의 단어 중 적어도 하나와 일치하는 텍스트를 제2 구성요건에 매칭되는 기재사항으로 추출하는, 전자 장치. - 제1항에 있어서,
상기 제3 모듈은,
상기 제3 구성요건에 매칭되는 적어도 하나의 구절을 식별하도록 BERT(Bidirectional Encoder Representations from Transformers) 모델에 Fine-Tuning 방식으로 훈련된 제3 인공지능 모델에 상기 대상 문서를 입력하고,
상기 제3 인공지능 모델의 연산을 통해 상기 대상 문서 내에서 제3 구성요건과 관련된 복수의 연속하는 질문에 대한 답변을 산출하고, 산출된 복수의 답변을 기반으로 제3 구성요건과의 연관성 정도가 기준치 이상인 것으로 판단된 구절을 상기 제3 구성요건에 매칭되는 기재사항으로 추출하는, 전자 장치. - 제1항에 있어서,
상기 프로세서는
범죄 사건에 대한 정보가 저장된 DB에서 대상 문서와 유사한 범죄 사건을 검색하여 제공하되,
상기 대상 문서로부터 추출된 구성요건에 매칭되는 기재사항을 기반으로 대상 문서의 범죄 사건에 대한 세부 유형을 식별하고, 식별된 상기 세부 유형에 대응하는 코드 정보를 확인하여 상기 코드 정보가 동일한 범죄 사건을 유사 범죄 사건으로 검색하는 연관 정보 탐색부;를 포함하는 전자 장치. - 제1항에 있어서,
상기 프로세서는
상기 대상 문서에 매칭되는 범죄 유형을 식별하지 않고 구성요건에 매칭되는 기재사항을 추출한 경우,
기재사항이 추출된 구성요건의 항목 종류 및 추출된 기재사항의 내용을 바탕으로 상기 대상 문서에 기재된 사건의 범죄 유형을 식별하는, 전자 장치.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220153652A KR102615420B1 (ko) | 2022-11-16 | 2022-11-16 | 인공지능 기반의 법률 문서에 대한 자동 분석 장치 |
KR1020230181206A KR20240072964A (ko) | 2022-11-16 | 2023-12-13 | 문서 내 법률적 구성 요건을 표시하여 사용자의 업무를 지원하는 전자 장치 |
KR1020230181205A KR20240072963A (ko) | 2022-11-16 | 2023-12-13 | 법률상 구성 요건에 매칭되는 개체명을 식별하는 bert 모델을 이용하는 전자 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220153652A KR102615420B1 (ko) | 2022-11-16 | 2022-11-16 | 인공지능 기반의 법률 문서에 대한 자동 분석 장치 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230181206A Division KR20240072964A (ko) | 2022-11-16 | 2023-12-13 | 문서 내 법률적 구성 요건을 표시하여 사용자의 업무를 지원하는 전자 장치 |
KR1020230181205A Division KR20240072963A (ko) | 2022-11-16 | 2023-12-13 | 법률상 구성 요건에 매칭되는 개체명을 식별하는 bert 모델을 이용하는 전자 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102615420B1 true KR102615420B1 (ko) | 2023-12-19 |
Family
ID=89385400
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220153652A KR102615420B1 (ko) | 2022-11-16 | 2022-11-16 | 인공지능 기반의 법률 문서에 대한 자동 분석 장치 |
KR1020230181206A KR20240072964A (ko) | 2022-11-16 | 2023-12-13 | 문서 내 법률적 구성 요건을 표시하여 사용자의 업무를 지원하는 전자 장치 |
KR1020230181205A KR20240072963A (ko) | 2022-11-16 | 2023-12-13 | 법률상 구성 요건에 매칭되는 개체명을 식별하는 bert 모델을 이용하는 전자 장치 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230181206A KR20240072964A (ko) | 2022-11-16 | 2023-12-13 | 문서 내 법률적 구성 요건을 표시하여 사용자의 업무를 지원하는 전자 장치 |
KR1020230181205A KR20240072963A (ko) | 2022-11-16 | 2023-12-13 | 법률상 구성 요건에 매칭되는 개체명을 식별하는 bert 모델을 이용하는 전자 장치 |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR102615420B1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015173894A1 (ja) * | 2014-05-13 | 2015-11-19 | 株式会社Ubic | 文書分析システム、文書分析システムの制御方法、および、文書分析システムの制御プログラム |
JP2017535000A (ja) * | 2014-11-19 | 2017-11-24 | レクシスネクシス ア ディヴィジョン オブ リード エルザヴィア インコーポレイテッド | 文書内の潜在的重要事実を自動識別するシステム及び方法 |
KR20210024365A (ko) * | 2019-08-23 | 2021-03-05 | 주식회사 인텔리콘 연구소 | 인공지능 기반의 법률 문서 분석 시스템 및 방법 |
KR102328186B1 (ko) | 2018-12-20 | 2021-11-17 | 석동주 | 법률문서 자동작성 서비스 제공 시스템 및 그 방법 |
KR20220114339A (ko) * | 2021-02-08 | 2022-08-17 | 대한민국(국가기록원) | 전자기록물 공개재분류를 위한 시스템 및 그 방법 |
-
2022
- 2022-11-16 KR KR1020220153652A patent/KR102615420B1/ko active IP Right Grant
-
2023
- 2023-12-13 KR KR1020230181206A patent/KR20240072964A/ko unknown
- 2023-12-13 KR KR1020230181205A patent/KR20240072963A/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015173894A1 (ja) * | 2014-05-13 | 2015-11-19 | 株式会社Ubic | 文書分析システム、文書分析システムの制御方法、および、文書分析システムの制御プログラム |
JP2017535000A (ja) * | 2014-11-19 | 2017-11-24 | レクシスネクシス ア ディヴィジョン オブ リード エルザヴィア インコーポレイテッド | 文書内の潜在的重要事実を自動識別するシステム及び方法 |
KR102328186B1 (ko) | 2018-12-20 | 2021-11-17 | 석동주 | 법률문서 자동작성 서비스 제공 시스템 및 그 방법 |
KR20210024365A (ko) * | 2019-08-23 | 2021-03-05 | 주식회사 인텔리콘 연구소 | 인공지능 기반의 법률 문서 분석 시스템 및 방법 |
KR20220114339A (ko) * | 2021-02-08 | 2022-08-17 | 대한민국(국가기록원) | 전자기록물 공개재분류를 위한 시스템 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20240072963A (ko) | 2024-05-24 |
KR20240072964A (ko) | 2024-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210257066A1 (en) | Machine learning based medical data classification method, computer device, and non-transitory computer-readable storage medium | |
CN111160017B (zh) | 关键词抽取方法、话术评分方法以及话术推荐方法 | |
US11256658B2 (en) | Causality recognizing apparatus and computer program therefor | |
US11182568B2 (en) | Sentence evaluation apparatus and sentence evaluation method | |
WO2021042503A1 (zh) | 信息分类抽取方法、装置、计算机设备和存储介质 | |
Jiang et al. | Evaluating BERT for natural language inference: A case study on the CommitmentBank | |
CN107808011B (zh) | 信息的分类抽取方法、装置、计算机设备和存储介质 | |
CN110377632B (zh) | 诉讼结果预测方法、装置、计算机设备和存储介质 | |
CN109308319B (zh) | 文本分类方法、文本分类装置和计算机可读存储介质 | |
CN111783428B (zh) | 基于深度学习的应急管理类客观题自动生成系统 | |
WO2013125286A1 (ja) | ノン・ファクトイド型質問応答システム及びコンピュータプログラム | |
CN111221939A (zh) | 评分方法、装置和电子设备 | |
WO2021136453A1 (zh) | 应急预案辅助信息获取方法、装置及设备 | |
Schütz et al. | Automatic sexism detection with multilingual transformer models | |
CN111144102B (zh) | 用于识别语句中实体的方法、装置和电子设备 | |
US20200342113A1 (en) | Method of application security vulnerability evaluation based on tree boosting, and readable medium and apparatus for performing the method | |
CN107357765A (zh) | Word文档碎片化方法及装置 | |
Sarwar et al. | Native language identification of fluent and advanced non-native writers | |
Saleiro et al. | Feup at semeval-2017 task 5: Predicting sentiment polarity and intensity with financial word embeddings | |
CN112015903B (zh) | 题目判重方法、装置、存储介质、计算机设备 | |
KR102615420B1 (ko) | 인공지능 기반의 법률 문서에 대한 자동 분석 장치 | |
JP6495124B2 (ja) | 用語意味コード判定装置、用語意味コード判定モデル学習装置、方法、及びプログラム | |
Hovy et al. | A BE-based multi-document summarizer with sentence compression | |
JP2022067234A (ja) | 回答特定用テキスト分類器及び背景知識表現ジェネレータ及びその訓練装置、並びにコンピュータプログラム | |
Córdova Sáenz et al. | Assessing the use of attention weights to interpret BERT-based stance classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |