KR20210057367A - 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법 - Google Patents

층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법 Download PDF

Info

Publication number
KR20210057367A
KR20210057367A KR1020190144049A KR20190144049A KR20210057367A KR 20210057367 A KR20210057367 A KR 20210057367A KR 1020190144049 A KR1020190144049 A KR 1020190144049A KR 20190144049 A KR20190144049 A KR 20190144049A KR 20210057367 A KR20210057367 A KR 20210057367A
Authority
KR
South Korea
Prior art keywords
data
neighbor
inter
floor
artificial intelligence
Prior art date
Application number
KR1020190144049A
Other languages
English (en)
Other versions
KR102352472B1 (ko
Inventor
임용섭
전성필
Original Assignee
임용섭
전성필
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임용섭, 전성필 filed Critical 임용섭
Priority to KR1020190144049A priority Critical patent/KR102352472B1/ko
Priority to US17/096,288 priority patent/US11942079B2/en
Priority to CN202011262155.4A priority patent/CN112863505B/zh
Publication of KR20210057367A publication Critical patent/KR20210057367A/ko
Priority to KR1020220004487A priority patent/KR102489509B1/ko
Application granted granted Critical
Publication of KR102352472B1 publication Critical patent/KR102352472B1/ko
Priority to KR1020230004696A priority patent/KR20230016233A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate
    • G06Q50/163Real estate management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services
    • G06Q50/182Alternative dispute resolution
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/001Alarm cancelling procedures or alarm forwarding decisions, e.g. based on absence of alarm confirmation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/005Discovery of network devices, e.g. terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Emergency Management (AREA)
  • Technology Law (AREA)
  • Databases & Information Systems (AREA)

Abstract

본 발명은 공동주택에서 발생하는 여러 종류의 층간소음 관련 분쟁을 예방하고, 상호 배려심을 토대로 친화적 및 소통적 방식으로 해결하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 이웃간 데이터 처리 방법을 제공한다.
본 발명의 실시예들에 따른 인공지능 기반의 이웃간 데이터 처리 장치는 음성으로 편리하고 신속하고 정확하게 이웃간 소통할 수 있을 뿐만 아니라 편향되지 않은 중재자를 통한 것과 같이 서로의 기분을 상하지 않게 하는 방식으로 소통하고 배려하여 행동함으로써 층간소음 분쟁을 효과적으로 예방 및 해결할 수 있다.

Description

층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법{Apparatus for Processing Data between Neighbors based on Artificial Intelligence and Method for Processing Data between Neighbors Using the Same}
본 발명은 공동주택내 층간소음 등의 불편사항에 대하여 상호 배려를 통해 층간소음 분쟁을 방지하고 효과적으로 해결하기 위한 이웃간 데이터 처리 장치 및 방법에 관한 것이다.
본 출원인의 한국 특허 제10-1859282호에 기재된 바와 같이, 아파트, 오피스텔 및 빌라와 같은 공동주택에 거주하는 이웃간 층간소음으로 인한 분쟁 및 정신적 스트레스는 최근 큰 사회 문제로 대두되고 있다.
층간소음의 유형으로는 뛰는 소리, TV나 세탁기 등의 기계 소음, 피아노 등 악기 소리, 문 여닫는 소음 등이 있다. 이 외에도 흡연, 개짖는 소리와 같은 불편사항을 둘러싼 분쟁들도 다수 발생하고 있다.
이러한 심각한 문제를 해결하기 위하여 다양한 방법들이 선행 특허에 개시되어 있다. 예를 들면, 한국 특허로서, 특허 제1,548,932호(층간소음 방지용 층간 바닥재), 특허 제1,142,119호(아파트 바닥 시공구조 및 시공방법), 특허 제1,266,318호(층간 진동 및 소음 측정 경보 장치), 공개특허 제2015-0078964호(공동주택 층간소음 알림 장치), 특허 제1,582,899호(공동주택 층간소음 알림 장치) 등이 있다. 미국 특허로서는 등록특허 제8,359,957호 및 미국 공개특허 제 US 2008-0144838호 등이 있다.
종래의 특허 기술의 초점은 위층에서 유발되는 소음이 아래층에 얼마나 전달되는지를 층간소음 측정값을 통해 아래층 주민이 알 수 있게 하거나 위층에 층간 소음 발생을 경고하도록 하는 것에 있다. 이런 기술은 층간소음 발생 여부를 객관적으로 판단할 수 있다는 장점은 있으나, 아래층에 사람이 없는 경우에도 자동적으로 층간소음 경보가 위층에 전달되는 단점이 있으며, 측정된 값의 신뢰성에 대해서는 이웃간 다툼이 있을 수 있는 문제점이 여전히 있다. 또한, 이웃으로부터 배려받고 있다는 감정을 서로 느낄 수 없어서 더 큰 층간소음 분쟁을 야기할 우려가 있다는 문제점이 있다. 즉, 아래층 이웃의 배려 덕분에 위층 이웃이 층간소음 걱정없이 생활할 수 있도록 하는 상호배려의 효과가 없다.
또다른 종래의 특허기술(예: 한국 특허 제1,548,932호 및 제1,142,119호)들은 아파트를 새로 지을 때 설치하여야만 하는 한계가 있다.
한국 등록특허 제10-1859282호, 한국 등록특허 제10-1548932호, 한국 등록특허 제10-1142119호, 한국 등록특허 제10-1266318호, 한국 공개특허 제2015-0078964호, 한국 등록특허 제10-1582899호, 한국 등록특허 제10-1548932호, 한국 등록특허 제10-1142119호, 미국 등록특허 제8,359,957호, 미국 공개특허 제2008-0144838호
공동주택에서 발생하는 여러 종류의 층간소음 관련 분쟁을 예방하고, 상호 배려심을 토대로 친화적 및 소통적 방식으로 해결하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법을 제공하고자 한다.
본 발명의 일 특징에 따른 인공지능 기반의 이웃간 데이터 처리 장치는, 불편사항에 대한 제1 이웃의 상태를 표현하는 제1 데이터를 수신하는 제1 통신 기기, 및 제1 이웃과 공간적으로 이격된 제2 이웃에게 제2 데이터를 출력하는 제2 통신 기기를 포함할 수 있다.
여기서, 제1 데이터는 제1 이웃의 부재 여부를 포함하여 층간소음에 대한 제1 이웃의 수용정도를 나타내는 표현일 수 있다. 제2 데이터는 자연어 이해 모듈을 통해 제1 데이터의 의미를 분석하여 추출하고 순화 모듈을 통해 상기 의미는 유지하되 다른 표현으로 변환되어 생성될 수 있다. 상기 불편사항은 제2 이웃과 관련되어 유발되는 층간소음일 수 있다.
상기 자연어이해 모듈 및 상기 순화 모듈은 인공지능 서버에 탑재될 수 있다. 이와 달리, 이들은 제1 통신 기기 및 제2 통신 기기에 내장될 수도 있다.
상기 순화 모듈은 학습된 머신러닝 모델을 통해 상기 제2 데이터를 상기 제1 데이터에 비해 완곡하거나 부드럽거나 예의바른 표현으로 변환하거나, 프라이버시 정보를 노출시키지 않는 표현으로 변환시킬 수 있다.
상기 제1 데이터 및 상기 제2 데이터는 음성 데이터일 수 있다. 이와 달리 시각적 데이터일 수 있다.
상기 불편사항은 층간소음일 경우, 제1 이웃의 공간과 제2 이웃의 공간 사이에 설치되는 층간소음 센서에 의해 검출된 층간소음 크기에 따라 제2 데이터를 제2 이웃에게 출력할지 여부가 달라질 수 있다.
상기 제1 통신 기기 또는 상기 제2 통신 기기는 영상 분석 기능이 있는 카메라 모듈을 더 구비하며, 상기 카메라 모듈은 층간소음 유발 시의 거주민의 상태를 촬영하고 분석할 수 있다.
상기 층간소음 센서에서 검출된 값, 검출 시점, 상기 카메라 모듈에서 촬영된 영상의 분석 결과, 및 상기 제1 데이터 중 적어도 어느 하나는 데이터베이스에 저장될 수 있으며, 층간소음 관련 분쟁시 증거자료로 사용되거나 순화 모듈의 머신러닝 모델을 학습할 때 사용될 수 있다.
본 발명의 다른 관점에 따른 인공지능 기반의 이웃간 데이터 처리 방법은, 컴퓨터로 실행가능한 명령어를 실행하는 프로세서에 의해 불편사항에 관련된 제1 이웃의 상태를 표현하는 제1 데이터를 수신하는 단계, 및 상기 제1 데이터를 변환하여 상기 제1 이웃과 공간적으로 이격된 제2 이웃에게 출력될 제2 데이터를 생성하는 단계를 포함할 수 있다.
제1 데이터는 제1 이웃의 부재 여부를 포함하여 층간소음에 대한 제1 이웃의 수용정도를 나타내는 표현일 수 있으며, 상기 제2 데이터는 상기 제1 데이터의 의미를 분석하여 추출하고 상기 의미는 유지하되 다른 표현으로 변환되어 생성될 수 있다. 상기 불편사항은 상기 제2 이웃과 관련되어 유발된 층간소음일 수 있다.
제2 데이터의 표현은 제1 데이터의 표현보다 더 정중하고 순화된 표현이거나, 또는 프라이버시 정보를 노출시키지 않는 표현 중 어느 하나일 수 있다.
본 발명의 실시예들에 따른 인공지능 기반의 이웃간 데이터 처리 장치에 의하면, 층간 이웃끼리 음성으로 편리하고 신속하고 정확하게 소통할 수 있다. 또한 서로의 기분을 상하지 않게 하는 방식으로 소통하고 행동함으로써 서로에 대한 배려심을 갖게 하여 층간소음 분쟁을 효과적으로 예방 및 해결할 수 있다. 아래층 이웃은 자신이 층간이웃에게 평소에 배려한 만큼 위층 이웃에게서 배려받고 싶을 때 층간소음 자제 요청을 위층 이웃에게 편리하고 즉각적으로 전달함으로써 조용함을 획득할 수 있다. 한편, 위층 이웃은 아래층 이웃이 배려 모드일 경우 층간소음 유발 걱정없이 스트레스로부터 벗어날 수 있고, 비배려 모드일 경우 자신의 행동이 층간소음을 유발하는지 즉각적으로 피드백받음으로써 선별적으로 소음 발생 행위를 통제할 수 있음으로써 가족 구성원간 불화를 방지할 수 있고 층간소음 유발에 대한 과도한 스트레스로부터 벗어날 수 있다. 또한, 객관적인 정보에 기초하여 소음원을 파악하고 그곳으로 층간소음 자제 요청을 전달할 수 있기 때문에 소음원으로 잘못 지목되는 억울한 이웃이 생기지 않게 할 수 있다.
본 발명에 실시예들에 따른 인공지능 기반의 이웃간 데이터 처리 장치에 의하면, 직접 대면시의 단점과 서면 제기시의 단점을 극복하여 간편하고 빠르고 정확하게 민원을 전달할 수 있다. 또한, 민원 제기 관련 전문성이 부족한 민원인을 위해서는 관련 정보나 사례를 학습한 인공지능 알고리즘이 필요한 내용을 자동으로 보완하여 설득력있는 민원으로 재구성할 수 있다. 또한, 민원인의 오해나 주관적 판단에 따른 부당한 민원에 대해서는 AI 스피커가 민원인에게 이러한 사실을 피드백하고 민원인이 재차 생각해 볼 기회를 제공하여 민원 남용을 막을 수도 있다.
도 1은 공동주택에서 발생하는 다양한 유형의 층간소음을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 이웃간 데이터 처리 장치의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 인공지능 기반의 이웃간 데이터 처리 장치에서 제1 AI 스피커에 입력된 음성이 AI 서버를 거쳐 제2 AI 스피커로 출력되는 과정을 보여주는 블록 다이어그램이다.
도 4는 본 발명의 일 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치의 순화 모듈의 동작을 보여주는 도면이다.
도 5A 내지 5E는 본 발명의 일 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치를 통해 층간이웃 간에 소통이 이루어지는 예를 보여주는 도면이다.
도 6은 본 발명의 실시예에 따른 순화모듈의 머신러닝 모델을 훈련시키는 모습을 보여주는 도면이다.
도 7은 본 발명의 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치의 개략도이다.
도 8은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치의 개략도이다.
도 9는 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치의 개략도이다.
도 10은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치로 구성된 시스템의 개략도이다.
도 11은 공동주택 내의 소음원 맵에 대한 개략도이다.
도 12는 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치로 구성된 시스템의 개략도이다.
도 13은 잠자는 아기의 이미지가 다른 집의 AI 스피커의 디스플레이 화면에 브로드캐스팅되는 것을 보여주는 도면이다.
도 14는 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치의 개략도이다.
도 15는 본 발명의 인공지능 기반의 이웃간 데이터 처리장치의 단말기간에 페어링 연결하는데 사용되는 층간정보 맵에 대한 개략도이다.
도 16은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치가 활용되는 사용 예를 보여주는 도면이다.
이하에서 설명하는 내용은 어디까지나 본 발명의 일 실시예에 관한 것일 뿐 본 발명이 이로써 제한되는 것은 아니다. 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 발명을 한정하려는 의도에서 사용된 것이 아니다.
이하, 첨부된 도면을 참조하여, 본 발명의 실시예에 대해 구체적으로 설명한다.
도 1은 공동주택에서 발생하는 다양한 유형의 층간소음을 보여준다.
위층에서 뛸 때, 의자 끌 때, 공이 튈 때, 물건이 떨어질 때의 소리 및 진동이 주로 아래층으로 전달된다. 같은 층의 옆집으로 전달되는 경우도 있다. 담배 연기는 위층으로 전달되기도 한다. 하지만, 개짖는 소리나 악기 소리 처럼 어디로 전달될지 불확실한 경우도 있다. 이와 같이, 다양한 유형의 층간소음을 포함한 불편 사항이 공동주택에 거주하는 하나 이상의 이웃들에게 전달된다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치(10)의 개략도이다. 이 장치는 인접한 아래층과 위층에 각각 설치될 수 있다.
이 장치는 한 쌍의 페어링 연결된 단말기(11, 12)를 구비할 수 있다. 이 단말기(11, 12)는 음성 인식 기능을 가진 인공지능(Artificial Intelligence) 스피커(이하 "AI 스피커") 일 수 있나 이에 한정되지 않으며, 통신 기능, 음성 인식 기능을 가지고 사용자로부터 음성을 입력받고 사용자에게 음성적 및/또는 시각적으로 정보를 출력할 수 있는 기능만 구비하면 모두 해당될 수 있다. 예를 들면, 스마트폰, 음성 인식 스마트 TV 등도 가능하다.
이하에서는 AI 스피커를 예로 들어 설명한다. 제1 AI 스피커(11)는 아래층 공간에, 제2 AI 스피커(12)는 위층 공간에 설치될 수 있다. 각 AI 스피커(11, 12)는 인터넷을 통해 AI 서버(20)와 연결될 수 있다. 제1 AI 스피커(11)로 입력된 아래층 주민의 음성은 AI 서버를 통해 자연어로 이해되고 순화되어 완곡하고 정중한 표현으로 변환되고, 제2 AI 스피커(12)를 통해 위층 주민에게 전달된다. 이를 통해 위층 주민은 즉각 자신들의 행동이 층간소음을 발생시켰다는 사실을 인지할 수 있을 뿐만 아니라 아래층 주민을 배려하여 층간소음이 발생하지 않도록 조심하여 행동하게 된다.
마찬가지로, 제2 AI 스피커(12)로 입력된 위층 주민의 음성은 AI 서버를 통해 자연어로 이해되고 순화되어 완곡하고 정중한 표현으로 변환되고, 제2 AI 스피커(12)를 통해 아래층 주민에게 전달된다. 이를 들은 아래층 주민은 위층 주민에게 고마움을 느끼게 될 것이다. 이와 같이, 자연어 이해 기반으로 층간 이웃끼리 음성으로 편리하고 신속하게 소통할 수 있다. 게다가 AI의 도움으로 서로의 기분을 상하지 않은 방식으로 소통하고 행동함으로써 서로에 대한 배려심을 갖게 할 수 있다.
도 3은 본 발명의 인공지능 기반의 이웃간 데이터 처리장치에서 제1 AI 스피커(11)에 입력된 음성이 AI 서버를 거쳐 제2 AI 스피커(12)로 출력되는 과정을 보여주는 블록 다이어그램이다.
일 실시예에 따른 AI 서버는 입력 인터페이스(21), STT(Speech-To-Text) 모듈(22), NLU(Natural Language Understanding) 모듈(23), 순화 모듈(24) 및 출력 인터페이스(25)를 포함할 수 있다. 간단히 설명하면, STT 모듈(22)은 입력된 음성 정보를 인식하여 텍스트 정보로 변환하며, NLU 모듈(23)은 텍스트 정보의 의미, 어조, 뉘앙스 등을 고려하여 자연어로 이해하며, 순화 모듈(24)은 원래의 의미를 간직하되 어조 및 뉘앙스를 순화되고 부드럽게 변형하는 역할을 할 수 있도록 구성될 수 있다.
순화 모듈(24)은 학습된 머신러닝 모델 또는 규칙(rule) 기반의 모델로 구성될 수 있다. 순화 모듈은 학습 데이터가 많아질수록 규칙이 세분화될수록 정확한 처리가 가능해진다. STT 모듈(22)과 판단 모듈(23) 역시 인공지능 모델 또는 규칙 기반의 모델로 구성될 수 있다. 인공지능 또는 규칙 기반의 모델을 생성하고 사용하는 방식은 다양하며 이미 알려진 기술들로 구성될 수 있다.
아래층 주민이 층간소음 상태 정보를 말하면 제1 AI 스피커(11)는 이를 소정의 파일(예: MP4)로 음성 녹음하여 네트웍을 통해 전송한다. AI 서버(20)는 STT 모듈(22)을 통해 입력된 음성을 텍스트로 변환하고 NLU 모듈(23)을 통하여 그 의미를 이해하고 순화 모듈(24)로 입력한다. 순화 모듈(24)은 이를 입력받아 소정의 다른 표현으로 변환하여 출력한다.
도 4의 예와 같이, AI 서버(20)를 통해 제2 AI 스피커(12)로 전달되는 음성 정보는 제1 AI 스피커(11)로 입력된 음성 정보에 비해 더 순화되고 정중한 표현이며, 더 부드럽고 상냥한 톤일 수 있다. 여기에 제시된 순화된 출력은 예시적인 것이며, 학습된 머신러닝 모델 및 사용되는 상황에 따라 다양한 변형이 가능함을 이해하여야 할 것이다. 예를 들면, 층간소음 분쟁 대응 매뉴얼의 사례를 학습한 경우, 순화 모듈은 이웃으로부터 받은 음성이나 텍스트 정보를 표현만 순화되고 완곡하게 변환하는 것이 아니라, 분쟁 사례에서 학습한 내용을 토대로 의미있는 정보를 추가로 생성하여 출력해 줄 수도 있다.
한편, 본 발명의 인공지능 기반의 이웃간 데이터 처리장치의 AI 서버는 순화 모듈을 구비하지 않도록 구성될 수도 있다. 이 경우, 층간 이웃의 음성이 텍스트로 변환되고 자연어 의미로 이해된 후 기계 음성으로 변환되어 상대방에게 전달될 수 있다. 순화 모듈을 구비한 실시예보다 덜 순화되고 덜 정중하지만 층간 이웃의 격앙된 목소리가 그대로 전달되지는 않으므로 감정의 격화는 방지할 수 있을 것이다.
또 다른 한편, 본 발명의 인공지능 기반의 이웃간 데이터 처리 장치는 어느 한 AI 스피커에 입력된 음성을 층간 이웃의 AI 스피커에 그대로 전달하도록 구성될 수도 있다. 이 경우, 층간 이웃간 편리하고 신속하게 소통할 수 있는 장점은 있으나, 자칫 감정이 격화될 수 있는 한계가 존재한다.
도 5A를 참조하여 사용 시나리오를 예시적으로 설명한다. 위층에서 층간소음이 발생하자 아래층 주민이 제1 AI 스피커(11)를 향해 "아리아!, ?? ?? 위층 오늘 너무 뛴다"라고 소음 발생을 자제해 달라는 뜻으로 얘기한다. 제1 AI 스피커(11)는 아래층 주민의 음성을 녹음한 후 AI 서버로 전송한다. AI 서버는 수신된 녹음 파일을 열어 STT 모듈 통해 텍스트로 변환하고 NLU 모듈은 의미 정보로 변환하여 순화 모듈로 보낸다. 그러면 순화 모듈은 그 의미 정보를 예를 들면, "우리 윗집에서 이렇게 뛴다면 우리도 힘들겠지요?~"와 같이 순화된 표현으로 변환하여 출력한다. 순화된 음성 정보를 받은 제2 AI 스피커(12)는 위층 주민에게 음성으로 출력한다. 이 출력을 들은 위층 주민의 수용 및 대응 정도 등의 데이터도 AI 서버 또는 별도의 서버의 저장소에 지속적으로 저장할 수 있다. 그리고 순화 모듈의 머신러닝 모델은 이러한 정보를 학습하여 추후 위층으로 표현을 송출할 경우에 보다 적절한 표현을 선택하는 것이 가능하게 된다. 이는 아래에서 도 6을 참조하여 보다 상세하게 설명하기로 한다.
이를 들은 위층 주민이 "우리가 좀 시끄러웠었나 보네. 미안하다고 전해줘"라고 아래층 주민에게 미안하다는 취지의 얘기를 하면 제2 AI 스피커(12), AI 서버 및 제1 AI 스피커(11)를 통해 예를 들면 "위층 이웃이 바로 배려해 주시네요"라고 아래층 주민에게 음성으로 출력한다. 이 출력을 들은 위층 주민의 수용 및 대응 정도 등의 데이터도 지속적으로 저장 및 학습하여 추후 위층으로 표현을 송출할 경우에 보다 적절한 표현을 선택하는 것이 가능하게 된다.
이와 같이, 아래층 주민이 짜증난 어조로 얘기를 하더라도 AI 서버를 통해 원래의 의미를 전달하면서도 목소리, 어조, 뉘앙스 및 표현을 순화되고 부드럽게 변환할 수 있다. 따라서 이를 듣는 위층 주민은 감정의 격화 없이 아래층 주민의 요청을 쉽게 받아들일 수 있고, 아래층 주민에게도 미안함을 표현하는 것이 쉬워질 것이다. 즉, 층간이웃 간에 직접 대면하거나 전화나 인터폰으로 얘기하게 되면 감정이 격화되기가 쉬운 반면, AI 스피커를 통해 순화된 표현으로 소통함으로써 마치 노련하고 경험많은 중재자를 통해 갈등을 해결하는 효과가 있다. 또한 순화 모듈의 머신러닝 모델은 위층 주민이 가장 선호하는 표현을 계속적으로 학습하여 이를 활용함으로써 위층 주민의 최대한 배려를 이끌어 낼 수 있다.
또한, 위층의 층간소음에 대한 아래층 주민의 수용 정도(층간소음 자제 요청 모드, 또는 층간소음이 발생하여도 좋다는 배려 모드)를 층간이웃 데이터 처리 장치의 버튼을 눌러 입력시키는 방식에 비해 음성으로 입력시킬 수 있으므로 편리해질 수 있다.
또한, AI 서버의 순화 모듈은 빅데이터 - 다양한 층간소음 분쟁 사례, 분쟁 대응 매뉴얼 - 를 입력받아 학습을 하면 할수록 상황에 맞는 적절한 표현으로 변환하는 능력이 향상될 수 있다. 그럼으로써 층간소음으로 인한 분쟁을 더욱 효과적으로 예방하고 해결할 수 있게 된다.
또한, 제한된 개수의 버튼으로 의사를 표현하는 방식에 비해 층간소음에 대한 자신의 상태를 말로 표현함으로써 더욱 정확하고 다양하게 전달할 수 있게 된다.
한편, 제2 AI 스피커(12)는 사전에 정해진 방식(예: "아리아"라는 이름)으로 불릴 때 깨어나서 음성 입력을 받는 모드로 전환된다. 편의성을 향상시키기 위하여 제2 AI 스피커(12)는 제1 AI 스피커(11)로부터 전달된 음성 정보를 수신하게 되면 위층에 출력함과 동시에 자동으로 음성 입력을 받는 모드로 전환되도록 구성될 수 있다. 위층 주민은 "아리아"라고 부르지 않고도 바로 원하는 내용을 얘기할 수 있게 되어 더욱 자연스러운 대화가 가능해진다.
한편, 도면에 도시되지는 않았으나, 제2 AI 스피커를 통해 위층에 출력되는 방식은 음성 대신에 시각적 표시일 수도 있고, 음성과 시각적으로 동시에 표시되는 형태일 수도 있다. 여기서, 시각 정보는 AI 스피커에 내장된 램프에서 나오는 특정 색상의 빛일 수도 있다. 예를 들어, 평소에는 AI 스피커가 초록색으로 켜져 있다가 층간소음의 자제를 요청하는 신호나 메시지가 전달되면 예를 들면 빨간색으로 바뀔 수 있다. 시각 정보는 AI 스피커의 디스플레이 화면에 표시되는 정보일 수 있다. 예를 들어, 층간소음의 자제를 요청하는 신호가 전달되면 그에 맞는 텍스트 및/또는 이미지/이모티콘이 표시될 수 있다.
도 5B의 사용 시나리오는 층간소음 자제 요청을 받은 위층 주민이 층간소음을 일으킨 소음원이 아닌 경우이다.
아래층에서 층간소음 자제 요청을 받은 위층 주민은 예를 들면, "우리는 뛰지도 않았는데 이상하네"라고 얘기할 수 있다. 위층 주민의 피드백은 제2 AI 스피커(12), AI 서버, 제1 AI 스피커(11)를 거쳐 예를 들면, "위층에서 뛰어나 만든 소리가 아니래요"라고 적절하게 변환되어 아래층에 전달될 수 있다. 아래층 주민은 즉시 오해를 풀고 위층 주민은 억울함을 해소할 수 있다. 그럼으로써 층간이웃간 불필요한 감정이 쌓이는 것을 방지하고 향후 서로 배려할 수 있는 관계를 형성하는데 도움이 된다.
도 5C의 사용 시나리오는 아래층 주민이 외출하거나 층간소음이 신경 쓰이지 않을 것이어서 위층 주민을 위해 배려 모드로 설정하고자 하는 경우이다.
아래층 주민이 예를 들면, "아리아, ?? ?? 오늘 밤 9시에 돌아오니 30분 전에 난방 켜놔"와 같이 제1 AI 스피커(11)에 얘기하면, AI 서버는 아래층에 저녁 9시까지는 사람이 없다는 것으로 이해할 수 있다. 그러면 제2 AI 스피커(12)는 위층에 예를 들면,"아래층 주민은 참 배려심 많은 분이네요. 지금은 마음껏 뛰어도 될 것 같아요"라고 음성으로 출력하거나 시각적으로 표시할 수 있다. 여기서, 시각적인 표시로서, AI 스피커에 초록색 램프가 켜질 수도 있고, AI 스피커의 디스플레이 화면에 상기 표현이 나타나게 할 수 있다.
아래의 표현은 아래층 주민의 외출로 인한 배려 모드로 이해될 수 있을 것이다.
"아리아, ?? ?? 나 외출했다가 저녁에 돌아올께" "아리아, ?? ?? 우리 가족 지금 영화 보러 나가" "아리아, ?? ?? 이번 주말에는 캠핑갔다가 일요일 저녁 7시경 들어올거야" "아리아, ?? ?? 1시간 정도 외출할거니 마음껏 뛰어도 된다고 해" "아리아, ?? ?? 이번 주말에 여행다녀올 건데 밤에 거실등 켜놔"
유사하게 아래의 표현은 아래층에 사람이 있지만 배려 모드로 이해될 수 있다.
"아리아, ?? ?? 오늘은 우리 집에 손님이 와서 좀 소란할거야" "아리아, ?? ?? 지금부터 청소좀 할께" "아리아, ?? ?? 지금 난 기분이 좋아서 위에서 좀 뛰더라도 신경 안 쓰일 것 같아"
아래층 주민의 외출 상태와 층간소음에 신경쓰지 않는 상태를 구별하지 않고 제2 AI 스피커(12)는 예를 들면, "지금은 뛰어도 될 것 같아요"와 같은 표현으로 위층에 출력되게 함으로써 아래층 주민의 현재 상태가 직접적으로 노출되거나 알려지지 않을 것이다. 그럼으로써 아래층 주민의 프라이버시 또는 보안이 위협받는 일을 방지할 수 있다.
위층 주민은 아래층이 현재 배려 모드 상태임을 인지함으로써 층간소음 걱정 없이 마음껏 생활할 수 있다. 또한, 아래층 주민의 배려심에 대한 감사의 마음을 가짐으로써 나중에 아래층 주민에게 더욱 쉽게 배려를 베풀 수 있게 된다.
도 5D의 사용 시나리오는 위층 주민이 아래층의 상태를 궁금해하는 경우이다.
위층 주민은 예를 들어 "아리아, ?? ?? 지금 좀 뛰어도 돼?"라고 말하면 제2 AI 스피커(12)는 제1 AI 스피커(11)에게 아래층의 상태를 질의하게 된다. 제1 AI 스피커(11)는 아래층 주민의 상태 정보 - 층간소음 자체 요청 모드, 배려 모드 -를 파악한 후, 제2 AI 스피커(12)에게 전달할 수 있다. 제2 AI 스피커(12)는 예를 들면, "예, 괜찮을 것 같아요. 배려심 많은 아래층 이웃에게 언젠가 감사의 마음을 전하세요" 라고 음성으로, 또는 녹색 램프로 표현할 수 있다.
다음의 표현들은 아래층 주민의 상태를 질의하는 예이다. "아리아, ?? ?? 지금 층간소음 모드 알려줘" "아리아, ?? ?? 지금 층간소음 배려상태 어때?" "아리아, ?? ?? 지금 조용해야 되는 시간인가?" "아리아, ?? ?? 지금 뛰면 아래층에 폐를 끼치려나?"
다음의 표현들은 아래층의 배려 모드로 이해될 수 있는 예이다. "적어도 9시까지는 괜찮을 것 같아요" "지금 배려모드이니 괜찮아요"
반면, 다음의 표현들은 아래층의 층간소음 자제 요청 모드로 이해될 수 있는 예이다. "평소 배려심 많은 아래층 주민이 지금은 조용히 있고 싶은가 봐요" "이번 주는 아래층 주민이 시험 준비가 있어 조용히 있고 싶은가 봐요"
한편, 제1 AI 스피커(11)는 다양한 방법으로 아래층 주민의 층간소음 양해/배려 상태 정보를 파악할 수 있다. 첫째, 아래층 주민이 제1 AI 스피커(11)에게 최근에 발화한 내용에 기초하여 판단할 수 있다. 예를 들면, "아리아!, ?? ?? 나 외출했다가 밤 9시경 돌아오니 30분 전에 난방 켜놔"라는 내용으로부터 배려 모드라고 판단할 수 있다. 둘째, 제1 AI 스피커(11)에 내장되거나 통신 연결된 카메라로 획득한 영상을 분석하여 판단할 수 있다. 영상 분석 또는 음원/음성 분석을 통해 집안에 사람이 있는지, 무슨 상태인지를 판단할 수 있다. 영상의 사각 지대를 최소화하기 위하여 광각 렌즈를 사용하거나 좌/우/상/하 패닝/틸팅 가능한 카메라 모듈을 사용할 수 있다. 셋째, 아래층 집에 설치된 다양한 IoT 센서에서 감지한 정보를 기초로 집안에 사람이 있는지, 무슨 상태인지를 판단할 수 있다. 또한, 위의 3가지 방법을 적절히 조합하여 아래층 주민의 상태를 판단하는 것도 가능하다.
도 5E의 사용 시나리오는 아래층 주민이 층간소음에 대하여 불편을 호소하거나 층간소음 자제 요청을 할 경우 제1 AI 스피커(11)는 아래층 주민의 발화를 이해하여 전달하고자 하는 문장을 제시하고 동의를 받아 전달하는 경우이다.
아래층 주민이 "아리아, ?? ?? 위층 오늘 너무 뛴다"고 얘기하면, 제1 AI 스피커(11)는 "위층 이웃에게 지금은 조용히 있고 싶다고 전할까요?"라고 되묻고, 이에 대해 아래층 주민이 "응"이라고 대답한다. 이 경우, 제1 AI 스피커(11)는 아래층 주민과의 대화 내용을 녹음하여 AI 서버로 전달하고 AI 서버는 적절하게 변환하여 제2 AI 스피커(12)에게 예를 들면 "평소 배려심 많은 아래층 이웃이 지금은 조용히 있고 싶은가 봐요"라고 위층 주민에게 전달할 수 있다. 위층 이웃이 "우리가 좀 시끄러웠었나 보네. 미안하다고 전해줘"라고 말하면 제2 AI 스피커(12)로부터 이 말을 전달받은 제1 AI 스피커(11)는 "위층 이웃이 바로 배려해 주네요"라고 아래층 주민에게 전달할 수 있다. 위와 같이 상호 배려하는 방식으로 소통함으로써 층간소음 분쟁을 효과적으로 예방할 수 있다.
도 6은 순화모듈(24)로 입력되는 제1 표현이 좀더 완곡하고 순화된 제2 표현으로 변환되는 원리를 보여준다. 순화모듈 내 머신러닝 모델은 제1 표현과 관련 정보를 소정의 머신러닝 알고리즘에 입력하여 원하는 제2 표현을 얻도록 반복적으로 학습시킴으로써 생성할 수 있다. 학습 데이터 세트는 입력값들과 출력값으로 구성될 수 있다. 예를 들면, 입력값은 아래층 주민의 소음 자제 요청, 아래층 주민의 배려 정도, 층간소음 관련 정보로 구성될 수 있다. 입력되는 제1 표현이 "위층 조용히 좀 해줘"라고 약간 신경질으로 층간소음 자제를 요청하는 표현일 경우, 제2 표현은 제1 표현을 완곡하게 순화시킨 "평소에 배려심 많던 아래층 이웃을 위해 밤에는 조용히 해주면 어떨까요?"와 같이 출력될 수 있다. 바람직하게 제2 표현은 제1 표현에 비해 위층에 적절하게 주의를 환기시키면서도 위층 주민의 기분이 상하지 않도록 하는 표현이다. 한편, 입력되는 제1 표현이 "나 외출했다가 저녁 9시 30분경 돌아오니 30분 전에 난방 켜놔"일 경우, 제2 표현은 "지금은 마음 놓고 뛰어도 되겠네요"와 같이 아래층 주민의 보안이나 프라이버시 정보가 직접적으로 노출되지 않도록 하는 표현으로 출력될 수 있다. 원하는 입력값과 출력값으로 구성된 데이터 세트로 더 학습을 시킬수록 순화모듈의 머신러닝 모델의 정확도는 향상될 수 있다.
도 7에서와 같이, 본 발명의 다른 실시예에 따른 제1 및 제2 AI 스피커(111, 112)는 각각 도 3에 도시된 AI 서버의 기능 - STT 모듈, NLU 모듈, 순화 모듈 - 을 내장할 수 있다. 여기서는, 별도의 AI 서버는 필요하지 않다.
한편, 도 5A 내지 5E의 실시예는 제1 및 제2 AI 스피커(11, 12)가 도 7과 같이 직접 연결되는 경우뿐만 아니라 도 2와 같이 AI 서버를 통해 연결되는 경우도 포함하는 것으로 이해되어야 한다.
도 8에 도시된 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리 장치의 AI 스피커들(211, 212)은 진동/소음 센서(230)와 연동되어 있다는 점에서 이전 실시예들과 상이하다.
진동/소음 센서(230)는 진동과 소음 중 적어도 하나를 계측하는 센서를 의미한다. 진동/소음 센서(230)는 아래층 벽면 또는 천장에 설치될 수 있고, 제1 AI 스피커(211) 및/또는 제2 AI 스피커(212)와 기능적으로 연결될 수 있다. 예를 들면, 제1 AI 스피커(211)에 연동된 진동/소음 센서(230)가 소정의 기준(예: 50 dB) 이상의 진동이나 소음을 검출할 경우, 제1 AI 스피커(211)로 검출 신호를 전송하고 제1 AI 스피커(211)는 깨어나서 음성을 입력받는 상태로 전환된다. 층간소음 등 불편을 느낀 아래층 주민은 제1 AI 스피커(211)를 호출하지 않고 바로 자신의 상태나 요청 사항을 얘기할 수 있기 때문에 사용자 편의성이 증가된다. 만약 진동/소음 센서(230)가 제2 AI 스피커(212)에 연동될 경우 기준 이상의 진동/소음이 검출되면 제2 AI 스피커(212)에 그 사실을 출력하도록 구성될 수 있다. 그럼으로써 위층 주민은 즉각 소음 발생 사실을 인지하여 스스로 시정하려고 노력할 수 있게 된다. 또한, 층간소음에도 불구하고 아래층 주민으로부터 자제 요청이 없을 경우 아래층 주민의 배려심에 대해서도 고마운 마음을 가질 수 있게 된다. 이런 아래층 이웃의 배려심에 대한 이력 데이터도 저장 및 학습하여 추후 위층에서 만들어 내는 층간소음의 정도를 지속적으로 조절할 수 있도록 만들어 준다. 예를 들어, 지난 주말 저녁에 위층이 소란스러웠음에도 불구하고 아래층 이웃이 이를 배려해 주었는데 이번 주말 저녁에 위층에서 다시 층간소음이 발생하였고 아래층 이웃이 자제 요청을 하는 경우, AI 서버(220)의 순화 모듈은 "지난 번에 많이 배려해 준 아래층 이웃을 위해 오늘은 조금 더 조용해 주면 어떨까요?"라고 변환하여 제2 AI 스피커(212)에 전달할 수 있다.
다른 예로서, 현재 감지된 진동/소음 값 및/또는 저장된 이전 감지값(예 - 층간소음 발생 시간, 소음 레벨, 발생 빈도 및 패턴, 층간소음 자제 요청 회수 등)에 기초하여 제1 AI 스피커(211) 및/또는 제2 AI 스피커(212)에서 출력되는 정보가 상황에 맞게 조절될 수 있다. 예를 들면, 층간소음 발생 빈도가 드물 수록 위층에 전달되는 어조나 표현을 부드럽게 조절하는 반면, 자제 요청도 있고 진동/소음 값도 기준치보다 크게 높거나 빈번하게 발생하는 것으로 판단될수록 더 강한 어조나 표현을 사용하도록 조절할 수 있다. 소음이 낮에 발생하였음에도 자제 요청을 받은 경우 또는 검출된 진동/소음 값이 기준치보다 낮은데도 자제 요청을 받은 경우 또는 자제 요청 횟수가 빈번한 경우, 제1 AI 스피커(211)는 상기한 정보들에 기초하여 아래층 주민의 요청이 합리적이지 않거나 과도하다고 판단한 후 아래층 주민에게 재고를 권유하는 표현을 출력할 수 있다.
한편, 공동 주택의 각 주거 공간에서 발생하여 AI 스피커(210, 220), 진동/소음 센서(230)를 포함한 각종 센서로부터 수집된 층간소음 관련 정보(예를 들면, 층간소음 유형, 발생 시간, 진동/소음값, 층간소음 자제 요청 및 이에 대한 수용 패턴을 포함한 층간이웃간의 행동 패턴 등)은 AI 서버(220)나 별도의 서버(미도시)에 저장될 수 있고, 이러한 빅데이터는 다양한 목적으로 활용될 수 있다. 예를 들어, 층간소음 관련 분쟁에서 증거자료로, 층간소음의 발생 빈도 정보에 기초하여 층간소음에 취약한 아파트를 구별하는 자료 등으로 활용될 수도 있다. 이를 통해, 부실 공사를 방지하고 층간소음 방지를 위한 규격에 맞는 건축자재의 사용 및 시공 방법을 활성시킬 수 있다. 층간소음에 민감하거나 배려가 많은 거주자, 동/호수를 확인하는 자료로 활용될 수 있다. 층간이웃간 자발적인 배려를 촉진시켜 살기 좋은 주거문화를 정착시킬 수 있다.
도 9에 도시된 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리 장치는 카메라(315, 312a)를 구비한다는 점에서 도 2의 실시예와 상이하다. 여기서 카메라는 AI 스피커(311)와 기능적으로 연결된 별도의 카메라(315)일 수도 있고, AI 스피커(312)에 내장된 카메라 모듈(312a)일 수 있다.
아래층 주민이 얼굴을 찌푸린 상황일 때 제1 AI 스피커(311)의 카메라(315)는 그 영상이 포착하고 딥러닝 알고리즘 등으로 영상을 분석하여 얼굴 표정을 인식할 수 있다. 그럼으로써 층간소음에 대한 아래층 주민의 심리 상태를 알 수 있고, 아래층 이웃으로부터 별도의 입력을 받지 않고서도 제2 AI 스피커(312)로 그 상태를 전달할 수 있다.
제2 AI 스피커의 카메라(312a)는 위층의 상태를 촬영하고 영상을 분석함으로써 뛰고 있는 사람이 있는지, 위층이 부재 중인지 등 위층의 공간 상태를 파악할 수 있다. 만약 층간소음이 발생한 시점에 위층에 사람이 부재중이거나 혹은 시끄러운 행동을 하지 않고 있었다고 판단되는 경우 아래층에 제1 AI 스피커(311)에 자신이 소음원이 아니라는 신호를 자동으로 전송하도록 구성될 수 있다.
특히, 위층을 촬영한 영상을 시간 정보, 진동/소음값 및 아래층 주민의 상태 신호와 함께 저장함으로써 층간소음 분쟁시 증거로도 사용될 수 있다.
도 10에 도시된 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리 장치는 각 집마다 진동/소음 센서(431, 432, 433, 434, 435, 436) 및/또는 연동되거나 내장된 카메라(411a, 412a, 413a, 414a, 415a, 416a)를 더 구비할 수 있다.
1층 1호에서 개짖는 소리가 크게 발생하였다고 가정하자. 이웃인 1층 2호, 2층 1호, 2층 2호는 이 소리가 어느 집에서 발생한 소리인지 구분하기 어려울 수 있다. 피아노 치는 소리, 고함 소리 역시 마찬가지이다. 대부분의 층간소음은 위층에서의 바닥 충격음이 아래층으로 전달되는 것이 일반적이기에 위층과 아래층의 AI 스피커들(411, 412, 413, 414, 415, 416)이 서로 페어링 연결되어 통신하도록 구성된다. 하지만, 개짖는 소리, 피아노 소리와 같이 어느 이웃집에서 발생하였는지 알기가 어려운 경우, 그 소음원의 위치를 확인할 필요가 있을 것이다.
이를 위해 각 집의 진동/소음 센서(431, 432, 433, 434, 435, 436) 및/또는 카메라(411a, 412a, 413a, 414a, 415a, 416a)가 이용될 수 있다. 진동/소음 센서를 이용하는 경우, 각 집에 설치된 진동/소음 센서(431, 432, 433, 434, 435, 436)에서 측정된 결과를 비교 분석하여 소음원을 파악할 수 있다. 카메라(411a, 412a, 413a, 414a, 415a, 416a)를 이용하는 경우, 진동/소음 센서(431, 432, 433, 434, 435, 436)가 소음을 검출한 시각에서의 각 집에 설치된 카메라 영상을 분석하여 어느 집에서 개가 짖었는지 파악할 수 있다. 영상 분석은 각 카메라(411a, 412a, 413a, 414a, 415a, 416a)에서 수행될 수도 있고, 별도의 서버(미도시)로 전송되어 그 서버에서 수행될 수도 있다. 프라이버시 보호를 위해서 분석 결과만 저장, 활용될 수 있고 영상은 저장되지 않을 수 있다. 각 집에서 검출된 진동/소음 값 또는 영상분석 결과를 기초로 정확한 소음원을 특정할 수 있고, 이 소음원 정보는 동일 네트워크에 연결된 AI 스피커들(411, 412, 413, 414, 415, 416)에 전달될 수 있다. 소음원 정보 분석은 소정의 알고리즘으로 구현될 수 있고, 이러한 기능은 전술한 바와 같이 AI 서버(420)에 내장될 수도 있고, 이와 달리 별도의 관리 서버(미도시)에서 구현되는 등 다양한 구성으로 가능하다.
그럼으로써 층간소음 자제 요청을 하는 집의 AI 스피커(413)와 소음원에 연관된 집의 AI 스피커(411)가 송/수신 공간과 통신 연결되게 구성될 수 있다. 그럼으로써 어느 집에서 소음을 일으켰는지 훨씬 간편하고 신속하게 확인할 수 있을 뿐만 아니라 간편하고 신속하게 소통할 수 있게 된다. 이와 같이, 객관적인 정보에 기초하여 소음원으로 파악된 집에 층간소음 자제 요청이 전달되므로 자신이 소음원이 아님에도 불구하고 항의를 받는 억울한 이웃이 발생되지 않게 하는 효과가 있다.
또 다른 실시예로서, 여러 이웃들로부터 동일 소음원에 대한 자제 요청이 동시에 발생할 경우 그러한 상황에 맞게 소음원으로 파악된 집의 AI 스피커(411)에 전달될 내용을 생성할 수 있다. 예를 들면, 개 짖는 소리에 대하여 세 이웃(2층 1호, 1층 2호, 2층 2호)으로부터 자제 요청이 접수될 경우, "여러 이웃이 불편해하는 것 같으니 우리집 강아지가 불안한 것이 없는지 확인해 주면 어떨까요?"라는 음성이 AI 스피커(411)에 출력될 수 있다.
만약, 1층 1호의 진동/소음 센서(431)나 카메라(411a)가 꺼져 있거나 오동작 하여 진동/소음을 검출하는 못하는 경우가 있을 수 있다. AI 서버(420) 또는 별도의 관리 서버(미도시)는 도 11에 도시된 바와 같은 공동 주택의 소음원 맵(430)을 생성해 놓음으로써 이러한 문제를 해결할 수 있다.
소음원 맵(430)은 공동주택에서 발생하는 다양한 불편사항 - 개짖는 소리, 악기 소리, 흡연, 아이들 뛰는 소리, 러닝 머신 소리 등-을 일으키는 출처를 용이하고 정확하게 파악하기 위하여 작성된다. 소음원 맵(430)은 각 동/호수 별로 애완견이 있는지, 피아노가 있는지, 흡연자가 있는지, 어린 아이들이 거주하는지, 러닝 머신이 있는지 등의 소음 유발 정보를 포함할 수 있다.
각 집의 소음 유발 정보는 다양한 방식으로 수집할 수 있다. 각 세대 거주자로부터 본 발명의 인공지능 기반의 이웃간 데이터 처리장치를 이용한 서비스에 가입할 때 수집할 수 있다. 또는 특정 유형의 불편에 대하여 자제 요청을 받았던 정보들을 분석하여 가장 확률이 높은 세대를 해당 소음원으로 설정할 수도 있다. 또는 집안의 카메라에서 촬영된 영상을 분석하여 소음원 관련 정보를 획득하여 제공받을 수 있다. 또는 집안에 설치된 다양한 IoT 센서들의 등록 정보로부터 획득할 수 있다.
소음원 맵(430)을 이용하면 세대마다 실시간으로 진동/소음을 측정하거나 카메라로 영상 분석을 하지 못하는 경우에도 소음원의 파악이 용이하다. 예를 들면 2층 2호 및 1층 1호로부터 개 짖는 소리에 대한 불편이 접수되는 경우 그로부터 가장 가까운 세대의 소음원 맵(430)을 검색하여 1층 2호가 소음원일 가능성이 크다는 것을 쉽게 알 수 있다.
도 12의 실시예에서는 AI 스피커(511, 512, 513, 514, 515, 516)에 디스플레이 화면(511b, 512b, 513b, 514b, 515b, 516b)이 구비되어 있다. 이웃의 AI 스피커(513)로부터 층간소음 자제 요청을 수신하면 나의 AI 스피커(511)의 디스플레이 화면(511b)에 이모티콘, 아바타(avatar) 또는 문자가 표시됨으로써 친근함을 주고 상황을 쉽고 편리하게 설명할 수 있다. 예로, 개 짖는 소리에 대하여 여러 이웃으로부터 자제 요청이 접수될 경우, AI 스피커(511)를 통해 "여러 이웃이 불편해하는 것 같으니 우리집 강아지가 불안한 것이 없는지 확인해 주면 어떨까요?"라는 음성이 출력됨과 동시에 디스플레이 화면(511b)에는 강아지를 쓰다듬어 주는 주인의 모습을 아바타 형식으로 나타낼 수 있다. 소음원의 세대에서는 이모티콘 등을 이용해서 미안하다는 내용을 피드백 할 수 있다. 그럼으로써, 층간이웃간에 소통시 감정이 자제되고 순화되어 전달됨으로써 층간소음으로 인한 분쟁을 효과적으로 예방할 수 있다.
도 13의 실시예에서, 이웃 집으로부터 조용한 상황을 획득하고자 하는 본인의 상황을 묘사하는 아바타, 그림, 사진 등을 네트워크로 연결된 이웃들의 AI 스피커들(611, 612, 614, 615, 616)에 브로드캐스팅(Broadcasting)하여 디스플레이 화면(611b, 612b, 614b, 615b, 616b)에 표시하게 할 수 있다. 예를 들면, 칭얼대던 어린 아이가 막 잠이 든 상황에서 엄마가 AI 스피커(613)에게 "아리아! ?? ?? 아이가 잠들어 있으니 이웃들의 배려가 필요하다고 전해줘"라고 요청한다. 또는, 중요한 시험 공부를 하고 있는 학생의 학부모가 AI 스피커에게 유사한 요청을 할 수도 있다.
그러면, AI 스피커(613)는 이러한 상황에 맞는 그림이나 사진을 찾아서 연결된 이웃집의 AI 스피커(611, 612, 614, 615, 616)에게 전송하면서 조용함을 획득하고 싶다는 음성을 출력할 수 있다. 브로드캐스팅을 받은 이웃들은 층간소음이 발생하지 않도록 조심할 것이므로 분쟁이 예방될 수 있다. 또한, 이렇게 조용함을 획득한 주민은 이웃들의 배려심에 대한 감사한 마음을 가질 것이므로 향후에 이웃으로부터 배려 요청을 받으면 더 쉽게 배려하게 되는 선순환이 일어날 수 있다.
도 14의 실시예의 층간이웃 데이터 처리장치(700)는 AI 스피커 대신에 스마트 TV(711, 712)를 구비한다. 이 스마트 TV(711, 712)는 리모콘 등에 내장된 마이크 기능을 통해서 음성인식이 기능을 구비하며, STT 모듈, NLU 모듈, 및 순화 모듈을 구비할 수도 있다. 이와 달리, STT 모듈, NLU 모듈, 순화 모듈이 없을 경우 별도의 AI 서버(720)에서 이러한 모듈들을 구비하도록 구성될 수 있다.
사용 시나리오로서, 위층 주민이 TV(712)를 시청 중에 아래층 주민으로부터 층간소음 자제 요청을 수신할 경우 스마트 TV(712)의 화면 밑에 배려 요청 메시지가 시각적으로 표시되거나 청각적으로 출력될 수 있다. 혹시 TV(712)가 꺼져 있는 동안 층간소음 자제 요청이 접수되면 TV(712)가 켜지면서 배려 요청 메시지가 시각 및/또는 청각적으로 출력될 수 있다. 스마트 TV(711, 712)는 대부분 거실의 소파 앞에 위치되며 대화면 디스플레이를 구비하고 있어 서로의 상태 정보에 대한 시인성이 향상되어 소통이 강화되는 장점이 있다.
또한, 기존의 음성인식 스마트 TV에 STT 모듈, NLU 모듈, 및 순화 모듈을 구비하는 소프트웨어나 펌웨어만 업그레이드하면 본 발명에 따른 인공지능 기반의 층간이웃 데이터 처리장치로 사용될 수 있다. 이와 달리, 기존의 음성인식 스마트 TV의 소프트웨어나 펌웨어를 본 발명에 따른 AI 서버와 연동되도록 업데이트함으로써 본 발명에 따른 인공지능 기반의 이웃간 데이터 처리장치로 사용될 수 있다.
도 15는 본 발명의 실시예들에 따른 인공지능 기반의 이웃간 데이터 처리장치에서의 AI 스피커들을 페어링 연결하는데 사용되는 층간정보 맵(50)을 보여주는 도면이다.
페어링 연결의 일 실시예로서, 층간이웃 상호배려 서비스에 등록된 사용자가 제공한 정보를 기초로 공동주택 내의 층간정보 맵(50)이 생성될 수 있다. 층간정보 맵(50)은 다양한 방법으로 생성될 수 있다. 예를 들면, 서비스 운영자가 생성하거나 알고리즘을 통해 자동으로 생성될 수 있다. 이하에서는 AI 스피커를 예로 들어 층간정보 맵(50)이 생성되는 과정을 구체적으로 설명한다.
AI 스피커의 제품 등록시 또는 층간이웃 상호배려 서비스 가입시 사용자의 동의를 받아 페어링 연결에 필요한 정보를 획득한다. 이 정보는 공동주택 명, 동, 호수, IP주소 및 AI 스피커의 MAC 주소일 수 있다. 층간정보 맵(50)은 공동주택별로 생성될 수 있다. 사용자들로부터 받은 정보를 기초로 공동주택에서의 동-호수에 해당하는 IP주소 및 사용 기기의 MAC 주소 정보를 매핑시킴으로써 층간정보 맵(50)을 구성할 수 있다. 그럼으로써 어떤 집(예: 1층 1호)에서 '위층이 시끄러우니 조용히 해 주면 좋겠다'는 상태 정보가 출력되면 층간정보 맵(50)에서 1층 1호의 위층인 2층 1호의 IP 주소 및/또는 MAC 주소 정보를 참고하여 1층 1호와 2층 1호의 AI 스피커들을 페어링 연결한다. 여기서 페어링 연결은 IP 주소 및/또는 MAC 주소를 이용한 유선 또는 무선 네트웍을 통해 될 수도 있고, ZigBee 등을 이용한 사물인터넷(IoT) 통신으로 이뤄질 수도 있다.
페어링 연결의 다른 실시예로서, 공동주택 내에서 발생하는 층간소음 이벤트 정보 및 각 거주자의 반응 정보를 기초로 알고리즘이 층간정보 맵(50)을 생성할 수 있는데, 이하에서는 AI 스피커를 예로 들어 층간정보 맵(50)이 생성되는 알고리즘을 구체적으로 설명한다.
각 가정에는 층간소음 이벤트 정보 및/또는 거주자의 반응 정보를 검출할 수 있는 진동/소음 센서 및/또는 영상분석 가능한 카메라가 설치될 수 있다. 예를 들면, 1층 1호에서 '위층이 시끄러우니 조용히 해 주면 좋겠다'는 상태 정보가 출력되었다고 하자. 그 시점에 소음 관련 이벤트가 검출된 집이 2층 1호일 가능성이 매우 크다. 소음 관련 이벤트는 동일 시점에 가장 큰 진동/소음이 검출되었거나, 뛰는 움직임이 검출되었거나, 진동/소음과 움직임이 함께 검출된 이벤트 일 수 있다. 1층 1호의 AI 스피커의 IP 주소 및 MAC 주소를 2층 1호의 AI 스피커의 IP 주소 및 MAC 주소와 대응시켜 층간정보 맵(50)을 구성할 수 있다. 이런 방식으로 공동주택 내 다른 집들에 대해서도 층간정보 맵(50)을 만들 수 있다.
인공지능 기반의 이웃간 데이터 처리장치에서 층간이웃들의 AI 스피커가 페어링 연결되기 위한 또 다른 실시예를 설명한다.
한 쌍의 AI 스피커는 층간소음 정보에 관련하여 페어링 연결에 필요한 정보를 사전에 등록해 둔다. 이를 위해 블루투스(Bluetooth), 지그비(ZigBee), RFID(Radio Frequency IDentification), UWB(UltraWideBand), NFC(Near Field Communication), Wi-Fi Direct 등의 근거리 무선통신 프로토콜이 사용될 수 있다. 블루투스를 예로 들어 설명하면, 한 쌍의 제1 기기와 제2 기기의 블루투스 기능이 활성화되면 제1 기기 또는 제2 기기의 각각은 블루투스 연결할 주변기기를 검색하여 그 쌍의 다른 기기를 선택하고 그 기기의 보안키(식별정보)를 자동으로 입력함으로써 페어링 연결된다. Wi-Fi Direct를 예로 들어 설명하면, 제1 기기에서 연결 요청 메시지를 푸쉬(Push)하고 제2 기기가 연결 요청을 수락하면 제1 기기와 제2 기기는 서로 통신 가능하도록 연결된다.
한편, 블루투스와 Wi-Fi Direct와 같이 일 대 다수(1 to N)의 연결이 가능한 경우 상기 연결 요청에 대하여 다수의 기기가 수락하면 여러 기기가 동시에 연결될 수도 있다. 각 기기에 대한 어떤 형태로든 동/호수 정보가 보관되어 있을 경우, 층간소음 관련 발화자의 요청을 분석하여 수신 대상인 집에 설치된 기기에만 발화 내용이 전달되도록 구성될 수도 있을 것이다.
이와 같이, 층간소음 관련 발화자 및 발화 내용에 대한 정보, 층간이웃의 인식 기기 식별정보에 기초하여 관련 층간이웃의 기기들을 페어링 연결을 자동적으로 수행함으로써 층간이웃 간 신속, 편리하고 정확하게 요청 사항 등의 정보를 주고 받을 수 있게 되어 층간소음 분쟁을 미연에 방지하는 효과를 기대할 수 있다.
도 16은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이웃간 데이터 처리장치가 활용될 수 있는 사용 예를 보여주는 도면이다.
앞에서와 마찬가지로 인공지능 기반의 데이터 처리 단말기로서 AI 스피커(810)를 예로 들어 설명한다. 사용자가 불만사항과 같은 민원을 관계자 또는 관계기관에 제기하는 경우, AI 스피커(810)에 민원 내용을 설명하면 AI 스피커(810)는 음성인식하여 텍스트로 변환하고 그 의미를 추론하게 된다. 이후, AI 스피커(810)는 사전에 학습된 머신러닝 모델을 통해 적절하고 순화된 방식 및 표현으로 재구성하여 출력할 수 있다. AI 스피커(810)는 인식된 내용을 토대로 민원이 전달되어야 하는 대상자 또는 대상 기관을 검색하여 해당 내용을 전달하도록 구성될 수 있다.
예를 들면, 어린 아이가 자고 있는 아파트에서 공사 소음이 심하게 들려오는 경우, 아이의 엄마가 자기 집의 AI 스피커(810)에 "우리 아기가 아파서 보채다 이제 막 잠들었는데 공사 소리 때문에 깰 것 같아. 몇 호에서 이렇게 늦게 공사를 하는 건가?"라고 불만을 제기하였다고 가정하자. AI 스피커(810)는 이 의미를 이해하여 순화된 표현 및/또는 이미지로 재구성하고, 이 민원의 내용으로부터 아파트 관리사무소(850)를 수신인으로 설정하면 이곳의 AI 스피커(820)에 상기 재구성된 표현 및/또는 이미지를 보낼 수 있다. 예를 들면, 잠든 아이의 모습을 나타내는 사진이나 아바타 이미지와 함께 고운 음성으로 순화된 표현("공사 소음 때문에 아이 재우는데 어려움이 많으니 허용된 공사 시간을 준수하도록 공사하는 집에 전달해주세요")을 동시에 출력할 수도 있다. 한편, 어느 집에서 발생하는 소리인지 특정하기 어려운 상황이므로 1:N으로 연결된 모든 AI 스피커들(미도시)에게 출력을 브로드캐스팅할 수 있다. 또는, 아파트 관리사무소(850) 또는 지정된 층간소음 이웃사이센터(미도시)와 같은 중재자/중개지관에 설치된 AI 스피커나 민원처리 시스템에 출력하도록 구성될 수도 있다.
또 다른 예로서, 학교에서 학생들에게 공지하기 위해 설치한 실외 스피커의 음량이 너무 커서 인근 주민들에게 피해가 발생하는 경우, 민원인은 학교나 교육청에 전화나 서면으로 민원을 제기하는 대신 자기 집의 AI 스피커(810)에 민원 내용을 말할 수 도 있다. AI 스피커(810)는 인식한 음성의 내용을 추론한 뒤, 이를 순화하여 필요한 내용만을 완곡하게 관련 기관에 전송하도록 제어될 수 있다. 이를 위하여 AI 스피커(810)는 민원 내용의 의미를 인공지능 알고리즘으로 분석하고 인공지능 모델을 통해 순화된 표현으로 재구성한 뒤, 관련 민원의 접수 기관을 인터넷에서 검색하여 텍스트나 음성으로 민원을 접수시키도록 프로그래밍될 수 있다.
거주지 주변의 소음, 공사중 먼지, 보행로 상의 불법 구조물 설치 등의 다양한 불편 사항을 민원으로 제기할 때 기존에는 직접 찾아가거나 전화로 제기하거나 서면으로 민원을 접수하여야 하였다. 당사자와 대면하거나 통화를 할 경우 감정이 격화되는 문제점이 존재하고, 서면의 경우 민원 접수, 처리, 답변까지 장기간이 소요되고 디테일한 사항의 전달이 어려운 문제점이 존재하였다. 본 발명의 인공지능 기반의 이웃 사이 데이터 처리장치를 사용하게 되면 직접 대면시의 단점과 서면 제기시의 단점을 극복하여 간편하고 빠르고 정확하게 민원을 전달할 수 있는 효과가 있다. 또한, 민원 제기 관련 전문성이 부족한 민원인을 위해서는 관련 정보나 사례를 학습한 인공지능 알고리즘이 필요한 내용을 보완하여 설득력있는 민원으로 재구성 할 수 있다. 또한, 민원인의 오해나 주관적 판단에 따른 부당한 민원에 대해서는 AI 스피커가 민원인에게 이러한 사실을 피드백하고 민원인이 재차 생각해 볼 기회를 제공하여 민원 남용을 막을 수 있는 효과도 있다.
지금까지 예시적으로 설명한 인공지능 기반의 이웃간 데이터 처리 장치는 디스플레이 화면을 구비하여 층간이웃의 상태를 시각적으로 표시할 수 있다. 예를 들어, 아래층 주민이 위층의 층간소음에 대해 짜증을 내며 자제 요청을 하면 위층의 AI 스피커의 화면에 아래층 이웃의 상태를 특정 색상 또는 문장으로 표시할 수 있다. 시각적 표시가 지속됨으로써 층간 이웃의 현재 상태에 대한 음성을 듣지 못하였다고 하더라도 층간 이웃의 현 상태를 언제든지 확인할 수 있다.
본 발명의 AI 스피커(11, 12) 및/또는 AI 서버(20)는 스마트폰 앱으로 구현할 수도 있다. 구체적으로, 제1 AI 스피커(11)는 아래층 주민의 스마트폰 앱에서 구현될 수 있고, 제2 AI 스피커(12)는 위층 주민의 스마트폰 앱에서 그대로 구현될 수 있다. 스마트폰 앱에 본 발명의 실시예들에 따른 AI 서버(20)의 순화 모듈의 기능을 내장된다면 별도의 AI 서버를 거치지 않고도 발명을 실시할 수 있다. 층간이웃 데이터 처리 장치의 한 쌍의 단말기 중 하나만 스마트폰 앱으로 대체될 수도 있다. 이와 달리, 층간이웃 데이터 처리 장치의 한 쌍의 단말기(11, 12)는 독립형 기기 대신에 공동주택에 내장된 스마트홈 시스템에 탑재된 형태로 구현될 수도 있다.
스마트폰 앱으로 구현하는 다른 실시예로서, 아래층 주민은 제1 스마트폰 앱에 음성 대신에 텍스트로 층간소음에 관련된 자신의 상태 - 소음 자제 요청 모드 또는 외출 등에 따른 배려 모드 - 를 입력할 수 있다. AI 서버를 거치거나 또는 거치지 않고 직접 위층 주민의 제2 스마트폰 앱에 전달되어 위층 주민에게 출력될 수 있다. 또한, 앞서 설명한 순화 모듈을 포함하여 아래층 주민이 입력한 텍스트의 의미를 이해하여 의미는 전달하되 순화되고 부드러운 표현 등으로 변환하여 위층 주민의 단말기에 전달할 수도 있다. 위층 주민의 스마트폰 앱에서 나오는 출력은 텍스트이거나 이미지, 또는 음성일 수 있다.
한편, 인공지능 기반의 층간이웃 데이터 처리 장치의 단말기(11, 12)를 이동 가능형 도우미 로봇 플랫폼의 형태로 구현하는 것도 가능하다. 로봇은 집안에서 사용자를 찾아가서 층간이웃으로부터 전달받은 정보를 출력해줄 수 있으므로 효과적인 전달이 가능하다.
본원에 기술된 다양한 기술들은 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 제어될 수 있다. 본 발명의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 이하의 특허청구범위에 의해 모두 포괄하고자 한다.
본원 발명은 ICT산업 및 주택 건설 산업 등에 활용될 수 있다.
11, 111, 211, 311, 411: 제1 AI 스피커
12, 112, 212, 312, 412: 제2 AI 스피커
20, 120, 220, 320, 420: AI 서버 24: 순화 모듈
50: 층간정보 맵 430: 소음원 맵

Claims (20)

  1. 불편사항에 대한 제1 이웃의 상태를 표현하는 제1 데이터를 수신하는 제1 통신 기기; 및
    상기 제1 이웃과 공간적으로 이격된 제2 이웃에게 제2 데이터를 출력하는 제2 통신 기기를 포함하며,
    상기 제2 데이터는, 상기 제1 데이터의 의미를 분석하여 추출하고 상기 의미는 유지하되 다른 표현으로 변환되어 생성되며,
    상기 불편사항은 상기 제2 이웃과 관련되어 유발되는, 인공지능 기반의 이웃간 데이터 처리 장치.
  2. 제1항에 있어서,
    상기 제1 데이터는 제1 이웃의 부재 여부를 포함하여 층간소음에 대한 제1 이웃의 수용정도를 나타내는 표현인 인공지능 기반의 이웃간 데이터 처리 장치.
  3. 제1항에 있어서,
    상기 제2 데이터는 상기 제1 데이터의 의미를 분석하는 자연어이해 모듈 및 상기 의미는 유지하되 다른 표현으로 변환하는 순화 모듈을 거쳐 생성되는 인공지능 기반의 이웃간 데이터 처리 장치.
  4. 제3항에 있어서,
    상기 자연어이해 모듈 및 상기 순화 모듈은 인공지능 서버에 탑재되며, 상기 인공지능 서버는 통신망에서 상기 제1 통신 기기와 상기 제2 통신 기기의 사이에 각각 연결되는, 인공지능 기반의 이웃간 데이터 처리 장치.
  5. 제3항에 있어서,
    상기 순화 모듈은 학습된 머신러닝 모델을 통해 상기 제2 데이터를 상기 제1 데이터에 비해 완곡하거나 부드럽거나 예의바른 표현으로 변환하거나, 프라이버시 정보를 노출시키지 않는 표현으로 변환시키는, 인공지능 기반의 이웃간 데이터 처리 장치.
  6. 제1항에 있어서,
    상기 제1 데이터 및 상기 제2 데이터는 음성 데이터인 인공지능 기반의 이웃간 데이터 처리 장치.
  7. 제1항에 있어서,
    상기 불편사항은 층간소음을 포함하며,
    제1 이웃의 공간과 제2 이웃의 공간 사이에 설치되어 층간소음의 크기를 측정하기 위한 층간소음 센서를 더 포함하며,
    상기 층간소음 센서에 의해 검출된 층간소음 크기에 따라 상기 제2 데이터를 상기 제2 이웃에게 출력할지 여부가 달라질 수 있는, 인공지능 기반의 이웃간 데이터 처리 장치.
  8. 제1항에 있어서,
    상기 제1 통신 기기 또는 상기 제2 통신 기기는 영상 분석 기능이 있는 카메라 모듈을 더 구비하며, 상기 카메라 모듈은 층간소음 유발 시의 거주민의 상태를 촬영하고 분석할 수 있는, 인공지능 기반의 이웃간 데이터 처리 장치.
  9. 제7항 또는 제8항 중 어느 한 항에 있어서,
    상기 층간소음 센서에서 검출된 값, 검출 시점, 상기 카메라 모듈에서 촬영된 영상의 분석 결과, 및 상기 제1 데이터 중 적어도 어느 하나를 저장할 수 있는 데이터베이스를 더 포함하는, 인공지능 기반의 이웃간 데이터 처리 장치.
  10. 불편사항에 관련된 제1 이웃의 상태를 표현하는 제1 데이터를 수신하는 통신 기기를 포함하며,
    상기 제1 데이터는 공간적으로 이격된 제2 이웃에게 전송될 제2 데이터로 변환되도록 처리되며,
    상기 제2 데이터는, 상기 제1 데이터의 의미를 분석하여 추출하고 상기 의미는 유지하되 다른 표현으로 변환되어 생성되며,
    상기 불편사항은 상기 제2 이웃과 관련되어 유발된, 인공지능 기반의 이웃간 데이터 처리 장치.
  11. 불편사항에 관련된 제1 이웃의 상태를 표현하는 제1 데이터가 변환되어 생성된 제2 데이터를 공간적으로 이격된 제2 이웃에게 출력하는 통신 기기를 포함하며,
    상기 제2 데이터는, 상기 제1 데이터의 의미를 분석하여 추출하고 상기 의미는 유지하되 다른 표현으로 변환되어 생성되며,
    상기 불편사항은 상기 제2 이웃과 관련되어 유발된, 인공지능 기반의 이웃간 데이터 처리 장치.
  12. 컴퓨터로 실행가능한 명령어를 저장하는 메모리;
    상기 컴퓨터로 실행가능한 명령어를 실행함으로써, 불편사항에 대한 제1 이웃의 상태를 표현하는 제1 데이터를 수신하며, 상기 제1 데이터의 의미를 분석하여 추출하고 상기 의미는 유지하되 다른 표현으로 변환하여 공간적으로 이격된 제2 이웃에게 전송될 제2 데이터를 생성하는 프로세서; 및
    상기 제1 데이터를 입력받고 상기 제2 데이터를 출력하는 입출력 인터페이스;를 포함하며,
    상기 불편사항은 상기 제2 이웃과 관련되어 유발된, 인공지능 기반의 이웃간 데이터 처리 장치.
  13. 제12항에 있어서,
    상기 제1 데이터를 획득하며 상기 프로세서와 통신 연결된 제1 통신 기기; 및
    상기 프로세서와 통신 연결되며, 상기 제2 데이터를 상기 제2 이웃에게 출력하는 제2 통신기기를 더 포함하며,
    상기 프로세서는, 상기 제1 데이터를 분석하여 자연어 의미를 이해하는 자연어 이해 모듈, 및 입력된 자연어 데이터를 더 정중하고 순화된 표현의 제2 데이터, 또는 프라이버시 정보를 노출시키지 않는 표현의 제2 데이터 중 어느 하나로 변환하는 순화 모듈을 포함하는, 인공지능 기반의 이웃간 데이터 처리 장치.
  14. 제13항에 있어서,
    상기 순화 모듈은, 상기 불편사항의 발생 이력, 상기 불편사항과 관련하여 상기 제1 및 제2 이웃간에 주고받았던 데이터 이력, 및 제1 데이터에 해당하는 표현 중 적어도 어느 하나인 입력값과 상기 제2 데이터에 해당하는 표현인 출력값으로 구성된 학습 데이터 세트를 통해 학습된 인공지능 모델을 구비하는, 인공지능 기반의 이웃간 데이터 처리 장치.
  15. 층간소음에 대한 제1 이웃의 상태를 표현하는 음성 데이터를 수신하는 제1 통신 기기;
    상기 제1 통신 기기로부터 상기 음성 데이터를 수신하여 텍스트 데이터로 변환하는 음성-텍스트 변환(speech-to-text) 모듈, 상기 텍스트 데이터를 분석하여 자연어 의미를 이해하는 자연어 이해 모듈, 및 더 정중하고 순화된 표현의 자연어 데이터로 변환하는 순화 모듈을 포함하는 인공지능 서버; 및
    상기 서버로부터 상기 자연어 데이터를 수신하여 상기 제1 이웃과 공간적으로 이격된 제2 이웃에게 음성 및/또는 시각적으로 출력하는 제2 통신 기기를 포함하는, 인공지능 기반의 이웃간 데이터 처리 장치.
  16. 제15항에 있어서,
    상기 순화 모듈은, 입력된 제1 데이터를 더 정중하고 순화된 표현의 제2 데이터, 또는 프라이버시 정보를 노출시키지 않는 표현의 제2 데이터 중 어느 하나로 변환시키는, 인공지능 기반의 이웃간 데이터 처리 장치.
  17. 컴퓨터로 실행가능한 명령어를 실행하는 프로세서에 의해 불편사항에 관련된 제1 이웃의 상태를 표현하는 제1 데이터를 수신하는 단계; 및
    상기 제1 데이터를 변환하여 상기 제1 이웃과 공간적으로 이격된 제2 이웃에게 출력될 제2 데이터를 생성하는 단계;를 포함하며,
    상기 제2 데이터는, 상기 제1 데이터의 의미를 분석하여 추출하고 상기 의미는 유지하되 다른 표현으로 변환되어 생성되며,
    상기 불편사항은 상기 제2 이웃과 관련되어 유발된, 인공지능 기반의 이웃간 데이터 처리 방법.
  18. 제17항에 있어서,
    상기 제1 데이터는 제1 이웃의 부재 여부를 포함하여 층간소음에 대한 제1 이웃의 수용정도를 나타내는 표현인, 인공지능 기반의 이웃간 데이터 처리 방법.
  19. 제17항에 있어서,
    상기 제2 데이터의 표현은 제1 데이터의 표현보다 더 정중하고 순화된 표현이거나, 또는 프라이버시 정보를 노출시키지 않는 표현 중 어느 하나인, 인공지능 기반의 이웃간 데이터 처리 방법.
  20. 프로그램을 포함하며,
    프로그램이 단말에서 실행될 때 단말이 제17항 내지 제19항 중 어느 한 항의 방법을 수행하도록 하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 기록 매체.
KR1020190144049A 2019-11-12 2019-11-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법 KR102352472B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190144049A KR102352472B1 (ko) 2019-11-12 2019-11-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
US17/096,288 US11942079B2 (en) 2019-11-12 2020-11-12 Apparatus and method for processing data between neighbors based on artificial intelligence to prevent dispute over noise travelling between neighbors
CN202011262155.4A CN112863505B (zh) 2019-11-12 2020-11-12 基于人工智能的邻居间数据处理装置及方法
KR1020220004487A KR102489509B1 (ko) 2019-11-12 2022-01-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
KR1020230004696A KR20230016233A (ko) 2019-11-12 2023-01-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190144049A KR102352472B1 (ko) 2019-11-12 2019-11-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220004487A Division KR102489509B1 (ko) 2019-11-12 2022-01-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법

Publications (2)

Publication Number Publication Date
KR20210057367A true KR20210057367A (ko) 2021-05-21
KR102352472B1 KR102352472B1 (ko) 2022-01-17

Family

ID=75845457

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020190144049A KR102352472B1 (ko) 2019-11-12 2019-11-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
KR1020220004487A KR102489509B1 (ko) 2019-11-12 2022-01-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
KR1020230004696A KR20230016233A (ko) 2019-11-12 2023-01-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020220004487A KR102489509B1 (ko) 2019-11-12 2022-01-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
KR1020230004696A KR20230016233A (ko) 2019-11-12 2023-01-12 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법

Country Status (3)

Country Link
US (1) US11942079B2 (ko)
KR (3) KR102352472B1 (ko)
CN (1) CN112863505B (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7299946B2 (ja) * 2021-06-18 2023-06-28 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR20240052262A (ko) 2022-10-14 2024-04-23 주식회사 노이즈프리 집합건물 층간소음 분쟁 예방 및 해결을 위한 층간소음 모니터링 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180027296A (ko) * 2016-09-06 2018-03-14 전성필 층간소음에 대한 층간이웃 상호 배려를 위한 정보통신 처리장치
KR20190100669A (ko) * 2018-02-21 2019-08-29 오명탁 언어 순화 서버 및 이를 이용한 고객 상담 서비스 제공방법
KR20190114293A (ko) * 2018-03-29 2019-10-10 함나연 층간 소음에 의한 분쟁을 예방하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102020756B1 (ko) * 2018-10-23 2019-11-04 주식회사 리나소프트 머신러닝을 이용한 리뷰 분석 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080229424A1 (en) * 2007-03-13 2008-09-18 Fatdoor, Inc. Dispute resolution in a geo-spatial environment
US20100131328A1 (en) * 2009-10-15 2010-05-27 Delugas David S Method and System of Promoting Alternate Dispute Resolution
US8589163B2 (en) * 2009-12-04 2013-11-19 At&T Intellectual Property I, L.P. Adapting language models with a bit mask for a subset of related words
US9202465B2 (en) * 2011-03-25 2015-12-01 General Motors Llc Speech recognition dependent on text message content
KR101268318B1 (ko) 2011-07-15 2013-05-28 한밭대학교 산학협력단 층간 진동 및 소음 측정 경보 장치
US9131369B2 (en) * 2013-01-24 2015-09-08 Nuance Communications, Inc. Protection of private information in a client/server automatic speech recognition system
KR101630308B1 (ko) 2013-12-31 2016-06-14 가람전자(주) 공동주택 층간 소음 알림 장치
KR101582899B1 (ko) 2014-08-19 2016-01-08 네이버 주식회사 이웃 간 커뮤니케이션을 위한 정보 교류 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
KR101795765B1 (ko) 2015-06-11 2017-11-08 주식회사 피지오닉스 층간 소음 및 실내 소음의 자가 인지 모니터링시스템
KR20170088233A (ko) 2016-01-22 2017-08-01 홍정화 다가구 주택 층간소음 알림방법
US11567726B2 (en) * 2017-07-21 2023-01-31 Google Llc Methods, systems, and media for providing information relating to detected events
US10713423B2 (en) * 2017-10-25 2020-07-14 International Business Machines Corporation Content adjustment and display augmentation for communication
US20190180395A1 (en) * 2017-12-08 2019-06-13 FairClaims, Inc. Assistance engine for multiparty mediation
US10803250B2 (en) * 2018-08-23 2020-10-13 International Business Machines Corporation Control of message transmission
US20200334772A1 (en) * 2019-04-18 2020-10-22 Gal Gorodeisky Computerized System and Computerized Method of Dispute Resolution
CN110417637A (zh) * 2019-04-26 2019-11-05 成海林 Ai人工智能辅助沟通技术
US20210397793A1 (en) * 2020-06-17 2021-12-23 Microsoft Technology Licensing, Llc Intelligent Tone Detection and Rewrite

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180027296A (ko) * 2016-09-06 2018-03-14 전성필 층간소음에 대한 층간이웃 상호 배려를 위한 정보통신 처리장치
KR101859282B1 (ko) 2016-09-06 2018-05-18 전성필 층간소음에 대한 층간이웃 상호 배려를 위한 정보통신 처리장치
KR20190100669A (ko) * 2018-02-21 2019-08-29 오명탁 언어 순화 서버 및 이를 이용한 고객 상담 서비스 제공방법
KR20190114293A (ko) * 2018-03-29 2019-10-10 함나연 층간 소음에 의한 분쟁을 예방하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102020756B1 (ko) * 2018-10-23 2019-11-04 주식회사 리나소프트 머신러닝을 이용한 리뷰 분석 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
around the community activation plan research - interfloor noise solution of a dispute for the apartment house residents" (the steel wire U.S" digital design school affinity outlet". pp.201-211, 2014)

Also Published As

Publication number Publication date
KR102489509B1 (ko) 2023-01-17
KR102352472B1 (ko) 2022-01-17
CN112863505B (zh) 2024-08-27
KR20230016233A (ko) 2023-02-01
US11942079B2 (en) 2024-03-26
CN112863505A (zh) 2021-05-28
US20210142793A1 (en) 2021-05-13
KR20220013498A (ko) 2022-02-04

Similar Documents

Publication Publication Date Title
US11853648B2 (en) Cognitive and interactive sensor based smart home solution
US10776070B2 (en) Information processing device, control method, and program
US10224060B2 (en) Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method
US11335322B2 (en) Learning device, learning method, voice synthesis device, and voice synthesis method
JP6416752B2 (ja) 家電機器の制御方法、家電機器制御システム、及びゲートウェイ
KR102489509B1 (ko) 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
CN108877126A (zh) 经由居家助手进行活动监视的系统、方法和设备
KR102338888B1 (ko) 검출된 이벤트들에 관한 정보를 제공하기 위한 방법들, 시스템들 및 매체들
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017168907A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2015176058A (ja) 電子機器、方法及びプログラム
JP6973380B2 (ja) 情報処理装置、および情報処理方法
KR20150114310A (ko) 동물움직임을 이용한 동물 통역 시스템
US20220198888A1 (en) Method and apparatus for communicating between inter-floor neighbors to prevent dispute over noise between floors
JP2023180943A (ja) 情報処理装置、情報処理方法およびプログラム
WO2018216271A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2012085072A (ja) インターホン装置
JP6698428B2 (ja) ネットワークシステム、情報処理方法、およびサーバ
JP2015173857A (ja) 電子機器及び情報処理方法
CN112786049B (zh) 语音交互系统和语音交互方法
KR102187145B1 (ko) 대화 도우미 서비스 방법 및 시스템
JP2012010200A (ja) インターホン装置
JP2012010201A (ja) インターホン装置
KR20230037476A (ko) 층간소음 분쟁의 예방을 위한 층간이웃 소통 방법 및 장치, 분쟁 중재 방법 및 장치
JP2018107597A (ja) インターホンシステム

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant