KR102265706B1 - 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체 - Google Patents

개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체 Download PDF

Info

Publication number
KR102265706B1
KR102265706B1 KR1020200133935A KR20200133935A KR102265706B1 KR 102265706 B1 KR102265706 B1 KR 102265706B1 KR 1020200133935 A KR1020200133935 A KR 1020200133935A KR 20200133935 A KR20200133935 A KR 20200133935A KR 102265706 B1 KR102265706 B1 KR 102265706B1
Authority
KR
South Korea
Prior art keywords
input
observation information
object model
user
displayed
Prior art date
Application number
KR1020200133935A
Other languages
English (en)
Inventor
태주호
Original Assignee
주식회사 헬스케어뱅크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 헬스케어뱅크 filed Critical 주식회사 헬스케어뱅크
Priority to KR1020200133935A priority Critical patent/KR102265706B1/ko
Priority to KR1020210075027A priority patent/KR20220050741A/ko
Application granted granted Critical
Publication of KR102265706B1 publication Critical patent/KR102265706B1/ko
Priority to PCT/KR2021/014138 priority patent/WO2022080864A1/ko
Priority to US18/032,304 priority patent/US20230400971A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/90ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to alternative medicines, e.g. homeopathy or oriental medicines
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/80ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for detecting, monitoring or modelling epidemics or pandemics, e.g. flu
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Geometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Architecture (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Alternative & Traditional Medicine (AREA)

Abstract

본 발명은 임의 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 그리고 이러한 방법을 실행시키기 위한 명령어들이 저장된 컴퓨터 판독 가능한 저장 매체에 관한 것이다.

Description

개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체{METHOD FOR PROVIDING SERVICE FOR INPUTTING AND SHARING OBSERVATION INFORMATION ON AN OBJECT, AND A COMPUTER READABLE STORAGE MEDIUM THEREOF}
본 발명은 임의 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 그리고 이러한 방법을 실행시키기 위한 명령어들이 저장된 컴퓨터 판독 가능한 저장 매체에 관한 것이다.
디바이스 및 네트워크의 발달이 비약적으로 이루어지면서 다양한 분야, 다양한 종류의 정보들을 공유할 수 있는 환경이 갖추어지고 있으며, 또한 이러한 정보 공유의 수요는 기술 및 산업 발달에 따라 지속적으로 증가하고 있다.
한편, 개체에 대한 관찰정보, 그 중에서도 특히 임의 개체의 헬스케어 정보 또는 의료 관련 정보를 공유할 수 있는 시스템 및 방법론에 대해서도 많은 수요가 있어 왔으며, 최근까지도 다양한 형태의 정보 공유를 위한 시스템들이 제안되고 있다.
그러나 종래의 관찰정보를 공유하기 위한 시스템들은 그래픽 기반의 것이 아니어서 정보를 공유 받는 사용자의 입장에서 해당 개체에 대한 관찰정보를 이해하기 어려운 문제점이 있었으며, 그래픽 기반의 정보공유 시스템이라 할지라도 대부분 2차원 그래픽을 기반으로 함과 동시에 종이에 기록(paper format)하는 위주여서 역시 사용자로 하여금 실제로는 입체적인 관찰에서 비롯된 직관적인 입력이 제대로 될 수 없으며, 그로 인하여 원래의 직관적인 관찰정보를 정확하게 이해하기도 여간 힘든 것이 아니다. 또한 종이에 기록하는 상황에 있어서, 디지털데이터화가 안 되어 있어, 디지털 형식의 저장이나 이에 기반한 데이터 표준화도 매우 힘들다. 또한 3차원 그래픽을 기반으로 한 것이라도 수많은 다양한 설명, 단계 및 분할된 박스 등의 구성으로 초기 직관적으로 관찰된 개체 정보에 의존한 기억을 오히려 사용자로 하여금 주의/주위를 산만하게(distracted) 만듦으로써 원래의 기억대로 정보를 입력하지 못하게 되거나, 이를 근본적으로 방해하게 되는 중요한 문제점이 있어 왔다.
본 발명은 임의 개체에 대한 직관적인 관찰 및 초기 기억된 주요한 정보를 그대로 입력할 수 있도록 하게 할 뿐만 아니라 쉽게 유효한 데이터로 저장 및 공유할 수 있도록 하기 위한 환경을 제공하고자 한 것으로, 그러한 초기 직관적 기억의 이입 (移入)에 친화적인 생생한 직관성의3차원 기반의 그래픽 인터페이스를 이용함으로써, 사용자가 종전에 입력 등의 과정에서 직관적으로 사실에 기반한 초기 관찰의 기억이 여러 간섭과 방해 받아 굴절, 왜곡, 혹은 변경될 수 있는 요인 들을 원천적으로 배제하게 됨과 더불어, 그 기억 및 관찰의 입력이 1차적으로 필요로 요구되거나 상실되기 쉬운 정보부터 자연스럽고도 순차적인 UI환경으로 간편하게 입력, 효율적으로 저장될 수 있도록 하는 것을 목적으로 한다. 또한 사용자가 인터페이스 상에서 입력한 3차원 기반의 정보들이 주변 지인 또는 전문가들과 공유되거나, 또는 다양한 전문 분야(해부, 병리, 이미징, 의료, 바이오, 임상, 보건/역학, 기후, 농학, 데이터 사이언스, 인공지능 등)에서 활용될 수 있도록 다각적이고 다목적인 지능형 원천 데이터로서 축적이 이루어지게 됨을 목적으로 하게 되는데, 이러한 데이터는 사용자 간, 전문가 간, 혹은 일반사용자와 전문가 간 등의 공유에 있어서 각 사용자 계층간 무리없이 연계되어 효과적으로 사용될 수 있도록 할 뿐더러, 그 다중적(multi-modal), 다차원적인(multi-dimensional) 관찰 데이터 특징에서 나아가, 시계열적이고 통합적인 데이터셋을 통하여, 최신의 인공지능을 활용할 수 있게 됨으로써, 체계적이고 합리적이며, 특히, 정밀하고 정확한 분석과 예측이 이루어질 수 있게 된다. 그 일례로써, 불치의 만성질환, 치명적 질환과 요사이 신종 감염병의 확산 초기에 상기 기술된 본 발명의 기반에 의해 수집된 관찰 데이터 정보의 활용을 통하여 각 해당 질환 분야에서의 조기 발견 및 예찰, 시기적절한 의견제공, 대응, 서비스, 조치 및 예방 등이 선제적, 성공적으로 이루어질 수 있게 하는 것을 목적으로 한다.
본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 발명할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.
대한민국 등록특허공보 제10-0361554호(2002.11.22.)
본 발명은 사용자가 동물개체 및 비동물개체를 포함한 임의 개체에 대한 진실 기반의 직관적인 관찰정보 혹은 그 중요한 기억 이미지가 쉽게 영향을 받아 변하기 쉬운 기준이 되는 것부터 체계적이고 합리적인 순서에 의해 간편하고, 자연스러우면서 순차적으로 - 또한 일반인, 전문가 혹은 비즈니스 파트너 간의 양방향 데이터 활용적 연계의 가치가 높도록 - 입력할 수 있도록 인터페이스 및 플랫폼 서비스의 기반을 제공하는 것을 목적으로 한다. 구체적으로는, 사람, 반려동물, 식물, 또는 무생물 개체가 3D 모델로 구현된 상태에서 사용자가 이러한 3D 모델 상에서 다양한 정보들을 입력할 수 있게 하는 것을 목적으로 한다. 특히 본 발명은 사용자로 하여금 3D 모델 상에서 직관적인 조작만으로 원하는 정보를 입력할 수 있게 하는 것을 목적으로 한다.
또한 본 발명은 외관상 확인되는 이상 유무, 예를 들어, 상처의 상태 및 정도, 통증의 정도와 느낌 등을 직관적이며 사실적으로 표시함과 동시에 디지털 데이터화를 할 수 있게 함으로써 사용자가 이러한 해당 개체에 대한 관찰정보를 시계열적이며 누적적으로 기록하는 것과 함께 그에 대한 일목요연한 요약형 시각화를 함으로써 추후 해당 개체 혹은/및 그룹의 현재의 상태 및 과거의 상태들을 시계열적으로 쉽게 파악하고, 또한 비교함으로써 보다 나은 통찰력있는 판단을 할 수 있게 하는 것을 목적으로 한다.
또한 본 발명은 개체의 장기나 조직 혹은 이식체 등을 포함하는 그 내부 구성도 3D 모델로 표시되게 하고 나아가 개체의 내부 구성 상에 원하는 정보가 쉽게 입력될 수 있게 함으로써 해당 개체의 내외부 모두에 대해 적절한 정보 입력이 가능하게 하는 것을 목적으로 한다.
또한 본 발명은 3D 모델을 구현함과 동시에 필요한 경우 애니메이션 효과를 넣음으로써 개체에 대한 관찰정보, 예를 들어 행동 혹은 자세 등의 변화에 있어서도 더욱 쉽고 사실적이고 생생하게 입력, 파악 및 비교 등을 할 수 있게 하는 것을 목적으로 한다.
또한 본 발명은 이 밖에 다수의 사용자 단말기들로부터 수집된 관찰정보들을 활용하여 이상 상태들 간의 연관성을 분석할 수 있게 하는 것을 목적으로 한다.
또한 본 발명은 개체가 내거나 혹은 주변에서 발생하는 소리(울음 소리, 짖는 소리, 기타 소리 등)를 관찰정보의 한 종류로서 녹음이 가능하게 함으로써 이를 기초로 이상 상태 유무에 대한 판단이 쉽게 이루어질 수 있게 하는 것을 목적으로 한다.
또한 본 발명은 하나의 개체 내에서 시계열적으로 혹은/및 누적적으로 관찰되는 다각적인 정보를 해당 개체의 3D 모델 상에서의 위치 내지 좌표를 기준으로 하여 시계열적으로 제공할 수 있게 하는 것을 목적으로 한다.
또한 본 발명은 내부 장기 등에 대해서도 3D 모델 상에 표시가 가능하게 하고, 장기에 대해 예측되는 변화도 표시가 가능하게 함으로써 사용자가 내부 장기에 있어서도 느끼는 그대로의 상태를 직관적이고 이해위주의 흐름에 따라 입력하기도 하지만, 역시 3D 모델 및 다양한 도구 등을 활용함으로써 구체적으로 기록할 수 있게 하는 것을 목적으로 한다.
한편, 본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명은 위와 같은 문제점을 해결하기 위한 것으로, 본 발명에 따른 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법은, 3차원의 개체 모델을 로드하는 단계; 상기 3차원의 개체 모델 상에 관찰정보를 입력할 수 있는 인터페이스를 제공하는 단계; 상기 인터페이스를 통해 사용자로부터 관찰정보들을 입력 받는 단계; 를 포함하되, 상기 관찰정보는, 사용자가 상기 개체 모델 상에 표시되는 마커를 이용하여 입력한 페인팅을 포함하는 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서, 사용자에 의한 임의 조작 입력 시 상기 로드 된 3차원의 개체 모델 상에서 기 설정된 애니메이션 효과가 실행되는 것을 특징으로 할 수 있다.
또한, 상기 방법은 상기 3차원의 개체 모델을 로드하는 단계 이전, 사용자로부터 개체에 대한 증세 기록을 입력 받는 프리체크 입력단계;를 더 포함할 수 있다.
또한, 상기 방법은 상기 관찰정보들을 입력 받는 단계 후, 입력 받은 관찰정보들을 상기 사용자 단말기의 디스플레이를 통해 출력하는 단계;를 더 포함하되, 상기 디스플레이를 통해 출력되는 관찰정보들은 시간 기준, 장소 기준, 특정 의약품 기준, 또는 특정 치료 기준 중 어느 하나에 따라 표시되는 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 3차원의 개체 모델은, 상기 개체 모델 내부에 존재하는 내부 구성들을 더 포함하되, 상기 내부 구성들은 사용자의 조작입력에 의해 표시 정도가 조절되는 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 3차원의 개체 모델은, 상기 사용자의 조작입력에 의해 몸체 투명도가 조절되는 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 개체 모델의 외표면 또는 상기 개체 모델의 내부 구성들의 외표면에는 사용자가 관찰정보를 입력할 때에 사용 가능한 마커가 표시되되, 상기 마커는 임의의 부피값을 가지는 입체 형상인 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 3차원의 개체 모델은, 상기 사용자 단말기에 구비된 3D 스캐닝 수단 또는 타 단말기에 구비된 3D 스캐닝 수단을 통해 획득된 3D 스캔 데이터가 변환된 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 개체 모델 내부에 존재하는 내부 구성은 상기 개체 모델 내부의 장기를 포함하고, 상기 관찰정보는, 상기 장기를 관통하는 관통상 입력, 임의 질환의 근원부위로부터 연계되는 통증 입력, 또는 병리학적 변화의 입력을 포함할 수 있다.
또한, 상기 방법에 있어서 상기 개체 모델 내부에 존재하는 내부 구성은 상기 개체 모델 내부의 복수 개의 생체조직들을 포함하고, 상기 관찰정보는, 상기 복수 개의 생체조직들 중 적어도 둘 이상의 생체조직들이 연계된 브러쉬 입력을 포함하는 것을 특징으로 할 수 있다.
한편, 본 발명의 또 다른 실시예에 따른 관찰정보 공유 서비스 제공 방법은, 복수의 사용자 단말기들로부터 입력된 관찰정보들을 수신하는 단계; 상기 수신한 관찰정보들로부터 개체 상에서의 연관패턴을 탐색하는 단계; 를 포함할 수 있다.
다른 한편, 본 발명의 또 다른 실시예에 따른 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법을 수행하기 위한 명령어들이 저장된 컴퓨터 판독 가능한 저장 매체에 있어서, 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법은, 3차원의 개체 모델을 로드하는 단계; 상기 3차원의 개체 모델 상에 관찰정보를 입력할 수 있는 인터페이스를 제공하는 단계; 상기 인터페이스를 통해 사용자로부터 관찰정보들을 입력 받는 단계;를 포함하되, 상기 관찰정보는, 사용자가 상기 개체 모델 상에 표시되는 마커를 이용하여 입력한 페인팅을 포함하는 것을 특징으로 할 수 있다.
본 발명에 따르면 사용자가 동물개체 또는 비동물개체에 대한 진실 기반의 관찰정보를 직관적으로, 그리고 쉽게 입력할 수 있게 되는 효과가 있다.
또한 본 발명에 따르면 관찰정보를 시계열적으로 일목요연하게 시각화하여 사용자에게 보여줌으로써 사용자로 하여금 개체에 대하여 시간에 따른 변화를 쉽게 파악, 비교 할 수 있게 함으로써, 보다 우월한 통찰력과 명철한 이해 등을 갖게 됨을 통해 정확한 예측력 및 솔루션 도출이 가능하게 하는 데 효과가 있다.
또한 본 발명에 따르면 개체의 내부 구성들에 대해서도 관찰정보 입력이 가능하므로 개체의 내외부 모두에 대한 상태 파악을 쉽게 할 수 있는 효과가 있다.
또한 본 발명에 따르면 입력된 관찰정보를 본인 이외에도 쉽게 공유 가능하며, 이에 따라 병원 및 전문 기관의 방문 전, 이상 징후에 의한 질병의 초기 발견, 알림, 예찰 등과 시기적절한 의견 및 대응, 관련 회원 및 단체와의 실효성 있는 연결 뿐만 아니라, 나아가 병원 혹은 분야별 기관 등의 수의사 혹은 의료진 진단과 응급처치, 처방, 그리고 병원 및 관련기관 이후의 사후 대처 및 예방 등에 있어서도 실질적이고 통합적인 솔루션으로 연결하는 데 도움과 기반을 줄 수 있게 함으로써, 다각적이고 다양한 일반인-전문가 양방향 간 모두에게 정확, 정밀하면서도 신속한 이해 위주의 방법 혹은 지침 등을 서로 매우 효과적으로 받고 이해할 수 있게 되는 장점이 있다.
또한 본 발명에 따르면 다수의 사용자 단말기들로부터 수집된 관찰정보를 분석할 수 있게 되며, 이로부터 서로 연관성이 있는 이상 상태들을 구별해 낼 수 있게 되므로 이상 혹은 특징적인 상태들 간 유의한 연관성 혹은 차이를 밝힐 수 있는 효과가 있다.
또한 본 발명에 따르면 개체 혹은/및 주변에서 내는 소리도 관찰정보의 하나로 보아 분석에 활용하게 되므로 해당 개체 혹은/및 주변의 소리와도 연계하여 이상 상태 여부 판단에 도움이 되는 효과가 있다.
한편, 본 발명에 의한 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 방법을 구현하기 위해 구축될 수 있는 전체 시스템을 개략적으로 도시한 것이다.
도 2는 본 발명에 따른 방법을 순서에 따라 개략적으로 도시한 것이다.
도 3은 개체 모델이 로드 된 메인 화면을 도시한 것이다.
도 4는 개체 모델 상에 애니메이션 효과가 부가된 실시예를 도시한 것이다.
도 5는 개체 모델의 내부 구성, 더 정확하게는 개체 모델의 내부 장기를 선택할 수 있도록 한 인터페이스의 일 예시를 도시한 것이다.
도 6은 개체 모델 상에 관찰정보를 표시하기 위해 필요한 도구들을 도시한 것이다.
도 7은 개체 모델의 내부 구성 상에 원뿔 형상의 마커가 표시된 인터페이스의 일 예시를 도시한 것이다.
도 8은 원뿔 형상의 마커가 개체 모델의 표면과 어떻게 표시되는지를 설명하기 위한 도면이며, 도 9는 원뿔 형상의 마커가 길게 늘려지는 실시예를 설명하기 위한 도면이다.
도 10은 원기둥 형상의 마커를 설명하기 위한 도면이다.
도 11은 프리체크 단계를 설명하기 위한 도면이다.
도 12는 입력된 관찰정보들이 시계열적으로 표시된 모습을 도시한 것이다.
도 13은 다수의 사용자 단말기들로부터 수집된 관찰 정보들을 기초로 패턴을 분석하는 과정을 설명하기 위한 도면이다.
도 14는 개체의 소리를 녹음 및 분석함으로써 개체에 대한 이상 상태 여부를 확인하는 과정을 설명하기 위한 도면이다.
도 15는 3차원 개체 모델을 2차원의 표준화 된 개체 모델로 변환한 것을 나타낸 것이다.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.
본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.
또한, 어떤 구성요소들을 포함한다는 표현은 “개방형”의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.
나아가 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.
본격적인 설명을 하기에 앞서 우선 본 발명에 따라 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법이 어떤 시스템 환경에서 구현되는지에 대해 도 1을 참조하여 간단히 살펴보기로 한다.
도 1은 본 발명에 따른 방법이 제공되는 시스템을 개략적으로 도시한 것으로, 이 시스템에는 사용자 단말기(100), 서비스 서버(200), 그리고 타인 단말기(300A~C)가 도 1과 같은 네트워크 연결 상태로 존재할 수 있다. 본 발명에서 구현하고자 하는 방법의 쉬운 예시를 살펴볼 때, 예를 들어 반려동물을 키우는 사용자는 자신의 반려동물의 외관상 관찰정보, 통증, 증상, 감정(기분), 사진, 소리, 또는 행동상의 관찰정보 등을 자신의 사용자 단말기(100)를 통하여 입력할 수 있으며, 나아가 이와 관련될 수 있는 사용자 자신에 대한 관찰정보를 더 입력할 수 있다. 이렇게 입력된 관찰정보는 서비스 서버(200) 혹은 클라우드 서버에 저장될 수 있고, 저장된 관찰정보는 다시 타인, 예를 들어 수의사, 친구/지인, 상품판매자 등에게 공유될 수 있도록 할 수 있다. 한편, 본 발명에서 구현하고자 하는 방법은 반드시 개체를 강아지, 고양이 등과 같은 반려동물로 한정하지는 않으며, 본 상세한 설명에서 언급되는 개체에는 사람은 물론 기타 동물, 곤충, 식물, 무생물 등도 포함될 수 있음을 이해한다. 다만, 앞으로의 상세한 설명에서는 발명의 이해를 돕기 위하여 개체가 반려동물인 것을 전제로 하여 설명할 것임을 미리 일러둔다.
한편, 도 1에 도시된 시스템을 구성하는 각 구성들에 대해 더 자세히 살펴보면 다음과 같다.
먼저 사용자 단말기(100)와 관련하여, 사용자 단말기(100)는 사용자가 보유하거나 소지하고 다니는 단말기를 일컫는 것으로, 여기에는 스마트폰, 스마트워치, 태블릿PC, 스마트 고글(안경)과 같은 VR/AR 디바이스 등과 같이 휴대가 가능한 단말기는 물론 데스크탑PC, 키오스크 등과 같은 설치형 단말기도 포함될 수 있다. 또한 사용자 단말기(100)에는 스마트 장갑, 스마트 리스트와 같은 다른 종류의 웨어러블 디바이스도 포함될 수 있으며, 이들 웨어러블 디바이스는 자이로 센서 기능을 이용하여 디바이스의 자세를 감지해 내는 방식을 기반으로 입력이 이루어지게 할 수 있다. 이러한 사용자 단말기를 장치의 측면에서 볼 때에, 각 사용자 단말기들은 중앙처리유닛(CPU)과 메모리를 구비하고 있는 것을 전제로 한다. 중앙처리유닛은 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 불릴 수 있다. 또한 중앙처리유닛은 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있는데, 하드웨어를 이용하여 구현하는 경우에는 ASIC(application specific integrated circuit) 또는 DSP(digital signal processor), DSPD(digital signal processing device), PLD(programmable logic device), FPGA(field programmable gate array) 등으로, 펌웨어나 소프트웨어를 이용하여 구현하는 경우에는 위와 같은 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등을 포함하도록 펌웨어나 소프트웨어가 구성될 수 있다. 또한, 메모리는 ROM(Read Only Memory), RAM(Random Access Memory), EPROM(Erasable Programmable Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래쉬(flash) 메모리, SRAM(Static RAM), HDD(Hard Disk Drive), SSD(Solid State Drive) 등으로 구현될 수 있다.
참고로, 본 상세한 설명에서는 발명의 이해를 돕기 위하여 사용자 단말기(100)가 스마트폰, 또는 태블릿PC인 경우를 상정하여 설명하기로 한다. 이 경우, 상기 사용자 단말기(100)는 디스플레이, 터치 감응형 표면, 및 마이크 등을 포함할 수 있으며, 나아가 부수적으로 물리적 키보드, 마우스 및/또는 조이스틱과 같은 하나 이상의 다른 물리적 사용자 입력용 수단이 더 연결될 수도 있다. 또한 상기 사용자 단말기(100)는 소리나 음성을 감지하고 녹음할 수 있는 수단, 자이로 센서와 같이 자세를 감지하는 수단을 더 포함할 수도 있다. 한편, 사용자 단말기 상에서 실행되는 다양한 애플리케이션들은, 옵션적으로, 터치 감응형 표면과 같은 적어도 하나의 보편적인 물리적 사용자 입력용 수단을 사용할 수 있다. 터치 감응형 표면의 하나 이상의 기능뿐만 아니라 사용자 단말기 상에 표시되는 대응하는 정보는 하나의 애플리케이션으로부터 다음 애플리케이션으로 그리고/또는 개별 애플리케이션 내에서 옵션적으로 조정되고/되거나 변경될 수 있다. 이러한 방식으로, 사용자 단말기의 (터치 감응형 표면과 같은) 보편적인 물리적 아키텍처는, 옵션적으로, 사용자에게 직관적이고 명료한 사용자 인터페이스들을 이용하여 다양한 애플리케이션들을 지원할 수 있다.
사용자 단말기(100)는 후술하게 될 설명들에서의 사용자 인터페이스에 따라 사용자가 정확하게 있는 그대로 직관적이면서도 쉽게 개체에 대한 관찰정보를 입력할 수 있게 하기 위한 것이다.
한편, 서비스 서버(200)는 본 발명에 따른 방법을 실제로 구현하기 위한 프로그램, 즉 명령어들의 집합을 제공하는 구성이며, 나아가 복수의 사용자 단말기들로부터 입력 및 업로드 된 관찰정보를 저장하는 구성에 해당하며, 또한 상기 관찰정보를 복수의 타 단말기들로 제공하는 구성이다.
서비스 서버(200)의 형태는, 어느 특정 운영자가 관리하는 적어도 하나의 서버용 PC일 수 있으며, 또는 타 업체에서 제공하는 클라우드 서버의 형태, 즉 운영자가 회원가입하여 사용할 수 있는 클라우드 서버의 형태일 수도 있다. 특히 서비스 서버가 서버용 PC로 구현된 경우, 해당 서비스 서버는 중앙처리유닛 및 메모리를 포함할 수 있으며, 이에 대해서는 앞선 사용자 단말기의 설명 과정에서 자세히 언급하였으므로 여기서는 설명을 생략하기로 한다.
이상 본 발명에 따른 방법을 구현하기 위해 구축될 수 있는 전체 시스템의 개략적인 구조에 대해 살펴보았다. 이하에서는 본격적으로 본 발명에 따른 방법, 즉 개체에 대한 관찰정보의 입력, 히스토리의 요약 시각화 기능 및 공유기능을 제공하기 위한 방법에 대해 살펴보기로 한다.
도 2를 참조할 때, 본 발명에 따른 관찰정보 입력 및 공유 서비스를 제공하기 위한 방법은 크게 나눌 때 개체 모델을 로드하는 단계(S201), 관찰정보를 입력하는 단계(S202), 관찰정보 히스토리의 요약 시각화 단계(S203) 및 관찰정보를 공유하는 단계(S204)로 나뉠 수 있으며, 필요에 따라 보편적으로 선행되거나 혹은 선택적으로 프리체크 사항을 입력하는 단계가 더 수행될 수 있다. 이하에서는 각 단계들에 대해 살펴보기로 한다.
[개체 모델 로드 단계]
본 발명에 따른 서비스 제공 방법에서는 가장 먼저 개체 모델이 로드되는 단계(S201)로부터 시작될 수 있다. 예를 들어, 사용자가 어플리케이션을 실행시키고 로그인을 한 후, 상기 사용자가 기 저장해 두었던 또는 어플리케이션 상에서 기 설정되어 있던 하나의 개체 모델이 로드될 수 있다. 이 때 개체 모델에는 동물 개체 모델(반려동물, 사람 등) 또는 비동물 개체 모델(식물, 무생물 등)이 포함될 수 있다.
도 3은 개체 모델(300)이 로드된 상태의 사용자 단말기 화면을 도시한 것으로, 본 상세한 설명에서는 편의를 위해 개체가 개(dog)인 경우를 상정하여 설명하기로 한다. 개체 모델(300)의 로드는 사용자 단말기 내 구비된 메모리에 미리 저장되어 있던 모델링 파일을 로딩하는 것과 동일한 과정으로 이해될 수도 있으며, 이 때 상기 모델링 파일은 서비스 서버로부터 사전에 다운로드 된 것, 사용자가 직접 3D 스캐닝을 하여 생성해 둔 것일 수 있다. 후자의 경우 사용자는 3D 스캐닝 후 얻은 모델링 파일을 직접 서비스 서버(200)에 등록한 후 이것이 사용자 단말기에 설치된 어플리케이션 내에서 다운로드가 가능하도록 하거나, 또는 모델링 파일을 직접 사용자 단말기 내 메모리에 저장해 둔 후 어플리케이션에서 해당 모델링 파일을 직접 로드 하도록 할 수도 있다. 특히, 3D 스캐닝 수단이 사용자의 휴대용 단말기에 구비되는 경우 또는 사용자의 또 다른 장치에 구비된 경우, 사용자는 자신의 개를 직접 3D 스캐닝 한 후, 3D 스캔 데이터를 상기 어플리케이션 상에서 로드가 가능한 개체 모델로 변환이 가능한 환경을 구현할 수 있으며, 이를 통해 사용자로 하여금 더 정확한 관찰정보를 입력할 수 있게 하는 것을 특징으로 한다. 이 때, 상기 변환 작업 자체도 상기 어플리케이션 상에서 이루어지도록 지원될 수 있다.
또 다른 한편, 사용자는 기존에 기본 개체 모델 상에 입력하였던 관찰정보들을 새로 생성한 3D 개체 모델 상으로 옮겨 사용할 수도 있다. 즉, 사용자는 본 발명에 따른 어플리케이션을 일정 기간 사용하던 중 자신이 실제 기르고 있는 개체의 모델로 대체하고 싶은 요구가 발생할 수 있는데, 이 때 사용자는 3D 스캐닝에 의해 획득한 개체 모델을 상기 어플리케이션 상으로 업로드 한 뒤 새로운 개체 모델로 하여금 과거의 개체 모델을 대체하게 함으로써 자신이 실제 기르고 있는 개체 모델이 어플리케이션 상에 출력될 수 있게 할 수 있다. 이 때 과거 개체 모델에 입력되었던 관찰정보들은 1차적으로 표준 개체 모델(이는 기 정의되어 있는 것) 상에 매칭시켜 옮긴 후, 이를 다시 새로운 개체 모델 상에 입력되는 과정을 거쳐 옮겨질 수 있다.
한편, 어플리케이션 상에 로드가 된 개체 모델들에는 애니메이션 효과가 더 부가될 수 있으며, 예를 들어 도 4(a)에서와 같이 개체 모델의 특정 부위에 애니메이션 아이콘(101)이 표시되도록 한 뒤 사용자가 이를 클릭하면 도 4(b)와 같이 해당 부위에서의 애니메이션 효과가 나타나도록 할 수 있다. 도 4에서는 개의 귀 부분에 애니메이션 아이콘(101)이 표시되고 이를 클릭하였을 때 귀가 들어올려지는 애니메이션 효과(102)가 나타나도록 한 예를 도시한 것이다. 이렇듯 애니메이션 효과를 부가하는 경우 특정 부위에 가려 사용자가 잘 확인할 수 없는 부위를 애니메이션 효과를 통해 확인할 수 있게 하는 효과가 있으며, 사용자는 애니메이션 효과가 나타난 이후 드러난 개체 모델의 표면 상에 원하는 입력(브러쉬 입력)을 할 수 있게 된다. 한편, 애니메이션 효과는 1회 클릭에 의해 애니메이션 효과의 처음부터 끝까지 한번에 표시될 수 있고, 또는 사용자의 조작에 따라 사용자가 원하는 만큼의 애니메이션 효과만 나타나게 구현할 수도 있다. 즉, 사용자가 개체 모델 상에서 애니메이션 효과가 부가된 부위를 터치 유지한 시간, 터치 횟수, 또는 터치 강도 등에 따라 사용자가 원하는 정도까지만 애니메이션 효과가 나타날 수 있게 할 수 있다. 또한, 상기 애니메이션 효과는 반드시 아이콘을 클릭하는 행위에 의해서 나타나는 것은 아닐 수 있으며, 예를 들어 드래그 입력 행위를 통해서도 애니메이션 효과가 나타나게 할 수 있다. 도 4의 귀 부분을 기준으로 할 때 사용자는 개의 오른쪽 귀를 드래그 함으로써 귀 부분이 들어올려지도록 한 후 그 귀 안쪽의 이상유무에 대해 입력(브러쉬 입력, 텍스트 입력 등)이 이루어지게 할 수 있다. 또는, 상기 애니메이션 효과는 사용자의 터치펜 입력, 또는 손 모양(모션)을 인식한 뒤 이를 기반으로 이루어질 수도 있다. 예를 들어 사용자가 디스플레이 되고 있는 개체 모델의 귀 부분에 손을 접근시키고, 사용자 단말기로 하여금 손의 특정 모션을 인식하게 함으로써 개체의 특정 부위에서 애니메이션 효과가 나타나게 할 수 있다. 또는 상기 효과는 음성인식 기능을 이용하여 "귀를 들어"라는 명령에 의해 그 개체의 그 부위에서 애니메이션 효과가 나타나게 할 수도 있다. 꼬리 혹은 입 등의 경우도 마찬가지로 적용될 수 있다. 또한 이러한 애니메이션 기능을 통하여 반려동물의 다양한 감정, 혹은 이상징후(질병)에 따른 귀의 모양을 효과적으로 나타낼 수 있으며, 팔, 다리, 꼬리 등의 모양도 역시 마찬가지로 애니메이션 효과가 적용되도록 구현할 수 있다.
다른 한편, 위와 같은 애니메이션 효과는 개체 모델의 특정 자세 또는 특정 모션을 취할 때에 어떤 증상을 보이는지를 입력할 수 있도록 하는 효과가 있다. 즉, 개체들은 서 있는 자세, 누워 있는 자세, 엎드려 있는 자세, 무릎을 꿇고 있는 자세 등 다양한 자세에서 서로 다른 통증의 경향, 또는 서로 다른 리액션의 경향을 보일 수 있는데, 본 발명에 따른 서비스에서는 개체 모델의 자세를 사용자가 원하는 형태로 만들어 낼 수 있게 하며, 그러한 자세의 개체 모델 위로 관찰정보들을 입력 가능하게 함으로써 보다 정확한 모니터링이 가능하게 하는 효과가 있다.
이상 도 3과 도 4를 참조하여 개체 모델(300)이 로드된 상태에 대해 살펴보았다.
참고로, 개체 모델(300)의 로드는 비단 도 3 또는 도 4에 도시된 것과 같이 개체 모델(300)의 외형만이 어떠한 입력을 받아들일 수 있는 상태에 놓이게 된 것을 의미하는 것은 아니며, 개체 모델(300)의 내부 또한 입력을 받아들일 수 있는 상태에 놓이게 된 것을 의미할 수 있다. 예를 들어, 도 3의 개는 내부에 여러 종류의 장기를 가질 수 있는데, 이렇게 개체 내부에 존재하는 장기 등의 구성들도 사용자가 화면 상에서 확인할 수 있는 상태에 놓일 수 있으며, 필요에 따라 확대/축소, 브러쉬 입력, 텍스트 입력 등이 가능한 상태에 놓일 수 있다. 이와 관련된 화면 예시는 도 5에 도시되어 있는데, 이를 참조할 때, 사용자 단말기의 화면 상에는 개체 모델(300)의 체내에 존재하는 심장(301A), 뇌(301B) 등의 장기들이 눈으로 확인 가능하게 표시되어 있음을 볼 수 있다. 참고로 도 5(b)는 발명의 이해를 돕기 위해 실제 3D로 구현된 개체 모델(300)의 모습을 도시한 것이다.
즉, 개체 모델 내에 존재하는 조직, 장기, 더 나아가 세포 등에 대한 3차원 모델도 제작 혹은 제공되는 서비스가 수행될 수 있으며, 만약에 세포, 조직 혹은 장기 등을 몸체 내 위치시킬 경우는, 몸체 투명도를 적절히 증가시켜 대비적으로 나타나게 하거나, 혹은 몸체와 별도로 된 개체로 할 경우에는, 선택 후 불러와서 별도의 개체모델로 활용할 수 있다. 또한 모두의 투명도를 각각 적절히 조정하여 몸체와 내부의 입력상황이 한 눈에 들어올 수 있도록 통합적인 시각화 (integrated visualization)가 될 수 있도록 할 수도 있다. 한편, 경우에 따라 상기 조직, 장기 중에서는 입체 형상의 마커가 닿는 것들만 투명도가 조절되도록 할 수도 있다. 후술하겠지만, 본 발명에 따른 어플리케이션에서는 원뿔, 원기둥 등 입체 형상의 마커를 이용하여 관찰정보 입력이 가능할 수 있는데, 이 때 마커의 부피영역에 닿는 조직, 장기들만 식별하여 이것들만 투명도가 조절되도록 구현할 수도 있다.
참고로 통합적 시각화는 전문가 및 일반인들 입장에서 개체의 내외부 상태를 내부 따로 관찰한 것 또한 외부 따로 관찰한 것을 따로 따로 머리에 상상하여 보면서 비교 및 연관성을 찾는 과거의 아날로그적이고 주관적인 오류가 내포되는 방법보다는 한 번에 통합적으로 이해할 수 있게 시각화 함으로써, 이를 통해 보다 나은 통찰력을 갖게 하여 결정적으로 유의미한 솔루션을 제공할 수 있게 하는 효과가 있다. 즉, 2차원 이미지나 엑스레이, 초음파보다 전반적인 3차원 CT, MRI 이미지를 보았을 때 개체에 대한 파악이 보다 쉽듯, 본 발명에서는 통합적 시각화가 3차원적으로 이루어질 수 있게 함으로써 개체에 대한 파악이 쉽게 이루어질 수 있게 한다.
예를 들어, 반려동물의 심장, 신장 등의 장기들, 반려동물의 안구 또는 항문 등과 같이 몸체 내측 및 외측으로 구비되어 있는 장기도 3차원 모델링의 대상이 될 수 있으며, 경우에 따라 상기 장기들은 반려동물의 몸체 투명도를 증가시킴으로써 사용자가 내부를 들여다 볼 수 있도록 하거나, 또는 각각의 장기를 따로 화면에 3차원으로 표시하거나, 또는 장기의 단면을 표시함으로써 사용자가 해당 장기에 후술하게 될 증상, 통증 정도를 표시하거나 입력하게 할 수 있다. 또한 개체 모델 내 세포를 보다 더 유의하고 상세하게 관찰할 필요가 요구될 경우가 있다면, 해당 세포를 3D 모델로 표시하여, 그 세포의 유형, 형태에 따라 그 고유 특징이 드러나도록 할 수 있다. 예를 들어, 세포핵을 중심으로 세포질의 형상이 각 세포의 유형, 형태에 따라 예를 들어 3차원적인 방법으로 달리 표시되도록 할 수 있다. 한편, 어느 외부장기 내부에 또 다른 내부 장기가 존재하는 경우에는, 외부장기의 투명도를 증가시킴으로써 내부장기를 볼 수 있게 구현할 수도 있음을 이해한다. 즉, 상기 3차원 모델링은 개체 내 장기들을 개별적으로 살펴볼 수 있도록 하며, 각각의 장기들에 대해서는 투명도 조절을 비롯한 다양한 편집이 가능하도록 구현될 수 있다. 도 5a는 3차원 모델링 내 장기들이 표시될 때에 겉 피부가 투명하게 표시된 모습을 도시한 것이며, 도 5b 및 5c는 3차원 모델링 중 외측면은 단면으로 표시함으로써 내부의 뇌, 심장과 같은 장기들이 보이도록 표시된 모습을 도시한 것이다.
한편, 도면에서는 개체 모델이 개 또는 고양이인 경우에 대해서만 도시되어 있으나, 앞서 언급한 바와 같이 본 발명에서의 개체 모델은 동물 개체 또는 비동물 개체를 가리지 않는 바, 예를 들어 로드의 대상이 되는 개체 모델이 식물인 경우에는 식물의 줄기 내부, 뿌리 내부, 과실 내부 등이 화면 상에 표시되도록 구현할 수도 있으며, 개체 모델이 인공장기 혹은 전자제품(예. 필요에 따라 이식된 이식체 등)인 경우 내부의 회로기판, 전선 등이 화면 상에 표시되도록 구현할 수도 있다. 이 때 전자제품이란, 회로기판 또는 전선 중 적어도 하나를 포함하는 장치 전반을 포함하는 것으로 이해될 수 있다. 또한, 상기 개체 모델 내에도 전자제품, 금속제품 등이 포함될 수 있는데, 이 때, 전자제품 또는 금속제품, 비금속(플라스틱, 실리콘 등) 제품은 개체 내 이식되어 있는 인공심장, 보청기, 인공관절, 보형제, 인공심장판막 등 의공학 장치들도 포함될 수 있다.
[관찰정보 입력 단계]
개체 모델이 로드 된 이후, 사용자가 관찰정보를 입력하는 단계에 대해 설명하기로 한다. 도 6(a)는 개체 모델(300) 상에 입력이 가능하도록 하는 인터페이스의 모습을 도시한 것이며, 또한 도 6(b)에는 개체 모델(300) 상에 브러쉬 입력(20)이 입력된 상태가 도시되어 있다.
인터페이스에 대해 간략히 설명하면, 인터페이스에는 관찰정보의 입력 및 조회를 위한 복수 개의 메뉴들(10), 마커크기, 되돌리기 및 지우개 등 브러쉬 입력을 위한 선택도구(11), 색깔선택도구(12), 시점 변경/이동도구(13)가 화면에 배치되어 있음을 확인할 수 있다. 또한, 화면 내에는 관찰정보가 기록된 시점의 환경정보들(날씨, 기온, 위치, 시각, 날짜, 요일 등), 사용자의 이름 및 개체의 이름(또는 명칭)이 더 표시될 수 있다.
위와 같은 인터페이스 상에서 사용자는 입력 도구를 선택한 후 개체 모델(300) 상에, 또는 개체 모델(300) 주변에 원하는 내용을 입력할 수 있는데, 도 6(b)에는 사용자가 브러쉬 도구를 선택한 후 개체 모델(300)의 표면에 브러쉬 입력을 한 예시가 도시되어 있다. 한편, 본 발명에 따른 인터페이스에서는 개체 모델(300) 상에 실제 피부표면에 생긴 외상(멍, 피, 고름 등)을 표시하기 위한 도구가 독립적으로 제공될 수 있으며, 이를 이용하여 사용자는 눈에 보이지 않는 통증과 눈에 보이는 외상을 구분하여 표시할 수 있다. 즉, 인터페이스에서는 도 6(b)에서와 같은 브러쉬 입력을 통해 눈에 보이지 않는 통증 입력이 가능하도록, 그리고 도 6(c)에서와 같은 체표색 입력을 통해 눈에 보이는 상처 입력이 가능하게 할 수 있다. 이렇게 색깔을 구분하여 관찰 정보의 입력이 가능하게 하는 것은, 사용자들이 쉽게 정보를 인지할 수 있게 하는 목적도 있으나, 이 외에도 추후 누적된 관찰 정보들에 대한 빅데이터 분석 시 각 세부 정보들을 자동으로 구별 및 처리하기 쉽게 하기 위한 목적도 있다.
한편, 개체 모델(300)의 표면에 브러쉬 입력을 하기 위해 상기 개체 모델(300)의 표면에는 마커(Marker; 110)가 더 표시될 수 있는데, 이 마커에 대한 설명은 도 7 내지 도 9를 참조하여 더 자세히 살펴보기로 한다.
마커는 입력을 하고자 하는 위치를 정확히 포인팅 하기 위한 것으로, 도 7에서도 보이는 것과 같이 개체 모델의 표면에 특정 기하학 모양을 가지도록 구현될 수 있다. 바람직하게는 3차원의 입체적 형상으로 구현될 수 있으며, 이러한 마커는 개체 모델의 표면 상에서 자유로이 이동되어 사용자에게 브러쉬 입력을 하고자 하는 위치를 정확히 알릴 수 있다. 또한, 상기 마커는 개체 모델의 표면 상에서만 이동되도록 구현될 수도 있다. 즉, 마커로 하여금 개체 모델의 표면을 벗어나지 않도록 함으로써 사용자의 입력 편의를 도울 수 있도록 할 수 있다.
다른 한편, 상기 마커는 비단 개체 모델의 외측 표면뿐만 아니라 개체 모델의 내부(예. 장기)에도 브러쉬 입력을 하기 위한 용도로 사용될 수 있다. 예를 들어, 반려동물은 피부 쪽의 질환, 찰과상, 혹은 체표의 통증이나 아픔뿐만 아니라 내부 장기에도 임의의 같은 발병 원인이 존재할 수 있는데, 관찰에 의해 얻어진 사용자의 의견이 반영될 수 있도록 내부 장기에도 브러쉬 입력을 할 필요성이 있다. 상기 마커는 이 경우 기 생성되어 있는 3차원 개체 모델의 내부 장기들에도 입력이 가능하도록 구현되어 사용자로 하여금 브러쉬 입력을 하도록 할 수 있다.
도 7은 개체 모델의 내부 장기 중 하나인 심장(301A) 표면에 관찰정보, 더 정확하게는 브러쉬 입력을 하는 실시예를 도시한 것으로, 도면에서도 볼 수 있듯 단말기의 화면에는 개체의 심장이 3차원 모델로 표시될 수 있으며, 이 3차원 모델 위에는 마커(110)가 표시되어 사용자로 하여금 브러쉬 입력을 쉽게 하도록 보조할 수 있다. 개체 모델이 3차원이므로 이 위에 어떠한 입력을 할 수 있게 하기 위한 마커 역시 3차원의 형상을 가짐이 바람직하며, 마커 형상의 종류에는 제한이 없다 할 것이나 본 설명에서는 이해를 돕기 위해 마커(110)가 원뿔 형상인 것으로 가정한다. 참고로, 마커 형상은 구형으로도 구현이 가능하며, 예를 들어 사용자가 통증을 느끼는 경우 통증의 위치가 체표면인 것으로 느껴지더라도 실제 통증의 근원점을 찾기 쉽게 하기 위하여 상기 체표면을 중심으로 한 구형의 마커를 이용해 표시가 가능하게 할 수 있다. 통증의 원인이 암괴, 기생충 덩어리, 변비 등인 경우 상기 구형의 마커(중심으로부터 일정한 거리에서 존재하는 점들의 집합)는 위 원인들이 무엇일지에 대한 추측이 가능하게 하거나, 적어도 통증의 원인을 체내 어디에서 찾아야 할지를 알아보는 데에 도움을 줄 수 있다.
한편, 실제 통증의 원인이 되는 암괴, 기생충 덩어리, 변비 유발 요인 등은 반드시 구형, 타원형 등 정규의 형상이 아닌 경우가 많고 대부분이 비정형을 띤다. 이러한 경우에도 앞서 설명한 입체 형상의 마커는 유용하게 쓰일 수 있는데, 예를 들어 사용자는 입체 형상의 마커를 활용하여 위 암괴, 기생충 덩어리, 변비 유발 요인 등이 존재할 것으로 예측되는 지점을 개체 모델 상에 표시할 수 있으며, 또는 입체 형상의 마커를 복수 회 입력함으로써 예측되는 통증 원인의 형상까지도 입력하게 할 수 있다. 후자의 경우는, 예를 들어 구형의 마커인 경우 여러 번 입력을 할 때에 근접한 마커 입력끼리는 일부 체적이 중첩되도록 함으로써 비정형 입력이 가능할 수 있으며, 이는 비단 구형이 아닌 다른 형상의 마커인 경우에도 동일하게 적용될 수 있다.
도 8(a)를 참고할 때, 마커는 적어도 하나의 밑면과 높이를 가지는 입체형상일 수 있으며, 특히 원뿔 형상의 마커는 하나의 밑면(1101)과 높이(H), 그리고 팁(1102)을 가지는 입체형상일 수 있다. 한편, 원뿔 형상의 마커(110)는 개체 모델의 표면에 표시되되, 마커(110)는 밑면(1101)과 팁(1102) 사이에 항상 개체의 표면이 존재하는 범위에서 이동 가능하도록 구현될 수 있다. 이는 마커(110)가 개체 표면을 벗어나지 않도록 함으로써 사용자의 마커 조작 편의성을 높이기 위한 것이다. 다른 한편, 마커(110)는 필연적으로 개체 모델의 표면과 중첩되는 중첩면(1103)을 포함하게 되는데, 이 중첩면(1103)은 사용자로 하여금 입력면의 크기를 조절하는 데에 활용될 수 있다. 즉, 사용자는 도 8의 (b)에서와 같이 개체 표면과 밑면(1101) 사이의 높이(h)를 조절함으로써 중첩면(1103)의 넓이를 조절할 수 있으며, 이를 통해 개체 표면 상에 더 넓은 범위의 브러쉬 입력을 하고자 하는 경우에는 밑면(1101)과 개체 표면 사이의 길이(h)를 더 짧게 함으로써, 반대로 개체 표면 상에 더 좁은 범위의 브러쉬 입력을 하고자 하는 경우에는 밑면(1101)과 개체 표면 사이의 길이(h)를 더 길게 함으로써 입력 넓이를 조절할 수 있다. 이 때 개체 표면 상에 팁(1102)이 접하도록 조절한 경우에는 당연히 점 단위의 브러쉬 입력이 가능할 것이다. 참고로 중첩면(1103) 넓이의 조절은 원뿔 형상과 같이 높이에 따라 단면이 달라지는 입체 형상에서만 가능할 것이며, 원기둥 형상과 같이 높이에 따른 단면이 모두 동일한 입체 형상에서는 적용 불가할 것이다.
한편, 앞서에서는 마커(110)의 중첩면이 밑면(1101)과 팁(1102) 사이에 하나만 존재하는 실시예만 설명하였으나, 중첩면은 밑면(1101)과 팁(1102) 사이에 2개 이상이 존재할 수도 있다. 예를 들어, 밑면(1101)은 3차원 개체 모델의 피부면에 접하도록, 그리고 중첩면(1103)은 내부 장기 중 심장과 닿도록 표시될 수 있으며, 이와 반대로 밑면(1101)은 내부 장기에 닿고 중첩면(1103)은 개체 모델의 피부면에 닿도록 표시될 수도 있다. 후술하게 될 바와 같이 마커(110)는 높이가 조절될 수 있는데, 이 경우 중첩면의 개수는 마커(110)가 통과하는 피부 및 장기의 숫자에 따라 2개보다 더 많을 수도 있다. 이렇게 하나의 마커(110)로부터 비롯된 복수 개의 중첩면이 표시될 수 있는 경우, 중첩면들, 밑면, 팁에 의해 표시되는 관찰정보들은 서로 연관성이 있게 표시될 수 있으며, 사용자로서는 피부면 중 임의 영역에 통증이 있다고 표시를 함과 동시에 마커(110)가 닿는 내부 특정 장기에도 표시가 가능하게 되어 추후 통증의 원인을 찾고자 할 때에 상기 특정 장기를 가장 먼저 살펴보게 할 수 있는 등 외부 통증과 내부 장기와의 연관성을 기록할 수 있다.
도 8의 (c)에는 마커(110)의 중첩면(1103u)이 내부 장기에 닿아 있고, 팁(1102 u)이 개체의 피부면에 닿아 있으며, 밑면(1101u)이 내부 장기의 내부에 존재하도록 표시된 실시예가 도시되어 있다. 이처럼 본 발명에 따른 인터페이스에서는 사용자의 의도에 따라 마커(110)를 자유롭게 활용할 수 있으며, 특히 마커의 단면 및 팁이 개체의 피부면, 내부 장기 등에 닿도록 제어함으로써 개체에 대한 관찰정보들을 입력할 수 있다.
한편, 관찰정보를 입력하는 방식 중 하나에는 사용자가 마커를 이용하여 개체 모델 상에 아웃라인(outline)만을 그 아웃라인 내부 영역에 원하는 색깔을 입히는 방식의 것도 존재할 수 있다. 또한, 이 때 상기 아웃라인 내부 영역에는 서로 상이한 복수 개의 색깔 입력이 더 가능하게 함으로써 통증의 정도, 통증이 존재할 것으로 추정되는 위치의 깊이 등을 표현 가능하게 할 수 있다.
참고로, 상기 원뿔 형상의 마커에 있어서, 원뿔 형상의 마커는 사용자가 지정한 특정 위치로부터 통증의 원인이 어느 위치에 있는지를 확률적으로 유추하는 데에도 활용될 수 있다. 예를 들어, 사용자가 아프다고 느낀 지점, 또는 강아지가 아프다고 핥고 있는 지점을 원뿔 형상 마커의 꼭지점에 두고 입력하였을 때, 상기 꼭지점으로부터 밑면까지가 차지하는 부피의 영역은, 바깥 영역에 비해 더 높은 확률로 통증 원인이 위치될 것으로 예측될 수 있다.
또한, 일반적인 상황에서는 개체 모델의 외표면만 볼 수 있는 상태, 즉 내부 장기들의 모습은 볼 수 없는 상태에서 사용자에 의한 입력이 있을 것으로 기대되는데, 입체 형상의 마커에 의해 관찰정보가 입력된 것을 추후 수의사, 의사 등의 전문가가 확인할 때에는 개체 모델의 내부 구성들(장기들)이 투명도 조절되어 보이게 함으로써 전문가들이 어떤 통증의 원인이 무엇인지를 보다 쉽게 찾을 수 있게 도울 수 있다.
한편, 도 9의 (a)는 마커(110)의 높이 자체가 조절될 수 있는 실시예를 도시한 것으로, 인터페이스는 사용자로 하여금 마커(110)의 높이 또는 밑면의 넓이를 조절할 수 있는 수단을 제공함으로써 사용자가 필요에 따라 마커(110)의 형상 자체를 변형시킬 수 있게 할 수 있다. 또한, 인터페이스는 마커(110)를 통한 입력이 밑면(1101) 또는 중첩면(1103)이 아닌 측면에 의해서도 이루어질 수 있도록 입력면 변경 수단을 제공할 수도 있다. 예를 들어 도 9(a)는 개체의 간(Liver; 301C)을 관통하는 부상을 표시하는 실시예를 도시한 것인데, 이 때에 사용자는 관통상 부위를 표시하기 위하여 마커(110)의 높이(길이) 및 밑면의 넓이를 조절할 수 있으며, 또한 입력면을 측면으로 바꿈으로써 도 9(a)에서와 같은 관통상 표시를 입력할 수 있다. 한편, 상기 원뿔 형상의 마커(110)는 관통상의 입구 및 출구를 표시할 수 있도록 인터페이스가 제공될 수 있으며, 또한 상기 관통상 표시는 밑면과 높이가 수직을 이루지 않은 상태로도 표시될 수 있다. 관통상의 경우 내부 장기에 의해, 또는 뼈에 의해 총알이 체내에서 경로가 미소하게 바뀔 수 있는데, 본 발명에 따른 인터페이스 상에서는 관통상의 이러한 굴절성까지 표시할 수 있다. 이 경우 인터페이스에서는, 관통상 표시 중 높이를 나타내는 선이 표시되도록 하고 사용자로 하여금 높이를 나타내는 선 중 임의의 점을 드래깅 함으로써 관통상 표시가 굴절되도록 할 수 있다. 이렇게 입력된 관통상 입력은, 총알 혹은 파편의 방향성과 생김새, 관통된 조직의 강도나 모양에 따른 내부 장기 손상 형태, 내부 장기 손상 정도, 손상 방향 등을 예측하는 시뮬레이션에도 활용될 수 있다.
참고로 도 9의 (b)에는 원뿔형의 마커(110)가 표시되되 팁(1102)이 심장(301A)표면의 관상동맥에 닿도록, 그리고 밑면(1101)이 심장(301A)에 발생된 괴사조직에 닿도록 표시되어 있는 실시예가 도시되어 있다. 도 9의 (b)는, 예를 들어 심장의 관상동맥에 혈전이 생겨 심장 내 조직의 괴사가 발생하는 경우, 괴사가 발생한 영역을 예측할 필요가 있을 때에 마커(110)의 활용예를 도시한 것으로, 마커(110)의 팁(1102)이 관상동맥의 혈전 부분에 닿도록 마커(110)를 둠으로써 팁(1102)으로부터 연장되는 밑면(1101)의 영역이 괴사가 발생한 것으로 예측될 수 있도록 한 실시예를 도시한 것이다. 이처럼 본 발명에 따른 인터페이스에서의 마커(110)는 어느 특정 지점에서의 문제가 발견되었을 때 이 문제를 원인으로 한 또 다른 문제 영역을 예측하는 데에도 활용될 수 있다. 이러한 내부 장기 상에 마커(110)를 이용하여 입력된 관찰정보들은 장기의 주변 조직 손상의 입체적 범위를 시뮬레이션 하는 데에 활용될 수 있다.
이상 살핀 바와 같이 본 발명에 따르면, 개체 모델 상에는, 그 중에서도 특히 내부 장기들에는 도 9(a)에서와 같이 상기 장기를 관통하는 관통상 입력, 도 9(b)에서와 같이 임의 질환의 근원부위로부터 연계되는 통증의 입력, 그리고 그 밖에 임상증상 또는 병리학적 변화에 대한 입력들이 기록 및 표시될 수 있다.
도 10은 마커(111)가 원기둥 형상일 때의 실시예를 도시한 것이다. 마커가 원기둥 형태일 때에, 마커(111)의 중첩면은 개체 모델의 표면에서 이동되면서 색깔 입력이 이루어지도록 구현될 수 있으며, 이 때 마커(111)는 상부면(1111)과 하부면(1112) 사이에 개체 모델의 표면이 존재하도록 하는 범위에서만 움직임으로써 마커(111)가 개체 모델 밖으로 벗어나지 않게 할 수 있다.
다른 한편, 마커(111)가 원기둥 형상인 경우 원기둥의 가장 밑면(1112)으로부터 소정의 높이까지(이하, 마커하부라 칭함)는 개체 모델의 피부 표면 내에 표시가 되도록 함으로써 개체 모델의 내부에도 브러쉬 입력이 가능하게 할 수 있다. 이 때, 마커하부는 다시 높이 조정이 가능하도록 함으로써 개체 피부 내부 깊숙한 곳까지도 표시가 가능하도록 구현할 수 있다. 이 때, 각 깊이마다의 브러쉬 입력은 서로 다른 색깔로 이루어질 수 있는데, 예를 들어 마커하부를 피부 아래 1cm까지만 연장시킨 후 해당 지점에서는 노란색 또는 노란색 계통의 색깔을 입력하고, 마커하부를 피부 아래 1.5cm까지 연장시킨 후 해당 지점에는 주황색 또는 주황색 계통의 색깔을 입력하고, 마커하부를 피부 아래 2cm까지 연장시킨 후 해당 지점에는 빨간색 또는 빨간색 계통의 색깔을 입력하는 등의 입력을 반복함으로써 깊이에 따라 상이한 통증 정도를 입력하게 할 수 있다. 이를 통해 개체의 [피부표면 - 내부장기 - 심부장기 - 조직, 세포]에 이르기까지 관찰정보 입력이 통합적으로 이루어지게 할 수 있다. 물론 마찬가지로 상기의 색깔 계통은 실체 체표에서 발견되는 혈액, 분비물 혹은 상처의 색깔과 디지털 처리에서 구분되도록 명도나 채도를 약간씩 다르게 조정할 수 있다.
또 다른 한편, 상기 마커는 원기둥 형태로부터 원뿔 형태로 변환될 수 있으며, 또는 이와 반대로 원뿔 형태로부터 원기둥 형태로 변환될 수 있다. 위와 같은 형태 변환을 위한 인터페이스 내 메뉴(토글 방식, 또는 슬라이딩 방식)가 별도로 제공될 수 있으며, 또한 상기 원뿔 형태의 마커, 원기둥 형태의 마커가 높이가 가능하도록 인터페이스 내 메뉴(슬라이딩 방식)가 표시될 수 있다. 한편, 내시경 혹은 생검 등의 현미경으로 관찰한 사진 정보가 있을 경우에는 마커를 이용한 브러쉬 입력 대신 상기 사진 정보를 개체 상에 표시함으로써 해당 개체에 대한 보다 정확한 관찰정보가 생성되도록 할 수 있다. 이 때 사진 정보를 개체 상에 표시하는 방식에는, 예를 들어 상기 사진 정보를 하나의 레이어로 변환시킨 후, 레이어를 3차원의 개체 모델 상에 덧씌우는 방식이 활용될 수 있다. 또한, 상기 사진 정보로부터는 폐곡선 추출을 통하여 개체가 식별될 수 있으며, 이렇게 식별된 개체는 3차원의 개체 모델 상에서 매칭되어 상기 사진 정보가 보다 정확하게 개체 모델 상에 표시되도록 할 수 있다.
이상 관찰정보 입력, 그 중에서도 특히 브러쉬 입력 시 필요한 수단인 마커에 대해 살펴보았다.
한편, 앞서 설명한 관찰정보의 입력은 선행적으로 3차원 개체 모델의 외측에 통증 또는 외상의 정도가 표시되도록, 그리고 후속적으로는 상기 외측에 표시된 통증 또는 외상과 대응되는 내측 장기에 통증의 정도가 표시되거나 또는 사용자가 임의로 기재한 텍스트가 입력되도록 할 수 있다. 즉, 본 발명에서는 3차원 개체 모델의 외측부터 내측에 이르기까지 순서대로 관찰정보를 입력하도록 유도할 수 있으며, 이를 통해 사용자가 입력한 외측부터 내측까지의 관찰정보들이 하나의 연관된 입력으로 매칭되도록 할 수 있다. 이렇게 입력된 관찰정보들은 추후 빅데이터 분석될 시 외부 외상 혹은 통증과 내부 장기 사이의 관련성을 밝히는 데에 활용될 수 있다.
한편, 관찰정보 입력을 위한 단계 이전에는 개체에 대하여 사전정보를 입력할 수 있는 프리체크 입력 단계가 더 존재할 수 있는데, 예를 들어 사용자가 어플리케이션 로그인을 마친 후 3차원의 개체 모델이 로드되기 전 또는 3차원 개체 모델이 로드된 후 간략한 정보입력 인터페이스가 제공됨으로써 사용자 편의를 높일 수 있다. 3차원 개체 모델이 로드되기 전이라면 임의의 2차원 개체 모델이 표시될 수 있으며, 3차원 개체 모델이 로드된 후에는 해당 3차원 개체 모델 상에 간략한 정보입력이 가능하도록 인터페이스가 제공될 수 있다.
도 11에는 프리체크 입력 단계에 대한 인터페이스 화면들이 도시되어 있는데, 해당 단계에서의 특징은 사용자로 하여금 통상적으로 필수적인 체크부분을 최대한 이해가 명료한 아이콘과 같은 그림을 활용하여 입력이 보다 재미있고 간단하면서도 순차적으로 모든 입력 들을 정확하게 완성시키게 함으로써 사용자의 어플리케이션 사용의 주기적 반복에도 실증이나 피로도를 높이지 않는 것이다. 이를 위하여, 본 발명에 따른 서비스 제공 방법은 개체와 관련된 메인선택옵션들을 제공하는 단계(도면 11(a)), 사용자에 의해 선택된 어느 하나의 메인선택옵션에 종속되는 서브선택옵션들을 제공하는 단계(도면 11(b))를 포함할 수 있다. 도 11에는 반려 동물에 대한 프리체크를 입력할 수 있는 인터페이스가도시되어 있는데, 가장 먼저 도 11(a)에는 반려 동물과 관련된 메인선택옵션들로서 체온(1101) 혹은/및 체중, 구토, 호흡기, 소변, 대변(이상 1102), 물, 사료(이상 1103) 등이 표시되어 있음을 확인할 수 있다. 메인선택옵션들은 해당 개체와 관련하여 입력 빈도수 또는 입력량이 가장 높은 항목들로 구성될 수 있으며, 이러한 메인선택옵션들은 서비스 서버가 복수의 단말기들로부터 수집한 관찰정보들을 빅데이터 분석한 것으로부터 선별될 수 있다. 필요에 따라서는 메인선택옵션들이 주기적으로 업데이트 되도록 함으로써 시간에 따른 관찰정보들의 경향을 반영할 수 있게 할 수 있다. 예를 들어, 특정 감염병이 유행하는 기간에는 특정 감염병과 관련된 부위, 증세를 입력한 관찰정보들이 급증할 수 있는데, 서비스 서버는 이를 반영하여 메인선택옵션들을 맞춤형으로 구성함으로써 사용자들로 하여금 프리체크 입력을 하는 데에 편의성을 높일 수 있다. 특히 도면부호 1102와 같이 개체 형상 위로 바로 입력이 가능하도록 한 입력 아이콘들의 경우 서비스를 제공하는 자의 의도에 따라 입력 아이콘의 위치 및 명칭이 달라질 수 있다. 예를 들어, 현재 구토, 호흡기, 소변, 대변으로 이루어져 있는 입력 아이콘들은 입, 피부, 앞다리, 뒷다리, 혹은 발굽(구제역의 예)으로 변경될 수 있다. 다음으로 도 11(b)에는 특정 메인선택옵션이 선택되었을 때, 가령 "구토"가 선택되었을 때 이에 종속되는 서브선택옵션들이 표시된 모습을 도시한 것이다. 서브선택옵션들에는 구토의 색깔, 내용물, 구토와 동반되는 타 증상 등이 포함될 수 있으며, 이러한 서브선택옵션들은 메인선택옵션에 따라 달라질 것이다. 참고로 서브선택옵션들은 앞서 사용자가 선택한 메인선택옵션 주변에 표시되도록 함으로써 사용자가 직관적으로 선택 가능하게 할 수 있으며, 도 11(b)에는 "구토"를 중심으로 여러 개의 구토 종류를 대별하여 나열된 서브선택옵션들이 원형 배치되어 있음을 확인할 수 있다. 마지막으로 도 11(c)은 프리체크 입력이 완료된 후의 인터페이스를 도시한 것이다. 도 11(c)에서 특기할 만한 사항으로, 도면부호 1102의 입력 아이콘들 상에는 그 정도를 쉽게 알 수 있게 하기 위해 작은 점들이 색깔을 달리하여 1개 내지 3개가 표시될 수 있다는 점이다. 이는 바(bar) 형태의 정도의 차이를 나타내는 표현이 될 수도 있다.
프리체크 입력 단계는 보편적으로 바람직하게는 사용자가 어플리케이션 로그인 한 직후에 실행되도록 구현할 수 있으며, 프리체크 입력 내용은 이후 단계에서 표시하게 될 인터페이스(관찰정보 입력용 인터페이스)를 어떻게 구성할 지에 대한 판단을 하는 데에 참고될 수 있다. 즉, 프리체크 입력 내용에 따라 사용자에게는 후속적으로 상이한 인터페이스가 제공될 수 있다. 그러나 앞서에서도 잠시 언급하였듯 프리체크 입력 단계는 반드시 로그인 직후에만 실행되는 것은 아닐 수 있으며, 개체 모델이 로드된 이후 어느 시점에서라도 프리체크 입력단계가 가능하도록 인터페이스 변환이 이루어질 수 있음을 이해한다.
이상 관찰정보를 입력하는 단계, 그리고 프리체크 입력을 하는 단계까지 살펴보았다.
[관찰정보 히스토리의 요약시각화 단계]
한편, 앞서 설명한 인터페이스에 의해 입력된 관찰정보들은 시간(혹은 장소 등)에 따라, 누적적으로 저장될 수 있으며, 이렇게 누적된 관찰정보들은 도 12에서와 같이 시계열적(혹은 특정 장소 선별적)으로 표시될 수도 있다.
도 12의 상단(upper part; 1201)에는 사용자가 날짜 별로 입력한 물 섭취량과 사료 섭취량이 꺾은선 그래프의 형태로 표시된 것이 도시되어 있다. 즉, 사용자는 개체와 관련하여 특정 수치값을 날짜 별로 입력할 수 있으며, 이렇게 누적적으로 입력된 수치들은 도 12에서와 같이 그래프 형태로 표시되어 사용자가 한 눈에 그 변화 정도를 쉽고 일목요연하게 알 수 있도록 할 수 있다. 그래프 형태로 표시될 수 있는 관찰정보의 종류에는 위의 물 섭취량, 사료 섭취량 외에도 체온, 체중 등이 더 포함될 수 있다.
도 12의 중단(middle part; 1202)에는 개체에 대한 간략한 정보들이 표시될 수 있으며, 여기에는 프리체크 단계에서 입력된 관찰정보들 또는 3차원 개체 모델 상에 표시하였던 관찰정보들이 표시되도록 구현할 수 있다. 한편, 중단(middle part; 1202)의 관찰정보들은 사용자의 입력에 따라 다른 날짜의 것으로 표시될 수 있으며, 예를 들어 바(bar)형태의 입력아이콘, 혹은 동그라미 형태의 입력아이콘을 두고 사용자로 하여금 입력아이콘 상에서 드래그 입력이 가능하게 함으로써 날짜 별로 관찰정보들이 어떻게 변화하는지를 쉽게 최대한 일목요연하게 구별될 수 있게 할 수 있다. 예를 들어, 3D 개체 모델의 피부 표면에 피부병이 발생하였고 발생일부터 날짜 별로 환부 및 그 정도를 표시하여 왔다면 사용자는 드래그 입력을 통하여 그 환부가 어떻게 변화하는지를 쉽게 확인할 수 있다.
도 12의 하단(lower part; 1203)에는 개체를 촬영한 사진(혹은 동영상), 개체가 내는 소리의 녹음내용, 또는 개체에 대해 사용자가 입력한 텍스트 또는 아이콘 중 적어도 하나가 표시될 수 있다. 이 때, 상기 개체를 촬영한 사진은 확대가 가능하도록 구현될 수 있으며, 소리의 녹음내용 역시 재생이 가능하도록 구현될 수 있다.
한편, 도 12에는 도시되어 있지 않지만, 브러쉬 입력이 되어 있는 상태의 개체 모델 역시 당연히 시계열적으로 표시될 수 있다.
이처럼 본 발명에 따른 인터페이스를 통해 입력된 관찰정보들은 사용자가 쉽고 그 특징적 포인트 들이 일목요연하게 구별되어 알아 볼 수 있도록 화면 상에 관찰정보의 히스토리가 요약시각화 된 형태로 출력될 수 있으며, 특히 시계열적으로 수치의 변화량, 통증의 개선정도 등이 표시되도록 할 수 있다.
한편, 인터페이스를 통해 입력된 관찰정보들은 비단 시계열적으로만 표시되도록 구현되는 것은 아니며, 필요에 따라 특정 장소에서 입력된 관찰정보들만 별도로 표시를 한다거나, 특정 의약품을 복용/투약하였을 때의 관찰정보들만 별도로 표시를 한다거나, 또는 특정 치료가 이루어졌을 때의 관찰정보들만 별도로 표시를 하도록 할 수도 있다. 즉, 사용자에 의해 입력된 누적 관찰정보들은 시간 기준, 장소 기준, 특정 의약품 기준, 특정 치료 기준으로 소팅될 수 있으며, 이렇게 소팅된 정보들은 사용자에게 각 기준에 따라 별도로 표시될 수 있다.
[관찰정보 공유 단계]
한편, 앞서와 같이 입력된 관찰정보 또는 프리체크 정보는 다른 사용자들과 공유될 수 있다.
본 발명에 따른 서비스 제공 방법에서는 사용자가 개체에 대한 관찰정보(또는 프리체크 정보)를 입력하고 이를 저장 및 업로드 함으로써 해당 정보를 서비스 서버(200)에 데이터베이스화 할 수 있는데, 서비스 서버(200)는 이러한 관찰정보를 다시 타 사용자들과 공유하게 함으로써 상기 사용자가 개체에 대한 다양한 의견을 나눌 수 있는 환경을 제공할 수 있으며, 나아가 관련 분야의 전문가들로 하여금 많은 관찰정보들을 활용하여 교육, 연구나 개발 혹은 사업화, 예방 및 보건정책에 활용할 수 있게 할 수 있다. 이 때 관찰정보를 공유한다는 것의 의미는 상기 사용자가 자신이 입력한 관찰정보를 타인에게 공개할 수 있다는 취지의 동의를 한 경우 서비스 서버(200)가 제한된 또는 제한되지 않은 타 사용자들에게 접근을 허용할 수 있음을 의미하며, 이러한 접근의 허용은 다양한 형태, 예를 들어 서비스 서버(200)에 로그인 한 타 사용자들이 직접 해당 관찰정보를 탐색할 수 있게 하거나 또는 미리 데이터베이스 수집에 대한 서비스 비용을 지불한 사용자들에게 상호 허가가 이루어진 경우 (예를 들어, 환자 보호자의 반려동물 관찰정보를 담당 수의사에게), 주기적으로 업데이트 된 관찰정보를 제공하는 형태 등으로 이루어질 수 있다.
한편, 서비스 서버(200)에 업로드 된 수 많은 관찰정보들은 빅데이터 분석의 대상이 될 수도 있는데, 예를 들어 관찰정보 내에 포함되어 있는 반려동물 신체부위 및 증상에 대한 입력정보, 반려동물에 대하여 어떻게 처방을 하였다는 (텍스트) 입력, 날짜가 지날수록 증상이 호전되었다는 텍스트 입력 및 사진(영상) 입력 등이 빅데이터 분석의 대상이 되는 경우, 이로부터는 반려동물에게 발생하였던 질병 내지 외상에 대하여 어떤 처방 또는 치료 요법이 효과가 있었는지에 대한 실마리를 얻을 수 있게 되는 효과가 있다. 특히 이러한 관찰정보들이 글로벌하게 수집되어 빅데이터 분석의 소스로 활용되는 경우 그 동안 수의학계뿐만 아니라, 한의, 의료 및 보건학계 그리고 행동심리의 관련 계열 분야 등에서 정식으로 다루지 않았던 치료요법, 민간요법, 혹은 행동 심리 교정법 등이 대중적으로 공개되고 보다 객관적이고 과학적으로 평가 및 판단/추천될 수 있는 환경을 제공할 수도 있게 된다. 상기 빅데이터 분석에는 머신러닝 및 인공지능(artificial intelligence, AI) 기술이 적용될 수 있으며, 사용자가 입력한 관찰정보들로부터 반려동물의 증상을 식별하는 과정, 각 증상이 개선된 원인을 추적하는 과정(어떤 처방을 받아 치료를 하였는지, 또는 어떤 민간요법을 사용하여 치료를 하였는지 등), 반려동물의 증상이 개선됨에 있어 상기 원인이 인과관계를 가지는지 여부를 판별하는 과정(특정 처방, 또는 특정 민간요법이 유의미한 수치값의 비율로 증상 개선에 효과가 있었음이 나타나는 경우 이를 인과관계가 있는 것으로 판별) 등이 포함될 수 있다. 이는 반려동물의 보호자에 해당하는 사용자, 즉 사람의 경우에도 동일하게 적용될 수 있으며, 사람 또는 반려동물이 각기 다른 개체의 치료법이나 처방을 의도한 채로 사용되었는지 또는 의도하지 않은 채로 사용되었는지와 관계 없이 사람 또는 반려동물에 효과적인 치료법을 발견하는 데에 기여할 수 있을 것으로 기대된다. 또한 이러한 기술적 개념과 접근 방법을 신종 감염병 예방 분야에 적용할 때에, 감염병의 발병 근원이 되는 시작 개체, 그룹 및 관련 기전 등의 유용한 초기의 정보를 여러 환경 변화(날씨 등)에 대한 점도 함께 고려, 분석하면서, 보다 미리, 그리고 신속 정확, 정밀하게 이러한 디지털 단서 들 자체와 서로 연결된 선별된 단서 그룹의 정보화 및 통찰력있는 시각화를 시킴으로서, 비로서 성공적인 초기 방역 및 대응이 효과적으로 이루어질 수 있도록 감염병의 유의한 통합적인 초기 핵심 발견을 가능하도록 하는 데에도 기여할 수 있을 것으로 기대된다.
빅데이터 분석의 일환으로, 다양한 채널을 통해 수집된 관찰정보는 입력된 항목들 간의 패턴을 찾는 데에도 활용될 수 있다. 도 13은 복수의 사용자들로부터 반려동물에 대한 관찰정보를 수집한 내용을 바탕으로 통증 패턴 정보를 도출해 내는 과정을 간략히 도시한 것이다. 이에 따를 때, 다수의 관찰정보에서 반려동물의 등(도면부호 A, C, E)) 및 반려동물의 앞꿈치와 앞발목 관절 사이 (도면부호 B, D, F)가 함께 표시가 된 것으로 파악된 유사한 사레들의 경우, 서비스 서버(200)에서는 반려동물의 등과 앞꿈치와 앞발목 관절사이의 통증은 본 사례에 있어서, 상호 동반되어 나타나는 경향이 있음을 유추할 수 있으며, 이러한 통증의 패턴은 서비스 서버(200) 내에 또는 타 데이터베이스에 기록되어 추후 사용자들에게 공유될 수 있다.
한편, 빅데이터 분석의 일환으로, 개체가 내는 소리 역시 분석의 대상이 되어 개체의 소리와 관련된 레퍼런스 데이터를 구성하는 데에 참고될 수 있으며, 향후 레퍼런스 데이터는 개체에 대한 소리가 관찰정보 내에 포함되어 입력되었을 때 개체에 대한 상태를 판단하는 데에 활용될 수 있다. 도 14는 반려동물이 짖는 소리가 관찰정보 중 하나로 입력되어 서비스 서버(200)와 공유되는 실시예를 간략히 도시한 것이며, 이렇게 녹음된 소리는 서비스 서버(200) 내에서 레퍼런스 데이터와 상호 비교되어 분석될 수 있다. 상기 레퍼런스 데이터는 상황에 따른 복수개의 것들이 존재할 수 있으며, 반려 동물을 예로 드는 경우 반려동물이 질병에 따라 내는 소리, 각종 상황에 따라 짖는 소리 등이 각각 레퍼런스 데이터로 존재하여 상기 관찰정보 내 포함된 소리와 비교될 수 있다. 레퍼런스 데이터의 구성은 많은 수의 수집된 관찰정보(소리)로부터 이루어질 수 있으며, 각각의 수집된 관찰정보들은 개체에 대한 상황, 상태와 더불어 녹음된 소리를 함께 포함할 것이므로, 서비스 서버(200)는 각 상황에 따른 레퍼런스 데이터를 구축할 수 있게 된다.
다른 한편, 이러한 레퍼런스 데이터는 AI 모델 분석에서는 Training data set이 될 수 있고, 분석을 위한 시험에 쓰이는 데이터는 Testing/test data 혹은 Testing/test data set 이라고 할 수 있는데, 개체가 내는 소리들 중 패턴이 유사한 것들을 AI분석, 빅데이터 분석을 통해 그룹핑 및 카테고리화 할 수 있으며, 이렇게 유사한 패턴을 보이는 개체의 소리들을 구별해 봄으로써 이를 또 다른 레퍼런스 데이터로 활용하거나, 또는 그룹핑 된 패턴 별 개체 소리들 그 자체에 대한 추가적인 분석이 이루어지도록 할 수 있다.
이상 관찰정보를 공유하는 단계에 대해 살펴보았다.
[3차원 개체 모델 상에 입력된 관찰정보를 2차원 개체 모델 상의 관찰정보로 변환하는 단계]
지금까지의 설명에서는 개체 모델이 3차원으로 모델링 된 상태에서 다양한 입력들이 가능한 실시예에 대해 설명하였다.
한편, 본 발명에 따른 방법에서는 3차원 개체 모델 상에 입력된 정보들을 2차원 정보로 변환하여 이를 저장하거나 분석을 위한 데이터로 저장 및 활용할 수 있다. 이미지에 대한 데이터 처리를 위해서는 3차원으로 구현된 복잡한 이미지 데이터, 즉, 3차원 입체좌표 데이터도 좋지만, 이 보다는 2차원 평면으로 이루어진 단순한 이미지 데이터로 할 수 있다면 작업의 효율성 측면에서 훨씬 장점이 있을 수 있다. 특히 데이터를 처리하는 속도 면에서는 2차원 이미지 데이터를 처리하는 것이 크게 유리할 수 있는데, 본 발명에서는 이러한 점에 착안하여 애초 사용자로부터 3차원 개체 모델에 입력을 받았던 것을 2차원 개체 모델 상의 입력으로 변환이 가능하게 함으로써 데이터 처리 면에 있어서의 성능 및 분석의 효율성과 처리속도 등을 개선시키고자 하였다. 이렇게 2차원 이미지 데이터로 변환하여 관찰정보들을 누적 저장시키는 경우 특히 빅데이터 분석 및 AI모델의 적용을 수행함에 있어 효율성이 크게 개선될 것으로 기대되며, 또한 후술하게 될 바와 같이 본 발명에서는 정해진 규격의 표준 2차원 모델로의 변환까지 하도록 구현되는데, 이 경우 수 많은 다른 종류의 개체나 종들에 대해 표준화 모델과 쉽게 비교가 가능해 지므로 종래에는 파악하기 어려웠던 관찰정보로부터의 다양한 발견이 이루어질 수 있을 것으로 기대된다.
도 15는 3차원 개체 모델을 2차원의 표준화 된 개체 모델로 변환한 것을 나타낸 것이다. 2차원의 개체 모델이 평면 상에 표시될 때에는 여러 부분으로 나뉘어 표시될 수 있는데, 예를 들어 도 15에 도시되어 있는 것과 같이 개체의 몸체, 개체의 눈, 개체의 코 등 부분이 나뉘어 나열될 수 있다. 또한 3차원 개체 모델 상에 입력된 브러쉬 입력은 2차원 개체 모델 상에 동일한 위치, 더 정확하게는 대응되는 위치에 표시될 수 있다. 이렇게 2차원 개체 모델로의 변환을 위해서는 3차원 개체 모델의 표면 각 좌표가 2차원 개체 모델의 각 좌표와 대응될 것이 전제되어야 할 것이며, 또한 3차원 개체 모델의 눈, 코 부위 역시 2차원 객체 모델의 평면에 배열된 눈, 코의 좌표와 대응되어 있을 것을 전제로 한다.
또한, 도 15에서 볼 수 있듯 본 발명에 의해 제공되는 방법에서는 3차원 개체 모델을 표준 규격의 2차원 개체 모델(표준 2차원 개체 모델)로 변환함으로써 서로 다른 종류의 종이라 할지라도 동일한 규격, 적어도 유사한 규격의 2차원 개체 모델로 표시가 되도록 할 수 있다. 예를 들어 반려견의 경우 크기 및 몸체 부위(예, 다리)의 길이 가 매우 다양하여 여러 사용자들로부터 여러 반려견에 대한 개체 모델 입력을 받게 되는 경우 각기 다른 크기의 2차원 개체 모델들이 수집될 수 있는데, 이 경우 2차원으로 이미지 변환을 해 가면서까지 데이터 처리 부담을 줄이려 한 노력이 큰 효과를 얻지 못할 수 있다. 이러한 문제를 해소하기 위하여 본 발명에서는 서로 다른 크기의 2차원 개체 모델들에 대한 관찰정보가 수집되더라도 표준 규격의 2차원 개체 모델로 변환이 이루어지게 함으로써 여러 개체 모델들에 대해 이미지 비교 등의 데이터 처리가 쉽게 이루어지게 할 수 있다.
표준 2차원 개체 모델이란, 개체 모델을 표시하기 위한 복수의 파라미터들이 사전에 정해져 있는 2차원의 모델을 의미하는 것으로, 예를 들어 축(axis)의 위치가 정해져 있고, 개체를 구성하는 각 부분들(눈, 코, 이빨, 발톱 등)의 배열 위치가 사전에 정해져 있는 등 다양한 파라미터들이 사전에 정해져 있는 표준화된 몸체분해 맵(Map) 모델을 의미한다. 한편, 크기가 작은 개체 모델을 표준 2차원 개체 모델로 변환하는 경우에는 개체의 크기를 확장시켜 표준 2차원 개체 모델에 가장 가까운 크기로 변환이 이루어지도록 할 수 있으며, 또는 개체의 각 부위 길이를 늘림으로써 표준 2차원 개체 모델에 가장 가까운 크기로의 변환이 이루어지게 할 수 있다. 다만 이 경우에 해당 개체의 비율들(예: 몸통 대비 다리의 길이 비율, 몸통 대비 코 길이의 비율 등)은 유지가 되도록 함이 바람직하다. 이와 같이 표준 2차원 개체 모델로의 변환을 적극적으로 활용하는 경우 비록 몸집이 다른 개체들에 대하여 관찰정보들이 수집될지라도 상호 비교를 위한 데이터 처리의 부담이 덜어짐으로써 더 많은 새로운 정보들을 관찰정보들에 대한 빅데이터 분석으로부터 얻을 수 있게 될 것이다. 또한, 별개의 특별한 다른 구조를 갖는 동물종, 예를 들어 코끼리의 코, 낙타의 단봉 혹은 쌍봉구조, 다리가 없는 뱀 등에서는 각각에 상응하는 표준 2차원 개체 모델이 필요할 수 있다.
이상 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하기 위한 방법 및 이러한 방법을 실행시키기 위한 저장 매체에 대해 살펴보았다. 한편, 본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.
사용자 단말기 100
서비스 서버 200
외부 전문가 단말기 300

Claims (12)

  1. 사용자 단말기를 통하여 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법에 있어서,
    3차원의 개체 모델 - 상기 3차원의 개체 모델은, 상기 개체 모델 내부에 존재하는 내부 구성들을 더 포함함 - 을 로드하는 단계;
    상기 3차원의 개체 모델 상에 관찰정보 - 상기 관찰정보는, 사용자가 상기 개체 모델 상에 표시되는 마커를 이용하여 입력한 페인팅을 포함함 - 를 입력할 수 있는 인터페이스를 제공하는 단계;
    상기 인터페이스를 통해 사용자로부터 관찰정보들을 입력 받는 단계;
    입력 받은 관찰정보들을 상기 사용자 단말기의 디스플레이를 통해 출력하는 단계;
    를 포함하되,
    상기 관찰정보들을 입력 받는 단계는,
    선행적으로 상기 3차원의 개체 모델의 외측에 통증 또는 외상의 정도를 표시하는 입력을 받고, 후속적으로 상기 외측에 표시된 통증 또는 외상과 대응되는 내측 장기에 통증 또는 손상의 정도를 나타내는 표시 입력 또는 텍스트 입력을 받는 단계인 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  2. 제1항에 있어서,
    사용자에 의한 임의 조작 입력 시 상기 로드 된 3차원의 개체 모델 상에서 기 설정된 애니메이션 효과가 실행되는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  3. 제1항에 있어서,
    상기 3차원의 개체 모델을 로드하는 단계 이전,
    사용자로부터 개체에 대한 증세 기록을 입력 받는 프리체크 입력단계;를 더 포함하는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  4. 제1항에 있어서,
    상기 디스플레이를 통해 출력되는 관찰정보들은 시간 기준, 장소 기준, 특정 의약품 기준, 또는 특정 치료 기준 중 어느 하나에 따라 표시되는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  5. 제1항에 있어서,
    상기 내부 구성들은 사용자의 조작입력에 의해 표시 정도가 조절되는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  6. 제5항에 있어서,
    상기 3차원의 개체 모델은, 상기 사용자의 조작입력에 의해 몸체 투명도가 조절되는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  7. 제1항에 있어서,
    상기 개체 모델의 외표면 또는 상기 개체 모델의 내부 구성들의 외표면에는 사용자가 관찰정보를 입력할 때에 사용 가능한 마커가 표시되되,
    상기 마커는,
    임의의 부피값을 가지는 입체 형상인 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  8. 제1항에 있어서,
    상기 3차원의 개체 모델은, 상기 사용자 단말기에 구비된 3D 스캐닝 수단 또는 타 단말기에 구비된 3D 스캐닝 수단을 통해 획득된 3D 스캔 데이터가 변환된 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  9. 제5항에 있어서,
    상기 개체 모델 내부에 존재하는 내부 구성은 상기 개체 모델 내부의 장기 및 조직을 포함하고,
    상기 관찰정보는, 상기 장기를 관통하는 관통상 입력, 임의 질환의 근원부위로부터 연계되는 통증 입력, 또는 병리학적 변화의 입력을 더 포함하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  10. 제5항에 있어서,
    상기 개체 모델 내부에 존재하는 내부 구성은 상기 개체 모델 내부의 복수 개의 생체조직들을 포함하고,
    상기 관찰정보는, 상기 복수 개의 생체조직들 중 적어도 둘 이상의 생체조직들이 연계된 브러쉬 입력을 포함하는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  11. 삭제
  12. 사용자 단말기를 통하여 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법을 수행하기 위한 명령어들이 저장된 컴퓨터 판독 가능한 저장 매체에 있어서,
    사용자 단말기를 통하여 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법은,
    3차원의 개체 모델 - 상기 3차원의 개체 모델은, 상기 개체 모델 내부에 존재하는 내부 구성들을 더 포함함 - 을 로드하는 단계;
    상기 3차원의 개체 모델 상에 관찰정보 - 상기 관찰정보는, 사용자가 상기 개체 모델 상에 표시되는 마커를 이용하여 입력한 페인팅을 포함함 - 를 입력할 수 있는 인터페이스를 제공하는 단계;
    상기 인터페이스를 통해 사용자로부터 관찰정보들을 입력 받는 단계;
    입력 받은 관찰정보들을 상기 사용자 단말기의 디스플레이를 통해 출력하는 단계;
    를 포함하되,
    상기 관찰정보들을 입력 받는 단계는,
    선행적으로 상기 3차원의 개체 모델의 외측에 통증 또는 외상의 정도를 표시하는 입력을 받고, 후속적으로 상기 외측에 표시된 통증 또는 외상과 대응되는 내측 장기에 통증 또는 손상의 정도를 나타내는 표시 입력 또는 텍스트 입력을 받는 단계인 것을 특징으로 하는,
    컴퓨터 판독 가능한 저장 매체.
KR1020200133935A 2020-10-16 2020-10-16 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체 KR102265706B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020200133935A KR102265706B1 (ko) 2020-10-16 2020-10-16 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체
KR1020210075027A KR20220050741A (ko) 2020-10-16 2021-06-09 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체
PCT/KR2021/014138 WO2022080864A1 (ko) 2020-10-16 2021-10-13 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체
US18/032,304 US20230400971A1 (en) 2020-10-16 2021-10-13 Method for providing service that inputs and shares entity observation information, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200133935A KR102265706B1 (ko) 2020-10-16 2020-10-16 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210075027A Division KR20220050741A (ko) 2020-10-16 2021-06-09 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체

Publications (1)

Publication Number Publication Date
KR102265706B1 true KR102265706B1 (ko) 2021-06-16

Family

ID=76602646

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200133935A KR102265706B1 (ko) 2020-10-16 2020-10-16 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체
KR1020210075027A KR20220050741A (ko) 2020-10-16 2021-06-09 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210075027A KR20220050741A (ko) 2020-10-16 2021-06-09 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체

Country Status (3)

Country Link
US (1) US20230400971A1 (ko)
KR (2) KR102265706B1 (ko)
WO (1) WO2022080864A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080864A1 (ko) * 2020-10-16 2022-04-21 주식회사 헬스케어뱅크 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361554B1 (en) 2002-01-22 2002-11-22 Ilisoft Co Kr Apparatus and method for diagnosing pain
KR20090078487A (ko) * 2008-01-15 2009-07-20 (주)온디맨드소프트 3/4차원 초음파 진단기술 습득용 시뮬레이터 및 그시뮬레이션 방법
US20120190936A1 (en) * 1996-12-16 2012-07-26 Ip Holdings, Inc. Pain tracking and management device
KR20160141382A (ko) * 2016-11-28 2016-12-08 재단법인차세대융합기술연구원 3차원 생물학적 정보 처리 방법 및 그 시스템
KR20170062130A (ko) * 2015-11-27 2017-06-07 임원석 한의학 3d 인체 모델을 이용한 원격 의료 지원 방법 및 시스템
KR20190079945A (ko) * 2017-12-28 2019-07-08 (재)대구포교성베네딕도수녀회 의료 정보 제공 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101574985B1 (ko) * 2015-03-05 2015-12-07 (주) 비비비 무선 통신 시스템 내 디지털 이미지를 이용하여 생체 정보를 관리하는 시스템 및 이를 위한 기록매체
KR102187238B1 (ko) * 2019-02-12 2020-12-07 동국대학교 산학협력단 사용자 참여형 인체 3차원 모델링 장치 및 방법
KR102265706B1 (ko) * 2020-10-16 2021-06-16 주식회사 헬스케어뱅크 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120190936A1 (en) * 1996-12-16 2012-07-26 Ip Holdings, Inc. Pain tracking and management device
KR100361554B1 (en) 2002-01-22 2002-11-22 Ilisoft Co Kr Apparatus and method for diagnosing pain
KR20090078487A (ko) * 2008-01-15 2009-07-20 (주)온디맨드소프트 3/4차원 초음파 진단기술 습득용 시뮬레이터 및 그시뮬레이션 방법
KR20170062130A (ko) * 2015-11-27 2017-06-07 임원석 한의학 3d 인체 모델을 이용한 원격 의료 지원 방법 및 시스템
KR20160141382A (ko) * 2016-11-28 2016-12-08 재단법인차세대융합기술연구원 3차원 생물학적 정보 처리 방법 및 그 시스템
KR20190079945A (ko) * 2017-12-28 2019-07-08 (재)대구포교성베네딕도수녀회 의료 정보 제공 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080864A1 (ko) * 2020-10-16 2022-04-21 주식회사 헬스케어뱅크 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체

Also Published As

Publication number Publication date
US20230400971A1 (en) 2023-12-14
WO2022080864A1 (ko) 2022-04-21
KR20220050741A (ko) 2022-04-25

Similar Documents

Publication Publication Date Title
US8963914B2 (en) Computer based system and method for medical symptoms analysis, visualization and social network
CN109979587A (zh) 患者健康护理交互设备及其实施方法
CN108472084A (zh) 具有训练或辅助功能的外科手术系统
JP7487064B2 (ja) デジタルアシスタントを使用して医療装置を設定し、プログラムし、パーソナライズするためのシステムおよび方法
US11061537B2 (en) Interactive human visual and timeline rotor apparatus and associated methods
WO2012155015A4 (en) Interactive graphical map visualization for healthcare
US11847296B2 (en) Method for inputting and sharing of observation information on the object, and a computer-readable storage medium
JP6380966B1 (ja) 医療情報仮想現実システム
CN104427942A (zh) 测量辅助装置、测量辅助方法、控制程序和记录介质
US11925418B2 (en) Methods for multi-modal bioimaging data integration and visualization
Neethirajan Is seeing still believing? Leveraging deepfake technology for livestock farming
KR102265706B1 (ko) 개체 관찰정보의 입력 및 공유 서비스를 제공하는 방법, 및 컴퓨터 판독 가능한 저장 매체
KR20220011598A (ko) 인공지능 기반 질환 관리 및 진단 보조 시스템
Visvesvaran et al. Advanced patient monitoring and alert system with auto medicine suggestion using machine learning
Rubegni et al. The role of dermoscopy and digital dermoscopy analysis in the diagnosis of pigmented skin lesions
CN112215969A (zh) 一种基于虚拟现实的用户数据处理方法及装置
CN204813807U (zh) 多组合式中医电子诊疗设备
CN111951950A (zh) 基于深度学习的三维数据医疗分类系统、方法和装置
KR102561175B1 (ko) 의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템
Kramar et al. Particularities of visualisation of medical and wellness data through a digital patient avatar
Chan et al. The Brave NewWorld of Machine Learning in AI and Medicine
Kurosu Human-Computer Interaction. Interaction in Context: 20th International Conference, HCI International 2018, Las Vegas, NV, USA, July 15–20, 2018, Proceedings, Part II
WO2021152710A1 (ja) 情報伝達装置および情報伝達方法
JP6755059B1 (ja) 歯科診断プログラム及びシステム
US20240070440A1 (en) Multimodal representation learning

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant