KR102170991B1 - 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체 - Google Patents

개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체 Download PDF

Info

Publication number
KR102170991B1
KR102170991B1 KR1020190145528A KR20190145528A KR102170991B1 KR 102170991 B1 KR102170991 B1 KR 102170991B1 KR 1020190145528 A KR1020190145528 A KR 1020190145528A KR 20190145528 A KR20190145528 A KR 20190145528A KR 102170991 B1 KR102170991 B1 KR 102170991B1
Authority
KR
South Korea
Prior art keywords
observation information
input
user
tool
information
Prior art date
Application number
KR1020190145528A
Other languages
English (en)
Inventor
태주호
Original Assignee
주식회사 헬스케어뱅크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 헬스케어뱅크 filed Critical 주식회사 헬스케어뱅크
Priority to KR1020190145528A priority Critical patent/KR102170991B1/ko
Priority to KR1020200068250A priority patent/KR20210058630A/ko
Application granted granted Critical
Publication of KR102170991B1 publication Critical patent/KR102170991B1/ko
Priority to JP2022528351A priority patent/JP2023501811A/ja
Priority to US17/607,016 priority patent/US11847296B2/en
Priority to PCT/KR2020/015952 priority patent/WO2021096276A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

본 발명은 임의 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 그리고 이러한 방법을 실행시키기 위한 명령어들이 저장된 컴퓨터 판독 가능한 저장 매체에 관한 것이다.

Description

개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체{METHOD FOR PROVIDING SERVICE FOR INPUTTING AND SHARING OBSERVATION INFORMATION ON AN OBJECT, AND A COMPUTER READABLE STORAGE MEDIUM}
본 발명은 임의 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 그리고 이러한 방법을 실행시키기 위한 명령어들이 저장된 컴퓨터 판독 가능한 저장 매체에 관한 것이다.
디바이스 및 네트워크의 발달이 비약적으로 이루어지면서 다양한 분야, 다양한 종류의 정보들을 공유할 수 있는 환경이 갖추어지고 있으며, 또한 이러한 정보 공유의 수요는 기술 및 산업 발달에 따라 지속적으로 증가하고 있다.
한편, 개체에 대한 관찰정보, 그 중에서도 특히 임의 개체의 헬스케어 정보 또는 의료 관련 정보를 공유할 수 있는 시스템 및 방법론에 대해서도 많은 수요가 있어 왔으며, 최근까지도 다양한 형태의 정보 공유를 위한 시스템들이 제안되고 있다.
그러나 종래의 관찰정보를 공유하기 위한 시스템들은 그래픽 기반의 것이 아니어서 정보를 공유 받는 사용자의 입장에서 해당 개체에 대한 관찰정보를 이해하기 어려운 문제점이 있었으며, 그래픽 기반의 정보공유 시스템이라 할지라도 대부분 2차원 그래픽을 기반으로 한 것이어서 역시 사용자로 하여금 직관적인 입력과 직관적인 이해를 하기 어렵게 하거나 또는 3차원 그래픽을 기반으로 한 것이라도 많은 설명과 분할된 박스의 구성으로 사용자의 직관적인 입력이 어려울 정도로 주의를 산만하게 (distracted) 하여 사용자가 이러한 시스템들을 이용할 시에 방해가 되는 문제점이 있어 왔다.
본 발명은 임의 개체에 대한 관찰정보를 쉽게 공유할 수 있도록 하기 위한 환경을 제공하고자 한 것으로, 3차원 기반의 그래픽 인터페이스를 이용하는 것과 더불어 사용자가 입력 직전의 초기 직관성에 집중하도록, 쉽고, 빠르고, 재미있게 관찰정보를 입력할 수 있도록 하는 장점이 있을 뿐더러, 예를 들어 일반 사용자 측의 입력 인터페이스 상에 자연스럽게 내재하도록 고안되고 마련된 3차원 기반의 입체적 위치와 관련 기능 등은 다양한 전문 분야(해부, 병리, 이미징, 여러 의료, 바이오, 임상, 기후, 농학, 데이터 사이언스, 인공지능 등)별로 유용한 정보 획득의 환경과 데이터 축적을 하게 함으로써, 일반사용자 간, 전문가 간, 혹은 일반사용자와 전문가 간의 입력된 직관적인 관찰 정보가 양방향으로 소통, 공유되며, 체계적이고 합리적으로 분석, 활용되어 적절한 대응, 서비스 및 조치 등이 이루어지게 하는 등에 대한 방법에 관한 것이다.
본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 발명할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.
대한민국 등록특허공보 제10-0361554호(2002.11.22.)
본 발명은 사용자가 임의 개체에 대한 관찰정보를 쉽게 입력할 수 있도록 인터페이스를 제공하는 것을 목적으로 한다. 구체적으로는, 사용자가 사람, 동물 등의 개체가 3D 모델로 구현된 상태에서 해당 3D 모델 상에서 다양한 정보들을 입력할 수 있게 하는 것을 목적으로 한다. 특히, 사용자로 하여금 입력을 하기 바로 직전의 느낌과 기억이 최대한 그대로 유지/집중 되도록 함으로써 상기 임의 개체에 대한 입력이 초기의 느낌과 기억처럼 직관적이고 정확하게 입력할 수 있게 하는 것을 목적으로 한다.
본 발명은 특히 외관상 확인되는 이상 유무, 예를 들어, 상처의 상태 및 정도, 통증의 정도와 느낌 등을 직관적이며 사실적으로 표시함과 동시에 디지털 데이터화를 할 수 있게 함으로써 사용자가 이러한 해당 개체에 대한 관찰정보를 누적적으로 기록하여, 다시 불러왔을 때에 추후 개체의 상처 또는 증상 개선이나 악화 정도를 쉽고 명료하게 파악할 수 있게 하며, 나아가 위 개체의 관찰정보를 공유 받는 자로 하여금 역시 간편, 신속, 정확, 명료하게 해당 개체의 상태를 파악할 수 있게 하는 것을 목적으로 한다.
또한 본 발명은 앞서 입력된 관찰정보를 신속, 정확, 정밀하게 외부 전문가(예: 의료진) 혹은 지인(예: 가족, 친구, 사업주 등)을 비롯한 외부인들과 공유할 수 있게 하는 것을 목적으로 한다. 구체적으로, 앞서 사용자가 임의 개체에 대한 관찰정보를 입력 완료한 뒤 정보 공유 서비스를 실행시켰을 때에 해당 관찰정보가 의사 또는 수의사, 또는 헬스케어/보건 등의 관련 자, 그 밖의 지인에게 전달되도록 함으로써 타인이 개체의 현재 상태를 빠르고 알기 쉽게 인지하고 그에 따른 적절하고 올바른 대응 및 지침을 내릴 수 있도록 하는 것을 목적으로 한다.
한편, 본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
위와 같은 문제점을 해결하기 위하여 본 발명에 따른 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법은 (a) 사용자로부터 회원정보를 입력 받는 단계; (b) 상기 사용자의 회원정보와 대응되는 3차원의 개체 모델을 로드하는 단계; (c) 상기 개체 모델이 로드 된 상태에서 제공되는 제1사용자 인터페이스를 통하여 상기 개체 모델에 대한 관찰정보를 입력 받는 단계; (d) 상기 입력 받은 관찰정보를 네트워크를 통하여 타 사용자 단말기로 공유하는 단계;를 포함한다.
또한, 상기 방법에 있어서 상기 제1사용자 인터페이스는 관찰정보 입력을 위한 복수 개의 관찰정보 입력도구들을 포함하되, 상기 관찰정보 입력도구들은 상기 개체 모델 상에 적어도 하나의 색깔을 입력할 수 있는 브러쉬 입력도구; 상기 개체 모델에 대한 텍스트를 입력할 수 있는 텍스트 입력도구; 상기 개체 모델에 대응되는 개체에 대한 사진 또는 동영상을 입력할 수 있는 촬영 입력도구; 및 입력된 관찰정보를 저장 및 업로드 하기 위한 저장 및 업로드 도구; 를 포함하며, 상기 브러쉬 입력도구, 텍스트 입력도구, 촬영 입력도구, 및 저장 및 업로드 도구는 일 방향으로 순서대로 배열되는 것을 특징으로 할 수 있다.
또한, 이 때 상기 브러쉬 입력도구는, 브러쉬의 크기를 선택하는 메뉴, 입력 초기화 메뉴, 입력 취소 메뉴, 다음 단계 진행 메뉴, 및 색깔을 선택하는 메뉴를 포함하는 제1메뉴집합; 및 상기 개체의 기분정도 및 활동정도를 입력하는 메뉴를 포함하는 제2메뉴집합;을 포함하되, 상기 제1메뉴집합은, 사용자에 의해 상기 브러쉬 입력도구가 선택되었을 때 선(先) 표시되며, 상기 제2메뉴집합은, 상기 제1메뉴집합 중 다음 단계 진행 메뉴가 선택되었을 때 표시 - 상기 제2메뉴집합이 표시될 때에 상기 제1메뉴집합은 표시되지 않음 - 되는 것을 특징으로 할 수 있다.
또한, 상기 브러쉬 입력도구, 텍스트 입력도구, 촬영 입력도구, 및 저장 및 업로드 도구는 사용자 단말기의 화면 내에서 좌측 또는 우측 변을 따라 아래 방향으로 순서대로 배열되며, 상기 각각의 입력도구에 대응되는 메뉴집합 또는 메뉴들은 상기 각 입력도구와 동일한 높이로부터 표시되도록 구현될 수 있다.
또한, 상기 방법에 있어서 상기 제1사용자 인터페이스는, 누적적으로 저장된 관찰정보를 시간 순서에 따라 조회하기 위한 정보조회도구를 더 포함하며, 사용자에 의해 상기 정보조회도구가 선택되었을 때 과거로부터 현재까지 누적 저장된 관찰정보들을 탐색하기 위한 슬라이드 형태의 정보탐색도구가 표시되는 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 제1사용자 인터페이스는, 개체를 변경, 선택, 또는 추가하기 위한 도구를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 제1사용자 인터페이스는, 채팅 기능을 실행시키기 위한 채팅개시도구를 더 포함하며, 사용자에 의해 상기 채팅개시도구가 선택되었을 때, 외부 전문가를 초대하여 관찰정보를 공유하고 상기 관찰정보에 기초한 상기 외부 전문가의 의견을 수신할 수 있는 채팅방이 표시되는 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 (b)단계는, 복수의 개체 모델들을 로드하되, 상기 복수의 개체 모델들 중 적어도 두 개의 개체 모델들은 이종(異種)인 것을 특징으로 할 수 있다.
또한, 상기 방법에 있어서 상기 (c)단계 이후, 관찰정보가 입력된 상기 3차원의 개체 모델을 2차원의 개체 모델로 변환하는 단계;를 더 포함할 수 있다.
한편, 본 발명의 또 다른 실시예에 따른 컴퓨터 판독 가능한 저장 매체는, 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법을 수행하기 위한 명령어들이 저장되어 있을 수 있으며, 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법은, (a) 사용자로부터 회원정보를 입력 받는 단계; (b) 상기 사용자의 회원정보와 대응되는 3차원의 개체 모델을 로드하는 단계; (c) 상기 개체 모델이 로드 된 상태에서 제공되는 제1사용자 인터페이스를 통하여 상기 개체 모델에 대한 관찰정보를 입력 받는 단계; (d) 상기 입력 받은 관찰정보를 네트워크를 통하여 타 사용자 단말기로 공유하는 단계;를 포함한다.
본 발명에 따르면 사용자가 임의 개체에 대한 관찰정보를 직관적으로, 그리고 쉽게 입력할 수 있게 되는 효과가 있다.
또한 본 발명에 따르면 사용자가 간이한 입력방법으로 개체에 대한 관찰정보를 누적적으로 입력할 수 있게 되며, 이에 따라 해당 개체의 개선 과정을 용이하게 파악할 수 있게 되는 효과가 있다.
또한 본 발명에 따르면 관찰정보를 시계열적으로 일목요연하게 시각화하여 사용자에게 보여줌으로써 사용자로 하여금 개체에 대하여 시간에 따른 변화를 쉽게 파악할 수 있게 하는 효과가 있다.
또한 본 발명에 따르면 입력된 관찰정보를 외부 전문가, 그 밖의 타인과 쉽게 공유 가능하며, 이에 따라 적절한 대응, 관련 회원 및 단체와의 연결, 나아가 의료진의 진단과 응급처치, 처방 등의 지침을 빠르게 받을 수 있게 되는 효과가 있다.
또한 본 발명에 따르면 입력된 관찰정보, 또는 외부 전문가 혹은 타인으로부터의 지침과 대응되는 상품정보, 서비스정보를 쉽게 접할 수 있게 되며, 이에 따라 사용자가 필요한 상품이나 서비스를 간편하게 구입할 수 있게 되는 효과가 있고, 나아가 사업주 입장에서는 상품 또는 서비스의 마케팅 효과를 극대화 시킬 수 있는 효과도 꾀할 수 있다.
한편, 본 발명에 의한 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 방법을 구현하기 위해 구축될 수 있는 전체 시스템을 개략적으로 도시한 것이다.
도 2는 본 발명에 따른 방법을 순서에 따라 개략적으로 도시한 것이다.
도 3은 사용자의 로그인 화면을 도시한 것이다.
도 4는 어플리케이션 접근 정보를 전달하는 화면 및 사용자 분류를 위해 입력을 수신하는 화면을 도시한 것이다.
도 5는 어플리케이션 이용 약관을 표시하는 화면을 도시한 것이다.
도 6은 사용자들의 사용자 정보 입력을 수신하기 위한 화면이다.
도 7은 개체 모델이 로드 된 화면을 도시한 것이다.
도 8은 관찰정보 입력을 위한 화면을 도시한 것이다.
도 9는 브러시 메뉴를 설명하기 위한 것이다.
도 10은 개체의 기분정도 및 활동정도를 입력하기 위한 메뉴를 설명하기 위한 것이다.
도 11은 관찰정보를 텍스트 방식으로 입력할 수 있게 한 메뉴를 도시한 것이다.
도 12는 실제 개체를 촬영하는 기능을 설명하기 위한 것이다.
도 13은 입력된 관찰정보를 업로드 하는 기능을 설명하기 위한 것이다.
도 14는 과거로부터 누적된 관찰정보를 시계열적으로 조회하는 기능을 설명하기 위한 것이다.
도 15는 개체, 더 정확하게는 개체 모델을 변경, 선택, 추가하는 기능을 설명하기 위한 것이다.
도 16은 본 발명에 따른 방법 중에서 제공되는 채팅 기능을 설명하기 위한 것이다.
도 17은 채팅 기능 이용 시 사용자로부터 초대를 받은 상대방의 어플리케이션 화면을 도시한 것이다.
도 18은 채팅 기능을 이용하는 중 관찰정보를 다운로드하는 모습을 도시한 것이다.
도 19는 이종의 개체 모델이 동시에 로드되어 있는 실시예를 도시한 것이다.
도 20은 복수의 이종의 개체 모델들을 배열되어 있는 실시예를 도시한 것이다.
도 21은 3D 개체 모델이 2D 개체 모델로 변환된 모습을 도시한 것이다.
도 22는 2D 개체 모델이 다시 표준 2D 개체 모델로 변환된 모습을 도시한 것이다.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.
본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.
또한, 어떤 구성요소들을 포함한다는 표현은 “개방형”의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.
나아가 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.
본격적인 설명을 하기에 앞서 우선 본 발명에 따라 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법이 어떤 시스템 환경에서 구현되는지에 대해 도 1을 참조하여 간단히 살펴보기로 한다.
도 1은 본 발명에 따른 방법이 제공되는 시스템을 개략적으로 도시한 것으로, 이 시스템에는 사용자 단말기(100), 서비스 서버(200), 그리고 외부 전문가들의 단말기(300)가 도 1과 같은 네트워크 연결 상태로 존재할 수 있다. 본 발명에서 구현하고자 하는 방법의 쉬운 예시를 살펴볼 때, 예를 들어 반려동물을 키우는 사용자(100(a), 100(b))는 자신의 반려동물의 외관상 관찰정보, 통증, 증상, 또는 행동상의 관찰정보를 자신의 사용자 단말기(100)를 통하여 입력할 수 있으며, 나아가 이와 관련될 수 있는 사용자 자신에 대한 관찰정보를 더 입력할 수 있다. 이렇게 입력된 관찰정보는 서비스 서버(200)에 저장될 수 있고, 저장된 관찰정보는 다시 외부 전문가, 예를 들어 수의사 또는 의료진에게 공유될 수 있도록 함으로써 사용자(100(a), 100(b))가 수의사 또는 의료진으로부터 자신의 반려동물에 대한 조언을 얻을 수 있도록 할 수 있다. 한편, 본 발명에서 구현하고자 하는 방법은 반드시 개체를 강아지, 고양이 등과 같은 반려동물로 한정하지는 않으며, 본 상세한 설명에서 언급되는 개체에는 사람도 포함될 수 있음을 이해한다. 다만, 앞으로의 상세한 설명에서는 발명의 이해를 돕기 위하여 개체가 반려동물인 것을 전제로 하여 설명할 것임을 미리 일러둔다.
한편, 도 1에 도시된 시스템을 구성하는 각 구성들에 대해 더 자세히 살펴보면 다음과 같다.
먼저 사용자 단말기와 관련하여, 사용자 단말기는 사용자가 보유하거나 소지하고 다니는 단말기를 일컫는 것으로, 여기에는 스마트폰, PDA, 태블릿PC 등과 같이 휴대가 가능한 단말기는 물론 홈PC 등과 같은 설치형 단말기도 포함될 수 있다. 이러한 사용자 단말기를 장치의 측면에서 볼 때에, 각 사용자 단말기들은 중앙처리유닛(CPU)과 메모리를 구비하고 있는 것을 전제로 한다. 중앙처리유닛은 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 불릴 수 있다. 또한 중앙처리유닛은 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있는데, 하드웨어를 이용하여 구현하는 경우에는 ASIC(application specific integrated circuit) 또는 DSP(digital signal processor), DSPD(digital signal processing device), PLD(programmable logic device), FPGA(field programmable gate array) 등으로, 펌웨어나 소프트웨어를 이용하여 구현하는 경우에는 위와 같은 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등을 포함하도록 펌웨어나 소프트웨어가 구성될 수 있다. 또한, 메모리는 ROM(Read Only Memory), RAM(Random Access Memory), EPROM(Erasable Programmable Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래쉬(flash) 메모리, SRAM(Static RAM), HDD(Hard Disk Drive), SSD(Solid State Drive) 등으로 구현될 수 있다.
참고로, 본 상세한 설명에서는 발명의 이해를 돕기 위하여 사용자 단말기(100)가 스마트폰, 또는 태블릿PC인 경우를 상정하여 설명하기로 한다. 이 경우, 상기 사용자 단말기(100)는 디스플레이 및 터치 감응형 표면을 포함할 수 있으며, 나아가 부수적으로 물리적 키보드, 마우스 및/또는 조이스틱과 같은 하나 이상의 다른 물리적 사용자 입력용 수단이 더 연결될 수도 있다. 또한 상기 사용자 단말기(100)는 소리나 음성을 감지하고 녹음할 수 있는 수단을 더 포함할 수도 있다. 한편, 사용자 단말기 상에서 실행되는 다양한 애플리케이션들은, 옵션적으로, 터치 감응형 표면과 같은 적어도 하나의 보편적인 물리적 사용자 입력용 수단을 사용할 수 있다. 터치 감응형 표면의 하나 이상의 기능뿐만 아니라 사용자 단말기 상에 표시되는 대응하는 정보는 하나의 애플리케이션으로부터 다음 애플리케이션으로 그리고/또는 개별 애플리케이션 내에서 옵션적으로 조정되고/되거나 변경될 수 있다. 이러한 방식으로, 사용자 단말기의 (터치 감응형 표면과 같은) 보편적인 물리적 아키텍처는, 옵션적으로, 사용자에게 직관적이고 명료한 사용자 인터페이스들을 이용하여 다양한 애플리케이션들을 지원할 수 있다.
사용자 단말기는 후술하게 될 설명들에서의 사용자 인터페이스에 따라 사용자가 쉽게 개체에 대한 관찰정보를 입력할 수 있게 하기 위한 것이다.
한편, 서비스 서버(200)는 본 발명에 따른 방법을 실제로 구현하기 위한 프로그램, 즉 명령어들의 집합을 제공하는 구성이며, 나아가 복수의 사용자 단말기들로부터 입력 및 업로드 된 관찰정보를 저장하는 구성에 해당하며, 또한 상기 관찰정보를 복수의 외부 전문가 단말기들(300)로 제공하는 구성이다.
서비스 서버의 형태는, 어느 특정 운영자가 관리하는 적어도 하나의 서버용 PC일 수 있으며, 또는 타 업체에서 제공하는 클라우드 서버의 형태, 즉 운영자가 회원가입하여 사용할 수 있는 클라우드 서버의 형태일 수도 있다. 특히 서비스 서버가 서버용 PC로 구현된 경우, 해당 서비스 서버는 중앙처리유닛 및 메모리를 포함할 수 있으며, 이에 대해서는 앞선 사용자 단말기의 설명 과정에서 자세히 언급하였으므로 여기서는 설명을 생략하기로 한다.
마지막으로, 외부 전문가 단말기들(300)은 의사, 수의사, 반려동물 행동전문가 등의 전문가들이 보유하거나 소지하고 있는 단말기들을 일컫는 것으로, 단말기는 중앙처리유닛 및 메모리를 포함할 수 있다. 본 상세한 설명에서 언급되는 외부 전문가란, 사전에 서비스 서버를 통하여 사전등록이 이루어져 있는 전문가를 의미할 수 있으며, 사전등록 과정에서는 외부 전문가로부터 전문성을 입증하기 위한 서류 및 해당 외부 전문가의 신원을 파악하기 위한 기타 자료들(신분증 사본 등)이 공유될 수 있다.
이상 본 발명에 따른 방법을 구현하기 위해 구축될 수 있는 전체 시스템의 개략적인 구조에 대해 살펴보았다. 이하에서는 본격적으로 본 발명에 따른 방법, 즉 개체에 대한 관찰정보를 입력 및 공유기능을 제공하기 위한 방법에 대해 살펴보기로 한다.
도 2를 참조할 때, 본 발명에 따른 관찰정보 입력 및 공유 서비스를 제공하기 위한 방법은 회원가입 및 로그인 단계(S201), 개체 모델을 로드하는 단계(S202), 관찰정보를 입력하는 단계(S203), 및 관찰정보를 공유하는 단계(S204)를 포함한다. 이하에서는 도면을 참조하여 각 단계들, 그리고 각 단계들에서 제공되는 사용자 인터페이스에 대해 살펴보기로 한다.
[회원가입 또는 로그인 단계]
S201단계는 사용자 단말기에 설치된 어플리케이션을 통해 회원정보를 입력할 수 있도록 사용자 인터페이스가 제공되고, 이에 따라 사용자로부터 회원정보를 수신하여 회원가입 또는 로그인 절차를 수행하는 단계이다.
도 3의 (a)는 사용자가 사용자 단말기 상에서 어플리케이션을 구동시켰을 때에 표시되는 인터페이스로, 여기에는 사용자가 로그인을 할 수 있도록 이메일 주소, 패스워드 입력란이 표시될 수 있으며, 그 외에 사용자가 비밀번호를 알지 못하였을 때를 위한 비밀번호 찾기 버튼, 그리고 최초로 서비스를 이용하고자 하는 사용자의 경우 회원가입 절차를 시작시키기 위한 회원가입 버튼이 표시(1001)될 수 있다. 또한, 본 발명에 따른 방법에서는 사용자로 하여금 타 SNS 로그인 정보, 또는 타 포털사이트의 로그인 정보를 그대로 이용하여 로그인이 가능하도록 화면 하단에 SNS서비스사들의 로고, 포털사이트들의 로고가 표시(1002)될 수 있다. 도 3의 (b)는 타 포털사이트 중 특히 N사의 로그인 정보를 이용하여 인증 및 로그인을 한 실시예를 도시한 것이다. 참고로 타 SNS 서비스사들 또는 타 포털사이트의 로그인 정보를 활용하기 위해서는 사전에 본 발명에 따른 서비스 서버에 회원가입을 해 둘 필요가 있을 수 있으며, 회원가입 시 입력된 정보들과 상기 타 SNS 서비스사들 또는 타 포털사이트의 로그인 정보와 매칭시키는 과정이 더 수행될 수 있다.
한편 도 4(a)는 사용자 단말기 상에서 최초로 어플리케이션이 실행될 때에 사용자 단말기에 대한 접근권한을 허용하는 인터페이스를 표시(1004)한 것이고, 도 4(b)는 사용자 분류를 위해 화면 상에 사용자가 선택할 수 있는 분류 버튼이 표시(1005a, 1005b, 1005c)된 것을 도시한 것이다.
특히 도 4(b)는 사용자가 최초로 서비스를 이용하고자 회원가입을 할 시 해당 사용자가 어떤 사용자인지를 분류하기 위한 인터페이스인데, 여기에는 일반 사용자, 외부전문가, 그리고 기타 사용자를 구분하기 위한 목록 또는 버튼이 포함될 수 있다. 본 상세한 설명에서의 서비스가 반려동물에 대한 관찰정보 입력 및 공유 서비스를 제공하기 위한 것임을 상기해 볼 때, 도 4(b)에는 반려동물을 직접 키우는 자로서 향후 이 어플리케이션을 이용하여 관찰정보를 입력하고 입력한 관찰정보를 기반으로 수의사로부터 조언을 얻고자 하는 사용자가 선택할 수 있는 '일반 사용자' 버튼(1005a), 반려동물을 진료할 수 있는 자격을 갖춘 자로서 앞서 일반 사용자에 의해 공유된 관찰정보를 기반으로 조언을 제공할 수 있는 사용자가 선택할 수 있는 '수의사' 버튼(1005b), 그리고 위 일반 사용자, 수의사 외에 광고수익 창출, 기타 부가 서비스 제공을 하고자 하는 사용자가 선택할 수 있는 '비즈니스/서비스' 버튼(1005c)가 도시되어 있음을 확인할 수 있다. 이처럼 본 발명에 따른 방법은 사용자가 회원가입하는 시점에서 어떤 목적을 가지고 해당 어플리케이션을 사용할 것인지를 구별하기 위한 인터페이스를 제공할 수 있다.
한편, 도 5는 어플리케이션을 활용함에 있어 이용 약관을 안내하고 사용자로부터 동의를 얻기 위한 화면들을 표시한 것으로, 도 5의 (a)에는 서비스 이용약관 동의, 개인정보 수집 및 이용에 대한 동의, 제3자에 대한 개인정보 제공 동의 등과 같이 서비스를 제공함에 있어 필요한 동의를 구하는 표시(1006)되어 있으며, 도 5의 (b)에는 앞서 도 5(a)에서의 서비스 이용약관 동의를 클릭하였을 때 표시되는 전체 이용약관의 내용이 표시되는 실시예가 도시(1007)되어 있다.
한편, 도 6에는 회원가입 시 사용자가 회원정보를 입력할 수 있는 인터페이스들이 도시되어 있다. 그 중 도 6의 (a)는 모든 사용자들이 공통적으로 입력하여야 하는 공통정보를 입력하기 위한 인터페이스, (b)는 일반 사용자가 추가정보를 입력하기 위한 인터페이스, (c)는 외부 전문가(수의사)가 추가정보를 입력하기 위한 인터페이스를 도시한 것이다.
먼저 도 6의 (a)를 살펴볼 때, 일반 사용자, 외부 전문가(수의사), 기타 사용자 등의 사용자들은 공통적으로 이름, 프로필 사진, 생년월일, 성별, 핸드폰번호, 이메일, 또는 주소를 입력(1008)할 수 있으며, 핸드폰번호 입력시에는 해당 핸드폰번호를 활용한 인증절차가 더 수행될 수 있다.
다음 도 6의 (b)는 일반 사용자가 추가정보를 입력할 수 있도록 제공되는 인터페이스이며, 여기에는 앞서 입력한 공통정보 외에 부가적인 정보들, 예를 들어 별명(닉네임) 입력란, 그리고 사용자가 키우고 있는 개체에 대한 정보들을 입력할 수 있는 입력란이 포함될 수 있다. 특히 개체에 대한 정보를 입력할 수 있는 입력란과 관련하여, 여기에는 반려동물의 프로필 아이콘(또는 사진)을 입력할 수 있는 입력란(1010), 반려동물의 이름, 종, 성별, 나이 중 적어도 하나를 입력할 수 있는 입력란(1011)이 포함될 수 있다. 반려동물의 프로필 아이콘(또는 사진)은 사용자가 추가 버튼을 클릭함으로써 반려동물 추가가 이루어질 수 있으며, 또는 반려동물의 정보를 입력할 수 있는 입력란(1011) 내 '구성원 추가' 버튼을 클릭함으로써 추가될 수도 있다.
다음 도 6의 (c)는 외부 전문가, 그 중에서도 특히 수의사가 회원가입 할 때에 추가정보를 입력할 수 있도록 제공되는 인터페이스이다. 여기에는 사용자의 프로필 사진에 더하여 사용자가 근무하는 기관(동물병원)을 표시하는 아이콘(또는 사진)이 더 추가될 수 있다. 이는 일반 사용자들로 하여금 향후 자신의 관찰정보를 공유하고자 하는 수의사를 선택할 때에 어느 동물병원에 근무하는 수의사인지, 규모가 얼마나 큰 동물병원인지 등을 직관적으로 인지할 수 있게 하기 위함이며, 그 밖에 해당 수의사의 소속을 더욱 명확히 인지시킬 수 있게 하기 위함이다. 다른 한편, 수의사의 추가정보를 입력하기 위한 인터페이스에는 동물병원의 이름 및 동물병원의 주소를 입력하는 입력란(1013)이 포함될 수 있으며, 또한 해당 수의사의 주 진료 동물 종, 주 진료 과목 등과 같이 자신의 전문분야를 입력할 수 있는 입력란(1014)이 더 표시될 수 있다. 한편, 동물병원의 이름 및 주소를 입력하기 위한 입력란에는 해당 동물병원을 탐색하기 위한 아이콘(클립 모양 아이콘)이 더 구비될 수 있으며, 수의사의 전문분야를 입력하기 위한 입력란(1014)에는 입력 후 클릭에 의해 자동으로 태그 키워드를 생성시키기 위한 태그 생성 버튼(#모양 아이콘)이 더 구비될 수 있다. 예를 들어 회원가입을 하고자 하는 수의사가 자신의 주 진료 동물 종으로 고양이를 선택한 후 태그 생성 버튼을 클릭하면 "#고양이"와 같은 태그 키워드(10141)가 생성될 것이며, 이러한 태그 키워드(10141)는 향후 일반 사용자가 어느 수의사에게 관찰정보를 공유시킬 것인지를 결정할 때에, 다시 말해 수 많은 수의사들 중 어느 수의사를 선택할 지를 결정할 때에 검색 키워드로 활용될 수 있다. 한편, 상기 태그 생성 버튼은 주 진료 과목에 대하여도 같은 방식으로 구비될 수 있다.
이상 도 3 내지 도 6을 참조하여 본 발명에 따른 방법 중 회원가입 또는 로그인 단계, 특히 이 과정에서 사용자에게 제공되는 사용자 인터페이스에 대해 살펴보았다.
[개체 모델 로드 단계]
도 2를 참조할 때, 회원가입 또는 로그인 단계 이후에는 (일반 사용자 입장에서) 본격적으로 개체에 대한 관찰정보를 입력할 수 있도록 해당 개체와 대응되는 모델을 로드(load)하는 단계(S202)가 수행될 수 있다.
도 7은 개체 모델(2000)이 로드된 상태의 사용자 단말기 화면을 도시한 것으로, 본 상세한 설명에서는 편의를 위해 개체가 개(dog)인 경우를 상정하여 설명하기로 한다. 개체 모델(2000)의 로드는 사용자 단말기 내 구비된 메모리에 미리 저장되어 있던 모델링 파일을 로딩하는 것과 동일한 과정으로 이해될 수도 있으며, 이 때 상기 모델링 파일은 서비스 서버(200)로부터 사전에 다운로드 된 것일 수 있다. 다른 한편, 상기 모델링 파일은 사용자가 직접 3D 스캐닝을 하여 생성해 둔 것일 수도 있으며, 이 경우 사용자는 3D 스캐닝 후 얻은 모델링 파일을 직접 서비스 서버(200)에 등록한 후 이것이 사용자 단말기에 설치된 어플리케이션 내에서 다운로드가 가능하도록 하거나, 또는 모델링 파일을 직접 사용자 단말기 내 메모리에 저장해 둔 후 어플리케이션에서 해당 모델링 파일을 직접 로드 하도록 할 수도 있다.
또한, 어떠한 개체 모델의 경우에도, 후속적인 관련 소프트웨어 상의 워크프로세스와 작업을 거쳐서 정지된 형상에서 애니메이션 기능을 추가하여, 사용자의 원하는 개체모델 부위의 단순한 터치 접촉시간, 횟수 혹은/및 정도에 따라 움직이게 할 수 있다. 예를 들면, 도 7에 도시되어 있는 골든 리트리버 3D 개체 모델에 있어서, 왼쪽의 귀 안쪽에 관찰된 정보를 입력하는 경우에 왼쪽 귀를 누르고 수초 후에 귀를 드래그 하여 들어올릴 수 있도록 한 후, 그 귀 안쪽의 이상유무를 다음의 입력단계를 통하여 초기 의도한 느낌대로 직관적인 정보를 적절히 표시 및 입력할 수 있다. 꼬리 혹은 입 등의 경우도 마찬가지로 적용될 수 있다.
다른 한편, 상기 개체 모델(2000)에는 다양한 종의 것들이 존재할 수 있는데, 이 경우 서비스 서버(200) 내에 사전에 생성되어 있는 복수 개의 모델링 파일들 중 사용자가 선택한 임의의 것이 로드 되도록 구현할 수도 있다. 예를 들어, 개체 모델을 로드하는 단계 중에는 반려동물의 종을 선택하는 단계가 포함될 수 있으며, 또는 앞서 회원가입 단계에서 사용자가 미리 입력해 둔 반려동물 종 정보를 참조하는 단계가 포함될 수 있다. 참고로, 반려동물의 종을 선택하는 단계가 수행될 때에는 사용자가 자신의 반려동물과 가장 유사한 종을 쉽게 탐색할 수 있도록 썸네일 형태의 여러 반려동물 종들이 화면 상에 표시될 수 있으며, 사용자는 이들 중 어느 하나를 선택함으로써 자신의 반려동물과 가장 유사한 개체 모델을 찾을 수 있게 될 것이다.
한편, 사용자가 키우는 개체에 대해서는 복수 개의 기관들, 예를 들어 업무협약을 맺은 동물병원들이 기존에 보유하고 있거나, 직접 3D 스캐닝을 한 후 모델링 파일을 서비스 서버(200)에 등록시켜주는 서비스를 제공하도록 시스템이 구현될 수도 있다. 즉, 사용자로서는 자신의 반려동물이 아프거나, 정신 혹은 행동상 이상한 경우가 관찰되어 동물병원을 방문하였을 때 해당 동물병원에 구비된 3D 스캐닝 장치를 활용하여 자신의 반려동물을 촬영할 수 있으며, 이를 통해 얻은 모델링 파일을 서비스 서버(200)에 사전 등록할 수 있도록 할 수 있다. 또한 기존의 보유하고 있는 경우에 있어서는 반려동물의 몸체뿐만 아니라, 전문가적 지식으로 판단할 때, 원인이 되는 그 몸체 내 존재하는 세포, 조직 혹은 장기 등에 대한 3D 모델도 제작 혹은 제공되는 서비스가 수행될 수 있으며, 만약에 세포, 조직 혹은 장기 등을 몸체 내 위치시킬 경우는, 몸체 투명도를 적절히 증가시켜 대비적으로 나타나게 하거나, 혹은 몸체와 별도로 된 개체로 할 경우는, 선택 후 불러와서 별도의 개체모델로 활용할 수 있다. 예를 들어, 반려동물의 심장, 콩팥 등의 장기들, 또는 반려동물의 안구와 같이 몸체 내측으로 구비되어 있는 장기도 3D 모델링의 대상이 될 수 있으며, 경우에 따라 상기 장기들은 반려동물의 몸체 투명도를 증가시킴으로써 사용자가 내부를 들여다 볼 수 있도록 하거나, 또는 각각의 장기를 따로 화면에 3차원으로 표시함으로써 사용자가 해당 장기에 후술하게 될 증상, 통증 정도를 표시하거나 입력하게 할 수 있다. 한편, 어느 외부장기 내부에 또 다른 내부 장기가 존재하는 경우에는, 외부장기의 투명도를 증가시킴으로써 내부장기를 볼 수 있게 구현할 수도 있음을 이해한다. 즉, 상기 3D 모델링은 반려동물 내 장기들을 개별적으로 살펴볼 수 있도록 하며, 각각의 장기들에 대해서는 투명도 조절을 비롯한 다양한 편집이 가능하도록 구현될 수 있다.
여기에는 반려동물의 모델링 파일을 이러한 방식으로 제공 및 업로드 할 수 있게 하는 경우, 사용자로서는 쉽게 자신의 반려동물 혹은 그 몸체 내부의 세포, 조직 혹은 장기 등에 대한 모델링 파일을 획득할 수 있게 되며, 본 발명에서 설명하고자 하는 서비스 운영자 역시 쉽게 회원가입 유도를 할 수 있게 되고, 나아가 동물병원의 입장에서도 제휴에 의하여 그 소비자와의 보다 높은 공감 및 커뮤니케이션을 통해 보호자의 만족도를 높이게 됨으로써, 여러 마케팅 효과를 높일 수 있는 등의 효과를 꾀할 수 있게 된다. 나아가, 본 발명이 제공하는 인터페이스를 이용하는 경우 반려동물 보호자, 환자 보호자와의 공감 정도를 높일 수 있고, 커뮤니케이션 환경을 구축할 수 있게 되므로 사용자들의 만족도를 높일 수 있다. 또한 이에 따라 수익창출, 유사 환자의 시공을 초월한 정보 매핑 등과 같이 다양한 부가 효과들이 파생될 수 있다.
이상 도 7을 참조하여 개체 모델을 로드하는 단계에 대해 살펴보았다.
[관찰정보 입력 단계]
다시 도 2를 참조할 때, 개체 모델이 로드 된 이후에는 사용자로부터 관찰정보 입력을 수신하는 단계(S203)가 수행될 수 있다. 관찰정보를 입력할 수 있도록 제공되는 사용자 인터페이스는 본 발명에서 중요하게 언급될 부분 중 하나이며, 이에 대해서는 도면들을 참조하여 자세히 살펴보기로 한다.
먼저 도 8은 (일반 사용자가) 관찰정보를 입력할 수 있도록 제공되는 기본 사용자 인터페이스의 한 실시예를 도시한 것이다. 도 8의 (a)를 참조할 때, 상기 관찰정보 입력을 위해 제공되는 사용자 인터페이스에는 개체 모델(2000)이 표시된 화면의 측면으로 관찰정보의 직접 입력을 위한 입력도구들(2010)이 나열되어 있음을 확인할 수 있으며, 그 외에 과거로부터 지금까지 입력된 관찰정보들을 시계열적으로 조회하기 위한 정보조회도구(2020), 개체 모델을 원위치(카메라 위치 초기화 된 상태)로 변경하는 개체원위치도구(2030), 반려동물을 선택/변경/추가할 수 있는 개체변경도구(2040), 채팅 기능을 실행시키기 위한 채팅개시도구(2050) 등이 포함될 수 있음을 확인할 수 있다. 또한, 화면의 하단에는 관찰정보가 기록된 시점의 환경정보들(날씨, 기온, 위치, 시각, 날짜, 요일 등)이 표시(2060)될 수 있고, 일반 사용자의 이름 및 반려동물의 이름이 표시(2070)될 수 있다.
관찰정보의 직접 입력을 위한 입력도구들(2010)에는 브러쉬 입력도구, 기분정도 및 활동정도 입력도구, 텍스트 입력도구, 사진 또는 동영상 입력도구 등이 포함될 수 있으며, 후술하겠지만 위 언급된 도구들은 브러쉬 입력도구를 시작으로 정해진 순서에 따라 도구가 활성화 되어 사용자의 관찰정보 입력을 자연스레 가이드 할 수 있다. 즉, 도구들의 활성화가 브러쉬 입력도구 > 기분정도/활동정도 입력도구 > 텍스트 입력도구 > 사진 또는 동영상 입력도구 > 저장 및 업로드의 순서대로 이루어지게 제한됨으로써, 다시 말해 사용자가 전 단계의 입력을 마친 경우에만 다음 단계로 진행하도록 함으로써 사용자에게 단계별로 관찰정보의 입력을 빠짐 없이 가이드 할 수 있게, 그리고 사용자로 하여금 초기 입력하고자 하였던 직관적 느낌과 기억 정보를 가능한 한 잊어버리거나, 왜곡 및 변경되지 않도록 그 직관성이 사라지기 쉬운 단계부터 입력함과 동시에 혼동 없이 입력이 가능하도록 할 수 있다. 이에 대해서는 후에 더 자세히 설명하기로 한다.
정보조회도구(2020)는 사용자가 과거 입력해 두었던 관찰정보를 시계열적으로 확인할 수 있도록 한 것으로, 이 도구를 통해 사용자로서는 과거 반려동물의 상태가 어떠하였고 지금까지 어떻게 변해 왔는지, 또는 반려동물의 증상이 완화되어 환부가 개선이 되었는지, 반대로 악화가 되었는지, 변화가 없는지 등을 정밀하게 디지털 정보로 쉽게 확인할 수 있게 된다. 이에 대해서도 후에 더 자세히 설명한다.
개체원위치도구(2030)는 사용자가 사용자 단말기의 화면을 터치함으로써 개체 모델을 회전시키거나 수평/수직 이동 시켰을 때에 시점을 초기화 하기 위한 것으로, 사용자로서는 언제든 상기 개체원위치도구(2030)를 클릭함으로써 최초 개체 모델이 로드 되었을 때의 시점으로 돌릴 수 있다.
개체변경도구(2040)는 반려동물을 선택/변경/추가 할 수 있는 것으로, 앞에서는 회원가입 시 복수의 반려동물을 등록할 수 있음을 언급한 바 있는데, 이렇게 반려동물이 여럿인 경우 사용자는 개체변경도구(2040)를 클릭함으로써 현재 입력 중인 관찰정보의 대상이 되는 개체를 변경할 수 있다.
한편, 채팅개시도구(2050)는 향후 관찰정보의 입력이 이루어진 후 사용자가 외부 전문가(수의사) 등을 초대하여 관찰정보를 공유하고 그에 기초한 의견을 수신할 수 있는 채팅방을 열기 위한 도구이다. 이에 대해서도 후술하기로 한다.
앞서 언급한 여러 종류의 도구들 외에도 도 8(a)의 화면 하단에는 환경정보들이 표시될 수 있음을 언급하였는데, 이 때 표시되는 환경정보들에는 사용자가 관찰정보를 입력하는 시점에서의 날씨, 기온, 위치, 시각, 날짜, 요일 중 적어도 어느 하나의 것이 표시될 수 있다. 본 발명에 따른 방법 및 사용자 인터페이스에 의해 입력된 관찰정보는 대부분 헬스케어 정보 혹은 의료정보로도 분류될 수 있고, 이러한 관찰정보는 경우에 따라 일률적으로 서비스 서버(200) 내에 누적 저장될 수 있는데, 위 환경정보들이 관찰정보와 함께 입력되는 경우 서비스 서버(200) 내 누적된 정보들을 이용하여 빅데이터 분석을 할 때에 유용한 결과물을 획득하는 데에 큰 효과를 얻을 수 있다. 예를 들어, 임의 종에 대한 전염병이 특정 기간 동안 크게 유행한 경우, 다수의 사용자들에 의해 입력된 관찰정보, 그리고 상기 관찰정보 내에 포함되어 있는 환경정보들은 어떠한 위치 및 환경, 혹은 어떠한 특정 계절 등의 시점에서 전염병이 크게 유행하게 되었거나, 그 유행이 크게 줄었는지 등에 대한 유의미한 변화를 파악하는 데에 도움이 될 수 있다. 또 다른 한편, 본 발명에 따른 방법 및 사용자 인터페이스가 전 세계적으로 제공되어 비단 우리나라뿐 아니라 다른 대륙에서도 관찰정보 및 환경정보를 얻을 수 있다면, 서비스 서버(200) 내 저장된 데이터들을 분석함으로써 환경이 유사한 타 지역에서 특정 종에 대한 전염병이 발생하였을 때 어떻게 대처하였는지, 또는 어떤 환경이 조성되었을 때 전염병의 유행이 줄었는지 등을 파악할 수도 있게 된다. 이처럼 관찰정보 내 포함되는 환경정보들은 비단 관찰정보들을 입력하고 있는 사용자에게 현재 환경을 알리는 역할을 하는 것뿐 아니라 해당 사용자가 입력하는 관찰정보가 어떤 환경조건에서 이루어진 것인지 광범위하게 공유되도록 함으로써 향후 빅데이터 분석에 도움이 되기 위한 목적으로도 쓰인다 할 것이다.
한편, 도 8(b)는 관찰정보 입력을 위한 사용자 인터페이스의 또 다른 실시예를 도시한 것으로, 여기에는 개체 모델(2000)을 다양한 시점에서 볼 수 있도록 위치회전 표시도구(2080)가 더 포함된 것을 특징으로 한다. 상기 위치회전 표시도구(2080)는 사용자로 하여금 핀치입력, 드래깅입력 등을 통해 개체 모델을 관찰하는 시점이 변하도록 하는데, 예를 들어 본 발명에 따른 방법에서 제공되는 사용자 인터페이스 상에서는 한 손가락이 터치 감응형 화면에 닿은 채 드래깅 되면 화면이 회전되도록, 두 손가락이 터치 감응형 화면에 닿은 채 드래깅 되면 화면이 수평 방향으로 이동하도록, 두 손가락이 터치 감응형 화면에 닿은 채 핀치인/핀치아웃 되면 화면의 축소/확대가 이루어지도록 구현될 수 있다.
이상 도 8을 참조하여 관찰정보를 입력하기 위한 도구들을 개략적으로 살펴보았다.
도 9는 관찰정보를 직접 입력하기 위한 도구들 중 특히 브러쉬 입력도구(20101)의 기능을 설명하기 위한 도면이다. 구체적으로, 도 9(a)는 브러쉬 입력도구를 선택하였을 때 최초로 표시되는 사용자 인터페이스, 도 9(b)는 개체 모델의 표면에 브러쉬 입력을 하는 모습, 도 9(c)는 개체 모델의 표면으로부터 브러쉬 입력을 지우는 모습을 도시한 것이다.
도 9(a)를 참조할 때, 브러쉬 입력도구(20101)에는 브러쉬의 크기를 정하기 위한 선택메뉴(A), 입력을 초기화 하기 위한 메뉴(B), 입력을 취소(지우기)하기 위한 메뉴(C), 다음 단계로 진행하기 위한 메뉴(D), 그리고 브러쉬 입력의 색깔을 선택하기 위한 메뉴(E)가 포함될 수 있으며, 개체 모델 상에는 마커(M)가 표시될 수 있다. 브러쉬의 크기를 정하기 위한 선택메뉴(A)는 사용자가 마커(M)가 표시된 개체 모델 표면을 색깔로 표시하고자 할 때에 얼마나 큰 크기의 브러쉬를 사용할 것인지를 결정하기 위한 것으로, 바람직하게는 도면에 도시된 것과 같이 3개의 크기가 선택 가능하게 제공될 수 있을 것이나 반드시 이에 한정되는 것은 아니다. 브러쉬 입력을 초기화 하기 위한 메뉴(B)는 사용자가 브러쉬 입력을 하여 개체 모델 상에 색깔을 입력하였으나 이를 초기화 할 때에 사용할 수 있는 메뉴이며, 입력을 취소(지우기)하기 위한 메뉴(C)는 앞선 초기화 메뉴(B)와 달리 현재 입력 상태 중 일부 입력을 최소하기 위한 것으로, 사용자 인터페이스 상에서는 입력된 브러쉬 입력을 지우개로 지우는 것과 같은 효과로 표시될 수 있다. 도 9(b)에는 개체 모델의 얼굴 표면 쪽에 중증을 나타내는 빨간색(10)으로 브러쉬 입력이 된 실시예가 도시되어 있으며, 도 9(c)에는 입력된 브러쉬 입력 중 일부가 취소(지우기) 메뉴에 의해 지워진 실시예가 도시되어 있다. 특기할 만한 사항으로, 본 발명에 따른 방법에서 제공되는 사용자 인터페이스에서는 도 9(c)에 도시된 것과 같이 현재 사용자가 사용하고 있는 메뉴가 C와 같이 표시, 즉 현재 해당 메뉴가 활성화 되어 이용 중이라는 사실을 사용자가 쉽게 인지할 수 있도록 색깔로 활성화 표시가 이루어질 수 있다.
한편, 다음 단계로 진행시키기 위한 메뉴(D)는 개체 모델 상에서 브러쉬 입력이 완료되었을 때 그 다음 단계인 기분정도 및 활동정도 입력으로 진행시키기 위한 메뉴이다. 브러쉬 입력의 색깔을 선택하기 위한 메뉴(E)는 사용자가 반려동물의 상태를 외관상 살펴 보아 외상의 정도, 또는 내상의 정도를 색깔로 표현할 수 있도록 한 것으로, 도면에서는 노란색에 가까울수록 경증을 표현하도록, 그리고 빨간색에 가까울수록 중증을 표현하도록 구현된 것이다. 상태의 정도를 나타내기 위한 색깔들은 도면과 달리 별도의 팝업창을 띄움으로써 사용자가 선택할 수 있도록 구현될 수도 있다. 마지막으로 마커(M)는 입력을 하고자 하는 위치를 정확히 표현하기 위한 것으로, 도면에서도 보이는 것과 같이 개체 모델의 표면에 특정 기하학 모양을 가지도록 구현될 수 있다. 바람직하게는 도 9에 도시된 것과 같이 원기둥 형태로 구현될 수 있으며, 이와 같은 모양의 마커(M)는 개체 모델의 표면 상에서 자유로이 이동되어 사용자에게 브러쉬 입력을 하고자 하는 위치를 정확히 알릴 수 있다. 또한, 상기 마커(M)는 개체 모델의 표면 상에서만 이동되도록 구현될 수도 있다. 즉, 마커(M)로 하여금 개체 모델의 표면을 벗어나지 않도록 함으로써 사용자의 입력 편의를 도울 수 있도록 할 수 있다. 다른 한편, 상기 마커(M)는 비단 개체 모델의 표면에만 브러쉬 입력을 하기 위한 용도로 사용되지 않고 개체 모델의 내부에도 브러쉬 입력을 하기 위한 용도로 사용될 수 있다. 예를 들어, 반려동물은 피부 쪽의 질환뿐만 아니라 내부 장기에도 임의의 발병 원인이 존재할 수 있는데, 비록 비전문가인 일반 사용자가 그 발병 원인이 무엇인지를 정확히 파악할 수는 없다 하더라도 관찰에 의해 얻어진 사용자의 의견이 반영되도록 내부 장기에도 브러쉬 입력을 할 필요성이 있다. 상기 마커는 이 경우 기 생성되어 있는 3D 개체 모델의 내부 장기들에도 위치 표시가 가능하도록 구현되어 사용자로 하여금 브러쉬 입력을 하도록 할 수 있다. 예를 들어, 상기 마커(M)가 원기둥 형태라 가정할 때에, 원기둥의 가장 밑면으로부터 소정의 높이까지(이하, 마커하부라 칭함)는 개체 모델의 피부 표면 내에 표시가 되도록 함으로써 개체 모델의 내부에도 브러쉬 입력이 가능하게 할 수 있다. 이 때, 마커하부는 다시 높이 조정이 가능하도록 함으로써 개체 피부 내부 깊숙한 곳까지도 표시가 가능하도록 구현할 수 있다. 이 때, 각 깊이마다의 브러쉬 입력은 서로 다른 색깔로 이루어질 수 있는데, 예를 들어 마커하부를 피부 아래 1cm까지만 연장시킨 후 해당 지점에서는 노란색깔을 입력하고, 마커하부를 피부 아래 1.5cm까지 연장시킨 후 해당 지점에는 주황색깔을 입력하고, 마커하부를 피부 아래 2cm까지 연장시킨 후 해당 지점에는 빨간색깔을 입력하는 등의 입력을 반복함으로써 깊이에 따라 상이한 통증 정도를 입력하게 할 수 있다. 또 다른 한편, 상기 마커는 원기둥 형태로부터 원뿔 형태로 변환될 수 있으며, 또는 이와 반대로 원뿔 형태로부터 원기둥 형태로 변환될 수 있다. 위와 같은 형태 변환을 위한 인터페이스 내 메뉴(토글 방식, 또는 슬라이딩 방식)가 별도로 제공될 수 있으며, 또한 상기 원뿔 형태의 마커, 원기둥 형태의 마커가 높이가 가능하도록 인터페이스 내 메뉴(슬라이딩 방식)가 표시될 수 있다. 특히, 마커가 원뿔 형태인 경우, 예를 들어 사용자로서는 개체모델 내 총상(입사부위는 지름이 작은 원형 환부이나 출사부위는 총탄의 회전력에 의해 지름이 큰 원형 환부를 형성)을 표시할 수 있게 될 것이다.
도 10은 앞선 도 9에서의 브러쉬 입력이 완료된 후 사용자가 다음 단계 진행을 위한 메뉴(D)를 클릭하였을 때 표시되는 사용자 인터페이스의 일 구현예를 도시한 것으로, 여기서는 반려동물의 기분정도, 그리고 반려동물의 활동정도를 입력할 수 있는 메뉴들을 제공한다.
도 10의 (a)를 참조할 때, 사용자 인터페이스에서는 대상이 되는 개체의 기분정도를 사용자가 임의로 선택할 수 있도록 슬라이딩 형태의 입력메뉴(F)가 제공될 수 있으며, 또한 개체의 활동정도를 사용자가 임의로 선택할 수 있도록 슬라이딩 형태의 입력메뉴(G)가 제공될 수 있다. 이 때, 슬라이딩을 위해 조절되는 아이콘은 사용자로 하여금 해당 항목이 기분정도 또는 활동정도에 대한 것임을 직관적으로 이해할 수 있도록 아이콘이 더 표시될 수 있다. 도면에서 기분정도를 나타내는 아이콘으로는 브레인 아이콘이, 활동정도를 나타내는 아이콘으로는 반려동물 형상의 아이콘이 표시되고 있음을 확인할 수 있다. 또 다른 한편, 상기 슬라이딩 형태의 입력메뉴들(F, G)에 더하여서는 사용자로 하여금 입력값이 어느 정도의 것인지를 직감할 수 있도록 또 다른 형태의 아이콘들(H)이 제공될 수 있다.
한편, 도 10의 (b)를 참조할 때, 사용자가 조절 중인 아이콘은 색깔을 달리하여 표시(G')될 수 있으며, 이렇게 함으로써 사용자의 시각적 인지도를 더 높일 수 있다.
도 11은 앞서 도 10에서 본 브러쉬 입력에 이어 텍스트 입력이 가능하도록 한 사용자 인터페이스의 일 실시예를 도시한 것이다. 도 11에 도시되어 있는 인터페이스는 앞서 도 10에서의 다음 단계 진행을 위한 메뉴(D)를 클릭하였을 때 나타날 수 있는 것으로, 사용자가 브러쉬 입력을 모두 마친 후 다음 단계로 진행을 위해 클릭을 하면 텍스트 입력 단계가 실시되도록 하였다. 도 11을 참조할 때, 화면 우측의 입력도구들 중 텍스트 입력도구(20102)가 활성화 되어 있음을 확인할 수 있으며, 이를 통하여 사용자는 자신이 현재 어떤 단계를 진행 중인지를 쉽게 알 수 있다.
한편, 텍스트 입력을 위해서는 화면 상단에 텍스트 입력메뉴가 표시될 수 있으며, 여기에는 신체부위, 증상을 기록하기 위한 텍스트 입력란(I), 반려동물의 기분정도, 활동정도를 기록하기 위한 텍스트 입력란(J, K)이 포함될 수 있고, 또한 입력 초기화 메뉴(B) 및 다음 단계 진행 메뉴(D)는 앞서 도 9 및 10에서 본 것과 동일하게 표시될 수 있다. 참고로 기분정도, 활동정도를 기록하기 위한 텍스트 입력란(J, K)에는 앞선 단계에서 사용자가 슬라이드 조절을 이용하여 입력한 값이 함께 표시될 수 있다. 도 11에선 "M(0)", "A(2)"와 같이 표시가 되어 있는데, 이들은 각각 도 10에서 슬라이드 조절을 통해 입력된 기분정도, 활동정도 값과 대응되는 것들이다. 또 다른 한편, 앞선 단계에서 만일 기분정도 또는 활동정도가 0으로 입력된 경우, 다시 말해 기분정도 또는 활동정도가 관찰자 입장에서 특별히 이상할 정도로 느껴지지 않아 그 정도가 0으로 기재된 경우에는 텍스트 입력란이 비활성화 될 수 있다. 도 10(b)에서는 기분정도가 0으로 입력되고, 활동정도가 +2로 입력되어 있는 실시예가 도시되어 있었는데, 이에 따라 도 11에서의 기분정도 입력을 위한 텍스트 입력란(J)은 비활성화 된 상태, 활동정도 입력을 위한 텍스트 입력란(K)은 활성화 된 상태임을 알 수 있다. 도 11의 텍스트 입력창에서는 활동정도 입력을 위한 텍스트 입력란에 "행동 상태를 간략하게 기록해 주세요"라는 안내 문구가 기재되어 있는 반면, 기분정도를 입력하는 입력란에는 이러한 안내 문구가 표시되지 않는다.
한편, 각각의 텍스트 입력란이 사용자에 의해 클릭되었을 때, 화면 하단에서는 텍스트 입력을 위한 자판이 표시될 수 있으며, 사용자는 이 자판을 이용하여 원하는 내용을 입력할 수 있다.
본 발명이 도 11에서와 같이 별도의 텍스트 입력을 위한 사용자 인터페이스를 제공하는 이유는, 이미 도 9 및 도 10에서 설명한 단계 또는 인터페이스 상에서 입력을 마쳤음에도 불구하고 외부 전문가(수의사)에게 정확한 내용 전달이 어려울 경우를 대비하기 위한 것, 또는 외부 전문가(수의사)에게 관찰정보를 전달할 때에 당부하고자 하는 사항을 자유롭게 기재할 수 있게 한 것이다. 또한, 이렇게 텍스트화 된 관찰정보는 빅데이터 분석 시 활용도가 높으며, 이에 따라 개체에 대한 이해의 정확도를 크게 높일 수 있는 효과도 있다.
도 12는 도 11에서 사용자가 텍스트 입력을 완료한 뒤 다음 단계 진행을 위한 메뉴 D를 클릭하였을 때 표시되는 인터페이스의 일 예시를 나타낸 것으로, 도 12는 반려동물에 대한 사진 또는 동영상 촬영을 할 수 있도록 한 사용자 인터페이스 제공 모습을 나타낸 것이다.
도 12(a)를 참조할 때, 화면 우측에는 촬영 입력도구(20103)가 활성화 되어 있는 모습을 확인할 수 있으며, 촬영 입력도구(20103)의 좌측으로는 스킵메뉴(L), 사진메뉴(M), 동영상메뉴(N)가 표시되어 있음을 확인할 수 있다. 참고로 상기 메뉴들은 화면 상 촬영 입력도구(20103) 아이콘과 같은 높이에서, 그리고 상기 촬영 입력도구(20103)와 가까운 측면에 나란히 배열되도록 함으로써 사용자로 하여금 자신이 어느 단계를 진행하고 있는지를 쉽게 인지하도록 할 수 있다. 비단 촬영 입력도구(20103)과 대응되는 메뉴들만이 가까운 측면에 배열되는 것은 아니고, 본 상세한 설명에서 언급되는 모든 입력도구에 대응되는 메뉴들은 해당 입력도구에 가까운 측면에 배열될 수 있으며, 이는 입력도구를 클릭하였을 때에 타 메뉴 또는 타 입력도구와의 거리 대비 해당 입력도구와 가장 가까운 거리에 메뉴들이 표시되게 함으로써 사용자가 현재 어느 단계를 진행하고 있는지를 쉽게 인지할 수 있게 함은 물론 사용자의 디스트랙션(distraction)을 최소화 함으로써 현재 입력하고자 하는 행위에 더 집중할 수 있게 하기 위함이다. 각 메뉴들에 대하여 구체적으로 살펴볼 때, 스킵메뉴(L)는 사진이나 동영상 촬영 없이 다음 단계로 진행하고자 할 때에 쓰이는 것이며, 사진메뉴(M) 및 동영상메뉴(N)는 각각 사진 또는 동영상 촬영을 개시하기 위한 것들이다.
도 12(b)는 사진메뉴 또는 동영상메뉴를 눌렀을 때에 표시되는 인터페이스의 모습을 도시한 것으로, 여기에는 촬영창(2090), 포커싱 마크(2091), 촬영사진(동영상) 목록(2092), 그리고 이전사진, 다음사진, 촬영개시 등의 도구를 포함하는 조작도구(2093)가 포함될 수 있다.
참고로, 도 12는 사용자 단말기(100)가 촬영을 위한 수단, 즉 카메라를 구비하고 있음을 전제로 한 것이며, 카메라 이외에 소리를 녹음하기 위한 수단이 구비된 경우 소리만을 녹음할 수 있는 버튼이 추가될 수 있음은 물론, 이 외에 상기 개체와 관련된 정보를 획득할 수 있는 다른 종류의 감지수단이 더 구비되는 경우 그에 대응되는 메뉴가 인터페이스 상에 표시될 수 있음을 이해한다.
도 13은 관찰정보를 입력하는 도구 중 마지막 단계인 저장 및 업로드를 위한 도구 및 이에 따른 사용자 인터페이스를 도시한 것이다. 도 13을 참조할 때, 화면 우측에 나열된 도구들 중 디스크 모양의 저장 및 업로드 도구(20104)가 활성화 되어 있음을 확인할 수 있으며, 이를 통해 사용자는 자신이 현재 어떤 단계를 진행 중인지 쉽게 파악할 수 있다.
저장 및 업로드 도구(20104)의 좌측으로는 초기화메뉴(O), 저장메뉴(P), 업로드메뉴(Q)들이 표시될 수 있으며, 각 메뉴들은 저장 및 업로드 도구(20104) 아이콘과 같은 높이에서, 그리고 저장 및 업로드 도구(20104) 아이콘과 가까운 측면에 나란히 표시되도록 할 수 있다. 각 메뉴들에 대하여 살펴볼 때, 초기화메뉴(O)는 사용자 단말기(100) 내 메모리(캐쉬메모리)에 저장된 정보를 삭제하는 것일 수 있으며, 저장메뉴(P)는 지금까지 사용자 단말기의 메모리(캐쉬메모리) 상에 임시 저장된 관찰정보들을 해당 사용자 단말기(100) 내 비캐쉬메모리, 예를 들어 마이크로SD카드 등에 항구적으로 저장하기 위한 것이고, 업로드메뉴(Q)는 사용자 단말기(100)의 비캐쉬메모리에 항구적으로 저장된 관찰정보들을 서비스 서버 또는 클라우드 데이터베이스로 업로드 하는 것일 수 있다.
이상 관찰정보를 입력하기 위한 도구들(2010)에 대해 살펴보았다. 이하에서는 정보조회도구(2100)에 대해 살펴보기로 한다.
도 14는 정보조회도구(2100)를 클릭하였을 때 표시되는 사용자 인터페이스의 일 실시예를 나타낸 것이다. 정보조회도구(2100)에 따른 사용자 인터페이스 상에서는 사용자가 과거 누적적으로 저장해 왔던 관찰정보를 시간 순서에 따라 다시 볼 수 있는 기능을 제공하는데, 이러한 기능은 궁극적으로는 반려동물이 과거로부터 현재에 이르기까지 얼마나 상태가 개선되었는지, 또는 악화되었는지 등을 고정된3차원적 모델 위치/앵글에서 혹은 중심이 되는 표적 부위를 중심으로 3차원적 모델위치/앵글이 회전하면서, 시간에 따라 일목요연하게 쉽게 확인할 수 있게 한다. 참고로, 사용자 단말기(100) 또는 서버(200)에 누적적으로 저장될 수 있는 관찰정보에는 그 개수에 제한이 없음을 전제로 설명하기로 한다.
정보조회도구(2100)에 따른 사용자 인터페이스를 살펴볼 때, 가장 중요한 특징은 과거로부터 현재까지 누적 저장된 관찰정보를 탐색하기 위한 슬라이드 형태의 정보탐색도구(2110)가 제공된다는 점이다. 정보탐색도구(2110)는 다시 슬라이딩 바(AA), 슬라이딩 아이콘(BB), 눈금(CC) 등을 포함하여 사용자가 상기 슬라이딩 아이콘(BB)으로 슬라이딩 바(AA) 상을 드래그 함으로써 각 눈금에 대응되는 관찰정보를 쉽게 탐색할 수 있도록 한다. 또한, 상기 정보탐색도구(2110)는 슬라이딩 아이콘(BB)을 드래그 하는 대신, 사용자로 하여금 탐색버튼(bb)를 누르게 함으로써 누를 때마다 한 단계씩 관찰정보가 조회되도록 구현할 수도 있다. 한편, 상기 눈금(CC)에는 각각 날짜, 또는 일차의 관찰정보가 대응되는데, 도 14에서는 오늘을 기준으로 5일전, 10일전, 30일전 관찰정보가 누적되어 저장되어 있음을 유추할 수 있다. 참고로 상기 눈금(CC) 옆으로는, 총 15일차의 관찰정보들이 저장되어 있다고 가정할 때, 1/15, 2/15, 3/15, ?? 와 같이 표시함으로써 현재 사용자가 조회하고 있는 관찰정보가 언제 기록된 것인지를 쉽게 이해하도록 할 수도 있다. 슬라이딩 아이콘(BB)이 어느 특정 눈금에 놓여지거나 또는 탐색버튼(bb)을 누름에 따라 어느 특정 눈금과 대응되는 관찰정보에 이르게 되는 경우, 해당 일자의 관찰정보는 정보창(DD)을 통해 표시될 수 있으며, 또한 정보창(DD)에는 해당 관찰정보가 어느 시점의 정보인지를 나타내기 위한 날짜 또는 일자 표시가 더 포함될 수 있다. 도면에서는 오늘을 기준으로 5일전 정보가 조회되고 있음(EE)이 나타나 있다. 한편, 정보창(DD)에는 해당 날짜 또는 해당 일자에 사용자가 기록하였던 관찰정보가 표시될 수 있으며, 더 구체적으로는 사용자가 입력하였던 텍스트, 그리고 반려동물의 사진/동영상이 표시될 수 있다. 도 14를 참조할 때, 정보창(DD)에는 "2019.08.26. 14:12"와 같은 당시 텍스트 입력 시각, "S/P:: 머리에 깊은 상처가 나았다"와 같은 신체 부위 및 증상(S: Symptom)/통증(P: Pain), "M(0)::"와 같은 기분정도, "A(2):: 머리 부분을 벽에 자주 박는다"와 같은 활동정도 텍스트가 표시되어 있으며, 나아가 해당 시점에 촬영한 사진 또는 동영상이 더 표시될 수 있다. 또 다른 한편, 정보조회도구(2100)에 따른 인터페이스에서는 개체 모델 상에 사용자가 브러쉬 입력한 내역도 같이 표시(FF)될 수 있다.
마지막으로, 도 14에 따를 때에 인터페이스 내에는 해당 시점의 관찰정보들을 다운로드, 업로드, 공유할 수 있는 도구들도 함께 표시(GG)될 수 있다. 즉, 본 발명에 따른 방법 중 제공되는 인터페이스에서는 단순히 과거의 정보를 조회하는 것뿐만 아니라, 해당 관찰정보를 사용자 단말기로 직접 다운로드를 받을 수 있도록 하거나, 또는 서비스 서버로 업로드(참고로, 이 때의 업로드는 관찰정보가 사용자 단말기 상에만 저장되어 있는 경우를 전제로 이루어질 수 있음) 할 수 있게 하거나, 또는 타 사용자들(일반 사용자, 외부 전문가 사용자 등)과 해당 관찰정보를 공유하도록 할 수 있다.
참고로, 도 14에서는 슬라이딩 바(AA) 및 슬라이딩 아이콘(BB)이 과거 누적된 관찰정보들을 탐색하기 위한 도구로 설명되었으나, 이러한 사용자 인터페이스용 도구들은 필요에 따라 다른 형태로도 변형될 수 있음을 이해해야 할 것이다. 예를 들어, 슬라이딩 바(AA) 대신 다이얼 도구를 제공함으로써 사용자로 하여금 더 쉽게 정보탐색을 하게 할 수 있다. 슬라이딩 바(AA)는 관찰정보들이 많이 누적되어 눈금들이 촘촘하게 형성된 경우 사용자가 조작을 하는 데에 어려움을 겪을 수 있는데, 이를 해소하기 위해 다이얼 형태의 도구가 독립적으로, 또는 병렬적으로 제공될 수 있다. 특히, 다이얼 도구가 병렬적으로 제공되는 경우에는 슬라이딩 바(AA) 외에 다이얼 도구가 구비되어 사용자가 다이얼을 돌릴 때마다 슬라이딩 바(AA) 상에서 슬라이딩 아이콘(BB)이 움직이도록 할 수 있다.
또 다른 한편, 도 9 내지 도 14의 인터페이스 상에서는 한 개의 손가락으로 드래깅 되었을 때 회전이 이루어질 수 있었던 기능은 비활성화 시키고, 대신 세 개의 손가락이 터치 감응형 화면에 닿은 채 드래깅 되면 화면의 회전이 이루어지도록, 그리고 두 손가락이 터치 감응형 화면에 닿은 채 핀치인/핀치아웃 되면 화면의 축소/확대가 이루어지고, 또한 두 손가락이 닿은 채 드래깅 되면 화면의 수평이동이 이루어지도록 구현될 수 있다. 한 개의 손가락으로 드래깅 되었을 때 회전이 이루어지는 기능을 비활성화 시킨 이유는 다른 기능과의 혼란을 야기하지 않기 위한 것으로, 도 9 내지 14에서는 한 손가락으로 터치입력을 하는 메뉴가 많으므로 사용자가 한 손가락으로 터치하였을 때 올바른 입력 대신 개체가 회전됨으로써 불편함이 유발되는 문제를 애초에 예방하기 위한 것임을 이해한다.
도 15는 개체를 변경/선택, 또는 추가하는 기능을 설명하기 위한 도면이다. 도 15를 참조할 때, 화면 우측에는 개체를 변경/선택, 추가하기 위한 인터페이스를 로드하고 위한 도구(2200)가 표시될 수 있으며, 이를 클릭하였을 때에 사용자 인터페이스는 도 15의 화면과 같이 표시될 수 있다. 사용자 인터페이스에서는 개체, 더 정확하게는 개체 모델을 변경/선택 또는 추가하기 위한 메뉴(2210)가 제공될 수 있다. 해당 메뉴(2210)에는 기 저장되어 있는 개체 모델들의 목록, 그리고 새로운 개체 모델을 추가하기 위한 버튼이 표시될 수 있다. 개체 모델들의 목록은 해당 개체 모델이 어떤 종인지를 알아볼 수 있을 정도의 그림 및 간략한 텍스트가 표시된 상태의 것일 수 있으나, 반드시 이에 한정되는 것은 아니다. 도 15에는 육각형의 버튼들이 표시되어 있으며, 각각의 버튼 내에는 개체 모델의 종을 알아볼 수 있는 그림, 그리고 해당 개체 모델을 식별할 수 있는 텍스트가 표시되어 있다. 한편, 도 15의 (a)는 개체 모델을 변경하기 전, (b)는 개체 모델을 변경한 후의 화면을 나타낸 것으로, 변경 전에는 메뉴(2210) 내에서 개에 해당되는 육각형 버튼이 색깔(초록색)로 표시되고, 변경 후에는 말에 해당되는 육각형 버튼이 색깔로 표시되어 사용자로 하여금 현재 어떤 개체를 선택하였는지를 쉽게 인지하게 할 수 있다.
[관찰정보 공유 단계]
앞서에서는 관찰정보를 입력하고 조회하기 위한 도구들, 그리고 사용자 인터페이스에 대해 살펴보았는데 이하에서는 입력된 관찰정보를 다른 사용자와 공유하기 위한 단계(도 2의 S204단계) 및 이 단계에서 제공되는 사용자 인터페이스에 대해 살펴보기로 한다.
본 발명에 따른 방법에서는 사용자가 반려동물에 대한 관찰정보를 입력하고 이를 저장 및 업로드 함으로써 해당 관찰정보를 서비스 서버(200)에 데이터베이스화 할 수 있는데, 서비스 서버(200)는 이러한 관찰정보를 다시 외부 전문가를 비롯한 타인들의 단말기들, 예를 들어 수의사 혹은 정보공유가 필요한 지인 또는 유사경험자들의 단말기들로 공유가 가능하게 함으로써 상기 사용자가 반려동물에 대한 수의학적 조언 또는 유사경험 등의 조언을 얻을 수 있게 하거나 또는 상기 수의사들이 데이터베이스화 된 수 많은 관찰정보들을 활용하여 연구나 개발에 활용하거나 유사경험자를 시공을 초월하여 매핑 등에 활용하도록 할 수 있다. 이 때 관찰정보를 공유한다는 것의 의미는 상기 사용자가 자신이 입력한 관찰정보를 타인에게 공개할 수 있다는 취지의 동의를 한 경우 서비스 서버(200)가 제한된 또는 제한되지 않은 타 사용자들에게 접근을 허용할 수 있음을 의미하며, 이러한 접근의 허용은 다양한 형태, 예를 들어 서비스 서버(200)에 로그인 한 타 사용자들이 직접 해당 관찰정보를 탐색할 수 있게 하거나 또는 미리 데이터베이스 수집에 대한 서비스 비용을 지불한 사용자들에게 주기적으로 업데이트 된 관찰정보를 제공하는 형태 등으로 이루어질 수 있다.
한편, 서비스 서버(200)에 업로드 된 수 많은 관찰정보들은 빅데이터 분석의 대상이 될 수도 있는데, 예를 들어 관찰정보 내에 포함되어 있는 반려동물 신체부위 및 증상에 대한 입력정보, 반려동물에 대하여 어떻게 처방을 하였다는 (텍스트) 입력, 날짜가 지날수록 증상이 호전되었다는 텍스트 입력 및 사진(영상) 입력 등이 빅데이터 분석의 대상이 되는 경우, 이로부터는 반려동물에게 발생하였던 질병 내지 외상에 대하여 어떤 처방 또는 치료요법이 효과가 있었는지에 대한 실마리를 얻을 수 있게 되는 효과가 있으며, 특히 이러한 관찰정보들이 글로벌하게 수집되어 빅데이터 분석의 소스로 활용되는 경우 그 동안 수의학계에서 정식으로 다루지 않았던 치료요법, 민간요법 등이 대중적으로 공개될 수 있는 환경을 제공할 수도 있게 된다. 상기 빅데이터 분석에는 머신러닝 및 AI 기술이 적용될 수 있으며, 사용자가 입력한 관찰정보들로부터 반려동물의 증상을 식별하는 과정, 각 증상이 개선된 원인을 추적하는 과정(어떤 처방을 받아 치료를 하였는지, 또는 어떤 민간요법을 사용하여 치료를 하였는지 등), 반려동물의 증상이 개선됨에 있어 상기 원인이 인과관계를 가지는지 여부를 판별하는 과정(특정 처방, 또는 특정 민간요법이 유의미한 수치값의 비율로 증상 개선에 효과가 있었음이 나타나는 경우 이를 인과관계가 있는 것으로 판별) 등이 포함될 수 있다. 이는 반려동물의 보호자에 해당하는 사용자, 즉 사람의 경우에도 동일하게 적용될 수 있으며, 사람 또는 반려동물이 각기 다른 개체의 치료법이나 처방을 의도한 채로 사용되었는지 또는 의도하지 않은 채로 사용되었는지와 관계 없이 사람 또는 반려동물에 효과적인 치료법을 발견하는 데에 기여할 수 있을 것으로 기대된다.
한편, 서비스 서버(200)의 기능은 앞서 설명한 것과 같이 업로드 된 관찰정보들에 대하여 빅데이터 분석을 수행하는 것도 포함되지만, 도 16에 도시되어 있는 것과 같이 사용자들과 외부 전문가들 사이를 채팅방식으로 연결시켜 서로 커뮤니케이션이 이루어질 수 있게 환경을 제공하는 것도 포함된다.
도 16을 참조할 때, 도 16(a)는 사용자가 채팅개시도구(도8의 2050)를 클릭하였을 때에 화면에 표시될 수 있는 인터페이스의 일 실시예를 도시한 것으로, 해당 사용자 인터페이스는 최근 대화 목록을 표시하고 있음을 확인할 수 있다. 구체적으로, 도 16(a)의 사용자 인터페이스에서는 최근 대화에 대한 목록을 나타내는 표시(HH), 대화방을 찾기 위하여 키워드 입력이 가능한 검색도구(II), 대화방 목록(JJ), 그리고 대화방 만들기 또는 대화하기 버튼을 포함하는 조작도구(KK)가 포함될 수 있다. 다음 도 16(b)는 또 다른 사용자 인터페이스의 일 실시예를 도시한 것으로, 여기에는 친구목록, 수의사목록, 비즈니스 주체들 목록 간 탭 전환이 가능한 탭 전환 메뉴(LL)가 포함될 수 있으며, 어느 하나의 탭을 선택하였을 경우 해당 탭에 대한 목록(MM)이 표시될 수 있다. 다음 도 16(c)는 대화방에 입장하여 채팅이 개시된 상태의 사용자 인터페이스를 표시한 것으로, 여기에는 대화 상대방을 추가할 수 있는 버튼(NN), 기본 채팅 기능이 제공되는 메인창(OO), 사용자가 채팅을 위한 입력을 할 수 있는 입력창(PP), 그리고 광고창(QQ)이 포함될 수 있다.
한편, 본 발명에 따른 방법에서 제공되는 사용자 인터페이스의 특징은 사용자가 외부 전문가와 채팅을 할 때에 그 배경에 반려동물, 더 정확하게는 개체모델이 표시될 수 있다는 점이다. 이는 도 16(c)에 도시되어 있는데, 메인창(OO)에서 당사자들 간의 대화가 이루어지고 있는 배경으로 개체모델(2000c)이 표시되고 있음을 확인할 수 있다. 이러한 채팅 환경을 유지하기 위해 상기 메인창(OO) 내에서의 각종 대화를 위한 표시들은 투명하게 구현될 수 있다. 예를 들어, 각 당사자의 채팅입력은 도면에서도 보이는 바와 같이 투명한 배경을 가지는 말풍선 내에 텍스트가 표시되도록 할 수 있으며, 실시예에 따라 상기 텍스트도 임의의 투명도를 가지는 색깔로 표시되도록 함으로써 메인창(OO)의 배경에 표시된 개체모델(2000c)이 더 잘 보이도록 할 수 있다. 한편, 상기 메인창(OO) 내에 표시된 개체모델(2000c)은, 바람직하게는 사용자가 자신의 반려동물과 관련하여 입력한 관찰정보 내에서의 개체모델일 수 있으며, 이 경우 메인창(OO)의 배경으로 표시되는 개체모델(2000c)에는 브러쉬 입력, 텍스트 입력, 사진/동영상 입력 등이 함께 표시되어 사용자 또는 외부 전문가가 접근 가능하게 구현될 수 있다.
또 다른 한편, 사용자 인터페이스 내에는 광고창(QQ)이 포함될 수 있다고 언급하였는데, 이 때 광고창(QQ)에 표시되는 광고에는 텍스트, 이미지, 동영상 중 적어도 어느 하나의 조합에 따른 광고 콘텐츠가 포함될 수 있다. 또한, 상기 광고창(QQ)에 표시되는 광고는 서비스 서버(200)의 운영자(서비스 운영자)가 비즈니스 주체로부터 일정 금액의 수수료를 받은 후 임의로 등록한 광고 콘텐츠 일 수도 있겠으나, 이에 그치지 않고 상기 대화방에서 오고 가는 대화 내용을 분석하여 사용자에게 가장 관심도가 높을 것으로 예상되는 상품 또는 서비스를 선별하여 표시되는 것일 수도 있다. 예를 들어, 상기 대화방에서 사용자와 수의사 간에 반려동물의 찢어진 피부에 대한 대화가 오고가는 것으로 판단된 경우, 더 구체적으로 반려동물의 찢어진 피부를 회복시키기 위한 조언을 구하는 과정에서 등장할 수 있는 몇몇 키워드들이 대화 내용 중에서 포착된 경우, 해당 광고창(QQ)에는 상처 치료에 바를 수 있는 연고제의 광고 콘텐츠, 또는 이러한 류의 상처를 치료하는 전문 동물병원의 광고 콘텐츠가 표시될 수 있다.
도 17은 채팅 기능 이용 시 사용자로부터 대화 초대를 받은 상대방 단말기에서 보이는 사용자 인터페이스의 일 예시를 도시한 것으로, 예를 들어 일반 사용자가 외부 전문가(수의사)를 대화 상대로 초대하였을 때 외부 전문가(수의사) 단말기 상에서 보이는 인터페이스를 도시한 것이다.
도 17(a)를 참조할 때, 외부 전문가 단말기 상에서는 누가 자신을 초대하고 있는지에 대한 메시지(RR)가 표시될 수 있으며, 또한 어플리케이션 아이콘에는 푸시 알람 메시지가 표시(SS)될 수 있다. 도 17(b)를 참조할 때, 상대방으로부터 몇 개의 대화 메시지가 아직 읽지 않은 상태로 남아 있는지가 표시(TT)될 수 있다.
도 18은 채팅 기능을 이용하는 중 관찰정보를 다운로드 하는 모습을 도시한 것이다. 도 18은 일반 사용자가 자신이 서비스 서버(200) 상에 업로드 해 두었던 관찰정보를 다시 다운로드 받는 경우, 또는 외부 전문가가 상기 일반 사용자가 서비스 서버(200)에 업로드 해 둔 관찰정보를 다운로드하여 해당 관찰정보를 공유받는 경우에 표시될 수 있는 인터페이스로 이해될 수 있다.
도 18(a)는 일반 사용자가 등록해 둔 반려동물의 목록이 표시(UU)되는 모습으로, 만일 복수 개의 반려동물을 등록해 두었다면 복수 개의 아이콘들 - 이 때 아이콘들은 반려동물의 종을 구별할 수 있도록 서로 상이한 그림을 포함함 - 이 화면 상에 표시될 것이다. 다른 한편, 화면에는 선택된 반려동물에 대한 개체모델이 더 표시(2000)될 수도 있다.
도 18(b)는 사용자가 서비스 서버(200)로부터 다운로드 받은 데이터를 확인할 수 있는 사용자 인터페이스의 일 예시를 도시한 것으로, 여기에서는 기존에 사용자 디바이스 내 메모리에 저장되어 있는 관찰정보는 흰색(-10일째 관찰정보)으로, 그리고 새롭게 다운로드 받은 관찰정보는 파란색(-5일 및 -30일째 관찰정보)으로 표시가 되고 있음을 확인할 수 있다.
이상 채팅이 가능한 인터페이스에 대해 살펴보았다.
한편, 본 발명에 따라 제공되는 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하기 위한 방법에서는 비단 하나의 개체 모델만이 로드되는 실시예뿐만 아니라 이종(異種)의 개체 모델들이 모두 로드되는 실시예가 가능하도록 구현될 수도 있다.
도 19에는 개(dog)의 개체 모델(2000)과 사람의 개체 모델(3000)이 한 화면 내에 동시에 로드된 실시예가 도시(도 19의 (a))되어 있는데, 이와 같이 본 발명에 따라 제공되는 방법에서는 이종의 개체 모델들이 동시에 로드 된 상태의 사용자 인터페이스도 제공될 수 있다. 즉, 본 발명에서는 이종의 개체 모델들에 대해서도 관찰정보 기록이 가능하도록 환경을 제공할 수 있는데, 이처럼 이종 개체 모델들에 대한 관찰정보는 서로 다른 개체가 상호 어떤 관계를 가지는지, 또는 상호 어떤 영향을 미칠 수 있는지를 사용자 자신, 또는 외부 전문가로 하여금 파악할 수 있게 하며, 나아가 이러한 관찰정보들이 누적되어 분석되는 경우에는 이종 개체 간 상호 어떤 영향을 미치는지에 대해 체계적인 이론의 정립도 가능하게 될 수 있다.
특히, 최근에는 보호자와 반려동물이 같은 공간 내에서 생활하면서 발견되는 여러 이벤트들, 또는 보호자와 반려동물이 가지는 교감 등에 대한 관심이 증가하면서 이들 사이의 관계에 대한 연구가 이루어지고 있다. 예를 들어, 선별된 혹은 일반적인 개를 폐암, 유방암, 당뇨 혹은 직장암을 앓고 있는 각각의 사람에서 그 해당 암 시료의 냄새를 맡게 하고, 이에 대해 멈추어 앉거나, 짖거나, 혹은 빤히 쳐다보게 하는 등 특이적 질병발견 행동을 하도록 훈련시킨 후에, 여러 무작위의 사람들 혹은 주인의 호흡기 부위, 유방, 소변 혹은 배속 부위 대한 냄새를 맡은 후, 어느 사람이 어떤 암에 걸린 환자인지를 상기 특징적인 질병발견의 행동을 보여줌으로써, 조기에, 즉, 치료적으로 매우 유용한 골든 타이밍에 판별할 수 있게 하는 능력의 개의 사례가 보고된 바 있으며, 현재 반려견이 이러한 질병 상황을 인지하여 평상시와 다른 행동을 할 수 있음이 알려져 있다. 이러한 질병탐지견은 그 보다 더 오래전부터 공항에서 활동하고 있는 다양한 훈련된 마약탐지견이 있다는 일반적인 실제 예를 고려해 볼 때, 매우 가능한 적용 사례 등임을 이해한다.
본 발명은 사람(보호자)와 반려동물(반려견) 사이의 위와 같은 관계들을 보다 광범위하게, 그리고 체계적으로 관찰하기 위하여 도 19에서와 같은 사용자 인터페이스를 제공함으로써 이종 개체에 대한 관찰정보를 수집할 수 있도록 구현될 수 있다.
도 19(b)는 사람 개체 모델(3000)과 동물 개체 모델(2000) 상에 앞서 설명한 브러쉬 입력을 함으로써 이종 개체 간에 어떤 상황에서 어떤 관계가 있는지를 기록하도록 할 수 있다. 도 19(b)는 사람 개체 모델(3000)의 소변 냄새를 맡고 있는 동물 개체 모델(2000)을 표시하고자 한 것으로, 이를 표시하기 위해 사용자는 마커(M)를 이용하여 사람 개체 모델(3000)의 성기 부분에 노란색 브러쉬 입력(3100)을 할 수 있으며, 동물 개체 모델(2000)의 코 부분에도 노란색 브러쉬 입력(2100)을 할 수 있다. 도 19에서 사람 개체 모델 및 동물 개체 모델 상에 표시되는 브러쉬 입력은 상호 간에 관련성이 있어 보이는 부분을 사용자가 표시한 것일 수 있으며, 또한 사용자는 상기 브러쉬 입력의 색깔을 달리 함으로써 브러쉬 입력이 이루어진 부분의 정도를 달리 나타낼 수도 있다. 예를 들어, 사람의 소변 색깔이 붉은색인 경우 사람 개체 모델(3000)의 성기 부분에는 빨간색 브러쉬 입력이 이루어질 수 있으며, 이에 대응하여 반려동물이 사람의 성기 부분 주위에 대해 냄새를 맡는 행동이 매우 적극적으로 이루어지고 있다면 사용자는 동물 개체 모델(2000)의 코 부분에도 빨간색 브러쉬 입력을 함으로써 행동의 정도가 매우 활발함을 나타낼 수도 있다. 이 경우에는 당뇨 외에도 비뇨기계 질병 혹은 전립선암의 경우에도 해당될 수 있음을 이해한다. 한편, 위 언급한 내용은 하나의 실시예를 설명한 것에 불과할 뿐이며, 개체 모델의 종류, 그리고 개체 모델의 임의 부위에 브러쉬 입력이 이루어지는 다양한 상황에는 그 종류의 제한이 없음을 이해해야 할 것이다.
한편, 도 19(b)에는 사람 개체 모델(3200)이 도 19(a) 대비 회전되어 있는 상태임을 확인할 수 있는데, 본 발명에서 제공되는 사용자 인터페이스에서는 개체 모델의 클릭 후 사용자의 드래깅 입력 등에 의해 해당 개체 모델의 회전이 자유롭게 이루어질 수 있도록 할 수 있다. 이 과정에서 도면부호 3200과 같은 버튼이 더 제공될 수 있다.
도 20은 이종 개체 모델들이 로드되는 앞선 실시예가 더 확장된 것으로, 복수 개의 이종 개체 모델들이 한 화면 상에 모두 표시된 실시예를 도시한 것이다. 본 발명에 따른 방법에서 제공되는 사용자 인터페이스에서는 예를 들어 여러 종류의 반려동물을 키우는 한 가족들이 모두 로드되도록 구현될 수 있으며, 이를 도 20과 같이 표시되도록 할 수 있다. 이와 같은 실시예의 경우, 이종 개체들 간의 상호 관계에 대해 종합적으로 파악할 수 있는 관찰정보의 생성이 가능하게 된다. 즉, 사람 개체 모델1(아버지)과 동물 개체 모델1(개) 사이의 관찰정보, 사람 개체 모델2(어머니)와 동물 개체 모델2 (고양이) 사이의 관찰정보 등등이 앞서 설명한 것과 같은 방식으로 기록될 수 있다. 참고로, 도 20에 도시되어 있는 사용자 인터페이스 상태에서 사용자는 임의의 개체 모델을 선택하고 순차적으로 다음 개체 모델을 선택함으로써 어느 이종 개체 사이의 관찰정보를 입력할 것인지 정할 수 있으며, 화면 상에는 사용자에 의해 선택된 개체 모델들만 표시되도록 하여 도 19와 같은 입력 가능 상태가 되도록 할 수 있다. 다른 한편, 도 20을 참조할 때, 사용자 인터페이스에서는 개체 모델들을 추가할 수 있는 도구(4000)가 제공될 수 있다. 개체 모델들을 추가할 수 있는 도구(4000)는 실제 화면 상에서 각 개체모델들이 배열되어 있는 것과 동일한 형태의 배열로 표시될 수 있으며, 이는 도 20에서 보이는 바와 같다. 다른 한편, 상기 개체 모델들을 추가할 수 있는 도구는 4000a와 같이 사용자가 쉽게 인지할 수 있는 아이콘 모양으로도 표시될 수 있다. 다른 한편, 화면 우측에 배열되어 있는 도구들 중 개체를 변경/선택, 추가하기 위한 도구는 도면부호 2200a와 같이 이종 개체를 포함하는 형태로 표시될 수 있다.
이상 도 19 및 도 20을 참조하여 본 발명에 따라 제공되는 사용자 인터페이스 상에서 목수의 이종 개체들에 대해서도 관찰정보가 입력되는 실시예에 대해 살펴보았다.
지금까지의 설명에서는 개체 모델이 3차원으로 모델링 된 상태에서 다양한 입력들이 가능한 실시예에 대해 설명하였다. 예를 들어, 도 7 내지 도 9에서는 3차원으로 모델링 된 개체 모델(2000) 상에서 마커(M)가 표시될 수 있음에 대하여, 그리고 마커(M)가 위치한 점에 브러쉬 입력이 가능함에 대하여 설명하였다.
한편, 본 발명에 따른 방법에서는 3차원 개체 모델 상에 입력된 정보들을 2차원 정보로 변환하여 이를 저장하거나 분석을 위한 데이터로 저장 및 활용할 수 있다. 또한 전문가 및 연구개발자 등 외부와 공유할 수도 있다. 이미지에 대한 데이터 처리를 위해서는 3차원으로 구현된 복잡한 이미지 데이터, 즉, 3차원 입체좌표 데이터도 좋지만, 이 보다는 2차원 평면으로 이루어진 단순한 이미지 데이터로 할 수 있다면 작업의 효율성 측면에서 훨씬 장점이 있을 수 있다. 특히 데이터를 처리하는 속도면에서는 2차원 이미지 데이터를 처리하는 것이 크게 유리할 수 있는데, 본 발명에서는 이러한 점에 착안하여 애초 사용자로부터 3D 개체 모델에 입력을 받았던 것을 2차원 개체 모델 상의 입력으로 변환이 가능하게 함으로써 데이터 처리 면에 있어서의 성능 및 분석의 효율성과 처리속도 등을 개선시키고자 하였다. 이렇게 2차원 이미지 데이터로 변환하여 관찰정보들을 누적 저장시키는 경우 특히 빅데이터 분석을 수행함에 있어 효율성이 크게 개선될 것으로 기대되며, 또한 후술하게 될 바와 같이 본 발명에서는 정해진 규격의 표준 2차원 모델로의 변환까지 하도록 구현되는데, 이 경우 수 많은 다른 종류의 개체나 종들에 대해 표준화 모델과 쉽게 비교가 가능해 지므로 종래에는 파악하기 어려웠던 관찰정보로부터의 다양한 발견이 이루어질 수 있을 것으로 기대된다.
도 21은 도 7 내지 도 9에서 소개되었던 3D 개체 모델(2000)을 2차원 개체 모델로 변환한 것을 나타낸 것으로, 도 21에 보이는 바와 같이 개체 모델은 하나의 축(axis)을 중심으로 양쪽으로 펼쳐져 표시될 수 있다. 한편, 2차원의 개체 모델이 평면 상에 표시될 때에는 여러 부분으로 나뉘어 표시될 수 있는데, 예를 들어 도 21에 도시되어 있는 것과 같이 개체의 몸체(5000), 개체의 눈(5010), 개체의 코(5020) 등 부분이 나열될 수 있다. 또한 도 9에서는 개체 모델(2000)의 이마 부분에 브러쉬 입력이 이루어지는 실시예에 대해 설명한 바 있는데, 이러한 브러쉬 입력 역시 2차원 개체 모델 상에 동일한 위치에 표시될 수 있다. 이렇게 2차원 개체 모델로의 변환을 위해서는 3차원 개체 모델의 표면 각 좌표가 2차원 개체 모델의 각 좌표와 대응될 것이 전제되어야 할 것이며, 또한 3차원 개체 모델의 눈, 코 부위 역시 2차원 객체 모델의 평면에 배열된 눈, 코의 좌표와 대응되어 있을 것을 전제로 한다.
참고로 도 21에서와 같은 2차원 개체 모델은 도 7 내지 도 9의 3차원 개체 모델이 제공될 때에 함께 제공될 수도 있으며, 예를 들어 화면에는 2차원 개체 모델과 3차원 개체 모델 사이를 전환할 수 있는 버튼이 제공되어 사용자로 하여금 해당 버튼의 클릭에 따라 2차원 또는 3차원의 개체 모델이 화면 상에 표시되도록 할 수 있다. 이를 통하여, 3차원 개체 모델 상에서의 마커 이동 등 조작에 어려움을 느끼는 사용자는 2차원 개체 모델이 화면 상에 표시된 상태에서 마커의 이동 및 브러쉬 입력이 가능하게 함으로써 사용자 편의성을 높일 수 있다.
한편, 본 발명에 의해 제공되는 방법에서는 2차원 개체 모델을 다시 표준 규격의 2차원 개체 모델(이하 표준 2차원 개체 모델이라 칭함)로 변환함으로써 서로 다른 종류의 종이라 할지라도 동일한 규격, 적어도 유사한 규격의 2차원 개체 모델로 표시가 되도록 할 수 있다. 예를 들어 반려견의 경우만 해도 크기 및 몸체 부위(예, 다리)의 길이 가 매우 다양하여 여러 사용자들로부터 여러 반려견에 대한 개체 모델 입력을 받게 되는 경우 각기 다른 크기의 2차원 개체 모델들이 수집될 수 있는데, 이 경우 2차원으로 이미지 변환을 해 가면서까지 데이터 처리 부담을 줄이려 한 노력이 큰 효과를 얻지 못할 수 있다. 이러한 문제를 해소하기 위하여 본 발명에서는 서로 다른 크기의 2차원 개체 모델들에 대한 관찰정보가 수집되더라도 표준 규격의 2차원 개체 모델로 변환이 이루어지게 함으로써 여러 개체 모델들에 대해 이미지 비교 등의 데이터 처리가 쉽게 이루어지게 할 수 있다.
도 22는 앞서 설명한 2차원 개체 모델의 표준 2차원 개체 모델로 변환된 모습을 나타낸 것이다. 표준 2차원 개체 모델이란, 개체 모델을 표시하기 위한 복수의 파라미터들이 사전에 정해져 있는 2차원의 모델을 의미하는 것으로, 예를 들어 축(axis)의 위치가 정해져 있고, 개체를 구성하는 각 부분들(눈, 코, 이빨, 발톱 등)의 배열 위치가 사전에 정해져 있는 등 다양한 파라미터들이 사전에 정해져 있는 표준화된 몸체분해 맵(Map) 모델을 의미한다. 한편, 크기가 작은 개체 모델을 표준 2차원 개체 모델로 변환하는 경우에는 개체의 크기를 확장시켜 표준 2차원 개체 모델에 가장 가까운 크기로 변환이 이루어지도록 할 수 있으며, 다만 이 경우에 해당 개체의 비율들(예: 몸통 대비 다리의 길이 비율, 몸통 대비 코 길이의 비율 등)은 유지가 되도록 함이 바람직하다. 이와 같이 표준 2차원 개체 모델로의 변환을 적극적으로 활용하는 경우 비록 몸집이 다른 개체들에 대하여 관찰정보들이 수집될지라도 상호 비교를 위한 데이터 처리의 부담이 덜어짐으로써 더 많은 새로운 정보들을 관찰정보들에 대한 빅데이터 분석으로부터 얻을 수 있게 될 것이다.
이상 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하기 위한 방법 및 이러한 방법을 실행시키기 위한 저장 매체에 대해 살펴보았다. 한편, 본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.
사용자 단말기 100
서비스 서버 200
외부 전문가 단말기 300

Claims (10)

  1. 사용자 단말기에서 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법에 있어서,
    (a) 사용자로부터 회원정보를 입력 받는 단계;
    (b) 상기 사용자의 회원정보와 대응되는 복수의 3차원의 개체 모델들을 로드하는 단계;
    (c) 상기 복수의 개체 모델들이 로드 된 상태에서 제공되는 사용자 인터페이스를 통하여 상기 개체 모델들에 대한 관찰정보를 입력 받는 단계;
    (d) 상기 입력 받은 관찰정보를 네트워크를 통하여 타 사용자 단말기로 공유하는 단계;
    를 포함하되,
    상기 사용자 인터페이스는 관찰정보 입력을 위한 복수 개의 관찰정보 입력도구들을 포함하고, 상기 관찰정보 입력도구들은,
    상기 개체 모델 상에 적어도 하나의 색깔을 입력할 수 있는 브러쉬 입력도구;
    상기 개체 모델에 대한 텍스트를 입력할 수 있는 텍스트 입력도구;
    상기 개체 모델에 대응되는 개체에 대한 사진 또는 동영상을 입력할 수 있는 촬영 입력도구;
    누적적으로 저장된 관찰정보를 시간 순서에 따라 조회하기 위한 정보조회도구;
    개체를 변경, 선택, 또는 추가하기 위한 도구;
    채팅 기능을 실행시키기 위한 채팅개시도구; 및
    입력된 관찰정보를 저장 및 업로드 하기 위한 저장 및 업로드 도구;
    를 포함하며,
    상기 브러쉬 입력도구, 텍스트 입력도구, 촬영 입력도구, 및 저장 및 업로드 도구는 일 방향으로 순서대로 배열되되, 상기 관찰정보 입력도구들은 사용자에 의해 전 단계의 입력이 마쳐진 경우에만 다음 단계로 진행되는 것을 특징으로 하고,
    사용자에 의해 상기 정보조회도구가 선택되었을 때 과거로부터 현재까지 누적 저장된 관찰정보들을 탐색하기 위한 슬라이드 형태의 정보탐색도구가 표시되며,
    사용자에 의해 상기 채팅개시도구가 선택되었을 때, 타 사용자를 초대하여 관찰정보를 공유하고 상기 관찰정보에 기초한 상기 타 사용자의 의견을 수신할 수 있는 채팅방이 표시되는 것을 특징으로 하고,
    상기 (b)단계는, 복수의 개체 모델들을 로드하되, 상기 복수의 개체 모델들 중 적어도 두 개의 개체 모델들은 이종(異種)이고,
    상기 (c)단계는,
    상기 복수의 개체 모델들 중 어느 하나의 개체 모델에 대한 제1 관찰정보를 입력 받는 단계; 및
    상기 복수의 개체 모델들 중 상기 어느 하나의 개체 모델과 이종(異種)인 다른 개체 모델에 대한 제2 관찰정보 - 상기 제2 관찰정보는 상기 제1 관찰정보와 상호 대응되며, 상기 제2 관찰정보 및 제1 관찰정보는 이종 개체들 간의 상호 관계를 파악하기 위한 것임 - 를 입력 받는 단계;
    를 포함하는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 브러쉬 입력도구는,
    브러쉬의 크기를 선택하는 메뉴, 입력 초기화 메뉴, 입력 취소 메뉴, 다음 단계 진행 메뉴, 및 색깔을 선택하는 메뉴를 포함하는 제1메뉴집합; 및
    상기 개체의 기분정도 및 활동정도를 입력하는 메뉴를 포함하는 제2메뉴집합;
    을 포함하되,
    상기 제1메뉴집합은, 사용자에 의해 상기 브러쉬 입력도구가 선택되었을 때 선(先) 표시되며,
    상기 제2메뉴집합은, 상기 제1메뉴집합 중 다음 단계 진행 메뉴가 선택되었을 때 표시 - 상기 제2메뉴집합이 표시될 때에 상기 제1메뉴집합은 표시되지 않음 - 되는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  4. 제 3항에 있어서,
    상기 브러쉬 입력도구, 텍스트 입력도구, 촬영 입력도구, 및 저장 및 업로드 도구는 사용자 단말기의 화면 내에서 좌측 또는 우측 변을 따라 아래 방향으로 순서대로 배열되며,
    상기 각각의 입력도구에 대응되는 메뉴집합 또는 메뉴들은 상기 각 입력도구와 동일한 높이로부터 표시되는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제 1항에 있어서,
    상기 (c)단계 이후,
    관찰정보가 입력된 상기 3차원의 개체 모델을 2차원의 개체 모델로 변환하는 단계;를 더 포함하는 것을 특징으로 하는,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법.
  10. 임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법을 수행하기 위한 명령어들이 저장된 컴퓨터 판독 가능한 저장 매체에 있어서,
    임의 개체에 대한 관찰정보 입력 및 공유 서비스를 제공하는 방법은,
    (a) 사용자로부터 회원정보를 입력 받는 단계;
    (b) 상기 사용자의 회원정보와 대응되는 복수의 3차원의 개체 모델들을 로드하는 단계;
    (c) 상기 복수의 개체 모델들이 로드 된 상태에서 제공되는 사용자 인터페이스를 통하여 상기 개체 모델들에 대한 관찰정보를 입력 받는 단계;
    (d) 상기 입력 받은 관찰정보를 네트워크를 통하여 타 사용자 단말기로 공유하는 단계;
    를 포함하되,
    상기 사용자 인터페이스는 관찰정보 입력을 위한 복수 개의 관찰정보 입력도구들을 포함하되 상기 관찰정보 입력도구들은,
    상기 개체 모델 상에 적어도 하나의 색깔을 입력할 수 있는 브러쉬 입력도구;
    상기 개체 모델에 대한 텍스트를 입력할 수 있는 텍스트 입력도구;
    상기 개체 모델에 대응되는 개체에 대한 사진 또는 동영상을 입력할 수 있는 촬영 입력도구;
    누적적으로 저장된 관찰정보를 시간 순서에 따라 조회하기 위한 정보조회도구;
    개체를 변경, 선택, 또는 추가하기 위한 도구;
    채팅 기능을 실행시키기 위한 채팅개시도구; 및
    입력된 관찰정보를 저장 및 업로드 하기 위한 저장 및 업로드 도구;
    를 포함하며,
    상기 브러쉬 입력도구, 텍스트 입력도구, 촬영 입력도구, 및 저장 및 업로드 도구는 일 방향으로 순서대로 배열되되, 상기 관찰정보 입력도구들은 사용자에 의해 전 단계의 입력이 마쳐진 경우에만 다음 단계로 진행되는 것을 특징으로 하고,
    사용자에 의해 상기 정보조회도구가 선택되었을 때 과거로부터 현재까지 누적 저장된 관찰정보들을 탐색하기 위한 슬라이드 형태의 정보탐색도구가 표시되며,
    사용자에 의해 상기 채팅개시도구가 선택되었을 때, 타 사용자를 초대하여 관찰정보를 공유하고 상기 관찰정보에 기초한 상기 타 사용자의 의견을 수신할 수 있는 채팅방이 표시되는 것을 특징으로 하고,
    상기 (b)단계는, 복수의 개체 모델들을 로드하되, 상기 복수의 개체 모델들 중 적어도 두 개의 개체 모델들은 이종(異種)이고,
    상기 (c)단계는,
    상기 복수의 개체 모델들 중 어느 하나의 개체 모델에 대한 제1 관찰정보를 입력 받는 단계; 및
    상기 복수의 개체 모델들 중 상기 어느 하나의 개체 모델과 이종(異種)인 다른 개체 모델에 대한 제2 관찰정보 - 상기 제2 관찰정보는 상기 제1 관찰정보와 상호 대응되며, 상기 제2 관찰정보 및 제1 관찰정보는 이종 개체들 간의 상호 관계를 파악하기 위한 것임 - 를 입력 받는 단계;
    를 포함하는 것을 특징으로 하는,
    컴퓨터 판독 가능한 저장 매체.
KR1020190145528A 2019-11-14 2019-11-14 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체 KR102170991B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190145528A KR102170991B1 (ko) 2019-11-14 2019-11-14 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
KR1020200068250A KR20210058630A (ko) 2019-11-14 2020-06-05 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
JP2022528351A JP2023501811A (ja) 2019-11-14 2020-11-13 オブジェクトに対する観察情報の入力及び共有サービスを提供するための方法、及びコンピューターで判読可能な記録媒体
US17/607,016 US11847296B2 (en) 2019-11-14 2020-11-13 Method for inputting and sharing of observation information on the object, and a computer-readable storage medium
PCT/KR2020/015952 WO2021096276A1 (ko) 2019-11-14 2020-11-13 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190145528A KR102170991B1 (ko) 2019-11-14 2019-11-14 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200068250A Division KR20210058630A (ko) 2019-11-14 2020-06-05 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Publications (1)

Publication Number Publication Date
KR102170991B1 true KR102170991B1 (ko) 2020-10-28

Family

ID=73018242

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190145528A KR102170991B1 (ko) 2019-11-14 2019-11-14 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
KR1020200068250A KR20210058630A (ko) 2019-11-14 2020-06-05 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200068250A KR20210058630A (ko) 2019-11-14 2020-06-05 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Country Status (4)

Country Link
US (1) US11847296B2 (ko)
JP (1) JP2023501811A (ko)
KR (2) KR102170991B1 (ko)
WO (1) WO2021096276A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021096276A1 (ko) * 2019-11-14 2021-05-20 주식회사 헬스케어뱅크 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
WO2024039943A1 (en) * 2022-08-16 2024-02-22 Mars, Incorporated Systems and methods for a three-dimensional digital pet representation platform

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11894143B2 (en) * 2013-08-27 2024-02-06 Whiskers Worldwide, LLC System and methods for integrating animal health records

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361554B1 (en) 2002-01-22 2002-11-22 Ilisoft Co Kr Apparatus and method for diagnosing pain
JP2013248375A (ja) * 2012-06-01 2013-12-12 Toshiba Corp コンピュータシステム、医用画像診断装置、画像表示方法、及び画像表示プログラム
WO2015174425A1 (ja) * 2014-05-12 2015-11-19 織田 聡 鍼灸治療支援端末装置及び医療支援システム
KR20170123368A (ko) * 2016-04-28 2017-11-08 제이예스주식회사 이종의 데이터 수집을 이용한 건강 관리 예측 서비스 제공 방법
KR20190063595A (ko) * 2017-11-30 2019-06-10 안세종 Sns 기반 인맥 관리 장치

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050043180A (ko) * 2003-11-05 2005-05-11 최창구 인터넷을 통한 실시간 성형수술 상담 시스템 및 그 방법
DE102008038357B3 (de) * 2008-08-19 2010-01-14 Siemens Aktiengesellschaft Verfahren zur Erzeugung von 2D-Schnittbildern aus 3D-Projektionsdaten, die mittels eines CT-Systems von einem metallische Anteile enthaltenden Untersuchungsobjekt erfasst wurden
US8971623B2 (en) * 2012-03-06 2015-03-03 Apple Inc. Overlaid user interface tools for applying effects to image
US9811933B2 (en) * 2014-06-20 2017-11-07 Google Inc. Image editing using selective editing tools
US20160371457A1 (en) * 2015-06-22 2016-12-22 Sonja Zillner System and Method for Data Analyzing of Health-Related Data
KR102170991B1 (ko) * 2019-11-14 2020-10-28 주식회사 헬스케어뱅크 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361554B1 (en) 2002-01-22 2002-11-22 Ilisoft Co Kr Apparatus and method for diagnosing pain
JP2013248375A (ja) * 2012-06-01 2013-12-12 Toshiba Corp コンピュータシステム、医用画像診断装置、画像表示方法、及び画像表示プログラム
WO2015174425A1 (ja) * 2014-05-12 2015-11-19 織田 聡 鍼灸治療支援端末装置及び医療支援システム
KR20170123368A (ko) * 2016-04-28 2017-11-08 제이예스주식회사 이종의 데이터 수집을 이용한 건강 관리 예측 서비스 제공 방법
KR20190063595A (ko) * 2017-11-30 2019-06-10 안세종 Sns 기반 인맥 관리 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021096276A1 (ko) * 2019-11-14 2021-05-20 주식회사 헬스케어뱅크 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
US11847296B2 (en) 2019-11-14 2023-12-19 Healthcare Bank Co., Ltd. Method for inputting and sharing of observation information on the object, and a computer-readable storage medium
WO2024039943A1 (en) * 2022-08-16 2024-02-22 Mars, Incorporated Systems and methods for a three-dimensional digital pet representation platform

Also Published As

Publication number Publication date
US11847296B2 (en) 2023-12-19
WO2021096276A1 (ko) 2021-05-20
US20220334705A1 (en) 2022-10-20
KR20210058630A (ko) 2021-05-24
JP2023501811A (ja) 2023-01-19

Similar Documents

Publication Publication Date Title
Esteva et al. Deep learning-enabled medical computer vision
US11847296B2 (en) Method for inputting and sharing of observation information on the object, and a computer-readable storage medium
Lupton Digital health: critical and cross-disciplinary perspectives
CN108028077B (zh) 用于整合临床护理的信息学平台
US8843852B2 (en) Medical interface, annotation and communication systems
JP2017529880A (ja) 健康データアグリゲータ
US11900266B2 (en) Database systems and interactive user interfaces for dynamic conversational interactions
US8700432B2 (en) Method and system for cutaneous medicine diagnostics
CN104427942A (zh) 测量辅助装置、测量辅助方法、控制程序和记录介质
Marrero-Fernández et al. Evaluating the research in automatic emotion recognition
Martin-Khan et al. The evolution of telehealth
Swerdlow et al. Initial clinical experience with a simple, home system for early detection and monitoring of diabetic foot ulcers: the foot selfie
EP3425586A1 (en) Apparatus and method for assisting in medical consultation
KR102227833B1 (ko) 진료 매칭 방법 및 이를 수행하는 전자 장치
Loder et al. Confronting Dr Robot: creating a people-powered future for AI in health
US20180189451A1 (en) Measuring somatic response to stimulus utilizing a mobile computing device
US20230400971A1 (en) Method for providing service that inputs and shares entity observation information, and computer-readable storage medium
Byrne et al. An evaluation of graphical formats for the summary of activities of daily living (ADLs)
JP2020194434A (ja) 情報処理装置、方法およびプログラム
Morya et al. Evaluating the viability of a smartphone-based annotation tool for faster and accurate image labelling for artificial intelligence in diabetic retinopathy
Wongvibulsin et al. Embracing machine learning and digital health technology for precision dermatology
KR20210060193A (ko) 반려동물 상태분석 서비스를 제공하는 방법 및 장치
Drugge et al. Temporal image comparison (serial imaging) in assessing pigmented lesions
JP6969839B1 (ja) 電子カルテシステムおよびプログラム
Mashinchi Dashboards for Supporting Cancer Care in Value-based Healthcare Context–Information Needs, Design Principles and Acceptance

Legal Events

Date Code Title Description
GRNT Written decision to grant