JP2023501811A - オブジェクトに対する観察情報の入力及び共有サービスを提供するための方法、及びコンピューターで判読可能な記録媒体 - Google Patents

オブジェクトに対する観察情報の入力及び共有サービスを提供するための方法、及びコンピューターで判読可能な記録媒体 Download PDF

Info

Publication number
JP2023501811A
JP2023501811A JP2022528351A JP2022528351A JP2023501811A JP 2023501811 A JP2023501811 A JP 2023501811A JP 2022528351 A JP2022528351 A JP 2022528351A JP 2022528351 A JP2022528351 A JP 2022528351A JP 2023501811 A JP2023501811 A JP 2023501811A
Authority
JP
Japan
Prior art keywords
input
user
observation information
tool
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022528351A
Other languages
English (en)
Inventor
ホ テ、ジュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Healthcare Bank Co Ltd
Original Assignee
Healthcare Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Healthcare Bank Co Ltd filed Critical Healthcare Bank Co Ltd
Publication of JP2023501811A publication Critical patent/JP2023501811A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Medical Informatics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Operations Research (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本発明は、任意のオブジェクトに対する観察情報の入力及び共有サービスを提供するための方法、そしてこのような方法を実行させるためのコマンドが保存されたコンピューターで判読可能な記録媒体に関することだ。【選択図】図9

Description

本発明は任意のオブジェクトに対する観察情報の入力及び共有サービスを提供するための方法、そしてこのような方法を実行させるためのコマンドが保存されたコンピューターで判読可能な記録媒体に関することである。
デバイス及びネットワークの発達が飛躍的に進行しながら、様々な分野、様々な種類の情報を共有できる環境が造成されていて、またこのような情報共有の需要は技術及び産業発達によって持続的に増加している。
一方、オブジェクトに対する観察情報、その中でも特に任意のオブジェクトのヘルスケア情報または医療関連情報を共有できるシステム及び方法論に対しても多くの需要があって、最近までも様々な形の情報共有のためのシステムが提案されている。
しかし、従来の観察情報を共有するためのシステムは、グラフィック基盤の物ではなく、情報を共有してもらうユーザーの立場で、該当オブジェクトに対する観察情報を理解しにくい問題点があったし、グラフィック基盤の情報共有システムと言っても、大体2Dグラフィックを基盤にしたものなので、やはりユーザーにとって直観的な入力と直観的な理解をしにくくするとか、または3Dグラフィックを基盤としたものでも、多くの説明と分割されたボックスの構成で、ユーザーの直観的な入力が難しいほど注意を散漫に(distracted)して、ユーザーがこのようなシステムを利用する時に妨害になる問題点があった。
本発明は任意のオブジェクトに対する観察情報を簡単に共有できるようにするための環境を提供しようとしたもので、3D基盤のグラフィックインターフェースを利用するとともに、ユーザーが入力直前の初期直観性に集中するように、簡単で、速く、面白く観察情報を入力できるようにする長所があるだけではなく、例えば、一般ユーザー側の入力インターフェース上に自然に内在するように考案されて用意された3D基盤の立体的位置と関連機能などは、多様な専門分野(解剖、病理、イメージング、様々な医療、バイオ、臨床、気候、農学、データサイエンス、人工知能など)別に有用な情報獲得の環境とデータ蓄積をさせることで、一般ユーザー間、専門家間、あるいは一般ユーザーと専門家間で入力された直観的な観察情報が両方向に疎通・共有されて、体系的でかつ合理的に分析・活用されて、適切な対応、サービス及び措置などが行われるようにするなどに対する方法に関することだ。
本発明はこのような問題点に着眼して導出されたもので、前記で記述した技術的な問題点を解消させられることは勿論、本技術分野で通常の知識を持つ者が容易に発明できない追加的な技術要素を提供するために発明された。
大韓民国登録特許公報第10-0361554号(2002.11.22.)
本発明はユーザーが任意オブジェクトに対する観察情報を簡単に入力できるようにインターフェースを提供することを目的とする。具体的には、ユーザーが人、動物などのオブジェクトが3Dモデルに実現された状態で、該当3Dモデル上で様々な情報を入力できるようにすることを目的とする。特に、ユーザーにとって入力をする直前の感じと記憶が、最大限にそのまま維持・集中されるようにすることで、前記任意のオブジェクトに対する入力が初期の感じと記憶のように直観的で正確に入力できるようにすることを目的とする。
本発明は、特に外観上で確認される異常有無、例えば、傷の状態及び程度、痛みの程度と感じなどを直観的でかつ事実的に表示すると同時に、デジタルデータ化ができるようにすることで、ユーザーがこのような該当オブジェクトに対する観察情報を累積的に記録して、後で読み取った時に追後オブジェクトの傷または症状の改善や悪化の程度を簡単で明瞭に把握できるようにするし、ひいては前記のオブジェクトの観察情報を共有してもらう者にとっても、簡単、迅速、正確、明瞭に該当オブジェクトの状態を把握できるようにすることを目的とする。
また、本発明は先立って入力された観察情報を迅速、正確、精緻に外部専門家(例:医療スタッフ)あるいは知人(例:家族、友達、事業主など)を含めた外部人たちと共有できるようにすることを目的とする。具体的に、先立ってユーザーが任意のオブジェクトに対する観察情報を入力完了した後、情報共有サービスを実行させた時、該当観察情報が医者または獣医、またはヘルスケア/保健などの関連者、その外の知人に伝達されるようにすることで、他人がオブジェクトの現在状態を速く分かりやすく認知して、それによる適切でかつ正しい対応及び指針を出せるようにすることを目的とする。
一方、本発明の技術的な課題は以上で言及した技術的課題に制限されなく、言及されていない他の技術的課題は下の記載から通常の技術者に明確に理解されると思う。
前記のような問題点を解決するために、本発明による任意オブジェクトに対する観察情報の入力及び共有サービスを提供する方法は、(a)ユーザーから会員情報を入力してもらう段階;(b)前記ユーザーの会員情報と対応される3Dオブジェクトモデルをロードする段階;(c)前記オブジェクトモデルがロードされた状態で提供される第1ユーザーインターフェースを通じ、前記オブジェクトモデルに対する観察情報を入力してもらう段階;(d)前記入力された観察情報をネットワークを通じ他のユーザー端末で共有する段階;を含む。
また、前記方法において、前記第1ユーザーインターフェースは、観察情報入力のための複数の観察情報の入力ツールたちを含むが、前記観察情報の入力ツールは、前記オブジェクトモデル上に少なくとも一つの色を入力できるブラッシュ入力ツール;前記オブジェクトモデルに対するテキストを入力できるテキスト入力ツール;前記オブジェクトモデルに対応されるオブジェクトに対する写真または動画を入力できる撮影入力ツール;及び入力された観察情報を保存・アップロードするための保存・アップロードツール;を含んで、前記ブラッシュ入力ツール、テキスト入力ツール、撮影入力ツール、及び保存・アップロードツールは、一方向に順に配列されることを特徴とすることができる。
また、この時に前記ブラッシュの入力ツールは、ブラッシュのサイズを選択するメニュー、入力初期化メニュー、入力キャンセルメニュー、次の段階への進行メニュー、及び色を選択するメニューを含む第1メニューグループ;及び前記オブジェクトの気分程度及び活動程度を入力するメニューを含む第2メニューグループ;を含むが、前記第1メニューグループは、ユーザーによって前記ブラッシュ入力ツールが選択された時に先に表示されて、前記第2メニューグループは、前記第1メニューグループのうち次の段階への進行メニューが選択された時に表示 - 前記第2メニューグループが表示される時に前記第1メニューグループは表示されない - されることを特徴とする。
また、前記ブラッシュの入力ツール、テキストの入力ツール、撮影の入力ツール、及び保存・アップロードツールはユーザー端末の画面内で左側または右側の辺に沿って下方向に順に配列されて、前記それぞれの入力ツールに対応されるメニューグループまたはメニューは、前記各入力ツールと同じ高さから表示されるように実現できる。
また、前記方法において、前記第1ユーザーのインターフェースは、累積的に保存された観察情報を時間順によって照会するための情報照会ツールをさらに含んで、ユーザーによって前記情報照会ツールが選択された時、過去から現在まで累積保存された観察情報を探索するためのスライド形の情報探索ツールが表示されることを特徴とする。
また、前記方法において、前記第1ユーザーインターフェースは、オブジェクトを変更、選択、または追加するためのツールをさらに含むことを特徴とする。
また、前記方法において、前記第1ユーザーインターフェースは、チャット機能を実行させるためのチャット開始ツールをさらに含んで、ユーザーによって前記チャット開始ツールが選択された時、外部専門家を招待して観察情報を共有して、前記観察情報に基づく前記外部専門家の意見を受信できるチャットルームが表示されることを特徴とする。
また、前記方法において、前記の(b)段階は、複数のオブジェクトモデルをロードするが、前記複数のオブジェクトモデルのうち少なくとも二つのオブジェクトモデルは異種であることを特徴とする。
また、前記方法において、前記(c)段階以後、観察情報が入力された前記3Dのオブジェクトモデルを2Dのオブジェクトモデルに変換する段階;をさらに含むことができる。
一方、本発明の他の実施例によるコンピューターで判読可能な記録媒体は、任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法を遂行するためのコマンドが保存されていることがあり、任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法は、(a)ユーザーから会員情報を入力してもらう段階;(b)前記ユーザーの会員情報と対応される3Dのオブジェクトモデルをロードする段階;(c)前記オブジェクトモデルがロードされた状態で提供される第1ユーザーインターフェースを通じ、前記オブジェクトモデルに対する観察情報を入力してもらう段階;(d)前記入力された観察情報をネットワークを通じ他のユーザー端末で共有する段階;を含む。
本発明によれば、ユーザーが任意のオブジェクトに対する観察情報を直観的に、そして簡単に入力できるようになる効果がある。
また、本発明によれば、ユーザーが簡単な入力方法でオブジェクトに対する観察情報を累積的に入力できるようになるし、これによって該当オブジェクトの改善過程を容易に把握できるようになる効果がある。
また、本発明によれば、観察情報を時系列的に一目瞭然するように視覚化してユーザーに見せることで、ユーザーにとってオブジェクトに対して時間による変化を容易に把握できるようにする効果がある。
また、本発明によれば、入力された観察情報を外部専門家、その外の他人と容易に共有可能で、これによって適切な対応、関連会員及び団体との連結、ひいては医療スタッフの診断と応急処置、処方などの指針を早く受けられるようになる効果がある。
また、本発明によれば、入力された観察情報、または外部専門家あるいは他人からの指針と対応される商品情報、サービス情報を容易に接することができるようになるし、これによってユーザーが必要な商品やサービスを簡単に購入できるようになる効果があって、ひいては事業主の立場では商品またはサービスのマーケティング効果を極大化させられる効果もはかることができる。
一方、本発明による効果は、以上で言及したものなどに制限されず、言及されていない他の技術的な効果は、下の記載から通常の技術者に明確に理解されることができる。
本発明による方法を実現するために構築されることができる全体システムを概略的に図示したものである。 本発明による方法を手順によって概略的に図示したものである。 ユーザーのログイン画面を図示したものである。 アプリケーションアクセス情報を伝達する画面及びユーザー分類のために入力を受信する画面を図示したものである。 アプリケーション利用約款を表示する画面を図示したものである。 ユーザーのユーザー情報入力を受信するための画面だ。 オブジェクトモデルがロードされた画面を図示したものである。 観察情報の入力のための画面を図示したものである。 ブラッシュメニューを説明するためのものである。 オブジェクトの気分程度及び活動程度を入力するためのメニューを説明するためのものである。 観察情報をテキスト方式で入力できるようにしたメニューを図示したものである。 実際オブジェクトを撮影する機能を説明するためのものである。 入力された観察情報をアップロードする機能を説明するためのものである。 過去から累積した観察情報を時系列的に照会する機能を説明するためのものである。 オブジェクト、もっと正確には、オブジェクトモデルを変更、選択、追加する機能を説明するためのものである。 本発明による方法のうち提供されるチャット機能を説明するためのものである。 チャット機能を利用時、ユーザーから招待を受けた相手のアプリケーション画面を図示したものである。 チャット機能を利用する中で、観察情報をダウンロードする姿を図示したものである。 異種のオブジェクトモデルが同時にロードされている実施例を図示したものである。 複数の異種のオブジェクトモデルが配列されている実施例を図示したものである。 3Dオブジェクトモデルが2Dオブジェクトモデルに変換された姿を図示したものである。 2Dオブジェクトモデルが再び標準2Dオブジェクトモデルに変換された姿を図示したものである。
本発明の目的と技術的な構成及びそれによる作用効果に関する詳しい事項は、本発明の明細書に添付された図面に基づいた以下の詳細説明によって、より明確に理解される。添付された図面を参照して、本発明による実施例を詳細に説明する。
本明細書で開示される実施例は、本発明の範囲を限定するものと解釈されるか利用されてはいけない。この分野の通常の技術者に本明細書の実施例を含む説明は、多様な応用を持つということが当然だ。よって、本発明の詳細説明に記載した任意の実施例は、本発明をより理解しやすく説明するための例示的なもので、本発明の範囲が実施例に限定されることを意図しない。
図面で表示されて下で説明される機能ブロックは、可能な実現の例のことだけだ。他の実現では、詳細説明の思想及び範囲を脱しない範囲で、他の機能ブロックが使われることができる。また、本発明の一つ以上の機能ブロックが個別ブロックに表示されるが、本発明の機能ブロックのうち一つ以上は、同一機能を実行する多様なハードウェア及びソフトウェア構成の組み合わせになれる。
また、或る構成要素を含むという表現は、「開放型」の表現として、該当の構成要素が存在することを単純に指称するだけで、追加的な構成要素を排除するものと理解してはいけない。
ひいては、或る構成要素が他の構成要素に「繋がって」いるとか「接続されて」いると言及される時は、その他の構成要素に直接的に連結または接続されていることもあるが、中間に他の構成要素が存在することもあると理解しなければならない。
本格的な説明をする前に、まず本発明によって観察情報の入力及び共有サービスを提供するための方法がどんなシステム環境で実現されるかに対して、図1を参照して簡単に調べてみる。
図1は、本発明による方法が提供されるシステムを概略的に図示したもので、このシステムには、ユーザー端末(100)、サービスサーバー(200)、そして外部専門家の端末(300)が図1のようなネットワーク接続状態で存在することができる。本発明で実現しようとする方法の簡単な例示を調べてみる時、例えば、ペットを飼うユーザー(100(a)、100(b))は、自分のペットの外観上の観察情報、痛み、症状、または行動上の観察情報を自分のユーザー端末(100)を通じ入力できるし、ひいては、これと係わることのできるユーザー自身に対する観察情報をさらに入力することができる。このように入力された観察情報は、サービスサーバー(200)に保存されることができるし、保存された観察情報は再び外部専門家、例えば、獣医または医療スタッフに共有されるようにすることで、ユーザー(100(a)、100(b))が獣医または医療スタッフから自分のペットに対する助言を得られる。一方、本発明で実現しようとする方法は、必ずオブジェクトを子犬、猫などのようなペットに限定しなく、本詳細説明で言及されるオブジェクトには、人も含まれるということを理解する。ただし、これからの詳細説明では、発明の理解を助けるためにオブジェクトがペットであることを前提にして説明することを予め言いつけておく。
一方、図1に図示されたシステムを構成する各構成に対して、もっと詳らかに調べて見ると次の通りである。
まず、ユーザー端末に係わって、ユーザー端末はユーザーが保有するかお持ちしている端末を称えるもので、ここでは、スマホ、PDA、タブレットPCなどのように携帯可能な端末は勿論、ホームPCなどのような設置型端末も含まれる。このようなユーザー端末を装置の側面から見る時、各ユーザー端末は中央処理ユニット(CPU)とメモリーを具備していることを前提にする。中央処理ユニットは、コントローラー(controller)、マイクロコントローラー(microcontroller)、マイクロプロセッサー(microprocessor)、マイクロコンピューター(microcomputer)などとも呼ばれることがある。また、中央処理ユニットは、ハードウェア(hardware) またはファームウエア(firmware)、ソフトウェア、またはこれらの結合によって実現されることができるが、ハードウェアを利用して実現する場合は、ASIC(application specific integrated circuit)、またはDSP(digital signal processor)、DSPD(digital signal processing device)、PLD(programmable logic device)、FPGA(field programmable gate array)などで、ファームウエアやソフトウェアを利用して実現する場合は、前記のような機能または動作を遂行するモジュール、手続き、または関数などを含むようにファームウエアやソフトウェアが構成されることができる。また、メモリーはROM(Read Only Memory)、RAM(Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュ(flash)メモリー、SRAM(Static RAM)、HDD(Hard Disk Drive)、SSD(Solid State Drive)などで実現されることができる。
参考までに、本詳細説明では発明の理解を助けるためにユーザー端末(100)がスマホ、またはタブレットPCの場合を想定して説明するものとする。この場合、前記のユーザー端末(100)は、ディスプレー及びタッチ感応型表面を含むことができて、ひいては、付随的に物理的キーボード、マウス及び/又はジョイスティックのような一つ以上の他の物理的ユーザー入力用手段がもっと繋がれることもある。また、前記のユーザー端末(100)は音や音声を感知と録音できる手段をさらに含むこともできる。一方、ユーザー端末上で実行される多様なアプリケーションは、オプション的に、タッチ感応型表面のような少なくとも一つの普遍的な物理的ユーザー入力用手段を使うことができる。タッチ感応型表面の一つ以上の機能だけではなく、ユーザー端末上に表示される対応する情報は、一つのアプリケーションから次のアプリケーションに、そして/または、個別アプリケーション内でオプション的に調整されて/されるか変更されることができる。このような方式で、ユーザー端末の(タッチ感応型表面のような)普遍的な物理的アーキテクチャーは、オプション的に、ユーザーに直観的で明瞭なユーザーインターフェースを利用して多様なアプリケーションを支援することができる。
ユーザー端末は、後述するようになる説明でのユーザーインターフェースによって、ユーザーが簡単にオブジェクトに対する観察情報を入力できるようにするためのものである。
一方、サービスサーバー(200)は、本発明による方法を実際に実現するためのプログラム、即ちコマンドのグループを提供する構成で、ひいては、複数のユーザー端末から入力及びアップロードされた観察情報を保存する構成に該当して、また前記の観察情報を複数の外部専門家端末(300)で提供する構成である。
サービスサーバーの形態は、或る特定の運営者が管理する少なくとも一つのサーバー用PCであることがあって、または他の業社が提供するクルラウドサーバーの形態、即ち運営者が会員加入をして使えるクラウドサーバーの形態であるかも知れない。特にサービスサーバーがサーバー用PCに実現された場合、該当のサービスサーバーは、中央処理ユニット及びメモリーを含むことができるし、これに対しては、前記のユーザー端末の説明過程で詳らかに言及したので、こちらでは説明を省略する。
最後に、外部専門家端末(300)は、医者、獣医、ペット行動専門家などの専門家が保有するかお持ちしている端末を称えるもので、端末は中央処理ユニット及びメモリーを含むことができる。本詳細説明で言及される外部専門家とは、前もってサービスサーバーを通じ事前登録が行われている専門家を意味することができるし、事前登録過程では外部専門家から専門性を立証するための書類及び該当の外部専門家の身元を把握するためのその他資料(身分証の写しなど)が共有されることができる。
以上、本発明による方法を実現するために構築されることができる全体システムの概略的な構造について調べた。以下では、本格的に本発明による方法、即ちオブジェクトに対する観察情報を入力及び共有機能を提供するための方法について調べて見る。
図2を参考にすると、本発明による観察情報の入力及び共有サービスを提供するための方法は、会員加入及びログイン段階(S201)、オブジェクトモデルをロードする段階(S202)、観察情報を入力する段階(S203)、及び観察情報を共有する段階(S204)を含む。以下では、図面を参考にして各段階、そして各段階で提供されるユーザーインターフェースについて調べて見る。
[会員加入またはログイン段階]
S201段階は、ユーザー端末に設置されたアプリケーションを通じ会員情報を入力するようにユーザーインターフェースが提供されて、これによってユーザーから会員情報を受信して会員加入またはログイン手続きを遂行する段階だ。
図3の(a)は、ユーザーがユーザー端末上でアプリケーションを駆動させた時に表示されるインターフェースで、ここにはユーザーがログインができるように電子メールアドレス、暗証番号の入力欄が表示されることができるし、その外にユーザーが暗証番号を忘れた時のための暗証番号照会ボタン、そして初めてサービスを利用しようとするユーザーの場合、会員加入手続きを始めるための会員加入ボタンが表示(1001)になることができる。また、本発明による方法では、ユーザーにとって他のSNSログイン情報、または他のポータルサイトのログイン情報をそのまま利用してログインが可能に画面の下端にSNSサービス社のロゴ、ポータルサイトのロゴが表示(1002)されることができる。図3の(b)は他のポータルサイトのうち特に N社のログイン情報を利用して認証及びログインをした実施例を図示したものである。参考までに他のSNSサービス社または他のポータルサイトのログイン情報を活用するためには、事前に本発明によるサービスサーバーに会員加入をしておく必要があって、会員加入時に入力された情報と前記の他のSNSサービス社または他のポータルサイトのログイン情報とマッチングさせる過程がさらに遂行されることがある。
一方、図4(a)はユーザー端末上で初めてアプリケーションが実行される時にユーザー端末に対するアクセス権限を許容するインターフェースを表示(1004)したもので、図4(b)はユーザー分類のために画面上にユーザーが選択できる分類ボタンが表示(1005a、1005b、1005c)されたのを図示したものである。
特に図4(b)はユーザーが初めてサービスを利用しようと会員加入をする時、該当ユーザーがどんなユーザーなのかを分類するためのインターフェースだが、ここには一般ユーザー、外部専門家、そしてその他ユーザーを区分するためのリストまたはボタンが含まれる。本詳細説明でのサービスがペットに対する観察情報の入力及び共有サービスを提供するためのことであることを想起して見ると、図4(b)にはペットを直接育てる者として、今後このアプリケーションを利用して観察情報を入力して、入力した観察情報を基盤に獣医から助言を得ようとするユーザーが選択できる「一般ユーザー」ボタン(1005a)、ペットを診療できる資格を有した者として前記の一般ユーザーによって共有された観察情報を基盤に助言を提供できるユーザーが選択できる「獣医」ボタン(1005b)、そして前記の一般ユーザー、獣医の外に広告収益創出、その他付加サービスの提供をしようとするユーザーが選択できる「ビジネス/サービス」ボタン(1005c)が図示されていることを確認できる。このように本発明による方法は、ユーザーが会員加入する時点でどんな目的を持って該当アプリケーションを使用するかを区別するためのインターフェースを提供することができる。
一方、図5はアプリケーションを活用するにおいて利用約款を案内してユーザーから同意を得るための画面を表示したもので、図5の(a)にはサービス利用約款の同意、個人情報の収集及び利用に対する同意、第3者に対する個人情報提供同意などのようにサービスを提供するにおいて必要な同意を求める表示(1006)になっていて、図5の(b)には前記の図5(a)でのサービス利用約款同意をクリックした時に表示される全体利用約款の内容が表示される実施例が図示(1007)されている。
一方、図6には会員加入時にユーザーが会員情報を入力できるインターフェースが図示されている。そのうち、図6の(a)は、すべてのユーザーが共通的に入力しなければならない共通情報を入力するためのインターフェース、(b)は一般ユーザーが追加情報を入力するためのインターフェース、(c)は外部専門家(獣医)が追加情報を入力するためのインターフェースを図示したものである。
まず、図6の(a)を調べて見ると、一般ユーザー、外部専門家(獣医)、その他ユーザーなどのユーザーは共通的に名前、プロフィール写真、生年月日、性別、携帯電話番号、電子メール、または住所を入力(1008)できて、携帯電話番号を入力時には該当携帯電話番号を活用した認証手続きがさらに遂行される。
次の図6の(b)は一般ユーザーが追加情報を入力するように提供されるインターフェースで、ここには先に入力した共通情報の外に付加的な情報、例えばニックネーム入力欄、そしてユーザーが育てているオブジェクトに対する情報を入力できる入力欄が含まれる。特にオブジェクトに関する情報を入力できる入力欄に係わって、ここにはペットのプロフィールアイコン(または写真)を入力できる入力欄(1010)、ペットの名前、種、性別、年齢のうち少なくとも一つを入力できる入力欄(1011)が含まれる。ペットのプロフィールアイコン(または写真)は、ユーザーが追加ボタンをクリックすることで、ペット追加が行われるができて、またはペットの情報を入力できる入力欄(1011)内に「構成員追加」ボタンをクリックすることで追加されることもある。
次の図6の(c)は、外部専門家、その中でも特に獣医が会員加入をする時に追加情報を入力するように提供されるインターフェースだ。ここにはユーザーのプロフィール写真に加えてユーザーが勤める機関(動物病院)を表示するアイコン(または写真)がさらに追加されることがある。これは一般ユーザーにとって今後自分の観察情報を共有しようとする獣医を選択する時、どの動物病院に勤める獣医なのか、規模はどれだけ大きい動物病院なのかなどを直観的に認知できるようにするためで、その他に該当獣医の所属をさらに明確に認知させられるためだ。一方、獣医の追加情報を入力するためのインターフェースには、動物病院名及び動物病院の住所を入力する入力欄(1013)が含まれて、また該当獣医の主な診療動物の種、主な診療科目などのように自分の専門分野を入力できる入力欄(1014)がsらに表示されることができる。一方、動物病院名及び住所を入力するための入力欄には、該当動物病院を探索するためのアイコン(クリップ模様のアイコン)がさらに具備されることがあって、獣医の専門分野を入力するための入力欄(1014)には、入力後クリックによって自動にタグキーワードを生成させるためのタグ生成ボタン(#模様のアイコン)がさらに具備されることができる。例えば、会員加入をしようとする獣医が自分の株診療動物の種で猫を選択した後、タグ生成ボタンをクリックすると、「#猫」のようなタグキーワード(10141)が生成されるが、このようなタグキーワード(10141)は、今後一般ユーザーがどの獣医に観察情報を共有させるかを決める時に、言い換えて、数多い獣医のうちどの獣医を選択するかを決める時に検索キーワードで活用されることができる。一方、前記のタグ生成ボタンは主な診療科目に対しても同じ方式で具備されることができる。
以上、図3ないし図6を参照して本発明による方法のうち会員加入またはログイン段階、特にこの過程でユーザーに提供されるユーザーインターフェースに関して調べて見た。
[オブジェクトモデルロード段階]
図2を参考にすると、会員加入またはログイン段階以後には(一般ユーザーの立場で)、本格的にオブジェクトに関する観察情報を入力するように該当オブジェクトに対応されるモデルをロード(load)する段階(S202)が遂行されることができる。
図7はオブジェクトモデル(2000)がロードされた状態のユーザー端末画面を図示したもので、本詳細説明では便宜のためにオブジェクトが犬(dog)である場合を想定して説明する。オブジェクトモデル(2000)のロードはユーザー端末内に具備されたメモリーに予め保存されていたモデリングファイルをローディングすることと等しい過程で理解されることもあるが、この時、前記のモデリングファイルはサービスサーバー(200)から事前にダウンロードされたものであることがある。一方、前記のモデリングファイルはユーザーが直接3Dスキャニングをして生成しておいたものであるかも知れなく、この場合、ユーザーは3Dスキャニング後に得たモデリングファイルを直接サービスサーバー(200)に登録した後、これがユーザー端末に設置されたアプリケーション内でダウンロードが可能にするか、またはモデリングファイルを直接ユーザー端末内のメモリーに保存しておいた後アプリケーションで該当モデリングファイルを直接ロードするようにすることもできる。
また、どんなオブジェクトモデルの場合も、後続的な関連ソフトウェア上のワークプロセスと作業を経て停止された形象でアニメーション機能を追加して、ユーザーの希望するオブジェクトモデル部位の単純なタッチ接触時間、回数或いは/及び程度によって動くようにできる。例えば、図7に図示されているゴールデンレトリーバー3Dオブジェクトモデルにおいて、左側の耳内に観察された情報を入力する場合、左側の耳を押して数秒後に耳をドラッグして持ち上げるようにした後、その耳の内側の異常有無を次の入力段階を通じ初期に意図した感じどおりに直観的な情報を適切に表示及び入力することができる。しっぽ或いは口などの場合も同じく適用されることができる。
一方、前記オブジェクトモデル(2000)には、多様な種のものなどが存在できるが、この場合、サービスサーバー(200)内に前もって生成されている複数のモデリングファイルの中でユーザーが選択した任意のものがロードされるように実現できる。例えば、オブジェクトモデルをロードする段階の中には、ペットの種を選択する段階が含まれて、または前記の会員加入段階でユーザーが予め入力しておいたペットの種類情報を参考にする段階が含まれる。参照までに、ペットの種を選択する段階が遂行される時は、ユーザーが自分のペットと一番類似した種を容易に探索するようにサムネイル形の様々なペット種が画面上に表示されることができるし、ユーザーはこれらの中でいずれかを選択することで自分のペットと一番類似したオブジェクトモデルを探すことができるようになる。
一方、ユーザーが育てるオブジェクトに対しては、複数の機関、例えば、業務協約を結んだ動物病院が既存に保有しているか、直接3Dスキャニングをした後、モデリングファイルをサービスサーバー(200)に登録させてくれるサービスを提供するようにシステムが実現されることもある。即ち、ユーザーとしては自分のペットが痛いか精神あるいは行動上において変な場合が観察されて動物病院を訪問した時、該当動物病院に具備された3Dスキャニング装置を活用して自分のペットを撮影できるし、これらから得たモデリングファイルをサービスサーバー(200)に事前に登録させることができる。また、既存に保有している場合においては、ペットの胴体だけではなく、専門家的な知識で判断する時、原因になるその胴体内に存在する細胞、組職あるいは臓器などに対する3Dモデルも製作あるいは提供されるサービスが遂行されることがあって、もし、細胞、組職あるいは臓器などを胴体内に位置させる場合は、胴体の透明度を適切に増加させて対比的に現われるようにするか、あるいは胴体とは別になったオブジェクトにする場合は、選択後に読み取り別途のオブジェクトモデルで活用することができる。例えば、ペットの心臓、腎臓などの臓器またはペットの眼球のように胴体内についている臓器も3Dモデリングの対象になれるし、場合によって、前記の臓器はペットの胴体透明度を増加させることでユーザーが内部をのぞき見られるようにするか、またはそれぞれの臓器を別の画面に3Dで表示することで、ユーザーが該当臓器に後述する症状、痛みの程度を表示するか入力させることができる。一方、或る外部臓器の内部にまた違う内部臓器が存在する場合は、外部臓器の透明度を増加させることで、内部臓器を見られるように実現することもできることを理解する。即ち、前記の3Dモデリングはペット内の臓器を個別的に調べて見られるようにして、それぞれの臓器に対しては透明度の調節を含めた多様な編集が可能になるように実現されることができる。
ここには、ペットのモデリングファイルをこのような方式で提供及びアップロードできるようにする場合、ユーザーとしては容易に自分のペットあるいはその胴体内部の細胞、組職あるいは臓器などに対するモデリングファイルを獲得できるようになるし、本発明で説明しようとするサービス運営者も容易に会員加入の誘導ができるようになって、ひいては動物病院の立場でも提携によってその消費者とのより高い共感及びコミュニケーションを通じ保護者の満足度を高めるようになることで、様々なマーケティング効果を高められるなどの効果をはかることができる。さらに、本発明が提供するインターフェースを利用する場合、ペットの保護者、患者の保護者との共感程度を高めることができるし、コミュニケーション環境を構築できるようになるので、ユーザーの満足度を高められる。また、これによって収益創出、類似患者の時空を超越した情報マッピングなどのように、様々な付加効果が派生されることができる。
以上、図7を参考にしてオブジェクトモデルをロードする段階に関して調べて見た。
[観察情報入力段階]
また、図2を参考にすると、オブジェクトモデルがロードされた後には、ユーザーから観察情報の入力を受信する段階(S203)が遂行されることができる。観察情報を入力するように提供されるユーザーインターフェースは、本発明で重要に言及される部分の一つで、これに関しては図面を参照して詳らかに調べて見る。
まず、図8は(一般ユーザーが)観察情報を入力するように提供される基本ユーザーインターフェースの一実施例を図示したものである。図8の(a)を参考にすると、前記観察情報の入力のために提供されるユーザーインターフェースには、オブジェクトモデル(2000)の表示された画面の側面で、観察情報の直接入力のための入力ツール(2010)が並べられていることを確認できるし、その他に過去から今まで入力された観察情報を時系列的に照会するための情報照会ツール(2020)、オブジェクトモデルを原位置(カメラ位置の初期化された状態)に変更するオブジェクト原位置ツール(2030)、ペットを選択/変更/追加できるオブジェクト変更ツール(2040)、チャット機能を実行させるためのチャット開始ツール(2050) などが含まれることを確認できる。また、画面の下には観察情報の記録された時点の環境情報(天気、気温、位置、時刻、日付、曜日など)が表示(2060)されることができて、一般ユーザーの名前及びペットの名前が表示(2070)されることができる。
観察情報の直接入力のための入力ツール(2010)には、ブラッシュ入力ツール、気分程度及び活動程度の入力ツール、テキスト入力ツール、写真または動画入力ツールなどが含まれるし、後述するが、上記の言及されたツールはブラッシュ入力ツールを始まめ、決まった手順によってツールが活性化されて、ユーザーの観察情報の入力を自然にガイドすることができる。即ち、ツールの活性化がブラッシュ入力ツール > 気分程度/活動程度の入力ツール > テキスト入力ツール > 写真または動画入力ツール > 保存・アップロードの順に行われるように制限されることで、言い換えて、ユーザーが前段階の入力を終えた場合のみ次の段階へ進むことで、ユーザーに段階別に観察情報の入力を漏れなくガイドできるように、そしてユーザーにとって初期入力しようとした直観的な感じと記憶情報をできるだけ忘れるか、歪曲及び変更されないように、その直観性が消えやすい段階から入力すると同時に、混同なしに入力が可能にすることができる。これに関しては、後でさらに詳しく説明する。
情報照会ツール(2020)は、ユーザーが過去に入力しておいた観察情報を時系列的で確認できるようにしたもので、このツールを通じユーザーは過去ペットの状態はどうだったし今までどのように変わって来たのか、またはペットの症状が緩和されて患部が改善されているか、反対に悪化されているか、変化はないかなどを精緻にデジタル情報で容易に確認できる。これに対しても後でもっと詳しく説明する。
オブジェクトの原位置ツール(2030)は、ユーザーがユーザー端末の画面をタッチすることでオブジェクトモデルを回転させるか水平/垂直に移動させた時に時点を初期化するためのもので、ユーザーとしてはいつでも前記オブジェクトの原位置ツール(2030)をクリックすることで最初オブジェクトモデルがロードされた時の時点に戻せることができる。
オブジェクト変更ツール(2040)は、ペットを選択/変更/追加できることで、前記では会員加入時に複数のペットを登録できることを言及した事があるが、このようにペットが複数である場合、ユーザーはオブジェクト変更ツール(2040)をクリックすることで、現在入力している観察情報の対象になるオブジェクトを変更することができる。
一方、チャット開始ツール(2050)は、今後の観察情報の入力が行われた後、ユーザーが外部専門家(獣医)などを招待して観察情報を共有して、それに基づいた意見を受信できるチャットルームを開くためのツールだ。これに対しても後述する。
前記で言及した様々な種類のツール外にも図8(a)の画面の下には、環境情報が表示される可能性があることを言及したが、この時に表示される環境情報にはユーザーが観察情報を入力する時点での天気、気温、位置、時刻、日付、曜日のうち、少なくともいずれかが表示されることができる。本発明による方法及びユーザーインターフェースによって入力された観察情報は、大体ヘルスケア情報あるいは医療情報にも分類されることができるし、このような観察情報は、場合によって、一律的にサービスサーバー(200)内に累積保存されることができるが、前記の環境情報が観察情報とともに入力される場合、サービスサーバー(200)内に累積された情報を利用してビッグデータを分析する時に有用な結果物を獲得するのに大きい効果を得ることができる。例えば、任意の種に対する感染病が特定期間の間に大きく流行った場合、多数のユーザーによって入力された観察情報、そして前記の観察情報内に含まれている環境情報は、どんな位置及び環境、あるいはどんな特定季節などの時点で感染病が大きく流行るようになったのか、その流行が大きく減ったのかなどに関する有意な変化を把握することに役に立つことができる。一方、本発明による方法及びユーザーインターフェースが全世界的に提供されて、我が国だけではなく、他の大陸でも観察情報及び環境情報を得ることができれば、サービスサーバー(200)内に保存されたデータを分析することで、環境が類似した他の地域で特定種に対する感染病が発生した時にどのように対処したのか、またはどんな環境が造成された時に感染病の流行が減ったのかなどを把握できるようになる。このように観察情報内に含まれる環境情報は、観察情報を入力しているユーザーに現在の環境を知らせる役割をするものであるけではなく、該当ユーザーが入力する観察情報がどんな環境条件で行われたか広範囲に共有されることで、今後ビッグデータの分析に役立つための目的でも使われると言える。
一方、図8(b)は観察情報の入力のためのユーザーインターフェースの他の実施例を図示したもので、ここにはオブジェクトモデル(2000)を多様な時点で見られるように位置回転の表示ツール(2080)がさらに含まれたことを特徴とする。前記の位置回転の表示ツール(2080)は、ユーザーにとってピンチ入力、ドラッグ入力などを通じオブジェクトモデルを観察する時点が変わるようにするが、例えば本発明による方法で提供されるユーザーインターフェース上では、一つの指がタッチ感応型画面に触れたままドラッグされると画面が回転するように、二つの指がタッチ感応型画面に触れたままドラッグされると画面が水平方向に移動するように、二つの指がタッチ感応型画面に触れたままピンチイン/ピンチアウトになると、画面の縮小/拡大が行われるように実現されることができる。
以上、図8を参考にして観察情報を入力するためのツールを概略的に調べて見た。
図9は観察情報を直接入力するためのツールのうち、特にブラッシュ入力ツール(20101)の機能を説明するための図面だ。具体的に、図9(a)はブラッシュ入力ツールを選択した時に初めて表示されるユーザーインターフェース、図9(b)はオブジェクトモデルの表面にブラッシュ入力をする姿、図9(c)はオブジェクトモデルの表面からブラッシュ入力を消す姿を図示したものである。
図9(a)を参考にすると、ブラッシュ入力ツール(20101)にはブラッシュのサイズを決めるための選択メニュー(A)、入力を初期化するためのメニュー(B)、入力をキャンセルする(消す)ためのメニュー(C)、次の段階に進むためのメニュー(D)、そしてブラッシュ入力の色を選択するためのメニュー(E)が含まれるし、オブジェクトモデル上にはマーカー(M)が表示されることができる。ブラッシュのサイズを決めるための選択メニュー(A)は、ユーザーがマーカー(M)の表示されたオブジェクトモデルの表面を色で表示しようとする時にどれだけ大きいサイズのブラッシュを使用するかを決めるためのことで、望ましくは図面に図示されたことのように3個のサイズが選択可能に提供されることができるが、必ずこれに限定されるのではない。ブラッシュ入力を初期化するためのメニュー(B)は、ユーザーがブラッシュ入力をしてオブジェクトモデル上に色を入力したが、これを初期化する時に使用できるメニューで、入力をキャンセルする(消す)ためのメニュー(C)は、前記の初期化メニュー(B)とは違い、現在の入力状態のうち一部入力を最小化するためのもので、ユーザーインターフェース上では入力されたブラッシュ入力を消しゴムで消すことと同じ効果で表示されることができる。図9(b)にはオブジェクトモデルの顔表面の方に重症を現わす赤色(10)でブラッシュ入力の実施例が図示されていて、図9(c)には入力されたブラッシュ入力のうち一部がキャンセル(消す)メニューによって消された実施例が図示されている。特記すべき事項として、本発明による方法から提供されるユーザーインターフェースでは、図9(c)に図示されていることのように、現在のユーザーが使っているメニューがCのように表示、即ち現在の該当メニューが活性化されて利用中であるという事実をユーザーが容易に認知するように色で活性化表示が行われることができる。
一方、次の段階に進むためのメニュー(D)は、オブジェクトモデル上でブラッシュ入力が完了された時、その次の段階である気分程度及び活動程度の入力に進むためのメニューだ。ブラッシュ入力の色を選択するためのメニュー(E)は、ユーザーがペットの状態を外観上で調べて見て外傷の程度、または内傷の程度を色で表現できるようにしたもので、図面では黄色に近いほど軽症を表現するように、そして赤色に近いほど重症を表現するように実現されたものである。状態の程度を現わすための色は、図面とは違って、別途のポップアップ画面を表示することで、ユーザーが選択するように実現されることもある。最後に、マーカー(M)は入力をしようとする位置を正確に表現するためのもので、図面からも見られるように、オブジェクトモデルの表面に特定幾何学の模様を持つように実現されることができる。望ましくは図9に図示されたことのように、円柱形態で実現できるし、このような模様のマーカー(M)はオブジェクトモデルの表面上で自由に移動されて、ユーザーにブラッシュ入力をしようとする位置を正確に知らせることができる。また、前記マーカー(M)はオブジェクトモデルの表面上でのみ移動されるように実現できる。即ち、マーカー(M)にとって、オブジェクトモデルの表面を脱しないようにすることで、ユーザーの入力便宜を助けることができる。一方、前記マーカー(M)はオブジェクトモデルの表面のみにブラッシュ入力をするための用途で使われなく、オブジェクトモデルの内部にもブラッシュ入力をするための用途で使われることができる。例えば、ペットは肌の方の疾患だけではなく、内部臓器にも任意の発病原因が存在できるが、たとえ非専門家である一般ユーザーがその発病の原因が何かを正確に把握することはできないとしても、観察によって得られたユーザーの意見が反映されるように内部臓器にもブラッシュ入力をする必要性がある。前記のマーカーは、この場合に既存に生成されている3Dオブジェクトモデルの内部臓器にも位置表示が可能に実現されて、ユーザーにとってブラッシュ入力をさせることができる。例えば、前記マーカー(M)が円柱の形だと仮定すると、円柱の一番底面から所定の高さまで(以下、マーカー下部と称する)は、オブジェクトモデルの肌表面内に表示されるようにすることで、オブジェクトモデルの内部にもブラッシュ入力が可能にできる。この時、マーカーの下部は、再び高さ調整が可能にすることで、オブジェクトの肌内の奥深い所までも表示できるように実現することができる。この時、各深さごとのブラッシュ入力はお互いに違う色で行われることができるが、例えば、マーカー下部を肌下1cmまで延長させた後、該当地点では黄色を入力して、マーカーの下部を肌下1.5cmまで延長させた後、該当地点には橙色を入力して、マーカーの下部を肌下2cmまで延長させた後、該当地点には赤色を入力するなどの入力を繰り返すことで、深さによって異なる痛み程度を入力させることができる。一方、前記マーカーは円柱の形から円錐の形に変換されることができて、またはこれとは反対に円錐の形から円柱の形に変換されることができる。上記のような形態変換のためのインターフェース内のメニュー(トグル方式またはスライディング方式)が別に提供されることがあって、また前記の円錐の形のマーカー、円柱の形のマーカーで高さが可能にインターフェース内のメニュー(スライディング方式)が表示されることができる。特に、マーカーが円錐の形である場合、例えば、ユーザーとしてはオブジェクトモデル内の銃傷(入社部位は直径の小さい円形の患部や出射部位は、銃弾の回転力によって直径の大きい円形患部を形成)を表示できるようになる。
図10は前期図9におけてブラッシュ入力が完了した後ユーザーが次の段階に進むためのメニュー(D)をクリックした時に表示されるユーザーインターフェースの実現例を図示したもので、ここではペットの気分程度、そしてペットの活動程度を入力できるメニューを提供する。
図10の(a)を参考にすると、ユーザーインターフェースでは、対象になるオブジェクトの気分程度をユーザーが任意に選択するようにスライディングの形の入力メニュー(F)が提供されることがあって、またオブジェクトの活動程度をユーザーが任意に選択するようにスライディングの形の入力メニュー(G)が提供されることができる。この時、スライディングのために調節されるアイコンは、ユーザーにとって該当項目が気分程度または活動程度に対することであることを直観的に理解するようにアイコンがさらに表示されることができる。図面で気分程度を現わすアイコンとしてはブレーンアイコンが、活動程度を現わすアイコンとしてはペット形象のアイコンが表示されていることを確認することができる。一方、前記スライディングの形の入力メニュー(F、G)に加えては、ユーザーにとって、入力値がどれだけの物なのかを直感できるように他の形のアイコン(H)が提供されることができる。
一方、図10の(b)を参考にすると、ユーザーが調節中のアイコンは、色を異にして表示(G’)されることができるし、このようにすることでユーザーの視覚的な認知度をさらに高められる。
図11は前期の図10で見たブラッシュ入力に引き続き、テキスト入力が可能にしたユーザーインターフェースの一実施例を図示したものである。図11に図示されているインターフェースは、前記の図10での次の段階に進むためのメニュー(D)をクリックした時に現われることができるもので、ユーザーがブラッシュ入力を全て終えた後、次の段階に進むためにクリックをしたら、テキストの入力段階が実施されるようにした。図11を参考にすると、画面右側の入力ツールのうちテキスト入力ツール(20102)が活性化されていることを確認できるし、これを通じ、ユーザーは自分が現在どんな段階を進行中なのかを容易に分かる。
一方、テキスト入力のためには、画面上段にテキスト入力メニューが表示されることができるし、ここには身体部位、症状を記録するためのテキスト入力欄(I)、ペットの気分程度、活動程度を記録するためのテキスト入力欄(J、K)が含まれるし、また入力初期化メニュー(B)及び次の段階への進行メニュー(D)は、前記の図9及び10から見たのと等しく表示されることができる。参照までに、気分程度、活動程度を記録するためのテキスト入力欄(J、K)には、前記の段階でユーザーがスライド調節を利用して入力した値が一緒に表示されることができる。図11では「M(0)」、「A(2)」のように表示されているが、これらはそれぞれ図10でスライド調節を通じ入力された気分程度、活動程度の値と対応されるものである。一方、前記の段階でもし気分程度または活動程度が0に入力された場合、言い換えて、気分程度または活動程度が観察者の立場で特別に変な程度に感じられず、それ程度が0に記載した場合は、テキスト入力欄が非活性化されることができる。図10(b)では気分程度が0に入力されて、活動程度が+2に入力されている実施例が図示されていたが、これによって図11での気分程度の入力のためのテキスト入力欄(J)は非活性化になった状態、活動程度の入力のためのテキスト入力欄(K)は活性化になった状態なであることが分かる。図11のテキスト入力画面では、活動程度の入力のためのテキスト入力欄に「行動状態を簡略に記録してください」という案内文が記載されている一方、気分程度を入力する入力欄にはこのような案内文が表示されない。
一方、それぞれのテキスト入力欄がユーザーによってクリックされた時、画面の下段ではテキスト入力のためのキーボードが表示されることができるし、ユーザーはこのキーボードを利用して希望する内容を入力することができる。
本発明が図11のように別途のテキスト入力のためのユーザーインターフェースを提供する理由は、すでに図9及び図10で説明した段階またはインターフェース上で入力を終えたにもかかわらず、外部専門家(獣医)に正確な内容伝達が難しい場合に備えるためもの、または外部専門家(獣医)に観察情報を伝達する時に頼みたい事項を自由に記載できるようにしたものである。また、このようにテキスト化された観察情報は、ビッグデータの分析時に活用度が高く、これによってオブジェクトに対する理解の正確度を大きく高められる効果もある。
図12は、図11でユーザーがテキスト入力を完了した後、次に段階に進むためのメニューDをクリックした時に表示されるインターフェースの一例示を現わしたもので、図12はペットに対する写真または動画撮影ができるようにしたユーザーインターフェースの提供姿を現わしたものである。
図12(a)を参考にすると、画面の右側には撮影入力ツール(20103)が活性化されている姿を確認できるし、撮影入力ツール(20103)の左側ではスキップメニュー(L)、写真メニュー(M)、動画メニュー(N)が表示されていることを確認することができる。参照までに、前記メニューは画面上の撮影入力ツール(20103)アイコンと同じ高さで、そして前記の撮影入力ツール(20103)から近い側面に並んで配列されることで、ユーザーにとって自分がどの段階を進行しているかを容易に認知させることができる。仮に撮影入力ツール(20103)と対応されるメニューだけが近くの側面に配列されるのではなく、本詳細説明で言及されるすべての入力ツールに対応されるメニューは、該当の入力ツールに近い側面に配列されることができるし、これは入力ツールをクリックした時に他のメニューまたは他の入力ツールとの距離に比べて該当の入力ツールと一番近い距離にメニューが表示されるようにすることで、ユーザーが現在どの段階を進行しているかを容易に認知できるようにすることは勿論、ユーザーのディストラクション(distraction)を最小化することで、現在入力しようとする行為にもっと集中できるようにするためだ。各メニューに対して具体的に調べて見ると、スキップメニュー(L)は写真や動画撮影なしに次の段階に進む時に使われるもので、写真メニュー(M)及び動画メニュー(N)はそれぞれ写真または動画撮影を開始するためのものである。
図12(b)は写真メニューまたは動画メニューを押した時に表示されるインターフェースの姿を図示したもので、ここには撮影画面(2090)、フォーカシングマーク(2091)、撮影写真(動画)リスト(2092)、そして以前写真、次の写真、撮影開始などのツールを含む操作ツール(2093)が含まれる。
参照までに、図12はユーザー端末(100)が撮影のための手段、即ちカメラを具備していることを前提にすることで、カメラ以外に音を録音するための手段が具備された場合、音のみを録音できるボタンが追加されることは勿論、その外に前記のオブジェクトと係わる情報を獲得できる他の種類の感知手段がさらに具備される場合、それに対応されるメニューがインターフェース上に表示される可能性があることを理解する。
図13は、観察情報を入力するツールのうち最後の段階である保存及びアップロードのためのツール及びこれによるユーザーインターフェースを図示したものである。図13を参考にすると、画面の右側に並べられたツールのうちディスク模様の保存及びアップロードツール(20104)が活性化されていることを確認することができるし、これを通じユーザーは自分が現在どんな段階を進行中なのかを容易に把握できる。
保存及びアップロードツール(20104)の左側では、初期化メニュー(O)、保存メニュー(P)、アップロードメニュー(Q)が表示されて、各メニューは保存及びアップロードツール(20104)アイコンと同じ高さで、そして保存及びアップロードツール(20104)アイコンと違い側面に並んで表示される。各メニューに対して調べて見ると、初期化メニュー(O)はユーザー端末(100)内のメモリー(キャッシュメモリ)に保存された情報を削除するもので、保存メニュー(P)は今までユーザー端末のメモリー(キャッシュメモリ)上に仮に保存された観察情報を該当ユーザー端末(100) 内の非キャッシュメモリ、例えばマイクロSDカードなどに恒久的に保存するためのもので、アップロードメニュー(Q)はユーザー端末(100)の非キャッシュメモリに恒久的に保存された観察情報をサービスサーバーまたはクラウドデータベースにアップロードするものである。
以上、観察情報を入力するためのツール(2010)に関して調べて見た。以下では情報照会ツール(2100)に対して調べて見る。
図14は、情報照会ツール(2100)をクリックした時に表示されるユーザーインターフェースの一実施例を現わしたものである。情報照会ツール(2100)によるユーザーインターフェース上では、ユーザーが過去累積的に保存して来た観察情報を時間順によって再び見られる機能を提供するが、このような機能は、窮極的には、ペットが過去から現在までどれだけ状態が改善されたのか、または悪化されたのかなどを固定された3Dのモデル位置/アングルで、あるいは中心になる標的部位を中心に 3Dのモデル位置/アングルが回転しながら、時間によって一目瞭然に容易に確認できるようにする。参照までに、ユーザー端末(100)またはサーバー(200)に累積的に保存される観察情報には、その数に制限がないことを前提に説明する。
情報照会ツール(2100)によるユーザーインターフェースを調べて見ると、一番重要な特徴は過去から現在まで累積保存された観察情報を探索するためのスライドの形の情報探索ツール(2110)が提供されるということだ。情報探索ツール(2110)は再びスライディングバー(AA)、スライディングアイコン(BB)、度盛り(CC) などを含んで、ユーザーが前記のスライディングアイコン(BB)でスライディングバー(AA)上をドラッグすることで、各度盛りに対応される観察情報を容易に探索するようにする。また、前記の情報探索ツール(2110)はスライディングアイコン(BB)をドラッグする代わり、ユーザーにとって探索ボタン(bb)を押すようにすることで、押す度に一段階ずつ観察情報が照会されるように実現することもできる。一方、前記度盛り(CC)には、それぞれ日付または一次の観察情報が対応されるが、図14では今日を基準に5日前、10日前、30日前の観察情報が累積して保存されていることを類推することができる。参照までに前記の度盛り(CC)の横には、総15日目の観察情報が保存されていると仮定する時、1/15、2/15、3/15、… のように表示することで、現在ユーザーが照会している観察情報がいつ記録されたことなのかを容易に理解するようにもできる。スライディングアイコン(BB)がどの特定の度盛りに置かれるとか、または探索ボタン(bb)を押すによって或る特定の度盛りと対応される観察情報に至るようになる場合、該当日付けの観察情報は情報画面(DD)を通じ表示されるし、また情報画面(DD)には該当の観察情報がどの時点の情報なのかを現わすための日付または日付け表示がもっと含まれる。図面では今日を基準に5日前の情報が照会されている(EE)と現われている。一方、情報画面(DD)には該当日付または該当日付けにユーザーが記録した観察情報が表示されるし、さらに具体的にはユーザーが入力したテキスト、そしてペットの写真/動画が表示される。図14を参考にすると、情報画面(DD)には「2019.08.26。14:12」のような当時のテキスト入力時刻、“S/P::頭に深い傷がついた」のような身体部位及び症状(S:Symptom)/痛症(P:Pain)、「M(0)::」のような気分程度、「A(2)::頭部分を壁によく打ちこむ」のような活動程度のテキストが表示されているし、ひいては該当時点に撮影した写真または動画がさらに表示される。一方、情報照会ツール(2100)によるインターフェースでは、オブジェクトモデル上にユーザーがブラッシュ入力した内訳も一緒に表示(FF)される。
最後に、図14によると、インターフェース内には該当時点の観察情報をダウンロード、アップロード、共有できるツールも一緒に表示(GG)される。即ち、本発明による方法のうち提供されるインターフェースでは、単純に過去の情報を照会するものであるけではなく、該当の観察情報をユーザー端末で直接ダウンロードしてもらうようにするか、またはサービスサーバーにアップロード(参照までに、この時のアップロードは観察情報がユーザー端末上のみに保存されている場合を前提に行われる)できるようにするか、または他のユーザー(一般ユーザー、外部専門家ユーザーなど)と該当の観察情報を共有させることができる。
参照までに、図14ではスライディングバー(AA)及びスライディングアイコン(BB)が過去累積した観察情報を探索するためのツールに説明されたが、このようなユーザーインターフェース用ツールは、必要によって他の形でも変形されることができることを理解しなければならない。例えば、スライディングバー(AA)の代わりにダイヤルツールを提供することで、ユーザーにとってさらに容易に情報探索をさせることができる。スライディングバー(AA)は、観察情報が多く累積されて度盛りがぎっしりと形成された場合、ユーザーが操作に困難を経験するが、これを解消するためにダイヤルの形のツールが独立的に、または並列的に提供される。特に、ダイヤルツールが並列的に提供される場合は、スライディングバー(AA)の外にダイヤルツールが具備されてユーザーがダイヤルを回す度にスライディングバー(AA) 上でスライディングアイコン(BB)を動かせることができる。
一方、図9ないし図14のインターフェース上では、一つの指でドラッグされた時に回転が可能だった機能は非活性化させて、その代わりに三つの指がタッチ感応型画面に触れたままドラッグされたら画面の回転が行われるように、そして二つの指がタッチ感応型の画面に触れたままピンチイン/ピンチアウトされれば画面の縮小/拡大が行われて、また二つの指が触れたままドラッグされれば画面の水平移動が行われるように実現される。一つの指でドラッグされた時に回転が行われる機能を非活性化させた理由は、他の機能との混乱を引き起こさないためのことで、図9ないし14では一つの指でタッチ入力をするメニューが多いので、ユーザーが一つの指にタッチした時に正しい入力の代わりにオブジェクトが回転されることで、不便になる問題を最初から予防するためのことであることを理解する。
図15は、オブジェクトを変更/選択または追加する機能を説明するための図面だ。図15を参考にすると、画面の右側にはオブジェクトを変更/選択、追加するためのインターフェースをロードするためのツール(2200)が表示されて、これをクリックした時にユーザーインターフェースは図15の画面のように表示される。ユーザーインターフェースではオブジェクト、さらに正確にはオブジェクトモデルを変更/選択または追加するためのメニュー(2210)が提供される。該当メニュー(2210)には、すでに保存されているオブジェクトモデルのリスト、そして新しいオブジェクトモデルを追加するためのボタンが表示される。オブジェクトモデルのリストは、該当のオブジェクトモデルがどんな種なのかを調べられるほどの図及び簡略なテキストが表示された状態の物であるが、必ずこれのみに限定されるのではない。図15には六角形のボタンが表示されていて、それぞれのボタン内にはオブジェクトモデルの種を調べられる図、そして該当のオブジェクトモデルを識別できるテキストが表示されている。一方、図15の(a)はオブジェクトモデルを変更する前、(b)はオブジェクトモデルを変更した後の画面を現わしたもので、変更前にはメニュー(2210) 内で犬に該当する六角形のボタンが色(緑色)で表示されて、変更後には馬に該当する六角形のボタンが色で表示されて、ユーザーにとって現在どんなオブジェクトを選択したのかを容易に認知させることができる。
[観察情報の共有段階]
前記では、観察情報を入力して照会するためのツール、そしてユーザーインターフェースに関して調べて見たが、以下では入力された観察情報を他のユーザーと共有するための段階(図2のS204段階)及びこの段階で提供されるユーザーインターフェースに関して調べて見る。
本発明による方法では、ユーザーがペットに関する観察情報を入力して、これを保存及びアップロードすることで、該当の観察情報をサービスサーバー(200)にデータベース化できるが、サービスサーバー(200)はこれらの観察情報を再び外部専門家を含めた他人の端末、例えば、獣医あるいは情報共有が必要な知人または類似経験者の端末で共有が可能にすることで、前記のユーザーがペットに対する獣医学的助言または類似経験などの助言を得られるようにするか、または前記の獣医がデータベース化された数多い観察情報を活用して研究や開発に活用するか類似経験者を時空を超越してマッピングなどに活用させることができる。この時、観察情報を共有するということの意味は、前記のユーザーが自分が入力した観察情報を他人に公開できるという趣旨の同意をした場合、サービスサーバー(200)が制限された、または制限されていない他のユーザーにアクセスを許容する可能性があることを意味して、このようなアクセスの許容は多様な形態、例えばサービスサーバー(200)にログインした他のユーザーが直接該当の観察情報を探索できるようにするか、または予めデータベースの収集に対するサービス費用を支払ったユーザーに周期的にアップデートされた観察情報を提供する形などで行われることができる。
一方、サービスサーバー(200)にアップロードされた数多い観察情報は、ビッグデータ分析の対象になれるが、例えば、観察情報内に含まれているペットの身体部位及び症状に対する入力情報、ペットに対してどのように処方をしたという (テキスト)の入力、時間が経つほど症状が好転したというテキストの入力及び写真(映像)入力などがビッグデータ分析の対象になる場合、これからはペットに発生した疾病ないし外傷に対してどんな処方または治療療法が効果的であったかに対する糸口を得られるようになる効果があり、特に、このような観察情報がグローバルに収集されてビッグデータ分析のソースで活用される場合、これまで獣医学界で正式に扱わなかった治療療法、民間療法などが大衆的に公開される環境を提供することもできるようになる。前記のビッグデータ分析にはマシンラーニング及びAI技術が適用されるし、ユーザーが入力した観察情報からペットの症状を識別する過程、各症状が改善された原因を追跡する過程(どんな処方を受けて治療をしたのか、またはどんな民間療法を使って治療をしたのかなど)、ペットの症状が改善されるにあって前記の原因が因果関係を持つかどうかを判別する過程(特定処方または特定民間療法が有意な数値の割合で症状改善に効果があったと現われる場合、これを因果関係があると判別)などが含まれる。これはペットの保護者に該当するユーザー、即ち人の場合にも等しく適用されるし、人またはペットがそれぞれ違うオブジェクトの治療法や処方を意図したまま使われたのか、または意図しないまま使われたのかとは関係なく、人またはペットに効果的な治療法を見つけることに寄与できると期待される。
一方、サービスサーバー(200)の機能は、前記のようにアップロードされた観察情報に対してビッグデータ分析を遂行することも含まれるが、図16に図示されていることのように、ユーザーと外部専門家の間をチャット方式で連結させて、お互いにコミュニケーションが行われるように環境を提供することも含まれる。
図16を参考にすると、図16(a)はユーザーがチャット開始ツール(図8の 2050)をクリックした時に画面に表示されるインターフェースの一実施例を図示したもので、該当のユーザーインターフェースは最近の対話リストを表示していることを確認することができる。具体的に、図16(a)のユーザーインターフェースでは、最近の対話リストを現わす表示(HH)、チャットルームを探すためにキーワード入力の可能な検索ツール(II)、チャットルームリスト(JJ)、そしてチャットルーム生成または対話ボタンを含む操作ツール(KK)が含まれる。次の図16(b)は他のユーザーインターフェースの一実施例を図示したもので、ここには友達リスト、獣医リスト、ビジネス主体リスト間でのタブ切り替えの可能なタブ切り替えメニュー(LL)が含まれるし、いずれかのタブを選択した場合、該当タブに対するリスト(MM)が表示される。次の図16(c)はチャットルームに立ち入ってチャットが開始された状態のユーザーインターフェースを表示したもので、ここには対話相手を追加できるボタン(NN)、基本チャット機能が提供されるメイン画面(OO)、ユーザーがチャットのために入力できる入力画面(PP)、そして広告画面(QQ)が含まれる。
一方、本発明による方法から提供されるユーザーインターフェースの特徴は、ユーザーが外部専門家とチャットする時にその背景にペット、さらに正確にはオブジェクトモデルが表示されるという点だ。これは図16(c)に図示されているが、メイン画面(OO)で当事者間で対話が行われている背景としてオブジェクトモデル(2000c)が表示されていることを確認することができる。このようなチャット環境を維持するために前記のメイン画面(OO)内での各種対話のための表示は透明に実現される。例えば、各当事者のチャット入力は、図面でも見られるように、透明な背景を持つ吹き出し内にテキストが表示されて、実施例によって前記のテキストも任意の透明度を持つ色に表示されることで、メイン画面(OO)の背景に表示されたオブジェクトモデル(2000c)がさらによく見える。一方、前記のメイン画面(OO)内に表示されたオブジェクトモデル(2000c)は、望ましくはユーザーが自分のペットと係わって入力した観察情報内でのオブジェクトモデルで、この場合、メイン画面(OO)の背景に表示されるオブジェクトモデル(2000c)には、ブラッシュ入力、テキスト入力、写真/動画入力などが一緒に表示されて、ユーザーまたは外部専門家がアクセス可能に実現される。
一方、ユーザーインターフェース内には、広告画面(QQ)が含まれると言及したが、この時、広告画面(QQ)に表示される広告にはテキスト、イメージ、動画のうち少なくとも一つの組み合わせによる広告コンテンツが含まれる。また、前記の広告画面(QQ)に表示される広告は、サービスサーバー(200)の運営者(サービス運営者)がビジネス主体から決まった金額の手数料を受けた後、任意に登録した広告コンテンツにもなれるが、これに限らず、前記のチャットルームで話し合った対話内容を分析して、ユーザーに一番関心度が高いと予想される商品またはサービスを選別して表示されるものにもなれる。例えば、前記のチャットルームでユーザーと獣医間においてペットの破れた肌に対する対話が行われていると判断された場合、さらに具体的にペットの破れた肌を回復させるための助言を求める過程で登場するいくつかのキーワードが対話内容の中で捕捉された場合、該当の広告画面(QQ)には、傷の治療に塗れる軟膏制の広告コンテンツ、またはこのような類の傷を治療する専門動物病院の広告コンテンツが表示される。
図17はチャット機能利用時、ユーザーから対話招待を受けた相手の端末で見えるユーザーインターフェースの一例示を図示したもので、例えば、一般ユーザーが外部専門家(獣医)を対話相手に招待した時、外部専門家(獣医)の端末上で見えるインターフェースを図示したものである。
図17(a)を参考にすると、外部専門家の端末上では、誰が自分を招待しているかに関するメッセージ(RR)が表示されるし、またアプリケーションアイコンには、プッシュアラームメッセージが表示(SS)される。図17(b)を参考にすると、相手からいくつの対話メッセージがまだ未開封の状態で残っているかどうかが表示(TT)される。
図18はチャット機能を利用する間に観察情報をダウンロードする姿を図示したものである。図18は一般ユーザーがサービスサーバー(200) 上にアップロードしておいた観察情報を再びダウンロードする場合、または外部専門家が前記の一般ユーザーがサービスサーバー(200)にアップロードしておいた観察情報をダウンロードして、該当の観察情報を共有してもらう場合に表示されるインターフェースで理解できる。
図18(a)は一般ユーザーが登録しておいたペットのリストが表示(UU)される姿で、もし複数のペットを登録しておいたら複数のアイコン - この時アイコンはペットの種を区別できるようにお互いに異なる図を含む - この画面上に表示される。一方、画面には選択されたペットに関するオブジェクトモデルがさらに表示(2000)される。
図18(b)は、ユーザーがサービスサーバー(200)からダウンロードしたデータを確認できるユーザーインターフェースの一例示を図示したもので、ここでは、既存にユーザーデバイス内のメモリーに保存されている観察情報は白色(-10日目の観察情報)で、そして新たにダウンロードした観察情報は青色(-5日及び -30日目の観察情報)で表示されていることが確認できる。
以上、チャットが可能なインターフェースに関して調べて見た。
一方、本発明によって提供されるオブジェクトに関する観察情報の入力及び共有サービスを提供するための方法では、ただ一つのオブジェクトモデルだけがロードされる実施例だけではなく、異種のオブジェクトモデルが全てロードされる実施例が可能になるようにも実現される。
図19には、犬のオブジェクトモデル(2000)と人のオブジェクトモデル(3000)が一画面内に同時にロードされた実施例が図示(図19の(a))されているが、このように本発明によって提供される方法では、異種のオブジェクトモデルが同時にロードされた状態のユーザーインターフェースも提供される。 即ち、本発明では、異種のオブジェクトモデルに対しても観察情報の記録が可能になるように環境を提供できるが、このように異種オブジェクトモデルに関する観察情報は、お互いに違うオブジェクトが相互どんな関係を持つのか、または相互どんな影響を及ぼすことができるかをユーザー自身、または外部専門家にとって把握できるようにするし、ひいてはこのような観察情報が累積して分析される場合は、異種オブジェクト間においてお互いどんな影響を及ぼすかに関する体系的な理論の定立も可能になる。
特に、最近には保護者とペットが同じ空間内で生活しながら発見される様々なイベントなど、または保護者とペットが持つ交感などの関心度が増加しながら、これらの間での関係に関する研究が行われている。例えば、選別された、あるいは普通の犬を肺癌、乳房癌、糖尿、あるいは直膓癌を病んでいるそれぞれの人からその該当の癌試料の臭いを嗅ぐようにして、該当する場合は止めて座るとか、ほえるとか、あるいはじっと眺めるようにするなど、特異的な疾病発見行動をするように訓練させた後、不特定多数の人々あるいは主人の呼吸器部位、乳房、小便あるいは配属部位に対する臭いを嗅いだ後、どの人がどんな癌にかかった患者なのかを前記の特徴的な疾病発見行動を見せてくれることで、早期に、即ち治療的に非常に有用なゴールデンタイミングに判別できるようにする能力の犬の事例が報告されたことがあり、現在犬がこのような疾病状況を認知して普段と違う行動ができると知られている。このような疾病探知犬は、これよりずいぶん前から空港で活動している多様な訓練を受けた麻薬探知犬がいるという一般的な実際例を考慮して見ると、非常に可能な適用事例などであると理解できる。
本発明は人(保護者)とペット(犬)の間において前記のような関係をより広範囲に、かつ体系的に観察するために、図19のようなユーザーインターフェースを提供することで、異種オブジェクトに対する観察情報を収集するように実現される。
図19(b)は人のオブジェクトモデル(3000)と動物のオブジェクトモデル(2000)上において、前記で説明したブラッシュ入力をすることで、異種オブジェクト間においてどんな状況でどんな関係があるかを記録させることができる。図19(b)は人のオブジェクトモデル(3000)の小便臭いを嗅いでいる動物オブジェクトモデル(2000)を表示しようとしたもので、これを表示するためにユーザーは、マーカー(M)を利用して人のオブジェクトモデル(3000)の性器部分に黄色いブラッシュ入力(3100)ができて、動物のオブジェクトモデル(2000)の鼻部分にも黄色いブラッシュ入力(2100)ができる。図19で人のオブジェクトモデル及び動物のオブジェクトモデル上に表示されるブラッシュ入力は、相互間において関連性があるように見える部分をユーザーが表示したもので、またユーザーは前記のブラッシュ入力の色を異にすることで、ブラッシュ入力が行われた部分の程度を異にして現わすこともできる。例えば、人の尿の色が赤色の場合、人のオブジェクトモデル(3000)の性器部分には赤色ブラッシュ入力が行われるし、これに対応してペットが人の性器部分の周りに対して臭いを嗅ぐ行動が非常に積極的に行われていたら、ユーザーは動物のオブジェクトモデル(2000)の鼻部分にも赤色ブラッシュ入力をすることで、行動の程度が非常に活発であることを現わすこともできる。この場合には、糖尿の外にも泌尿器係疾病あるいは前立腺癌の場合にも該当されることを理解する。一方、前記の内容は、一つの実施例を説明したものに過ぎなく、オブジェクトモデルの種類、そしてオブジェクトモデルの任意部位にブラッシュ入力が行われる多様な状況には、その種類の制限がないことを理解しなければならない。
一方、図19(b)には人のオブジェクトモデル(3200)と図19(a)に比べ回転されている状態であることが確認できるが、本発明で提供されるユーザーインターフェースでは、オブジェクトモデルをクリック後、ユーザーのドラッグ入力などによって、該当オブジェクトモデルの回転が自由に行われるようにすることができる。この過程で図面符号3200のようなボタンがさらに提供される。
図20は異種オブジェクトモデルがロードされる前記の実施例がさらに拡張されたもので、複数の異種オブジェクトモデルが一画面上に全て表示された実施例を図示したものである。本発明による方法から提供されるユーザーインターフェースでは、例えば、様々な種類のペットを飼う一家族が皆ロードされるように実現できるし、これを図20のように表示されるようにすることができる。このような実施例の場合、異種オブジェクト間の相互関係に対して総合的に把握できる観察情報の生成が可能になる。即ち、人のオブジェクトモデル1(父)と動物のオブジェクトモデル1(犬)の間での観察情報、人のオブジェクトモデル2(母)と動物のオブジェクトモデル2(猫)の間での観察情報等が前記のような方式で記録される。参照までに、図20に図示されているユーザーインターフェース状態で、ユーザーは任意のオブジェクトモデルを選択して順次に次のオブジェクトモデルを選択することで、或る異種オブジェクトの間での観察情報を入力するか決めることができるし、画面上にはユーザーによって選択されたオブジェクトモデルのみが表示されるようにして、図19のような入力可能状態になるようにできる。一方、図20を参考にすると、ユーザーインターフェースではオブジェクトモデルを追加できるツール(4000)が提供される。オブジェクトモデルを追加できるツール(4000)は、実際の画面上で各オブジェクトモデルが配列されていることと同じ形の配列に表示されるが、これは図20から見るのと同様だ。一方、前記オブジェクトモデルを追加できるツールは、4000aのようにユーザーが容易に認知できるアイコン模様でも表示される。一方、画面の右側に配列されているツールの中でオブジェクトを変更・選択・追加するためのツールは、図面符号2200aのように異種オブジェクトを含む形で表示される。
以上、図19及び図20を参考にして、本発明によって提供されるユーザーインターフェース上で、大工の異種オブジェクトに対しても観察情報が入力される実施例に関して調べて見た。
今までの説明では、オブジェクトモデルが3Dでモデリングされた状態で多様な入力が可能な実施例に関して説明した。例えば、図7ないし図9では3Dでモデリングされたオブジェクトモデル(2000)上でマーカー(M)が表示されることに関して、そしてマーカー(M)が位した点にブラッシュ入力が可能であることに関して説明した。
一方、本発明による方法では3Dオブジェクトモデル上に入力された情報を 2D情報に変換してこれを保存するか分析するためのデータとして保存及び活用することができる。また、専門家及び研究開発者など外部と共有することもできる。イメージに対するデータ処理のためには、3Dで実現された複雑なイメージデータ、即ち3D立体座標データも良いが、これよりは2D平面で行われた単純なイメージデータで行うことができれば、作業の効率性面においてもっと長所があり得る。特にデータを処理する速度面においては、2Dイメージデータを処理した方がもっと有利になるが、本発明ではこのような点に着眼して、最初ユーザーから3Dオブジェクトモデルに入力されたのを2Dオブジェクトモデル上の入力に変換可能にすることで、データ処理面における性能及び分析の効率性と処理速度などを改善させようとした。このように2Dイメージデータに変換して観察情報を累積保存させる場合、特にビッグデータ分析を遂行するにおいて効率性が大きく改善されると期待されて、また後述するように、本発明では決まった規格の標準2Dモデルへの変換まで行うように実現されるが、この場合、数多くの他の種類のオブジェクトや種に対して標準化モデルと容易に比較できるようになるので、従来では把握しにくかった観察情報からの多様な発見が行われると期待される。
図21は図7ないし図9で紹介された3Dオブジェクトモデル(2000)を2Dオブジェクトモデルに変換したことを現わしたもので、図21に見えるように、オブジェクトモデルは一つの軸(axis)を中心に両方へ広がって表示される。一方、2Dのオブジェクトモデルが平面上に表示される時は、様々な部分に分けて表示されるが、例えば、図21に図示されていることのように、オブジェクトの胴体(5000)、オブジェクトの目(5010)、オブジェクトの鼻(5020)などの部分が並べられる。また、図9ではオブジェクトモデル(2000)の額部分にブラッシュ入力が行われる実施例に関して説明したことがあるが、このようなブラッシュ入力も2Dオブジェクトモデル上の同じ位置に表示される。このように2Dオブジェクトモデルへの変換のためには、 3Dオブジェクトモデルの表面の各座標が2Dオブジェクトモデルの各座標と対応されることが前提になければならず、また3Dオブジェクトモデルの目、鼻の部位も2Dオブジェクトモデルの平面に配列された目、鼻の座標と対応されていることを前提にする。
参照までに図21のような2Dオブジェクトモデルは、図7ないし図9の3Dオブジェクトモデルが提供される時に一緒に提供されることもできて、例えば画面には2Dオブジェクトモデルと3Dオブジェクトモデルの間を切り替えられるボタンが提供されて、ユーザーにとって該当ボタンのクリックによって、2Dまたは3Dのオブジェクトモデルが画面上に表示されるようにできる。これを通じ、3Dオブジェクトモデル上でのマーカー移動など操作が難しいと感じるユーザーは、2Dオブジェクトモデルが画面上に表示された状態でマーカーの移動及びブラッシュ入力が可能にすることでユーザーの利便性を高めることができる。
一方、本発明によって提供される方法では、2Dオブジェクトモデルを再び標準規格の2Dオブジェクトモデル(以下、標準2Dオブジェクトモデルと称する)に変換することで、お互いに違う種類の種と言っても、同じ規格、少なくとも類似した規格の2Dオブジェクトモデルで表示される。例えば、犬の場合だけでもサイズ及び胴体部位(例:脚)の長さが非常に多様で、多くのユーザーから多くの犬に対するオブジェクトモデルが入力されるようになると、それぞれ異なるサイズの2Dオブジェクトモデルが収集されるが、この場合、2Dにイメージ変換をしながらもデータ処理負担を減らそうとした努力は大きい効果を得られないかも知れない。このような問題を解消するために、本発明ではお互いに異なるサイズの2Dオブジェクトモデルに関する観察情報が収集されても、標準規格の2Dオブジェクトモデルに変換が行われるようにすることで、多くのオブジェクトモデルに対してイメージ比較などのデータ処理が容易に行われるすることができる。
図22は前期の2Dオブジェクトモデルの標準2Dオブジェクトモデルに変換された姿を現わしたものである。標準2Dオブジェクトモデルとは、オブジェクトモデルを表示するための複数のパラメーターが前もって決まっている2Dのモデルを意味するもので、例えば軸(axis)の位置が決まっていて、オブジェクトを構成する各部分(目、鼻、歯、足指の爪など)の配列位置が前もって決まっているなど、多様なパラメーターが前もって決まっている標準化された胴体分解マップ(Map) モデルを意味する。一方、サイズの小さいオブジェクトモデルを標準2Dオブジェクトモデルに変換する場合には、オブジェクトのサイズを拡張させて標準2Dオブジェクトモデルに一番近いサイズに変換が行われるようにできるが、ただし、この場合に該当のオブジェクトの割合(例:胴体に比べた脚の長さの割合、胴体に比べた鼻の長さの割合など)は、維持されるようにした方が望ましい。このように標準2Dオブジェクトモデルへの変換を積極的に活用する場合、たとえ胴体の異なるオブジェクトに対して観察情報が収集されても相互比較のためのデータ処理の負担が減るので、さらに多くの新しい情報を観察情報に対するビッグデータ分析から得ることができるようになる。
以上、オブジェクトに対する観察情報の入力及び共有サービスを提供するための方法及びこのような方法を実行させるための記録媒体に関して調べて見た。一方、本発明は前期の特定の実施例及び応用例に限定されなく、請求範囲内で請求する本発明の要旨から脱することなく、当該発明が属する技術分野で通常の知識を持つ者によって多様な変形実施が可能であることは勿論、このような変形実施は本発明の技術的思想や展望から区別されて理解されてはいけない。

100 ユーザー端末
200 サービスサーバー
300 外部専門家端末

Claims (10)

  1. 任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法において、
    (a) ユーザーから会員情報を入力してもらう段階;
    (b) 前記ユーザーの会員情報と対応する3Dのオブジェクトモデルをロードする段階;
    (c) 前記オブジェクトモデルのロードされた状態で提供される第1ユーザーインターフェースを通じ、前記オブジェクトモデルに対する観察情報を入力してもらう段階;
    (d) 前記入力された観察情報をネットワークを通じ、他のユーザー端末で共有する段階;
    を含む、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  2. 第1項において、
    前記第1ユーザーインターフェースは、観察情報の入力のための複数の観察情報の入力ツールを含むが、
    前記観察情報の入力ツールは、
    前記オブジェクトモデル上において少なくとも一つの色を入力できるブラッシュ入力ツール;
    前記オブジェクトモデルに対するテキストを入力できるテキスト入力ツール;
    前記オブジェクトモデルに対応されるオブジェクトに対する写真または動画を入力できる撮影入力ツール;及び
    入力された観察情報を保存及びアップロードするための保存及びアップロードツール;
    を含んで、
    前記ブラッシュ入力ツール、テキスト入力ツール、撮影入力ツール、及び保存及びアップロードツールは、一方向に順に配列されることを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  3. 第2項において、
    前記ブラッシュ入力ツールは、
    ブラッシュのサイズを選択するメニュー、入力初期化メニュー、入力キャンセルメニュー、次の段階への進行メニュー、及び色を選択するメニューを含む第1メニューグループ;及び
    前記オブジェクトの気分程度及び活動程度を入力するメニューを含む第2メニューグループ;
    を含むが、
    前記第1メニューグループは、ユーザーによって前記ブラッシュ入力ツールが選択された時に先に表示されて、
    前記第2メニューグループは、前記第1メニューグループのうち次の段階への進行メニューが選択された時に表示 - 前記第2メニューグループが表示される時に前記第1メニューグループは表示されない - されることを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  4. 第3項において、
    前記ブラッシュ入力ツール、テキスト入力ツール、撮影入力ツール、及び保存及びアップロードツールは、ユーザー端末の画面内で左側または右側の辺に沿って下の方向に順に配列されて、
    前記それぞれの入力ツールに対応するメニューグループまたはメニューは、前記各入力ツールと同じ高さから表示されることを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  5. 第4項において、
    前記第1ユーザーインターフェースは、
    累積的に保存された観察情報を時間順によって照会するための情報照会ツールをさらに含んで、
    ユーザーによって前記の情報照会ツールが選択された時、過去から現在まで累積で保存された観察情報を探索するためのスライドの形の情報探索ツールが表示されることを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  6. 第5項において、
    前記第1ユーザーインターフェースは、
    オブジェクトを変更、選択、または追加するためのツールをさらに含むことを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  7. 第6項において、
    前記第1ユーザーインターフェースは、
    チャット機能を実行させるためのチャット開始ツールをさらに含んで、
    ユーザーによって前記チャット開始ツールが選択された時、外部専門家を招待して観察情報を共有して、前記の観察情報に基づいた前記外部専門家の意見を受信できるチャットルームが表示されることを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  8. 第 1項において、
    前記(b)段階は、複数のオブジェクトモデルをロードするが、前記複数のオブジェクトモデルのうち少なくとも二つのオブジェクトモデルは、異種であることを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  9. 第1項において、
    前記(c)段階以後、
    観察情報が入力された前記3Dのオブジェクトモデルを2Dのオブジェクトモデルに変換する段階;をさらに含むことを特徴とする、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法
  10. 任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法を遂行するためのコマンドが保存された、コンピューターで判読可能な記録媒体において、
    任意のオブジェクトに対する観察情報の入力及び共有サービスを提供する方法は、
    (a) ユーザーから会員情報を入力してもらう段階;
    (b) 前記ユーザーの会員情報と対応する3Dのオブジェクトモデルをロードする段階;
    (c) 前記オブジェクトモデルがロードされた状態で提供される第1ユーザーインターフェースを通じ、前記オブジェクトモデルに対する観察情報を入力してもらう段階;
    (d) 前記入力された観察情報をネットワークを通じ他のユーザー端末で共有する段階;
    を含む、
    コンピューターで判読可能な記録媒体

JP2022528351A 2019-11-14 2020-11-13 オブジェクトに対する観察情報の入力及び共有サービスを提供するための方法、及びコンピューターで判読可能な記録媒体 Pending JP2023501811A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190145528A KR102170991B1 (ko) 2019-11-14 2019-11-14 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
KR10-2019-0145528 2019-11-14
PCT/KR2020/015952 WO2021096276A1 (ko) 2019-11-14 2020-11-13 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Publications (1)

Publication Number Publication Date
JP2023501811A true JP2023501811A (ja) 2023-01-19

Family

ID=73018242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022528351A Pending JP2023501811A (ja) 2019-11-14 2020-11-13 オブジェクトに対する観察情報の入力及び共有サービスを提供するための方法、及びコンピューターで判読可能な記録媒体

Country Status (4)

Country Link
US (1) US11847296B2 (ja)
JP (1) JP2023501811A (ja)
KR (1) KR102170991B1 (ja)
WO (1) WO2021096276A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11894143B2 (en) * 2013-08-27 2024-02-06 Whiskers Worldwide, LLC System and methods for integrating animal health records
KR102170991B1 (ko) 2019-11-14 2020-10-28 주식회사 헬스케어뱅크 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
WO2024039943A1 (en) * 2022-08-16 2024-02-22 Mars, Incorporated Systems and methods for a three-dimensional digital pet representation platform

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361554B1 (en) 2002-01-22 2002-11-22 Ilisoft Co Kr Apparatus and method for diagnosing pain
KR20050043180A (ko) * 2003-11-05 2005-05-11 최창구 인터넷을 통한 실시간 성형수술 상담 시스템 및 그 방법
DE102008038357B3 (de) * 2008-08-19 2010-01-14 Siemens Aktiengesellschaft Verfahren zur Erzeugung von 2D-Schnittbildern aus 3D-Projektionsdaten, die mittels eines CT-Systems von einem metallische Anteile enthaltenden Untersuchungsobjekt erfasst wurden
US9569078B2 (en) * 2012-03-06 2017-02-14 Apple Inc. User interface tools for cropping and straightening image
EP2669830A1 (en) * 2012-06-01 2013-12-04 Kabushiki Kaisha Toshiba, Inc. Preparation and display of derived series of medical images
EP3144877A4 (en) * 2014-05-12 2018-03-21 Satoshi Oda Acupuncture and moxibustion treatment support terminal device and medical support system
US9811933B2 (en) * 2014-06-20 2017-11-07 Google Inc. Image editing using selective editing tools
US20160371457A1 (en) * 2015-06-22 2016-12-22 Sonja Zillner System and Method for Data Analyzing of Health-Related Data
KR20170123368A (ko) * 2016-04-28 2017-11-08 제이예스주식회사 이종의 데이터 수집을 이용한 건강 관리 예측 서비스 제공 방법
KR20190063595A (ko) * 2017-11-30 2019-06-10 안세종 Sns 기반 인맥 관리 장치
KR102170991B1 (ko) * 2019-11-14 2020-10-28 주식회사 헬스케어뱅크 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체

Also Published As

Publication number Publication date
KR102170991B1 (ko) 2020-10-28
KR20210058630A (ko) 2021-05-24
US20220334705A1 (en) 2022-10-20
WO2021096276A1 (ko) 2021-05-20
US11847296B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
Esteva et al. Deep learning-enabled medical computer vision
US11847296B2 (en) Method for inputting and sharing of observation information on the object, and a computer-readable storage medium
US20220189644A9 (en) Informatics platform for integrated clinical care
US8843852B2 (en) Medical interface, annotation and communication systems
CN110476187B (zh) 缝纫机式多边形绘制方法
Pais et al. Acceptance of using an ecosystem of mobile apps for use in diabetes clinic for self-management of gestational diabetes mellitus
US20210303935A1 (en) Medical image processing method and system and data processing method
Marrero-Fernández et al. Evaluating the research in automatic emotion recognition
Witkowski et al. Telediagnosis with confocal microscopy: a reality or a dream?
Pettit et al. Multispecies networks: Visualizing the psychological research of the Committee for Research in Problems of Sex
JP7082442B2 (ja) 動物患者用電子カルテの提供方法
Novoa et al. Marking the path toward artificial intelligence–based image classification in dermatology
KR102227833B1 (ko) 진료 매칭 방법 및 이를 수행하는 전자 장치
KR102658342B1 (ko) 개체에 대한 관찰정보의 입력 및 공유 서비스를 제공하기 위한 방법, 및 컴퓨터 판독 가능한 저장 매체
US20230400971A1 (en) Method for providing service that inputs and shares entity observation information, and computer-readable storage medium
Morya et al. Evaluating the viability of a smartphone-based annotation tool for faster and accurate image labelling for artificial intelligence in diabetic retinopathy
JP2022043278A (ja) 電子カルテシステムおよびプログラム
JP6969839B1 (ja) 電子カルテシステムおよびプログラム
JP2020518048A (ja) 下流のニーズを総合することにより読み取り環境を決定するためのデバイス、システム、及び方法
US20230253081A1 (en) Method for providing electronic medical records for animal patients
JP6994800B1 (ja) 動物患者用電子カルテシステム、プログラム及び情報共有支援方法
WO2021199144A1 (ja) 動物患者用電子カルテの提供方法
Satpathy et al. Comparison of Capture Rates of the National Cancer Database Across Race and Ethnicity
Moon et al. Activity tracking with momentary assessments
Carlos Reyes-Aldasoro et al. medical image understanding and analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507