KR20230174025A - 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션 - Google Patents

캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션 Download PDF

Info

Publication number
KR20230174025A
KR20230174025A KR1020220074992A KR20220074992A KR20230174025A KR 20230174025 A KR20230174025 A KR 20230174025A KR 1020220074992 A KR1020220074992 A KR 1020220074992A KR 20220074992 A KR20220074992 A KR 20220074992A KR 20230174025 A KR20230174025 A KR 20230174025A
Authority
KR
South Korea
Prior art keywords
information
character
mobile device
user
chatbot
Prior art date
Application number
KR1020220074992A
Other languages
English (en)
Inventor
서문길
서지암
박소희
김건위
Original Assignee
주식회사 단비아이엔씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 단비아이엔씨 filed Critical 주식회사 단비아이엔씨
Priority to KR1020220074992A priority Critical patent/KR20230174025A/ko
Publication of KR20230174025A publication Critical patent/KR20230174025A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자와의 의사 소통을 위한 캐릭터를 모바일 기기의 디스플레이에 표시하는 단계; 및 기설정된 사용자 입력 또는 이벤트의 발생에 따라, 상기 캐릭터를 통해 메시지 또는 액션을 출력하는 단계;를 포함하고, 상기 메시지 또는 액션의 출력을 위해, 모바일 기기에 장착된 센싱 수단 또는 통신 수단을 통해 수집된 하나 이상의 수집 정보를 근거로 상기 캐릭터의 외관, 상태 및 행위 중 적어도 하나에 관한 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 이것이 적용된 챗봇 애플리케이션에 관한 것이다.

Description

캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션 {Operating method and application of chatbot for mobile device using character}
본 발명은 캐릭터를 통해 사용자와 의사 소통하거나 사용자에게 정보를 제공할 수 있는 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션에 관한 것이다.
챗봇(Chatbot)은 사용자의 의도를 파악하여 답변을 대화로 진행할 수 있는 서비스를 의미한다. 챗봇은 채팅의 텍스트나 음성으로 구성된 언어적 입력을 자연어 처리 프로세서(Natural Language Processor: NLP)를 통해 컴퓨터 상에서 처리될 수 있는 형태로 변환하고, 변환된 자연어의 대화 의도에 따라 적절한 답변을 제공하는 방식으로 구현될 수 있다.
인간과 인간의 대화는 한쪽이 일방적으로 질문하는 것이 아니라 서로 질문과 대답을 주고받는 것이 일반적이다. 그러나, 인간과 대화하는 챗봇의 경우에는 주로 사용자의 일방적인 질문에 대답을 하거나 명령에 따른 처리에 중점을 두고 있어, 인간과 대화한다는 느낌을 가지기 어렵다는 한계가 있다. 다시 말해, 챗봇과의 대화시 실제 대화와 같은 몰입감을 느끼기에는 한계가 있는 실정이다.
또한, 챗봇의 답변이 사용자가 질문하거나 요청한 것에만 한정되어 이루어져, 사용자가 챗봇과의 대화에 흥미를 느끼지 못하거나 사용자가 필요한 정보의 제공이 효과적으로 이루어지지 못하는 한계를 가지고 있다.
등록특허공보 제10-1929800호 (2018.12.11)
본 발명은 상기와 같은 점을 감안하여 안출된 것으로서, 챗봇과의 대화시 사용자에게 인간과 대화하는 느낌을 보다 강하게 가질 수 있게 하고, 챗봇과의 상호 작용을 보다 몰입감 있게 하는 것을 기술적 과제로 한다.
또한, 본 발명은 모바일 기기의 구성들을 통해 수집 가능한 정보를 이용하여 사용자에게 필요한 정보를 보다 직관적이고 사용자가 흥미를 가질 수 있게 제공하는 것을 기술적 과제로 한다.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따르면, 사용자와의 의사 소통을 위한 캐릭터를 모바일 기기의 디스플레이에 표시하는 단계; 및 기설정된 사용자 입력 또는 이벤트의 발생에 따라, 상기 캐릭터를 통해 메시지 또는 액션을 출력하는 단계;를 포함하고, 상기 메시지 또는 액션의 출력을 위해, 모바일 기기에 장착된 센싱 수단 또는 통신 수단을 통해 수집된 하나 이상의 수집 정보를 근거로 상기 캐릭터의 외관, 상태 및 행위 중 적어도 하나에 관한 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법이 개시된다.
또한, 상기 수집 정보는 날씨 정보를 포함하고, 상기 날씨 정보를 근거로 상기 캐릭터의 의상 정보, 소품 정보, 착의 정보 및 배경 요소 정보 중 하나 이상을 생성할 수 있다.
또한, 상기 수집 정보는 사용자가 위치한 사용자 위치 정보를 포함하고, 상기 사용자 위치 정보를 근거로 상기 캐릭터 후방의 배경 화면 정보를 생성하거나, 사용자 위치의 날씨와 관련된 화면 정보를 생성할 수 있다.
또한, 상기 수집 정보는 사용자가 위치한 사용자 위치 정보를 포함하고, 상기 사용자 위치 정보를 근거로 사용자 위치 주변의 음식점 정보를 생성할 수 있다.
또한, 모바일 기기용 챗봇의 작동 방법은, 사용자 위치 주변의 복수개의 음식점 중 하나를 사용자를 통해 선택받는 단계; 및 사용자가 선택한 상기 음식점까지의 경로 안내 정보를 상기 디스플레이를 통해 출력하는 단계;를 더 포함할 수 있다.
또한, 상기 경로 안내 정보를 출력하는 단계는, 상기 모바일 기기의 카메라를 통해 촬영된 영상 상에 상기 캐릭터를 표시하는 증강 현실 모드로 전환하는 단계; 및 상기 경로를 따라 상기 캐릭터가 이동하면서 경로를 안내하도록 상기 캐릭터의 동작을 표시하는 단계;를 포함할 수 있다.
또한, 상기 수집 정보는 사용자 안면을 인식한 안면 인식 정보를 포함하고,상기 안면 인식 정보의 표정 정보를 근거로 상기 캐릭터의 표정 정보 또는 발화 정보를 생성할 수 있다.
또한, 상기 수집 정보는 상기 모바일 기기의 카메라를 통해 촬영된 영상 정보를 포함할 수 있다.
또한, 상기 영상 정보는 도로 또는 등산로의 갈림길을 촬영한 정보이며, 상기 모바일 기기의 위치 정보와 지도 정보를 근거로 상기 갈림길의 각 길에 대한 안내 정보를 생성할 수 있다.
또한, 상기 영상 정보는 식당의 메뉴판을 촬영한 정보이며, 상기 메뉴판의 음식 정보를 근거로 추천 메뉴 정보를 생성하여, 상기 캐릭터 상기 메시지 또는 액션 정보를 통해 메뉴를 추천하게 할 수 있다.
또한, 상기 영상 정보는 사용자가 먹는 음식을 촬영한 정보이며, 상기 캐릭터가 촬영된 음식과 동일 또는 유사한 음식을 사용자와 함께 먹는 액션을 출력할 수 있다.
또한, 상기 수집 정보는 상기 모바일 기기의 조도 센서를 통해 센싱된 조도 정보, 외부로부터의 신호 전송을 알리거나 다른 앱으로부터 발생한 알림 정보, 모션 센서로부터 센싱된 모션 정보 중 적어도 하나를 포함하며, 상기 수집 정보를 기초로 상기 액션 정보와 관련된 상기 캐릭터의 동작 정보를 생성할 수 있다.
한편, 본 발명의 다른 실시예에 따르면, 모바일 기기의 메모리에 저장 가능하며, 모바일 기기의 프로세서에 의해 실행되는 모바일 기기용 챗봇 애플리케이션으로서, 사용자와의 의사소통을 위한 캐릭터를 모바일 기기의 디스플레이에 표시하는 단계; 및 기설정된 사용자 입력 또는 시스템 이벤트 발생에 따라, 상기 캐릭터를 통해 메시지 또는 액션을 출력하는 단계;를 포함하는 처리를 실행하고, 상기 메시지 또는 액션의 출력을 위해, 모바일 기기에 장착된 센싱 수단 또는 통신 수단을 통해 수집된 하나 이상의 수집 정보를 근거로 상기 캐릭터의 외관, 상태 및 행위 중 적어도 하나에 관한 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇 애플리케이션이 개시된다.
이상과 같은 본 발명에 따르면, 사용자와의 의사소통이나 정보 전달을 단순한 텍스트나 음성을 통해서가 아니라 캐릭터의 발화나 행동을 통해 수행하게 함으로써 사용자에게 인간과 대화하는 느낌을 보다 강하게 가질 수 있게 하는 효과가 있다.
또한, 모바일 기기의 센싱 수단 또는 통신 수단을 통해 수집된 정보를 이용하여 캐릭터의 외관, 상태 및 행위 등에 관한 정보를 생성하고, 캐릭터를 통해 생성된 정보를 출력함으로써 사용자가 보다 흥미를 가질 수 있고 직관적인 정보의 제공이 가능한 이점이 있다.
도 1은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제1 작동예를 나타낸 도면.
도 2는 본 발명과 관련된 챗봇이 동작 가능한 모바일 기기의 구성을 예시한 블록 다이어그램.
도 3은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제2 작동예를 나타낸 도면.
도 4는 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제3 작동예를 나타낸 도면.
도 5는 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제4 작동예를 나타낸 도면.
도 6은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제5 작동예를 나타낸 도면.
도 7은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제5 작동예를 나타낸 도면.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명에 의한 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션에 대하여 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
본 실시예에 따른 캐릭터를 이용한 챗봇의 작동 방법은 모바일 기기(예를 들어, 스마트폰, 태블릿 등)를 위한 것으로서, 이하 설명되는 단계들은 모바일 기기의 프로세서에 의해 실행된다. 또한, 본 발명과 관련된 캐릭터를 이용한 챗봇은 모바일 기기용 애플리케이션으로 구현 가능한데, 이러한 경우 애플리케이션은 모바일 기기에 구비된 메모리 등의 기억 수단에 저장되고, 모바일 기기의 프로세서에 의해 실행된다.
도 1은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제1 작동예를 나타낸 도면이고, 도 2는 본 발명과 관련된 챗봇이 동작 가능한 모바일 기기의 구성을 예시한 블록 다이어그램이다.
도 1 및 2를 참조하여, 본 발명과 관련된 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법을 설명하면, 사용자와의 의사 소통을 위한 캐릭터(10)를 모바일 기기(100)의 디스플레이(110)에 표시하고, 기설정된 사용자의 입력 또는 이벤트의 발생에 따라 캐릭터(10)를 통해 메시지 또는 액션을 디스플레이(110)를 통해 출력한다.
캐릭터(10)는 사람, 의인화된 동물, 식물, 그 밖의 모든 종류의 물체를 포함할 수 있고, 언어적 메시지(예를 들어, 텍스트, 음성), 비언어적 메시지(버튼, 동영상 등), 액션(제스처, 표정, 동작, 상태의 변화 등)을 통해 사용자와 의사 소통하거나 정보를 전달한다.
기설정된 사용자 입력(예를 들어, 사용자의 발화, 텍스트 입력, 특정 명령의 실행)이 있거나, 기설정된 이벤트(외부로부터의 특정 정보의 수신, 알림 발생, 특정 애플리케이션의 실행 등)가 발생하면, 캐릭터(10)가 메시지 또는 액션을 출력하여 사용자에게 정보를 제공한다.
도 1의 예시에 따르면, 캐릭터(10)가 디스플레이(110)에 표시되어 있고, 텍스트 형태의 메시지(11)나 사용자가 터치에 의해 선택 가능한 버튼(또는 아이콘) 형태의 메시지(12)가 출력되어 있다. 또한, 사용자가 의사 소통을 위한 텍스트 또는 음성을 입력이 가능하도록 입력창이 출력되어 있다.
본 발명에 따르면, 이와 같은 메시지(언어적/비언어적) 또는 액션의 출력을 위하여, 모바일 기기의 프로세서, 즉, 제어부(180)는 모바일 기기에 장착된 센싱 수단(190) 또는 통신 수단(120)을 통해 수집된 하나 이상의 수집 정보를 근거로 캐릭터의 외관, 상태 및 행위 중 적어도 하나에 관한 정보를 생성한다.
도 2와 같이, 모바일 기기(100)는 디스플레이(110), 통신 수단(120), 카메라(130), 마이크(140), 스피커(150), 메모리(160), 전원공급부(170, 배터리), 제어부(180, 프로세서) 및 센싱 수단(190) 등을 포함할 수 있다. 본 발명의 경우 통신 수단(120), 예를 들어 무선 통신 모듈을 통해 외부로부터 수집된 정보(예를 들어, 날씨 정보), 또는 센싱 수단(190)을 통해 센싱된 정보(예를 들어, 단말기 주변의 조도 정보)를 이용하여 캐릭터의 외관, 상태 및 행위 등에 관한 정보를 생성한다. 그리고 이와 같은 정보가 반영된 캐릭터(10)를 디스플레이(110)에 출력할 수 있다.
센싱 수단(190)은, 도 2에 예시된 바와 같이, 조도 센서(191), 근접 센서(192), 가속도 센서(193), 중력 센서(194), 자이로스코프 센서(195), 모션 센서(196) 등을 포함할 수 있고, 여기에 예시된 종류뿐만 아니라 다양한 종류의 센서들도 추가로 포함할 수 있다.
도 3은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제2 작동예를 나타낸 도면이다.
본 실시예의 경우, 통신 수단(120)을 통해 외부로부터 수집된 날씨 정보를 이용하여 캐릭터(10)의 외관, 상태, 행위 등에 관한 정보를 생성하는 것을 예시하고 있으며, 이러한 정보로서, 캐릭터(10)의 의상 정보(예를 들어, 의상의 종류), 소품 정보(예를 들어, 우산, 선글라스 등), 착의 정보(즉, 옷의 착의 여부, 착의 정도 등), 배경 요소 정보(예를 들어, 눈 또는 비가 내리는 배경, 장소 또는 위치에 대한 이미지 등) 등을 예로 들 수 있다.
예를 들어, 현재의 날씨가 강우 상태인 경우, 캐릭터(10)가 우산(13)을 소지하거나 우의를 착용한 상태를 디스플레이(110)에 표시할 수 있다. 또한, 미세먼지 상태가 나쁜 경우 캐릭터(10)가 마스크를 착용한 상태를 디스플레이(110)에 표시할 수 있다. 또한, 비가 내리는 이미지나 애니메이션을 캐릭터(10)의 배경 요소로 표시하는 것도 가능하다.
또한, 이와 함께 수집된 날씨 정보와 관련된 메시지(14)를 디스플레이(110)에 출력할 수 있다.
본 실시예의 경우 수집 정보가 날씨 정보인 경우를 근거로 설명하였으나, 수집 정보가 날씨 정보 외의 다른 종류의 정보인 경우에도 이를 기반으로 하여 캐릭터(10)의 의상 정보, 소품 정보, 착의 정보, 배경 요소 정보 등을 생성할 수 있다.
도 4는 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제3 작동예를 나타낸 도면이다.
본 실시예의 경우, 통신 수단(120) 및 센싱 수단(190)을 통해 획득한 사용자 위치 정보를 이용하여 캐릭터(10)의 외관, 상태, 행위 등에 관한 정보를 생성하는 것을 예시하고 있다. 이와 같은 정보로서, 캐릭터(10) 위치 후방의 배경 화면 정보, 사용자 위치의 날씨와 관련된 화면 정보 등을 예로 들 수 있다.
예를 들어, 사용자의 현재 위치가 '종합 운동장'인 경우 그와 연관된 이미지가 캐릭터(10) 후방의 배경 이미지(15)로서 출력될 수 있다. 또한 현재 날씨가 강우 상태이거나 강설 상태인 경우, 비나 눈이 오는 이미지나 애니메이션이 배경으로서 출력 가능하다.
또한, 사용자 위치 정보를 근거로 사용자 위치 주변의 음식점 정보를 생성할 수 있고, 이를 기반으로 음식점 안내 정보를 디스플레이(110)에 출력할 수 있다. 도 4에 따르면, 음식점 추천과 관련된 텍스트 메시지(116)와, 음식점 상세 안내를 위해 사용자로부터 선택 가능한 버튼(17, 또는 아이콘) 등이 출력된 것을 예시하고 있다. 이와 같은 음식점 추천과 관련된 메시지 또는 액션은 기설정된 시간(예를 들어, 점심 시간)에 출력되도록 설정 가능하다.
이와 같은 주변 음식점의 추천을 통해, 사용자 위치 주변의 복수개의 음식점 중 하나를 사용자가 선택하게 할 수 있고, 이와 같은 선택 정보를 근거로 사용자가 선택한 음식점까지의 경로 안내 정보를 디스플레이(110)를 통해 출력할 수 있다.
도 5는 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제4 작동예를 나타낸 도면으로서, 사용자가 선택한 음식점까지의 경로 안내 정보를 출력한 것을 예시하고 있다.
도 5의 경우, 캐릭터(10)의 동작을 통해 경로를 안내하는 것을 예시하고 있는데, 구체적으로, 모바일 기기(100)의 카메라(130)를 통해 촬영된 영상 상에 캐릭터(10)를 표시하는 증강 현실 모드(AR 모드)로 화면 모드를 전환시킨 후, 경로를 따라 캐릭터(10)가 이동하면서 경로를 안내하도록 캐릭터(10)의 동작을 표시할 수 있다.
사용자는 디스플레이(110)의 화면 속의 캐릭터(110)의 이동을 따라 가면서 원하는 위치까지 도달할 수 있으며, 디스플레이(10) 상에는 경로 안내와 관련된 텍스트 메시지(18), 경로 안내 표지(19) 등을 함께 출력할 수 있다.
한편, 본 실시예의 경우 경로 안내의 대상을 음식점을 예로 들어 설명하였으나, 이 뿐만 아니라 다양한 위치를 경로 안내의 대상으로 설정 가능하다 할 것이다.
도 6은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제5 작동예를 나타낸 도면이다.
본 실시예의 경우, 모바일 기기(100)의 카메라(130)를 통해 획득한 영상 정보를 이용하여 캐릭터(10)의 외관, 상태, 행위 등에 관한 정보를 생성하는 것을 예시하고 있다.
예를 들어, 카메라(130)로 식당의 메뉴판을 촬영한 영상 정보를 이용하여, 메뉴판의 음식 정보를 근거로 추천 메뉴 정보를 생성할 수 있다. 이에 따라 캐릭터(10)가 메시지 또는 액션 정보를 통해 해당 메뉴를 추천하게 할 수 있다.
도 6의 예시와 같이, 디스플레이(110) 상에 메뉴판을 촬영한 영상 정보(21)가 출력될 수 있고, 증강 현실 모드가 실행되어 캐릭터(10)가 추천 메뉴를 직접 가리키는 액션(22)을 출력하거나 추천 메뉴를 추천하는 메시지(20)를 출력할 수 있다.
한편, 사용자가 도로 또는 등산로의 갈림길을 촬영한 영상 정보를 통하여, 상기 모바일 기기의 사용자 위치 정보와 지도 정보를 근거로 갈림길의 각 길에 대한 안내 정보를 생성하는 것도 가능하다 할 것이다. 이 경우 사용자가 카메라(130)를 각 길로 지향하는 경우, 해당 길에 대한 안내 정보를 시각적으로 출력되게 할 수 있다.
도 7은 본 발명과 관련된 모바일 기기용 챗봇의 작동을 예시한 제5 작동예를 나타낸 도면이다.
본 실시예의 경우에도 모바일 기기(100)의 카메라(130)를 통해 획득한 영상 정보를 이용한 것을 예시하고 있다. 카메라(130)를 통해 사용자가 먹는 음식을 촬영하게 되면, 촬영된 음식과 동일 또는 유사한 음식과 관련된 이미지(23)를 표시하고, 캐릭터(10)가 해당 음식을 사용자와 함께 먹는 액션(24)을 출력할 수 있다. 이 때 이와 관련된 텍스트 메시지(25), 예를 들어 식사 중 대화를 함께 출력할 수 있고, 이는 음성의 형태로도 출력 가능하다 할 것이다.
이와 같은 챗봇의 작동을 통해, 사용자가 혼자 식사하는 경우, 캐릭터와 함께 식사하는 것과 같은 상황을 연출하는 것이 가능하다 할 것이다.
그 밖에도, 사용자 안면을 인식한 인식 정보를 이용하여, 캐릭터(10)의 표정 정보 또는 발화 정보를 생성하는 것도 가능하다. 예를 들어, 캐릭터가 사용자의 표정과 유사한 표정을 짓게 하거나, 사용자가 화난 표정을 지을 경우 농담을 하거나 기분을 풀어주기 위한 메시지를 출력할 수 있다.
나아가, 모바일 기기(100)의 조도 센서(191)를 통해 센싱된 조도 정보, 외부로부터의 신호 전송을 알리는 알람 정보, 다른 앱으로부터 발생한 앱 알림 정보, 모션 센서로부터 센싱된 모션 정보 등을 이용하여, 캐릭터의 액션과 관련된 캐릭터의 동작 정보를 생성하는 것도 가능하다.
예를 들어, 어두운 곳인 경우 캐릭터(10)의 배경 화면이 어두워지게 하거나 캐릭터(10)가 전등을 켜는 액션을 출력할 수 있다. 또한, 사용자가 모바일 기기(10)를 흔들어 이와 같은 모션이 감지되는 경우, 캐릭터(10)가 넘어지거나 벽을 잡으면서 넘어지지 않으려는 액션을 출력하거나, "어지러워, 흔들지마"와 같은 메시지를 출력할 수 있다.
또한, 외부로부터의 신호가 전송되거나, 다른 앱으로부터 특정 정보가 발생하는 등 알림 정보가 발생하는 경우, 캐릭터(10)가 해당 내용이 개시된 표지판을 드는 등의 액션을 출력할 수 있다 할 것이다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 코드의 형태로 구현되어 비일시성의 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 코드, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 코드는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 코드를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 코드의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 적어도 하나의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
상기에서는 본 발명의 특정의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10: 캐릭터 11, 14, 16, 28, 20, 25: 텍스트 메시지
12, 17: 버튼 15: 배경 이미지
19: 경로 안내 표지 21: 사용자 촬영 영상
22, 24: 액션 23: 음식 이미지
100: 모바일 기기 110: 디스플레이
120: 통신 수단 130: 카메라
190: 센싱 수단

Claims (13)

  1. 사용자와의 의사 소통을 위한 캐릭터를 모바일 기기의 디스플레이에 표시하는 단계; 및
    기설정된 사용자 입력 또는 이벤트의 발생에 따라, 상기 캐릭터를 통해 메시지 또는 액션을 출력하는 단계;를 포함하고,
    상기 메시지 또는 액션의 출력을 위해, 모바일 기기에 장착된 센싱 수단 또는 통신 수단을 통해 수집된 하나 이상의 수집 정보를 근거로 상기 캐릭터의 외관, 상태 및 행위 중 적어도 하나에 관한 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  2. 제1항에 있어서,
    상기 수집 정보는 날씨 정보를 포함하고,
    상기 날씨 정보를 근거로 상기 캐릭터의 의상 정보, 소품 정보, 착의 정보 및 배경 요소 정보 중 하나 이상을 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  3. 제1항에 있어서,
    상기 수집 정보는 사용자가 위치한 사용자 위치 정보를 포함하고,
    상기 사용자 위치 정보를 근거로 상기 캐릭터 후방의 배경 화면 정보를 생성하거나, 사용자 위치의 날씨와 관련된 화면 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  4. 제1항에 있어서,
    상기 수집 정보는 사용자가 위치한 사용자 위치 정보를 포함하고,
    상기 사용자 위치 정보를 근거로 사용자 위치 주변의 음식점 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  5. 제4항에 있어서,
    사용자 위치 주변의 복수개의 음식점 중 하나를 사용자를 통해 선택받는 단계; 및
    사용자가 선택한 상기 음식점까지의 경로 안내 정보를 상기 디스플레이를 통해 출력하는 단계;를 더 포함하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  6. 제5항에 있어서, 상기 경로 안내 정보를 출력하는 단계는,
    상기 모바일 기기의 카메라를 통해 촬영된 영상 상에 상기 캐릭터를 표시하는 증강 현실 모드로 전환하는 단계; 및
    상기 경로를 따라 상기 캐릭터가 이동하면서 경로를 안내하도록 상기 캐릭터의 동작을 표시하는 단계;를 포함하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  7. 제1항에 있어서,
    상기 수집 정보는 사용자 안면을 인식한 안면 인식 정보를 포함하고,
    상기 안면 인식 정보의 표정 정보를 근거로 상기 캐릭터의 표정 정보 또는 발화 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  8. 제1항에 있어서,
    상기 수집 정보는 상기 모바일 기기의 카메라를 통해 촬영된 영상 정보를 포함하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  9. 제8항에 있어서,
    상기 영상 정보는 도로 또는 등산로의 갈림길을 촬영한 정보이며,
    상기 모바일 기기의 위치 정보와 지도 정보를 근거로 상기 갈림길의 각 길에 대한 안내 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  10. 제8항에 있어서,
    상기 영상 정보는 식당의 메뉴판을 촬영한 정보이며,
    상기 메뉴판의 음식 정보를 근거로 추천 메뉴 정보를 생성하여, 상기 캐릭터 상기 메시지 또는 액션 정보를 통해 메뉴를 추천하게 하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  11. 제8항에 있어서,
    상기 영상 정보는 사용자가 먹는 음식을 촬영한 정보이며,
    상기 캐릭터가 촬영된 음식과 동일 또는 유사한 음식을 사용자와 함께 먹는 액션을 출력하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  12. 제1항에 있어서,
    상기 수집 정보는 상기 모바일 기기의 조도 센서를 통해 센싱된 조도 정보, 외부로부터의 신호 전송을 알리거나 다른 앱으로부터 발생한 알림 정보, 모션 센서로부터 센싱된 모션 정보 중 적어도 하나를 포함하며,
    상기 수집 정보를 기초로 상기 액션 정보와 관련된 상기 캐릭터의 동작 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법.
  13. 모바일 기기의 메모리에 저장 가능하며, 모바일 기기의 프로세서에 의해 실행되는 모바일 기기용 챗봇 애플리케이션으로서,
    사용자와의 의사소통을 위한 캐릭터를 모바일 기기의 디스플레이에 표시하는 단계; 및
    기설정된 사용자 입력 또는 시스템 이벤트 발생에 따라, 상기 캐릭터를 통해 메시지 또는 액션을 출력하는 단계;를 포함하는 처리를 실행하고,
    상기 메시지 또는 액션의 출력을 위해, 모바일 기기에 장착된 센싱 수단 또는 통신 수단을 통해 수집된 하나 이상의 수집 정보를 근거로 상기 캐릭터의 외관, 상태 및 행위 중 적어도 하나에 관한 정보를 생성하는 것을 특징으로 하는, 캐릭터를 이용한 모바일 기기용 챗봇 애플리케이션.
KR1020220074992A 2022-06-20 2022-06-20 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션 KR20230174025A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220074992A KR20230174025A (ko) 2022-06-20 2022-06-20 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220074992A KR20230174025A (ko) 2022-06-20 2022-06-20 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션

Publications (1)

Publication Number Publication Date
KR20230174025A true KR20230174025A (ko) 2023-12-27

Family

ID=89377824

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220074992A KR20230174025A (ko) 2022-06-20 2022-06-20 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션

Country Status (1)

Country Link
KR (1) KR20230174025A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101929800B1 (ko) 2017-02-24 2018-12-18 주식회사 원더풀플랫폼 주제별 챗봇 제공 방법 및 이를 이용한 주제별 챗봇 제공 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101929800B1 (ko) 2017-02-24 2018-12-18 주식회사 원더풀플랫폼 주제별 챗봇 제공 방법 및 이를 이용한 주제별 챗봇 제공 시스템

Similar Documents

Publication Publication Date Title
KR102270766B1 (ko) 크리에이티브 카메라
CN110168618B (zh) 增强现实控制系统和方法
US10477006B2 (en) Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment
CN108700982B (zh) 信息处理设备、信息处理方法以及程序
US20170236330A1 (en) Novel dual hmd and vr device with novel control methods and software
US11846981B2 (en) Extracting video conference participants to extended reality environment
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
KR102481718B1 (ko) 스토리 기반 증강 및/또는 혼합 현실 경험을 통해 안내되는 물리적 네비게이션
EP2704024B1 (en) Input assistance device, input asssistance method, and program
KR20180057366A (ko) 이동 단말기 및 그 제어방법
CN105320262A (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN114205324B (zh) 消息显示方法、装置、终端、服务器及存储介质
CN112416207B (zh) 信息内容显示方法、装置、设备及介质
US20240119682A1 (en) Recording the complete physical and extended reality environments of a user
US11402964B1 (en) Integrating artificial reality and other computing devices
KR20180080986A (ko) 머신 러닝 기반의 인공지능 이모티콘 서비스 제공 시스템
JP2023515988A (ja) 拡張現実ゲスト認識システム及び方法
Chatzopoulos et al. Hyperion: A wearable augmented reality system for text extraction and manipulation in the air
CN117251082A (zh) 基于用户界面的人机交互方法、装置、设备及存储介质
KR20230174025A (ko) 캐릭터를 이용한 모바일 기기용 챗봇의 작동 방법 및 챗봇 애플리케이션
CN116762055A (zh) 同步虚拟现实通知
CN114327197B (zh) 消息发送方法、装置、设备及介质
KR102438715B1 (ko) 크리에이티브 카메라
KR20220149803A (ko) 정보를 공유하기 위한 전자 장치 및 그 동작 방법
KR20190142219A (ko) 사용자의 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal