KR102645143B1 - Method, apparatus and system for generating and providing responsive user manual contents based on user interaction - Google Patents

Method, apparatus and system for generating and providing responsive user manual contents based on user interaction Download PDF

Info

Publication number
KR102645143B1
KR102645143B1 KR1020230117414A KR20230117414A KR102645143B1 KR 102645143 B1 KR102645143 B1 KR 102645143B1 KR 1020230117414 A KR1020230117414 A KR 1020230117414A KR 20230117414 A KR20230117414 A KR 20230117414A KR 102645143 B1 KR102645143 B1 KR 102645143B1
Authority
KR
South Korea
Prior art keywords
image
product
user
state
user input
Prior art date
Application number
KR1020230117414A
Other languages
Korean (ko)
Inventor
이가람
이충선
Original Assignee
이가람
이충선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이가람, 이충선 filed Critical 이가람
Priority to KR1020230117414A priority Critical patent/KR102645143B1/en
Application granted granted Critical
Publication of KR102645143B1 publication Critical patent/KR102645143B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • G06Q30/016After-sales
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

일실시예에 따른 장치는 제1 상태인 제품을 촬영한 제1 이미지를 획득하고, 제2 상태인 제품을 촬영한 제2 이미지를 획득하고, 제3 상태인 제품을 촬영한 제3 이미지를 획득하고, 제1 이미지를 출력하고, 제1 이미지에 대한 사용자 입력을 수신하고, 사용자 입력이 제1 사용자 입력인 경우, 제1 이미지를 제2 이미지로 변환하여 출력하고, 사용자 입력이 제2 사용자 입력인 경우, 제1 이미지를 제3 이미지로 변환하여 출력할 수 있다.A device according to an embodiment acquires a first image of a product in a first state, a second image of a product in a second state, and a third image of a product in a third state. Output the first image, receive a user input for the first image, and if the user input is the first user input, convert the first image to the second image and output it, and if the user input is the second user input In this case, the first image can be converted into a third image and output.

Description

사용자 상호작용 기반 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공 방법, 장치 및 시스템{METHOD, APPARATUS AND SYSTEM FOR GENERATING AND PROVIDING RESPONSIVE USER MANUAL CONTENTS BASED ON USER INTERACTION}Method, device, and system for generating and providing responsive user manual content based on user interaction {METHOD, APPARATUS AND SYSTEM FOR GENERATING AND PROVIDING RESPONSIVE USER MANUAL CONTENTS BASED ON USER INTERACTION}

아래 실시예들은 사용자와의 상호작용을 기반으로 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공하는 기술에 관한 것이다.The following embodiments relate to technology for generating and providing responsive user manual content based on user interaction.

제품의 메뉴얼은 해당 제품의 사용 방법이나 기능에 대한 설명을 시각적으로 안내하기 위한 것으로서, 제품의 다양한 기능과 사용 방법을 보여줌으로써 제품의 기능과 사용법에 대한 이해도를 높일 수 있으며, 사용자가 더욱 원활하게 제품을 활용할 수 있게 된다.The product's manual is intended to provide visual guidance on how to use the product or explain its functions. By showing the various functions and usage methods of the product, it increases understanding of the product's functions and usage methods and allows users to operate more smoothly. You can use the product.

제품을 구매하게 되면, 소비자는 제품의 조립 및 설치 방법과 작동 방법 등을 안내하기 위해 그림과 텍스트 메뉴얼을 제공받게 되는데, 기존의 메뉴얼은 직관적으로 이해하기가 어렵다는 문제점이 있었다.When purchasing a product, consumers are provided with picture and text manuals to guide them on how to assemble, install, and operate the product. However, existing manuals had the problem of being difficult to understand intuitively.

이에, 메뉴얼을 보다 직관적으로 제공하기 위하여 영상 또는 음성으로 안내하는 방법이 연구 및 개발되었지만, 일방적으로 사용자에게 영상이나 음성을 제공함으로써, 사용자의 이해도나 반응에 따라 메뉴얼을 제공하지 못한다는 한계점이 있었다.Accordingly, in order to provide the manual more intuitively, a method of providing guidance through video or audio was researched and developed, but there was a limitation in that the manual could not be provided according to the user's level of understanding or response by unilaterally providing video or audio to the user. .

이에 따라, 사용자와의 상호작용을 기반으로 반응형 사용자 메뉴얼 콘텐츠를 생성하고 제공하는 것에 대한 기술의 개발이 요구되는 실정이다.Accordingly, there is a need for the development of technology for creating and providing responsive user manual content based on user interaction.

대한민국 등록특허 제10-2261828 호(2021.06.08 공고)Republic of Korea Patent No. 10-2261828 (announced on 2021.06.08) 대한민국 공개특허 제10-2022-0096808 호(2022.07.07 공개)Republic of Korea Patent Publication No. 10-2022-0096808 (published on July 7, 2022) 대한민국 등록특허 제10-1699491 호(2017.01.24 공고)Republic of Korea Patent No. 10-1699491 (announced on January 24, 2017) 대한민국 공개특허 제10-2021-0076775 호(2021.06.24 공개)Republic of Korea Patent Publication No. 10-2021-0076775 (published on June 24, 2021)

실시예들은 사용자 상호작용 기반 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공 방법을 제공하고자 한다.Embodiments seek to provide a method for creating and providing responsive user manual content based on user interaction.

실시예들은 사용자 입력에 기반하여 제품을 촬영한 이미지를 변환한 반응형 이미지를 생성하고, 이미지를 변환하는 과정에서 중간 이미지를 생성하여 시각적 차이를 최소화하고자 한다.Embodiments attempt to minimize visual differences by generating a responsive image by converting an image of a product based on user input and generating an intermediate image in the process of converting the image.

실시예들은 추가 사용자 입력에 기반하여 팝업 형태로 제품의 추가 정보를 제공하고자 한다.Embodiments seek to provide additional product information in a pop-up form based on additional user input.

일실시예에 따르면, 장치에 의해 수행되는 방법은, 제1 상태인 제품을 촬영한 제1 이미지를 획득하는 단계; 제2 상태인 상기 제품을 촬영한 제2 이미지를 획득하는 단계; 제3 상태인 상기 제품을 촬영한 제3 이미지를 획득하는 단계; 상기 제1 이미지를 출력하는 단계; 상기 제1 이미지에 대한 사용자 입력을 수신하는 단계; 상기 사용자 입력이 제1 사용자 입력인 경우, 상기 제1 이미지를 상기 제2 이미지로 변환하여 출력하는 단계; 및 상기 사용자 입력이 제2 사용자 입력인 경우, 상기 제1 이미지를 상기 제3 이미지로 변환하여 출력하는 단계;를 포함할 수 있다.According to one embodiment, a method performed by an apparatus includes acquiring a first image of a product in a first state; Obtaining a second image of the product in a second state; Obtaining a third image of the product in a third state; outputting the first image; Receiving user input for the first image; If the user input is a first user input, converting the first image into the second image and outputting it; and, when the user input is a second user input, converting the first image into the third image and outputting the image.

상기 제2 상태는, 상기 제품의 적어도 일부가 상기 제1 상태와 시각적으로 구분되는 상태이고, 상기 제3 상태는, 상기 제품의 적어도 일부를 상기 제1 상태에 비해 확대 또는 축소한 상태를 포함할 수 있다.The second state is a state in which at least a part of the product is visually distinguished from the first state, and the third state may include a state in which at least a part of the product is enlarged or reduced compared to the first state. You can.

상기 제1 이미지를 상기 제2 이미지로 변환하여 출력하는 단계에서, 상기 제1 이미지와 제2 이미지 사이의 시각적인 차이를 최소화하기 위하여, 미리 학습된 인공지능 모델에 상기 제1 이미지 및 상기 제2 이미지를 입력하여 중간 이미지를 출력하는 단계, 상기 제1 이미지 및 상기 제2 이미지와 상기 중간 이미지의 공통 부분 및 차이 부분을 추출하는 단계, 및 상기 중간 이미지에서 상기 공통 부분은 유지하고, 상기 차이 부분을 블러 처리하여 상기 중간 이미지를 수정하는 단계를 더 포함할 수 있다. In the step of converting and outputting the first image into the second image, in order to minimize the visual difference between the first image and the second image, the first image and the second image are applied to a pre-trained artificial intelligence model. Inputting an image and outputting an intermediate image, extracting a common part and a difference part between the first image and the second image and the intermediate image, and maintaining the common part in the intermediate image and the difference part The step of modifying the intermediate image by blurring may further be included.

상기 중간 이미지는, 상기 제1 이미지와 상기 제2 이미지를 비교하여, 상기 제1 이미지와 상기 제2 이미지의 차이 정도를 산출하고, 상기 차이 정도에 기반하여 출력되는 개수가 결정되고, 상기 사용자 입력의 소리 입력으로부터 키워드를 추출하고, 상기 키워드 중 상기 제품과 관련된 제품 키워드의 개수를 확인하고, 미리 설정된 기준 시간에 상기 출력되는 개수와 반비례하면서, 상기 제품 키워드의 개수와 비례하도록 결정된 가중치를 적용하여 출력 유지 시간이 결정될 수 있다.The intermediate image compares the first image and the second image, calculates the degree of difference between the first image and the second image, and determines the number of intermediate images to be output based on the degree of difference, and the user input Extract keywords from the sound input, check the number of product keywords related to the product among the keywords, and apply a weight determined to be proportional to the number of product keywords while being inversely proportional to the number output at a preset reference time. The output maintenance time may be determined.

상기 제1 이미지를 상기 제3 이미지로 변환하여 출력하는 단계 이후, 상기 제3 이미지에 대한 추가 사용자 입력이 수신된 경우, 상기 제품의 메뉴얼 영상을 제1 크기의 팝업 형태로 출력하는 단계; 상기 추가 사용자 입력의 터치 강도가 미리 설정된 기준 이상인 경우, 터치 위치에 해당하는 상기 제품의 부분에 포함된 부품의 부품 정보 및 상기 부품의 판매 페이지를 제1 크기와 상이한 제2 크기의 팝업 형태로 출력하는 단계; 및 상기 추가 사용자 입력의 터치 횟수가 미리 설정된 기준 횟수 이상인 경우, 상기 제품 관련 고객 센터 연결 안내 메시지를 출력하는 단계를 더 포함할 수 있다.After converting the first image into the third image and outputting it, when additional user input for the third image is received, outputting the product manual image in a pop-up form at a first size; If the touch intensity of the additional user input is more than a preset standard, the part information of the part included in the part of the product corresponding to the touch position and the sales page of the part are output in the form of a pop-up of a second size different from the first size. steps; And if the number of touches of the additional user input is more than a preset reference number, the method may further include outputting a product-related customer center connection information message.

상기 장치에 의해 수행되는 방법은, 상기 제품의 메뉴얼에 대한 사용자의 이해도를 확인하는 단계를 더 포함하고, 상기 이해도를 확인하는 단계는, 카메라로부터 상기 제품 및 사용자를 포함하는 사용자 영상을 획득하는 단계, 상기 사용자 영상으로부터 상기 사용자의 시선 정보를 획득하는 단계, 상기 시선의 변화 속도를 확인하는 단계, 상기 메뉴얼 영상에 등장하는 제품의 부분 중 미리 설정된 기준 이상으로 변화한 것에 해당하는 부분을 집중 부분으로 결정하는 단계, 상기 시선의 위치를 확인하는 단계,상기 시선의 위치와 상기 제품에 해당하는 집중 부분의 위치 일치 여부를 판단하는 단계,상기 시선의 위치가 상기 집중 부분의 위치에 머무르는 응시 시간을 산출하는 단계,상기 변화 속도, 상기 위치 일치 여부 및 상기 응시 시간을 기반으로 시선 이해도를 결정하는 단계,상기 사용자 영상으로부터 상기 사용자의 표정 정보를 획득하는 단계,상기 사용자의 표정을 긍정 상태에 해당하는 긍정 표정 및 부정 상태에 해당하는 부정 표정으로 분류하는 단계,상기 표정 정보로부터 긍정 표정이 지속되는 긍정 지속 시간 및 상기 부정 표정이 지속되는 부정 지속 시간을 산출하는 단계,The method performed by the device further includes the step of checking the user's understanding of the product's manual, and the step of checking the understanding includes obtaining a user image including the product and the user from a camera. , obtaining the user's gaze information from the user image, confirming the speed of change of the gaze, and dividing the part of the product that appears in the manual video that has changed more than a preset standard into a focused part. Determining, confirming the position of the gaze, determining whether the position of the gaze matches the position of the focus portion corresponding to the product, calculating the gaze time during which the position of the gaze remains at the position of the focus portion A step of determining gaze understanding based on the change speed, whether the location matches, and the gaze time, Obtaining expression information of the user from the user image, Affirming the user's expression corresponding to a positive state Classifying a negative expression corresponding to an expression and a negative state, calculating a positive duration for which a positive expression lasts and a negative duration for which the negative expression lasts from the facial expression information;

상기 표정 정보로부터 상기 긍정 표정의 강도인 긍정 강도 및 상기 부정 표정이 강도인 부정 강도를 확인하는 단계, 상기 긍정 지속 시간에 상기 긍정 강도에 기반하여 결정된 긍정 가중치를 적용한 긍정 수치를 산출하는 단계, 상기 부정 지속 시간에 상기 부정 강도에 기반하여 결정된 부정 가중치를 적용한 부정 수치를 산출하는 단계, 상기 긍정 수치 및 상기 부정 수치의 비율에 기반하여 표정 이해도를 결정하는 단계, 상기 사용자 영상으로부터 상기 사용자의 음성 정보를 획득하는 단계, 상기 음성 정보로부터 소리의 세기를 확인하는 단계, 상기 음성 정보로부터 키워드를 추출하는 단계, 상기 키워드 중 제품과 관련된 제품 키워드의 개수를 확인하는 단계, 상기 소리의 세기 및 상기 제품 키워드의 개수를 기반으로 음성 이해도를 결정하는 단계, 상기 시선 이해도, 상기 표정 이해도 및 상기 음성 이해도를 기반으로 상기 사용자의 이해도를 결정하는 단계, 및 상기 이해도에 상기 메뉴얼 영상의 길이 및 단계의 개수에 기반하여 결정된 가중치를 적용하여, 상기 사용자의 이해도를 조정하는 단계를 포함할 수 있다.Confirming the positive intensity, which is the intensity of the positive facial expression, and the negative intensity, which is the intensity of the negative facial expression, from the facial expression information; calculating a positive value by applying a positive weight determined based on the positive intensity to the positive duration time; Calculating a negativity value by applying a negativity weight determined based on the negativity intensity to the negativity duration, determining facial expression understanding based on a ratio of the positive value and the negative value, and voice information of the user from the user image. Obtaining, confirming the intensity of sound from the voice information, extracting a keyword from the voice information, confirming the number of product keywords related to the product among the keywords, the intensity of the sound and the product keyword determining a voice understandability based on the number of steps, determining the user's understanding level based on the gaze understanding level, the facial expression understanding level, and the voice understanding level, and the length of the manual video and the number of steps according to the understanding level. It may include a step of adjusting the user's level of understanding by applying a weight determined based on .

상기 장치에 의해 수행되는 방법은, 상기 이해도를 기반으로 상기 제품의 메뉴얼 콘텐츠를 생성하는 단계를 더 포함하고, 상기 제품의 메뉴얼 콘텐츠를 생성하는 단계는, 상기 시선 이해도에 반비례하여 상기 메뉴얼 콘텐츠의 재생 속도를 결정하는 단계, 상기 표정 이해도에 반비례하여 상기 메뉴얼 콘텐츠의 반복 횟수를 결정하는 단계, 상기 음성 이해도에 기반하여 상기 메뉴얼 콘텐츠의 설명 음성의 세기를 결정하는 단계, 상기 사용자 영상으로부터 상기 제품과 상기 사용자 사이의 거리를 확인하는 단계, 및 상기 제품과 상기 사용자 사이의 거리에 반비례하여, 상기 메뉴얼 콘텐츠에서 상기 제품의 확대 비율을 결정하는 단계를 포함할 수 있다.The method performed by the device further includes the step of generating manual content for the product based on the level of understanding, and the step of generating the manual content for the product includes reproducing the manual content in inverse proportion to the level of gaze understanding. determining the speed, determining the number of repetitions of the manual content in inverse proportion to the facial expression understandability, determining the intensity of a voice explaining the manual content based on the voice understandability, comparing the product and the user image to the user image. It may include checking the distance between users, and determining an enlargement ratio of the product in the manual content in inverse proportion to the distance between the product and the user.

상기 장치에 의해 수행되는 방법은, 상기 제품의 판매 수익을 확인하는 단계; 상기 판매 수익이 미리 설정된 기준 이상인 것에 기반하여, 상기 제품의 메뉴얼 영상에 대한 NFT 제작을 승인하는 단계; 상기 메뉴얼 영상의 분당 시청률이 높은 구간을 클립하여 NFT 제작을 위한 이미지로 생성하는 단계; 상기 이미지를 이용하여 NFT를 생성하는 단계; 및 상기 NFT를 마켓에 업로드하고 상기 NFT의 판매 수익 중 미리 설정된 비율을 상기 제품의 판매자와 상기 메뉴얼 영상을 생성한 제작자에게 분배하는 단계를 더 포함할 수 있다.The method performed by the apparatus includes: confirming sales revenue of the product; Approving NFT production for the manual video of the product based on the sales revenue being more than a preset standard; Clipping a section with a high viewership per minute of the manual video to create an image for NFT production; Creating an NFT using the image; And it may further include uploading the NFT to the market and distributing a preset ratio of the sales revenue of the NFT to the seller of the product and the producer who created the manual video.

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.The device according to one embodiment may be combined with hardware and controlled by a computer program stored in a medium to execute any one of the above-described methods.

실시예들은 사용자 상호작용 기반 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공 방법을 제공할 수 있다.Embodiments may provide methods for creating and providing responsive user manual content based on user interaction.

실시예들은 사용자 입력에 기반하여 제품을 촬영한 이미지를 변환한 반응형 이미지를 생성하고, 이미지를 변환하는 과정에서 중간 이미지를 생성하여 시각적 차이를 최소화할 수 있다.Embodiments may generate a responsive image by converting an image taken of a product based on user input, and generate an intermediate image in the process of converting the image to minimize visual differences.

실시예들은 추가 사용자 입력에 기반하여 팝업 형태로 제품의 추가 정보를 제공할 수 있다.Embodiments may provide additional product information in the form of a pop-up based on additional user input.

도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 사용자 상호작용 기반 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 제1 이미지를 제2 이미지로 변환하여 출력하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 중간 이미지의 출력되는 개수 및 추력 유지 시간을 결정하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 제1 이미지를 제3 이미지로 변환하여 출력하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 시선 이해도를 결정하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 표정 이해도를 결정하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 음성 이해도 및 제품의 메뉴얼에 대한 사용자의 이해도를 확인하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 이해도를 기반으로 제품의 메뉴얼 콘텐츠를 생성하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 NFT의 판매 수익을 분배하는 과정을 설명하기 위한 순서도이다.
도 11은 실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram for explaining the configuration of a system according to an embodiment.
Figure 2 is a flowchart illustrating a process for creating and providing responsive user manual content based on user interaction according to an embodiment.
Figure 3 is a flowchart for explaining the process of converting a first image into a second image and outputting it, according to an embodiment.
Figure 4 is a flowchart for explaining the process of determining the output number of intermediate images and the thrust maintenance time according to one embodiment.
Figure 5 is a flowchart for explaining a process of converting a first image into a third image and outputting it, according to an embodiment.
Figure 6 is a flowchart for explaining the process of determining gaze understanding according to an embodiment.
Figure 7 is a flowchart for explaining the process of determining facial expression understanding according to one embodiment.
Figure 8 is a flowchart for explaining the process of checking the user's understanding of the voice understanding and the product manual according to one embodiment.
Figure 9 is a flow chart to explain the process of generating manual content for a product based on understanding according to an embodiment.
Figure 10 is a flow chart to explain the process of distributing NFT sales revenue according to an embodiment.
11 is an exemplary diagram of the configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, various changes can be made to the embodiments, so the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be modified and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for descriptive purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments belong. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiments, if it is determined that detailed descriptions of related known technologies may unnecessarily obscure the gist of the embodiments, the detailed descriptions are omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.Embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.1 is a diagram for explaining the configuration of a system according to an embodiment.

일실시예에 따른 시스템은 통신망을 통해 통신 가능한 장치(30)를 포함할 수 있다.The system according to one embodiment may include a device 30 capable of communicating through a communication network.

먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, a communication network can be configured regardless of the communication mode, such as wired or wireless, and can be implemented in various forms to enable communication between servers and between servers and terminals.

청구항에 기재된 단수의 표현은 복수를 포함하는 것으로 이해될 수 있다. 예를 들어, 청구항의 사용자는 하나의 사용자 또는 둘 이상의 사용자를 지칭할 수 있다.The singular expressions recited in the claims may be understood to include the plural. For example, the user in a claim may refer to one user or two or more users.

장치(30)는 장치(30)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(30)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.The device 30 may be its own server owned by a person or organization that provides services using the device 30, a cloud server, or a p2p (peer-to-peer) collection of distributed nodes. It may be possible. The device 30 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer.

일실시예에 따르면, 장치(30)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 디스플레이를 포함할 수 있다. 디스플레이는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 예를 들어, 터치 스크린으로 구현될 수 있으나 이에 한정되지는 않는다. 이러한 터치 스크린은 장치(30)와 사용자 사이의 사용자 입력 인터페이스를 제공하는 기능을 수행할 수 있으며, 장치(30)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.According to one embodiment, device 30 may include a display for generating output related to vision, hearing, or tactile sensation. The display may be implemented as a touch screen, for example, by forming a layered structure or integrated with the touch sensor, but is not limited thereto. This touch screen may perform the function of providing a user input interface between the device 30 and the user, and may provide an output interface between the device 30 and the user.

장치(30)는 디스플레이를 포함하는 장치를 통해 반응형 사용자 메뉴얼 콘텐츠를 제공할 수 있다. 장치(30)에는 디스플레이가 구비될 수 있으며, 이에 한정되지 않고, 장치(30)와 별도로 디스플레이가 구성될 수 있다. Device 30 may provide responsive user manual content through a device that includes a display. The device 30 may be equipped with a display, but is not limited to this, and the display may be configured separately from the device 30.

이때, 디스플레이를 포함하는 장치는 디스플레이를 구비한 모든 전자 장치를 의미할 수 있으며, 예를 들어, 스마트폰, 노트북, 태블릿 PC, 터치 스크린 등을 의미할 수 있다.At this time, a device including a display may mean any electronic device equipped with a display, for example, a smartphone, laptop, tablet PC, touch screen, etc.

장치(30)는 디스플레이를 포함하는 장치를 유무선으로 통신하도록 구성될 수 있으며, 디스플레이를 포함하는 장치의 동작을 제어하고, 디스플레이를 포함하는 장치의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있다.The device 30 may be configured to communicate wired or wirelessly with a device including a display, control the operation of the device including the display, and control which information to display on the screen of the device including the display. .

장치(30)는 사용자와의 상호작용을 기반으로 반응형 사용자 메뉴얼 콘텐츠를 생성하고 제공할 수 있다. 이때, 반응형 사용자 메뉴얼 콘텐츠를 생성하는 과정은 도 2를 참조하여 후술하기로 한다.Device 30 may generate and provide responsive user manual content based on interaction with the user. At this time, the process of creating responsive user manual content will be described later with reference to FIG. 2.

사용자와의 상호작용을 기반으로 반응형 사용자 메뉴얼 콘텐츠를 생성하고 제공하는 과정을 통해 다음과 같은 효과를 가질 수 있다.The following effects can be achieved through the process of creating and providing responsive user manual content based on user interaction.

장치(30)는 사용자와의 상호작용을 통해 메뉴얼 콘텐츠를 생성함으로써, 개별 사용자의 요구와 선호에 맞게 맞춤화된 메뉴얼 콘텐츠를 제공할 수 있고, 사용자는 자신의 상황과 필요에 맞게 정보를 찾고, 문제 해결 방법을 얻을 수 있어 효율적인 경험을 제공받을 수 있다.The device 30 can provide manual content customized to the needs and preferences of individual users by generating manual content through interaction with the user, and the user can find information tailored to his or her situation and needs and solve problems. You can obtain a solution and receive an efficient experience.

또한, 반응형 사용자 메뉴얼 콘텐츠는 사용자와의 상호작용을 통해 정보를 제공하므로, 사용자는 직관적이고 쉬운 방식으로 필요한 정보를 얻을 수 있다. 예를 들어, 사용자가 특정 작업을 수행하고자 할 때, 해당 작업에 대한 설명을 쉽게 찾을 수 있다.Additionally, responsive user manual content provides information through user interaction, allowing users to obtain necessary information in an intuitive and easy manner. For example, when a user wants to perform a specific task, he or she can easily find a description of that task.

사용자와의 상호작용을 통해 생성된 메뉴얼 콘텐츠는 실시간으로 업데이트될 수 있으며, 제품의 업그레이드, 새로운 기능 추가 또는 문제 해결 방법의 변경 등이 있을 때, 사용자에게 신속하게 반영되어 최신 정보를 제공할 수 있다.Manual content created through user interaction can be updated in real time, and when there is a product upgrade, new function addition, or change in problem solving method, it can be quickly reflected to the user to provide the latest information. .

사용자와의 상호작용을 통해 생성된 메뉴얼 콘텐츠는 사용자가 제품을 더욱 잘 이해하고 학습할 수 있는 도움을 줄 수 있으며, 사용자는 직접적인 참여를 통해 제품의 기능과 작동 방식을 경험하고, 필요한 정보를 쉽게 습득할 수 있다.Manual content created through interaction with users can help users better understand and learn the product, and users can experience the product's functions and operation methods through direct participation and easily obtain the necessary information. It can be acquired.

상호작용 기반의 메뉴얼 콘텐츠는 사용자의 참여를 촉진하고 사용자의 문제 해결 능력을 향상시킬 수 있다. 사용자가 직접 상호작용하며 문제를 해결하고, 메뉴얼의 제공되는 정보를 활용함으로써 제품을 더욱 효과적으로 활용할 수 있게 되는 효과가 있다.Interaction-based manual content can promote user participation and improve users' problem-solving skills. This has the effect of allowing users to utilize the product more effectively by directly interacting with each other, solving problems, and utilizing the information provided in the manual.

즉, 장치(30)는 이러한 효과들을 통해 사용자의 만족도를 높이고 제품 사용의 효율성과 편의성을 향상시킬 수 있으며, 사용자와의 상호작용을 통해 얻은 사용자 데이터를 기반으로 제품이나 메뉴얼 콘텐츠를 개선시켜 제품 및 제품의 메뉴얼 콘텐츠의 품질을 향상시킬 수 있다.In other words, the device 30 can increase user satisfaction through these effects and improve the efficiency and convenience of product use, and improve the product or manual content based on user data obtained through interaction with the user. The quality of product manual content can be improved.

일실시예에 따르면, 장치(30) 내에는 데이터베이스가 구비될 수 있으며, 이에 한정되지 않고, 장치(30)와 별도로 데이터베이스가 구성될 수 있다. 장치(30)는 기계 학습 알고리즘의 수행을 위한 다수의 인공 신경망을 포함할 수 있다.According to one embodiment, a database may be provided within the device 30, but the present invention is not limited to this, and the database may be configured separately from the device 30. Device 30 may include multiple artificial neural networks for performing machine learning algorithms.

본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) refers to technology that imitates human learning ability, reasoning ability, perception ability, etc. and implements this with a computer, and includes concepts such as machine learning and symbolic logic. may include. Machine Learning (ML) is an algorithmic technology that classifies or learns the characteristics of input data on its own. Artificial intelligence technology is a machine learning algorithm that analyzes input data, learns the results of the analysis, and makes judgments or predictions based on the results of the learning. Additionally, technologies that mimic the functions of the human brain, such as cognition and judgment, using machine learning algorithms can also be understood as the category of artificial intelligence. For example, technical fields such as verbal understanding, visual understanding, reasoning/prediction, knowledge representation, and motion control may be included.

기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.Machine learning can refer to the process of training a neural network model using experience processing data. Machine learning can mean that computer software improves its own data processing capabilities. A neural network model is built by modeling the correlation between data, and the correlation can be expressed by a plurality of parameters. A neural network model extracts and analyzes features from given data to derive correlations between data. Repeating this process to optimize the parameters of the neural network model can be called machine learning. For example, a neural network model can learn the mapping (correlation) between input and output for data given as input-output pairs. Alternatively, a neural network model may learn the relationships by deriving regularities between given data even when only input data is given.

인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.An artificial intelligence learning model or neural network model may be designed to implement the human brain structure on a computer, and may include a plurality of network nodes with weights that simulate neurons of a human neural network. A plurality of network nodes may have a connection relationship with each other by simulating the synaptic activity of neurons in which neurons exchange signals through synapses. In an artificial intelligence learning model, multiple network nodes are located in layers of different depths and can exchange data according to convolutional connection relationships. The artificial intelligence learning model may be, for example, an artificial neural network model (Artificial Neural Network), a convolution neural network (CNN) model, etc. As an example, an artificial intelligence learning model may be machine-learned according to methods such as supervised learning, unsupervised learning, and reinforcement learning. Machine learning algorithms for performing machine learning include Decision Tree, Bayesian Network, Support Vector Machine, Artificial Neural Network, and Ada-boost. , Perceptron, Genetic Programming, Clustering, etc. can be used.

이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Among them, CNN is a type of multilayer perceptrons designed to use minimal preprocessing. CNN consists of one or several convolution layers and general artificial neural network layers on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can fully utilize input data with a two-dimensional structure. Compared to other deep learning structures, CNN shows good performance in both video and audio fields. CNNs can also be trained via standard back propagation. CNNs have the advantage of being easier to train and using fewer parameters than other feedforward artificial neural network techniques.

컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.Convolutional networks are neural networks that contain sets of nodes with bound parameters. The increasing size of available training data and the availability of computational power, combined with algorithmic advances such as piecewise linear unit and dropout training, have led to significant improvements in many computer vision tasks. For extremely large data sets, such as those available for many tasks today, overfitting is not critical, and increasing the size of the network improves test accuracy. Optimal use of computing resources becomes a limiting factor. For this purpose, distributed, scalable implementations of deep neural networks can be used.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

도 2는 일실시예에 따른 사용자 상호작용 기반 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공하는 과정을 설명하기 위한 순서도이다.Figure 2 is a flowchart illustrating a process for creating and providing responsive user manual content based on user interaction according to an embodiment.

도 2를 참조하면, 먼저 S201 단계에서, 장치(30)는 제1 상태인 제품을 촬영한 제1 이미지를 획득할 수 있다.Referring to FIG. 2, first, in step S201, the device 30 may acquire a first image of a product in a first state.

이때, 제1 상태는 제품의 기본적인 상태를 의미할 수 있다. 예를 들어, 제품이 책상인 경우, 제1 상태는 책상의 조립이 완료되어 모든 부품이 올바르게 결합되어 있는 상태를 포함할 수 있으며, 제1 이미지는 조립이 완성된 책상 전체의 이미지를 의미할 수 있으나, 이는 예시에 불과할 뿐 이에 한정되지는 않는다.At this time, the first state may mean the basic state of the product. For example, if the product is a desk, the first state may include a state in which assembly of the desk has been completed and all parts are correctly combined, and the first image may refer to an image of the entire desk with complete assembly. However, this is only an example and is not limited to this.

일실시예에 따르면, 장치(30)는 메뉴얼을 기반으로 제품을 조립하여 사용하려는 사용자의 사용자 단말로부터 제1 상태인 제품을 촬영한 제1 이미지를 수신할 수 있다. 다른 일실시예에 따르면, 장치(30)는 제품이 판매되는 웹 사이트로부터 제1 상태인 제품을 촬영한 제1 이미지를 수집할 수도 있다. 이때, 제1 이미지를 획득하는 과정은 이에 한정되지 않고, 다양한 방법으로 수행될 수 있다.According to one embodiment, the device 30 may receive a first image of a product in a first state from a user terminal of a user who wants to assemble and use the product based on a manual. According to another embodiment, the device 30 may collect a first image of a product in a first state from a website where the product is sold. At this time, the process of acquiring the first image is not limited to this and can be performed in various ways.

S202 단계에서, 장치(30)는 제2 상태인 제품을 촬영한 제2 이미지를 획득할 수 있다.In step S202, the device 30 may acquire a second image of the product in the second state.

이때, 제2 상태는 제품의 적어도 일부가 제1 상태와 시각적으로 구분되는 상태를 포함할 수 있다. 예를 들어, 제품이 책상인 경우, 제2 이미지는 책상의 다리만을 촬영한 이미지를 의미할 수 있으나, 이는 예시에 불과할 뿐 이에 한정되지는 않는다.At this time, the second state may include a state in which at least a portion of the product is visually distinguished from the first state. For example, if the product is a desk, the second image may represent an image of only the legs of the desk, but this is only an example and is not limited thereto.

일실시예에 따르면, 장치(30)는 메뉴얼을 기반으로 제품을 조립하여 사용하려는 사용자의 사용자 단말로부터 제2 상태인 제품을 촬영한 제2 이미지를 수신할 수 있다. 다른 일실시예에 따르면, 장치(30)는 제품이 판매되는 웹 사이트로부터 제2 상태인 제품을 촬영한 제2 이미지를 수집할 수도 있다. 이때, 제2 이미지를 획득하는 과정은 이에 한정되지 않고, 다양한 방법으로 수행될 수 있다.According to one embodiment, the device 30 may receive a second image of a product in a second state from a user terminal of a user who wants to assemble and use the product based on a manual. According to another embodiment, the device 30 may collect a second image of a product in a second state from a website where the product is sold. At this time, the process of acquiring the second image is not limited to this and can be performed in various ways.

S203 단계에서, 장치(30)는 제3 상태인 제품을 촬영한 제3 이미지를 획득할 수 있다.In step S203, the device 30 may acquire a third image of the product in the third state.

이때, 제3 상태는 제품의 적어도 일부를 제1 상태에 비해 확대 또는 축소한 상태를 포함할 수 있다. 예를 들어, 제품이 책상인 경우, 제3 이미지는 책상의 다리 부분을 확대하여 촬영된 이미지를 의미할 수 있으나, 이는 예시에 불과할 뿐 이에 한정되지는 않는다.At this time, the third state may include a state in which at least part of the product is enlarged or reduced compared to the first state. For example, if the product is a desk, the third image may be an image taken by enlarging the legs of the desk, but this is only an example and is not limited thereto.

일실시예에 따르면, 장치(30)는 메뉴얼을 기반으로 제품을 조립하여 사용하려는 사용자의 사용자 단말로부터 제3 상태인 제품을 촬영한 제3 이미지를 수신할 수 있다. 다른 일실시예에 따르면, 장치(30)는 제품이 판매되는 웹 사이트로부터 제3 상태인 제품을 촬영한 제3 이미지를 수집할 수도 있다. 이때, 제3 이미지를 획득하는 과정은 이에 한정되지 않고, 다양한 방법으로 수행될 수 있다.According to one embodiment, the device 30 may receive a third image of a product in a third state from a user terminal of a user who wants to assemble and use the product based on a manual. According to another embodiment, the device 30 may collect a third image of a product in a third state from a website where the product is sold. At this time, the process of acquiring the third image is not limited to this and can be performed in various ways.

이때, 제1 상태부터 제3 상태까지 설명한 것은 예시에 불과하며, 제품의 상태는 이에 한정되지 않고 제품의 특징, 조립의 복잡성 등에 따라 더 세분화된 제품의 상태가 더 세분화될 수 있다. 예를 들어, 제품의 상태는 제1 상태부터 제10 상태를 포함할 수 있다.At this time, the description from the first state to the third state is only an example, and the state of the product is not limited to this, and the state of the product may be further divided depending on the characteristics of the product, the complexity of assembly, etc. For example, the state of the product may include a first state to a tenth state.

S204 단계에서, 장치(30)는 제1 이미지를 출력할 수 있다.In step S204, the device 30 may output the first image.

장치(30)는 디스플레이를 포함하는 장치를 통해 제1 이미지를 출력할 수 있다. 장치(30)에는 디스플레이가 구비될 수 있으며, 이에 한정되지 않고, 장치(30)와 별도로 디스플레이가 구성될 수 있다. 일실시예에 따르면, 디스플레이를 포함하는 장치는 사용자의 단말을 포함할 수도 있다.Device 30 may output the first image through a device including a display. The device 30 may be equipped with a display, but is not limited to this, and the display may be configured separately from the device 30. According to one embodiment, a device including a display may include a user's terminal.

예를 들어, 장치(30)는 사용자의 단말의 화면에 제1 이미지가 출력되도록 제어할 수 있다.For example, the device 30 may control the first image to be output on the screen of the user's terminal.

S205 단계에서, 장치(30)는 사용자 입력을 수신할 수 있다.In step S205, the device 30 may receive user input.

이때, 사용자 입력은 터치 입력, 근접 입력 및 소리 입력 중 적어도 하나를 포함할 수 있다. 이때, 장치(30)는 수신한 사용자 입력을 데이터베이스에 저장할 수 있다.At this time, the user input may include at least one of touch input, proximity input, and sound input. At this time, the device 30 may store the received user input in the database.

S206 단계에서, 장치(30)는 사용자 입력이 제1 사용자 입력인 경우, 제1 이미지를 제2 이미지로 변환하여 출력할 수 있다.In step S206, if the user input is the first user input, the device 30 may convert the first image into a second image and output it.

이때, 제1 사용자 입력은 터치 입력, 근접 입력 및 소리 입력 중 적어도 어느 하나를 포함할 수 있으며, 제1 사용자 입력은 실시예에 따라 상이하게 설정될 수 있다.At this time, the first user input may include at least one of a touch input, a proximity input, and a sound input, and the first user input may be set differently depending on the embodiment.

예를 들어, 터치 입력은 탭(Tap: 화면을 짧게 터치하는 동작), 스와이프(Swipe: 화면을 손가락으로 미끄러뜨리는 동작), 핀치(Pinch: 두 손가락으로 화면을 축소 또는 확대하는 동작), 드래그(Drag: 손가락을 화면 위에서 미끄러뜨리면서 객체를 이동하는 동작), 롱 프레스(Long Press: 화면을 길게 누르는 동작), 더블 탭(Double Tap: 빠르게 두 번 탭하는 동작) 등을 포함할 수 있으나, 이에 한정되지는 않는다.For example, touch input includes tap (touching the screen briefly), swipe (moving a finger across the screen), pinch (reducing or enlarging the screen with two fingers), and drag. It may include drag (moving an object by sliding your finger across the screen), long press (long pressing the screen), double tap (double tap: quickly tapping twice), etc. It is not limited.

예를 들어, 근접 입력은 디스플레이를 포함하는 장치에 손을 가까이 대는 동작 등을 포함할 수 있으나, 이에 한정되지는 않는다.For example, proximity input may include, but is not limited to, an action of placing a hand close to a device including a display.

예를 들어, 소리 입력은 사용자가 음성으로 명령이나 입력을 제공하는 경우를 포함할 수 있다. 장치(30)는 음성 인식 기술을 통해 사용자의 음성을 인식하고 해당 명령을 처리할 수 있다.For example, sound input may include a case where a user provides a command or input by voice. The device 30 can recognize the user's voice through voice recognition technology and process the corresponding command.

예를 들어, 제1 사용자 입력이 터치 입력 중 탭인 경우, 장치(30)는 제1 이미지를 제2 이미지로 변환하여 출력할 수 있다. 장치(30)는 제품이 책상이고, 사용자 입력이 제1 사용자 입력인 경우, 조립이 완성된 책상 전체의 이미지인 제1 이미지를 조립이 완성된 책상 전체의 이미지인 제2 이미지로 변환하여 출력할 수 있다.For example, when the first user input is a tap among touch inputs, the device 30 may convert the first image into a second image and output it. If the product is a desk and the user input is the first user input, the device 30 converts the first image, which is an image of the entire assembled desk, into a second image, which is an image of the entire assembled desk, and outputs it. You can.

장치(30)는 사용자 입력이 제1 사용자 입력인 경우, 제1 이미지를 제2 이미지로 변환하여 출력하는 과정을 통해 사용자가 제품의 상태 변화를 인지하고 이해하기 쉽게 되어 제품 조립이나 기능 변화 등에 대한 정보를 명확하게 전달할 수 있으며, 사용자의 사용 편의성을 향상시키고, 사용자가 제품을 올바르게 활용할 수 있도록 도움을 줄 수 있다.When the user input is the first user input, the device 30 converts the first image into a second image and outputs it, making it easier for the user to recognize and understand changes in the state of the product, such as product assembly or function changes. It can convey information clearly, improve user convenience, and help users utilize the product properly.

S207 단계에서, 장치(30)는 사용자 입력이 제2 사용자 입력인 경우, 제1 이미지를 제3 이미지로 변환하여 출력할 수 있다.In step S207, if the user input is a second user input, the device 30 may convert the first image into a third image and output it.

예를 들어, 제2 사용자 입력이 터치 입력 중 롱 프레스인 경우, 장치(30)는 제1 이미지를 제3 이미지로 변환하여 출력할 수 있다. 장치(30)는 제품이 책상이고, 사용자 입력이 제2 사용자 입력인 경우, 조립이 완성된 책상 전체의 이미지인 제1 이미지를 책상의 다리 부분을 확대하여 촬영된 이미지인 제3 이미지로 변환하여 출력할 수 있다.For example, when the second user input is a long press among touch inputs, the device 30 may convert the first image into a third image and output it. If the product is a desk and the user input is a second user input, the device 30 converts the first image, which is an image of the entire assembled desk, into a third image, which is an image taken by enlarging the legs of the desk. Can be printed.

일실시예에 따르면, 장치(30)는 제2 사용자 입력이 롱 프레스인 경우, 화면을 누르고 있는 시간을 확인하고, 화면을 누르고 있는 시간이 미리 설정된 기준 시간 이상인 경우, 책상의 다리 부분의 각 부품이 분해된 모습이 촬영된 분해 사시도를 포함하는 제3 이미지로 제2 이미지를 변환하여 출력할 수 있다. 이때, 미리 설정된 기준 시간은 실시예에 따라 상이하게 설정될 수 있다.According to one embodiment, when the second user input is a long press, the device 30 checks the time for pressing the screen, and when the time for pressing the screen is longer than a preset reference time, the device 30 checks each part of the leg portion of the desk. The second image can be converted into a third image including an exploded perspective view in which the disassembled image is captured and output. At this time, the preset reference time may be set differently depending on the embodiment.

일실시예에 따르면, 장치(30)는 제2 사용자 입력이 더블 탭인 경우, 책상의 다리 부분의 부품을 확대한 모습이 촬영된 이미지를 포함하는 제3 이미지로 제2 이미지를 변환하여 출력할 수 있다.According to one embodiment, when the second user input is a double tap, the device 30 may convert the second image into a third image including an image of an enlarged view of a part of a desk leg and output the converted image. there is.

장치(30)는 사용자 입력이 제2 사용자 입력인 경우, 제1 이미지를 제3 이미지로 변환하여 출력하는 과정을 통해 제품의 다양한 상태를 보여줌으로써 사용자에게 더 많은 정보를 제공할 수 있다. 예를 들어, 제1 이미지를 확대하거나 축소하여 제3 이미지로 변환함으로써 제품의 특정 부분을 강조하거나 세부 사항을 보다 자세히 표현할 수 있다. 이는 사용자가 제품의 다양한 기능이나 특성을 파악하고, 필요한 정보를 효율적으로 얻을 수 있도록 할 수 있다.When the user input is a second user input, the device 30 can provide more information to the user by showing various states of the product through the process of converting the first image into a third image and outputting it. For example, by enlarging or reducing the first image and converting it to a third image, a specific part of the product can be emphasized or details expressed in more detail. This can help users understand the various functions or characteristics of the product and obtain the necessary information efficiently.

도 3은 일실시예에 따른 제1 이미지를 제2 이미지로 변환하여 출력하는 과정을 설명하기 위한 순서도이다.Figure 3 is a flowchart for explaining the process of converting a first image into a second image and outputting it, according to an embodiment.

도 3을 참조하면, 먼저 S301 단계에서, 장치(30)는 제1 이미지와 제2 이미지 사이의 시각적인 차이를 최소화하기 위하여, 미리 학습된 인공지능 모델에 제1 이미지 및 제2 이미지를 입력하여 중간 이미지를 출력할 수 있다.Referring to FIG. 3, first, in step S301, the device 30 inputs the first image and the second image into a pre-trained artificial intelligence model to minimize the visual difference between the first image and the second image. An intermediate image can be output.

이때, 장치(30)는 제1 이미지와 제2 이미지 사이의 시각적인 차이를 최소화하기 위해 제1 이미지와 제2 이미지의 중간 상태를 나타내는 중간 이미지를 출력하도록 인공지능 모델을 미리 학습시킬 수 있다.At this time, the device 30 may train an artificial intelligence model in advance to output an intermediate image representing an intermediate state between the first image and the second image in order to minimize the visual difference between the first image and the second image.

장치(30)는 인공지능 모델의 학습을 위해 제1 이미지와 제2 이미지의 쌍을 사용하여 학습 데이터를 구성할 수 있으며, 각 이미지는 적절한 크기로 전처리되어 모델에 입력될 수 있도록 준비된다. 이때, 장치(30)는 특정 제품 및 특정 제품의 메뉴얼 이미지를 포함하는 특정 제품을 판매하는 판매 사이트로부터 제1 이미지와 제2 이미지의 쌍을 수집하여 학습 데이터를 수집할 수 있으나, 학습 데이터를 수집하는 과정은 이에 한정되지 않고 다양한 방법으로 수행될 수 있다.The device 30 can configure learning data using a pair of a first image and a second image to learn an artificial intelligence model, and each image is preprocessed to an appropriate size and prepared to be input into the model. At this time, the device 30 may collect learning data by collecting a pair of the first image and the second image from a sales site that sells a specific product and a specific product including a manual image of the specific product. The process is not limited to this and can be performed in various ways.

장치(30)는 준비된 학습 데이터를 사용하여 인공지능 모델을 학습시킬 수 있으며, 학습된 모델은 제1 이미지와 제2 이미지를 입력으로 받아 중간 이미지를 생성할 수 있다. 이 때, 인공지능 모델은 제1 이미지와 제2 이미지 간의 시각적인 차이를 최소화하는 방식으로 중간 이미지를 생성하도록 학습될 수 있다. The device 30 can train an artificial intelligence model using prepared training data, and the learned model can receive the first image and the second image as input and generate an intermediate image. At this time, the artificial intelligence model can be trained to generate an intermediate image in a way that minimizes the visual difference between the first image and the second image.

예를 들어, 인공지능 모델은 오토인코더 (Autoencoder), 생성적 적대 신경망 (Generative Adversarial Network, GAN) 및 변이형 오토인코더 (Variational Autoencoder, VAE) 중 적어도 어느 하나로 설정될 수 있으나, 인공지능 모델은 상이한 모델이 사용될 수 있으며, 학습 데이터의 특성, 변환 과정의 목적, 성능 요구사항 등에 따라 다양한 모델이 인공지능 모델로 선정될 수 있다.For example, the artificial intelligence model may be set to at least one of an autoencoder, a generative adversarial network (GAN), and a variational autoencoder (VAE), but the artificial intelligence model may be different. Models can be used, and various models can be selected as artificial intelligence models depending on the characteristics of the learning data, purpose of the conversion process, performance requirements, etc.

오토인코더는 입력 데이터를 압축하는 인코더와 압축된 표현을 복원하는 디코더로 구성된 신경망 모델로서, 제1 이미지를 인코더에 입력하고, 인코딩된 표현을 디코더에 입력하여 제2 이미지를 생성할 수 있으며, 오토인코더는 입력 이미지의 정보를 최대한 보존하면서 중간 이미지를 생성하므로 시각적인 차이를 최소화하는 데 사용될 수 있다.An autoencoder is a neural network model consisting of an encoder that compresses input data and a decoder that restores the compressed expression. The first image can be input to the encoder and the encoded expression can be input to the decoder to generate the second image. The encoder generates an intermediate image while preserving the information of the input image as much as possible, so it can be used to minimize visual differences.

GAN은 생성자(generator)와 판별자(discriminator)로 구성된 모델로서, 생성자는 제1 이미지를 입력으로 받아 제2 이미지를 생성하고, 판별자는 생성된 이미지와 실제 제2 이미지를 구분하는 역할을 수행할 수 있으며, 생성자와 판별자는 경쟁적인 학습을 통해 시각적으로 현실적인 제2 이미지를 생성하도록 조정된다.GAN is a model composed of a generator and a discriminator. The generator receives the first image as input and creates a second image, and the discriminator plays the role of distinguishing the generated image from the actual second image. The generator and discriminator are adjusted to generate a visually realistic second image through competitive learning.

VAE는 오토인코더의 확장된 형태로, 잠재 변수(latent variable)를 사용하여 입력 이미지를 재구성하는 모델이다. VAE는 제1 이미지를 입력으로 받아 잠재 변수를 생성하고, 이를 활용하여 제2 이미지를 생성할 수 있으며, 제한된 잠재 공간에서 샘플링을 수행하므로 다양한 중간 이미지를 생성할 수 있다.VAE is an extended form of autoencoder and is a model that reconstructs the input image using latent variables. VAE receives the first image as input, generates latent variables, and can use them to generate the second image. Since it performs sampling in a limited latent space, it can generate various intermediate images.

장치(30)는 학습된 인공지능 모델에 제1 이미지와 제2 이미지를 입력으로 제공하여 중간 이미지를 생성할 수 있다. 인공지능 모델은 입력 이미지의 시각적 특성과 상관관계를 파악하여 중간 이미지를 생성할 수 있으며, 제1 이미지와 제2 이미지 사이의 시각적인 차이를 최소화하도록 중간 이미지를 조정할 수 있다.The device 30 may generate an intermediate image by providing the first image and the second image as input to the learned artificial intelligence model. The artificial intelligence model can generate an intermediate image by identifying the visual characteristics and correlations of the input image, and can adjust the intermediate image to minimize the visual difference between the first image and the second image.

장치(30)는 중간 이미지를 생성한 후, 시각적인 차이를 최소화하기 위해 추가적인 후처리 단계를 수행할 수 있다. 예를 들어, 장치(30)는 이미지의 색상, 밝기, 대비 등을 조정하여 제1 이미지와 제2 이미지 간의 일관성을 높이는 작업을 수행할 수 있다.After generating the intermediate image, device 30 may perform additional post-processing steps to minimize visual differences. For example, the device 30 may adjust the color, brightness, contrast, etc. of the image to increase consistency between the first image and the second image.

장치(30)는 생성된 중간 이미지를 사용자에게 출력함으로써, 제1 이미지와 제2 이미지 사이의 시각적인 차이를 최소화하며, 사용자에게 자연스러운 변화를 제공할 수 있다.By outputting the generated intermediate image to the user, the device 30 can minimize the visual difference between the first image and the second image and provide a natural change to the user.

S302 단계에서, 장치(30)는 제1 이미지 및 제2 이미지와 중간 이미지의 공통 부분 및 차이 부분을 추출할 수 있다.In step S302, the device 30 may extract a common part and a difference part between the first image, the second image, and the middle image.

장치(30)는 이미지 처리 및 분석 기술을 사용하여 제1 이미지와 제2 이미지의 공통된 부분과 차이 부분을 추출할 수 있다. 예를 들어, 장치(30)는 이미지 비교 및 차이 검출 기술을 활용하여, 예를 들어, 픽셀 수준의 차이를 계산하거나, 특정한 특징이나 패턴의 차이를 검출하는 알고리즘을 사용할 수 있으나, 공통 부분 및 차이 부분을 추출하는 과정은 이에 한정되지 않고 다양한 방법으로 수행될 수 있다.The device 30 may extract common and different parts of the first image and the second image using image processing and analysis techniques. For example, device 30 may utilize image comparison and difference detection techniques, for example, to compute pixel-level differences, or may use algorithms to detect differences in specific features or patterns, but may also utilize image comparison and difference detection techniques to determine differences in common features or patterns. The process of extracting the part is not limited to this and can be performed in various ways.

S303 단계에서, 장치(30)는 중간 이미지에서 공통 부분은 유지하고, 차이 부분을 블러 처리하여 중간 이미지를 수정할 수 있다.In step S303, the device 30 may modify the intermediate image by maintaining the common portion in the intermediate image and blurring the difference portion.

장치(30)는 중간 이미지에서의 공통 부분은 유지되며, 차이 부분은 블러 처리하여 자연스러운 변화를 보이는 중간 이미지를 생성할 수 있다. 장치(30)는 중간 이미지를 수정하는 과정을 통해 사용자에게 부드럽고 일관된 시각적인 변화를 제공하며, 제품의 상태 변화를 더욱 명확하게 전달할 수 있다.The device 30 can generate an intermediate image showing natural changes by maintaining common parts in the intermediate image and blurring the difference parts. The device 30 provides smooth and consistent visual changes to the user through the process of modifying the intermediate image, and can more clearly communicate changes in the state of the product.

중간 이미지는 사용자에게 변환 과정을 이해하고 이해할 수 있도록 할 수 있으며, 사용자가 제1 이미지에서 제2 이미지로의 변화를 원활하게 파악하고, 제품의 상태 변화를 인지할 수 있도록 한다. The intermediate image can enable the user to understand and understand the conversion process, allow the user to smoothly perceive the change from the first image to the second image, and recognize changes in the state of the product.

중간 이미지는 제품의 상태 변화를 시각적으로 전달하고 사용자에게 변화를 이해할 수 있도록 한다. 사용자는 제품의 다양한 상태를 인지하고, 필요한 정보를 얻을 수 있다. 중간 이미지의 의미는 반응형 사용자 메뉴얼 콘텐츠의 효과적으로 생성할 수 있도록 한다.Intermediate images visually convey changes in the state of the product and help users understand the changes. Users can recognize the various states of the product and obtain necessary information. The meaning of the middle image allows for the effective creation of responsive user manual content.

도 4는 일실시예에 따른 중간 이미지의 출력되는 개수 및 추력 유지 시간을 결정하는 과정을 설명하기 위한 순서도이다.Figure 4 is a flowchart for explaining the process of determining the output number of intermediate images and the thrust maintenance time according to one embodiment.

도 4를 참조하면, 먼저 S401 단계에서, 장치(30)는 제1 이미지와 제2 이미지를 비교하여, 제1 이미지와 제2 이미지의 차이 정도를 산출할 수 있다.Referring to FIG. 4 , in step S401, the device 30 may compare the first image and the second image and calculate the degree of difference between the first image and the second image.

예를 들어, 장치(30)는 제1 이미지와 제2 이미지의 픽셀 단위의 차이를 계산할 수 있다. 장치(30)는 각 이미지의 픽셀 값을 비교하여 차이를 계산할 수 있으며, 제1 이미지와 제2 이미지의 각 픽셀에서 RGB (또는 그레이스케일) 값의 차이를 계산하고, 이를 총 픽셀 수로 나누어 평균 차이를 구하여 제1 이미지와 제2 이미지의 차이 정도를 계산할 수 있다.For example, the device 30 may calculate the difference in pixels between the first image and the second image. Device 30 may calculate the difference by comparing the pixel values of each image, calculating the difference in RGB (or grayscale) values in each pixel of the first image and the second image, dividing this by the total number of pixels to calculate the average difference. The degree of difference between the first image and the second image can be calculated by obtaining .

S402 단계에서, 장치(30)는 차이 정도에 기반하여 중간 이미지의 출력되는 개수를 결정할 수 있다.In step S402, the device 30 may determine the number of intermediate images to be output based on the degree of difference.

일실시예에 따르면, 장치(30)는 제1 이미지와 제2 이미지의 차이 정도가 미리 설정된 기준 정도 이상인지 여부를 판단할 수 있다. 이때, 미리 설정된 기준 정도는 실시예에 따라 상이하게 설정될 수 있다. According to one embodiment, the device 30 may determine whether the degree of difference between the first image and the second image is greater than or equal to a preset standard degree. At this time, the preset standard degree may be set differently depending on the embodiment.

장치(30)는 제1 이미지와 제2 이미지의 차이 정도가 기준 정도 미만인 경우, 중간 이미지를 1개 생성하여 출력할 수 있으며, 제1 이미지와 제2 이미지의 차이 정도가 기준 정도 이상인 경우, 중간 이미지를 복수 개 생성할 수 있다.If the difference between the first image and the second image is less than the standard, the device 30 can generate and output one intermediate image. If the difference between the first image and the second image is greater than the standard, an intermediate image can be generated and output. Multiple images can be created.

장치(30)는 제1 이미지와 제2 이미지의 차이 정도가 기준 정도 이상인 경우, 차이 정도에 비례하여 중간 이미지가 출력되는 개수를 결정할 수 있다.If the degree of difference between the first image and the second image is greater than or equal to a standard degree, the device 30 may determine the number of intermediate images to be output in proportion to the degree of difference.

장치(30)는 제1 이미지와 제2 이미지의 차이 정도를 기준 정도 미만으로 판단한 경우, 중간 이미지를 1개 생성하여 출력할 수 있으며, 이는 제1 이미지와 제2 이미지의 차이가 상대적으로 작아 중간 상태가 명확히 정의되었을 때 적용될 수 있다. 중간 이미지를 1개 생성하여 출력하는 과정은 사용자에게 변환 과정을 자연스럽게 보여주고, 제품의 상태 변화를 인지할 수 있도록 할 수 있다.If the device 30 determines that the difference between the first image and the second image is less than the standard level, it can generate and output one intermediate image, which is an intermediate image because the difference between the first image and the second image is relatively small. Applicable when the state is clearly defined. The process of creating and printing one intermediate image can naturally show the conversion process to the user and allow them to recognize changes in the state of the product.

반면, 장치(30)는 제1 이미지와 제2 이미지의 차이 정도가 기준 정도 이상인 경우, 중간 이미지를 복수 개 생성하여 출력할 수 있으며, 이는 제품의 상태 변화가 크고 복잡하여 단일 중간 이미지로는 충분히 표현하기 어려울 때 적용될 수 있다. 중간 이미지를 복수 개 생성하여 출력하는 과정은 사용자에게 변화의 다양한 단계를 보여주고, 상세한 상태 변화를 전달할 수 있도록 할 수 있다. 이를 통해 사용자는 제품의 변화를 보다 세밀하게 인지하고 이해할 수 있다.On the other hand, the device 30 can generate and output a plurality of intermediate images when the degree of difference between the first image and the second image is greater than the standard level. This is because the change in state of the product is large and complex, so a single intermediate image is sufficient. It can be applied when it is difficult to express. The process of generating and outputting multiple intermediate images can show the user various stages of change and convey detailed state changes. This allows users to perceive and understand product changes in more detail.

또한, 중간 이미지를 복수 개 생성하여 출력하는 과정은 변환의 연속성을 유지하면서 제품의 상태 변화를 자연스럽게 전달하도록 할 수 있다. 사용자는 이러한 다양한 중간 이미지를 통해 제품의 변화 과정을 시각적으로 파악할 수 있고, 필요에 따라 다음 단계로 진행할 수 있는지 판단할 수 있다. 이는 사용자의 경험을 향상시키고 제품 사용에 대한 이해도를 높일 수 있는 효과를 가져올 수 있다.Additionally, the process of generating and outputting multiple intermediate images can naturally convey changes in the state of the product while maintaining the continuity of transformation. Through these various intermediate images, users can visually understand the product's change process and determine whether they can proceed to the next step as needed. This can have the effect of improving the user's experience and increasing understanding of product use.

S403 단계에서, 장치(30)는 사용자 입력의 소리 입력으로부터 키워드를 추출할 수 있다.In step S403, the device 30 may extract a keyword from the sound input of the user.

장치(30)는 사용자의 입력 중 소리 입력으로부터 사용자의 음성 입력을 수집하고, 수집한 음성 입력을 텍스트로 변환하는 과정을 통해 사용자 입력의 소리 입력으로부터 키워드를 출할 수 있다. 이때, 음성 입력으로부터 키워드를 추출하는 과정은 통상의 기술자에게 자명한 사항이므로 자세한 설명은 생략한다.The device 30 may collect the user's voice input from sound input during the user's input, and output keywords from the user's sound input through a process of converting the collected voice input into text. At this time, since the process of extracting keywords from voice input is self-evident to a person skilled in the art, a detailed explanation will be omitted.

S404 단계에서, 장치(30)는 키워드 중 제품과 관련된 제품 키워드의 개수를 확인할 수 있다.In step S404, the device 30 may check the number of product keywords related to the product among the keywords.

이때, 제품과 관련된 제품 키워드는 제품의 제품명, 기능 키워드, 용도 키워드, 기술 키워드, 속성 키워드, 부속품 키워드, 관련 키워드, 색상 키워드 등을 포함할 수 있으나, 이에 한정되지는 않는다.At this time, product keywords related to the product may include, but are not limited to, the product name, function keyword, use keyword, technology keyword, attribute keyword, accessory keyword, related keyword, color keyword, etc.

기능 키워드는 제품이 수행하는 주요 기능을 나타내는 단어 또는 구를 의미할 수 있으며, 예를 들어, 자동화, 무선, 타이머, 보안, 절전, 센서, 터치 등을 포함할 수 있으나, 이에 한정되지는 않는다.Function keywords may refer to words or phrases that represent the main functions performed by the product, and may include, but are not limited to, automation, wireless, timer, security, power saving, sensor, touch, etc.

용도 키워드는 제품의 사용 목적이나 용도를 표현하는 단어 또는 구를 의미할 수 있으며, 예를 들어, 요리, 청소, 여행, 사무실, 운동 등을 포함할 수 있으나, 이에 한정되지는 않는다.Use keywords may refer to words or phrases that express the purpose or purpose of use of a product, and may include, but are not limited to, cooking, cleaning, travel, office, exercise, etc.

기술 키워드는 제품에 사용된 특정 기술이나 기술적 특징을 나타내는 단어 또는 구를 의미할 수 있으며, 예를 들어, AI, 블루투스, 방수, 고해상도, 터치스크린 등을 포함할 수 있으나, 이에 한정되지는 않는다.Technology keywords may refer to words or phrases that indicate specific technologies or technical features used in a product, and may include, but are not limited to, AI, Bluetooth, waterproof, high resolution, touch screen, etc.

속성 키워드는 제품의 물리적인 특성이나 속성을 표현하는 단어 또는 구를 의미할 수 있으며, 예를 들어, 가볍고 휴대하기 쉬운, 내구성 있는, 편안한, 고성능 등을 포함할 수 있으나, 이에 한정되지는 않는다.Attribute keywords may refer to words or phrases that express the physical characteristics or attributes of a product, and may include, for example, light and easy to carry, durable, comfortable, high performance, etc., but are not limited thereto.

부속품 키워드는 제품과 함께 제공되는 부속품이나 액세서리를 나타내는 단어 또는 구를 의미할 수 있으며, 충전기, 케이스, 케이블, 리모컨, 어댑터, 나사, 볼트 등을 포함할 수 있으나, 이에 한정되지는 않는다.Accessory keywords may refer to words or phrases that represent accessories or accessories provided with a product, and may include, but are not limited to, chargers, cases, cables, remote controls, adapters, screws, bolts, etc.

관련 키워드는 제품과 연관된 특정 개념, 분야, 산업 등을 나타내는 단어 또는 구를 의미할 수 있으며, 예를 들어, 스마트홈, 자동차, 음악, 건강, 환경 등을 포함할 수 있으나, 이에 한정되지는 않는다.Related keywords may refer to words or phrases that represent specific concepts, fields, industries, etc. related to the product, and may include, but are not limited to, smart home, automobiles, music, health, environment, etc. .

색상 키워드는 제품의 색상을 나타내는 단어 또는 구를 의미할 수 있으며, 예를 들어, 블랙, 화이트, 실버, 블루, 핑크 등을 포함할 수 있으나, 이에 한정되지는 않는다.A color keyword may refer to a word or phrase that represents the color of a product, and may include, for example, black, white, silver, blue, pink, etc., but is not limited thereto.

S405 단계에서, 장치(30)는 미리 설정된 기준 시간에 출력되는 개수와 반비례하면서, 제품 키워드의 개수와 비례하도록 결정된 가중치를 적용하여 중간 이미지의 출력 유지 시간을 결정할 수 있다.In step S405, the device 30 may determine the output maintenance time of the intermediate image by applying a weight determined to be proportional to the number of product keywords and inversely proportional to the number output at a preset reference time.

일실시예에 따르면, 장치(30)는 중간 이미지가 출력되는 개수가 많을수록, 제품 키워드의 개수가 적을수록 가중치를 낮게 설정하고, 중간 이미지가 출력되는 개수가 적을수록, 제품 키워드의 개수가 많을수록 가중치를 높게 설정할 수 있다.According to one embodiment, the device 30 sets the weight lower as the number of intermediate images output increases and the number of product keywords decreases, and as the number of intermediate images output decreases and the number of product keywords increases, the weight is set lower. can be set high.

장치(30)는 미리 설정된 기준 시간에 가중치를 적용하여 중간 이미지의 출력 유지 시간을 결정할 수 있다. 이때, 미리 설정된 기준 시간은 실시예에 따라 상이하게 설정될 수 있다.The device 30 may determine the output maintenance time of the intermediate image by applying a weight to a preset reference time. At this time, the preset reference time may be set differently depending on the embodiment.

중간 이미지의 출력 유지 시간은 변환의 자연스러움을 유지하면서 사용자가 변화를 인지하고 이해할 수 있는 적절한 시간으로 설정되어야 하며, 사용자의 인지 속도와 이해력, 제품의 특성, 사용자 경험 등을 고려하여 중간 이미지의 출력 유지 시간을 조절해야 한다.The output maintenance time of the intermediate image should be set to an appropriate time for the user to recognize and understand the change while maintaining the naturalness of the conversion. The output maintenance time must be adjusted.

장치(30)는 사용자 입력으로부터 추출된 제품과 관련된 키워드의 개수를 측정하고, 제품 키워드 개수에 따라 중간 이미지의 출력 유지 시간을 비례적으로 조정할 수 있다. 키워드 개수가 많을수록 중간 이미지의 출력 유지 시간을 더 길게 설정하여 사용자가 키워드에 대한 정보를 충분히 인지하고 이해할 수 있도록 할 수 있다. The device 30 may measure the number of keywords related to a product extracted from the user input and proportionally adjust the output retention time of the intermediate image according to the number of product keywords. As the number of keywords increases, the output retention time of the intermediate image can be set longer so that the user can fully recognize and understand the information about the keyword.

키워드 개수가 많을수록 중간 이미지의 출력 유지 시간이 더 길어지므로, 사용자는 중요한 정보를 놓치지 않고 변화를 인지하고 이해할 수 있게 된다.The greater the number of keywords, the longer the intermediate image output remains, allowing users to recognize and understand changes without missing important information.

장치(30)는 중간 이미지의 출력 유지 시간을 중간 이미지의 개수에 반비례하도록 설정함으로써, 이미지가 너무 빠르게 전환되는 것을 방지할 수 있다. 너무 빠른 이미지 전환은 사용자가 변화를 인지하고 이해하는 데 어려움을 줄 수 있으므로, 중간 이미지의 출력 유지 시간을 적절히 조절하여 시각적 감소를 방지할 수 있다.The device 30 can prevent images from switching too quickly by setting the output maintenance time of the intermediate image to be inversely proportional to the number of intermediate images. Too fast image transitions can make it difficult for users to perceive and understand changes, so visual reduction can be prevented by appropriately adjusting the output retention time of intermediate images.

장치(30)는 중간 이미지의 출력 유지 시간을 중간 이미지의 개수에 반비례하도록 설정함으로써, 각 중간 이미지에 사용자의 관심과 집중을 높일 수 있다. 중간 이미지가 적게 출력되는 경우, 사용자는 그 시간 동안 해당 이미지에 집중할 수 있으며, 이미지의 내용과 변화를 세밀하게 관찰하고 이해할 수 있도록 한다.The device 30 can increase the user's interest and concentration in each intermediate image by setting the output maintenance time of the intermediate image to be inversely proportional to the number of intermediate images. When a small number of intermediate images are output, the user can focus on the image during that time and can observe and understand the content and changes in the image in detail.

도 5는 일실시예에 따른 제1 이미지를 제3 이미지로 변환하여 출력하는 과정을 설명하기 위한 순서도이다.Figure 5 is a flowchart for explaining a process of converting a first image into a third image and outputting it, according to an embodiment.

도 5를 참조하면, 먼저 S501 단계에서, 장치(30)는 제3 이미지에 대한 추가 사용자 입력이 수신된 경우, 제품의 메뉴얼 영상을 제1 크기의 팝업 형태로 출력할 수 있다.Referring to FIG. 5 , in step S501, when an additional user input for the third image is received, the device 30 may output the product manual image in the form of a pop-up of the first size.

장치(30)는 제1 이미지를 제3 이미지로 변환하여 출력한 시점 이후, 제3 이미지에 대한 추가 사용자 입력을 수신할 수 있다.The device 30 may receive additional user input for the third image after converting the first image into the third image and outputting it.

이때, 추가 사용자 입력은 터치 입력을 포함할 수 있다. 이때, 장치(30)는 수신한 추가 사용자 입력을 데이터베이스에 저장할 수 있다.At this time, additional user input may include touch input. At this time, the device 30 may store the received additional user input in the database.

이때, 추가 사용자 입력은 터치 입력을 포함할 수 있으며, 추가 사용자 입력은 실시예에 따라 상이하게 설정될 수 있다.At this time, the additional user input may include a touch input, and the additional user input may be set differently depending on the embodiment.

일실시예에 따르면, 장치(30)는 제1 이미지를 제3 이미지로 변환하여 출력한 시점 이후, 제3 이미지에 대한 터치 입력을 포함하는 추가 사용자 입력을 수신한 경우, 디스플레이를 포함하는 장치에 제품의 메뉴얼 영상을 제1 크기의 팝업 형태로 출력할 수 있다. 이때, 제1 크기는 실시예에 따라 상이하게 설정될 수 있다.According to one embodiment, when the device 30 receives an additional user input including a touch input for the third image after converting the first image into the third image and outputting the third image, the device 30 displays the device including the display. The product's manual video can be output in the form of a pop-up of the first size. At this time, the first size may be set differently depending on the embodiment.

이때, 장치(30)는 제품의 메뉴얼 영상을 제품을 판매하는 웹 사이트로부터 수집하여 데이터베이스에 저장할 수 있으나, 제품의 메뉴얼 영상을 수집하는 과정은 이에 한정되지 않고, 다양한 방법으로 수행될 수 있다.At this time, the device 30 can collect the product's manual video from a website that sells the product and store it in a database. However, the process of collecting the product's manual video is not limited to this and can be performed in various ways.

이때, 제품의 메뉴얼 영상은 해당 제품의 사용 방법이나 기능을 시각적으로 보여주는 영상으로써, 제품 소개, 제품 조립 및 설치, 조정 방법, 유지 보수 방법 등에 대한 정보를 포함할 수 있으며, 장치(30)는 메뉴얼 영상으로부터 메뉴얼 영상의 총 길이 및 제품의 조립 및 설치에 대한 각 메뉴얼 단계를 확인할 수 있다.At this time, the product's manual video is a video that visually shows how to use or function of the product, and may include information on product introduction, product assembly and installation, adjustment methods, maintenance methods, etc., and the device 30 is provided with a manual video. From the video, you can check the total length of the manual video and each manual step for product assembly and installation.

장치(30)는 제3 이미지에 대한 추가 사용자 입력을 수신한 경우, 팝업 형태의 메뉴얼 영상을 출력함으로써 즉시 사용자에게 관련 정보를 제공할 수 있다. 팝업은 화면 위나 특정 위치에 작은 창으로 나타나기 때문에, 사용자는 쉽게 시각적인 주의를 집중할 수 있다.When the device 30 receives an additional user input for the third image, it can immediately provide related information to the user by outputting a manual image in the form of a pop-up. Because pop-ups appear as small windows on the screen or in specific locations, users can easily focus their visual attention.

또한, 팝업 형태로 제공되는 메뉴얼 영상은 사용자에게 직관적인 인터페이스를 제공할 수 있으며, 작은 창 안에 명확하고 집중된 정보를 제공함으로써, 사용자는 제품에 대한 동작, 기능, 사용법 등을 빠르게 이해할 수 있다.In addition, manual videos provided in the form of pop-ups can provide users with an intuitive interface, and by providing clear and focused information in a small window, users can quickly understand the operation, functions, and usage of the product.

팝업 형태로 제공되는 메뉴얼 영상은 사용자의 시야에 더욱 가시성을 제공하며, 사용자가 제품과 메뉴얼 영상을 동시에 볼 수 있도록 하여, 실제 제품 동작과 메뉴얼의 연관성을 쉽게 파악할 수 있게 한다.The manual video provided in the form of a pop-up provides greater visibility to the user's field of view and allows the user to view the product and the manual video at the same time, making it easier to understand the relationship between the actual product operation and the manual.

팝업 형태의 메뉴얼 영상은 사용자의 요구와 욕구에 따라 개인화된 사용자 경험을 제공할 수 있다. 팝업의 크기와 위치, 영상의 내용 등을 사용자 선호에 맞게 조정할 수 있어, 사용자는 자신의 필요에 맞게 메뉴얼 영상을 활용할 수 있다.Pop-up-type manual videos can provide a personalized user experience according to the user's needs and desires. The size and location of the pop-up and the content of the video can be adjusted to suit the user's preferences, allowing users to use the manual video to suit their needs.

S502 단계에서, 장치(30)는 추가 사용자 입력의 터치 강도가 미리 설정된 기준 이상인 경우, 터치 위치에 해당하는 제품의 부분에 포함된 부품의 부품 정보 및 부품의 판매 페이지를 제2 크기의 팝업 형태로 출력할 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다. 이때, 제2 크기는 실시예에 따라 상이하게 설정될 수 있다.In step S502, if the touch intensity of the additional user input is greater than or equal to a preset standard, the device 30 displays the part information of the part included in the part of the product corresponding to the touch position and the sales page of the part in the form of a pop-up of a second size. Can be printed. At this time, the preset standard may be set differently depending on the embodiment. At this time, the second size may be set differently depending on the embodiment.

장치(30)는 추가 사용자 입력이 터치 입력인 경우, 추가 사용자 입력의 터치 강도를 확인하고, 터치 강도가 미리 설정된 기준 이상인 경우, 터치 위치에 해당하는 제품의 부분에 포함된 부품의 부품 정보와 부품을 판매하는 판매 페이지를 제2 크기의 팝업 형태로 디스플레이를 포함하는 장치의 화면에 출력할 수 있다.If the additional user input is a touch input, the device 30 checks the touch intensity of the additional user input, and if the touch intensity is greater than or equal to a preset standard, the device 30 provides component information and component information of the part included in the part of the product corresponding to the touch location. A sales page selling a product may be output on the screen of a device including a display in the form of a pop-up of a second size.

장치(30)는 제품의 부품 정보와 부품을 판매하는 판매 페이지의 링크 정보를 제품을 판매하는 웹 사이트로부터 수집하여 데이터베이스에 저장할 수 있으나, 부품 정보와 판매 페이지의 링크 정보를 수집하는 과정은 이에 한정되지 않고, 다양한 방법으로 수행될 수 있다.The device 30 can collect product part information and link information of a sales page selling parts from a website selling the product and store them in a database, but the process of collecting part information and link information of a sales page is limited to this. It can be done in a variety of ways.

사용자가 제품의 특정 부분을 강하게 터치함으로써, 장치(30)는 해당 부분에 포함된 부품에 대한 정보를 신속하게 제공할 수 있으며, 사용자는 제품을 직접 터치하면서 필요한 부품에 대한 정보를 즉시 확인할 수 있다.When the user strongly touches a specific part of the product, the device 30 can quickly provide information about the parts included in that part, and the user can immediately check the information about the necessary parts by directly touching the product. .

장치(30)는 터치 강도가 높은 경우, 터치 위치에 해당하는 제품 부분을 정확하게 인식하고 식별하여, 부품 정보와 판매 페이지를 해당 부분에 맞추어 제공할 수 있으며, 사용자는 원하는 부품에 대한 자세한 정보를 얻을 수 있도록 한다.When the touch intensity is high, the device 30 can accurately recognize and identify the product part corresponding to the touch location and provide part information and sales page tailored to that part, and the user can obtain detailed information about the desired part. make it possible

장치(30)는 제2 크기의 팝업 형태로 부품 정보와 판매 페이지를 출력함으로써, 사용자는 부품을 즉시 구매할 수 있도록 하며, 부품의 판매 페이지로 이동할 수 있는 링크가 제공되므로, 사용자는 편리하게 구매 과정을 진행할 수 있고, 제품의 부품의 판매를 유도할 수 있다.The device 30 outputs part information and a sales page in a pop-up form of a second size, allowing the user to immediately purchase the part, and a link to move to the part's sales page is provided, so the user can conveniently go through the purchasing process. can be carried out and sales of product parts can be induced.

부품 정보와 판매 페이지를 팝업 형태로 제공함으로써, 사용자는 제품과 관련된 부품에 대한 포괄적인 정보를 한눈에 확인할 수 있으며, 사용자의 제품 이해도를 향상시키고, 필요한 부품을 쉽게 찾을 수 있도록 한다.By providing parts information and sales pages in a pop-up format, users can see comprehensive information about product-related parts at a glance, improving users' understanding of the product and making it easier to find the parts they need.

S503 단계에서, 장치(30)는 추가 사용자 입력의 터치 횟수가 미리 설정된 기준 횟수 이상인 경우, 제품 관련 고객 센터 연결 안내 메시지를 출력할 수 있다. 이때, 기준 횟수는 실시예에 따라 상이하게 설정될 수 있다.In step S503, if the number of touches of the additional user input is more than a preset standard number, the device 30 may output a product-related customer center connection information message. At this time, the reference number of times may be set differently depending on the embodiment.

일실시예에 따르면, 장치(30)는 제1 이미지를 제3 이미지로 변환하여 출력한 시점 이후, 제3 이미지에 대한 터치 입력을 포함하는 추가 사용자 입력의 터치 횟수가 미리 설정된 기준 횟수 이상인 경우, 디스플레이를 포함하는 장치의 화면에 제품 관련 고객 센터 연결 안내 메시지를 출력할 수 있다.According to one embodiment, after converting the first image into a third image and outputting the device 30, if the number of touches of an additional user input including a touch input for the third image is more than a preset reference number, A product-related customer center connection information message can be displayed on the screen of a device that includes a display.

장치(30)는 제품 관련 고객 센터에 대한 정보를 제품을 판매하는 웹 사이트로부터 수집하여 데이터베이스에 저장할 수 있으나, 제품 관련 고객 센터에 대한 정보를 수집하는 과정은 이에 한정되지 않고, 다양한 방법으로 수행될 수 있다. 이때, 제품 관련 고객 센터에 대한 정보는 제품을 판매하는 웹 사이트에서 제품 관련 고객 센터의 전화 번호, 이메일, FAX 번호 등에 대한 정보를 포함할 수 있으나, 이에 한정되지는 않는다.The device 30 may collect information about the product-related customer center from a website selling the product and store it in a database, but the process of collecting information about the product-related customer center is not limited to this and can be performed in various ways. You can. At this time, information about the product-related customer center may include, but is not limited to, information about the phone number, email, fax number, etc. of the product-related customer center on the website selling the product.

장치(30)는 사용자가 제품과 관련하여 문제 또는 질문을 겪고 있을 때, 추가 터치 횟수가 기준 횟수 이상이라면 고객 센터 연결 안내 메시지를 출력함으로써 신속한 문제 해결 지원을 제공할 수 있다. 사용자는 고객 센터와의 연결을 통해 자신의 문제에 대한 도움을 받을 수 있으며, 이를 통해 사용자 만족도를 향상시킬 수 있다. 또한, 고객의 만족도를 향상시키고, 긍정적인 사용자 경험을 조성할 수 있다. 사용자가 문제를 스스로 해결할 수 없는 상황에서도 적절한 지원을 제공함으로써 고객의 신뢰를 증진시킬 수 있다.When a user is experiencing a problem or question related to a product, the device 30 can provide quick problem-solving support by outputting a customer center connection information message if the number of additional touches is more than the standard number. Users can receive help with their problems by connecting to the customer center, which can improve user satisfaction. Additionally, it can improve customer satisfaction and create a positive user experience. Customer trust can be increased by providing appropriate support even in situations where users cannot solve problems on their own.

도 6은 일실시예에 따른 시선 이해도를 결정하는 과정을 설명하기 위한 순서도이다.Figure 6 is a flowchart for explaining the process of determining gaze understanding according to an embodiment.

도 6을 참조하면, 먼저 S601 단계에서, 장치(30)는 카메라로부터 제품 및 사용자를 포함하는 사용자 영상을 획득할 수 있다.Referring to FIG. 6, first, in step S601, the device 30 may acquire a user image including a product and a user from a camera.

디스플레이를 포함하는 장치는 카메라를 포함할 수 있으며, 장치(30)는 제품 및 사용자를 포함하는 사용자 영상을 획득하고, 사용자 영상을 데이터베이스에 저장할 수 있다.A device including a display may include a camera, and the device 30 may acquire a user image including a product and a user and store the user image in a database.

S602 단계에서, 장치(30)는 사용자 영상으로부터 사용자의 시선 정보를 획득할 수 있다. 장치(30)는 사용자 영상으로부터 사용자의 눈 위치를 식별하고, 눈동자의 움직임을 추적하여 사용자의 시선 방향을 추정할 수 있다.In step S602, the device 30 may obtain the user's gaze information from the user's image. The device 30 may identify the position of the user's eyes from the user image and estimate the direction of the user's gaze by tracking the movement of the pupil.

S603 단계에서, 장치(30)는 시선의 변화 속도를 확인할 수 있다.In step S603, the device 30 can check the change speed of gaze.

S604 단계에서, 장치(30)는 메뉴얼 영상에 등장하는 제품의 부분 중 미리 설정된 기준 이상으로 변화한 것에 해당하는 부분을 집중 부분으로 결정할 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다.In step S604, the device 30 may determine the part of the product that appears in the manual video that has changed more than a preset standard as the focused part. At this time, the preset standard may be set differently depending on the embodiment.

S605 단계에서, 장치(30)는 시선의 위치를 확인할 수 있다.In step S605, the device 30 can check the position of the gaze.

S606 단계에서, 장치(30)는 시선의 위치와 제품에 해당하는 집중 부분의 위치 일치 여부를 판단할 수 있다.In step S606, the device 30 may determine whether the position of the gaze matches the position of the focused portion corresponding to the product.

S607 단계에서, 장치(30)는 시선의 위치가 집중 부분의 위치에 머무르는 응시 시간을 산출할 수 있다.In step S607, the device 30 may calculate the gaze time during which the position of the gaze remains at the position of the focused portion.

S608 단계에서, 장치(30)는 변화 속도, 위치 일치 여부 및 응시 시간을 기반으로 시선 이해도를 결정할 수 있다.In step S608, the device 30 may determine gaze understanding based on change speed, location coincidence, and gaze time.

일실시예에 따르면, 장치(30)는 변화 속도가 느릴수록, 위치가 일치하는 경우, 응시 시간이 길수록 시선 이해도를 높게 결정하고, 변화 속도가 느릴수록, 위치가 불일치하는 경우, 응시 시간이 짧을수록 시선 이해도를 낮게 결정할 수 있다.According to one embodiment, the device 30 determines the gaze understanding to be higher as the change speed is slower, if the positions match, and the gaze time is longer, and as the change speed is slower, if the positions are mismatched, the gaze time is shorter. The lower the level of gaze understanding, the lower the level of gaze understanding can be determined.

이때, 시선 이해도는 사용자의 시선 정보를 기반으로 제품에 대한 사용자의 이해도를 나타내는 수치를 의미할 수 있으며, 시선 이해도가 높을수록 제품에 대한 이해도가 높고, 시선 이해도가 낮을수록 제품에 대한 이해도가 낮은 것을 의미할 수 있다.At this time, gaze understanding may refer to a number representing the user's understanding of the product based on the user's gaze information. The higher the gaze understanding, the higher the understanding of the product, and the lower the gaze understanding, the lower the understanding of the product. It can mean something.

도 7은 일실시예에 따른 표정 이해도를 결정하는 과정을 설명하기 위한 순서도이다.Figure 7 is a flowchart for explaining the process of determining facial expression understanding according to one embodiment.

도 7을 참조하면, 먼저 S701 단계에서, 장치(30)는 사용자 영상으로부터 사용자의 표정 정보를 획득할 수 있다.Referring to FIG. 7, first, in step S701, the device 30 may obtain the user's facial expression information from the user image.

장치(30)는 표정을 판단하는 알고리즘이나 딥러닝 기반의 표정 인식 모델을 활용하여 사용자 영상으로부터 사용자의 표정 정보를 획득할 수 있다. 이때, 영상으로부터 표정 정보를 획득하는 과정은 통상의 기술자에게 자명한 사항이므로 자세한 설명은 생략한다.The device 30 may obtain information on the user's facial expression from the user's image using an algorithm for determining the facial expression or a deep learning-based facial expression recognition model. At this time, since the process of acquiring facial expression information from an image is self-evident to a person skilled in the art, a detailed explanation will be omitted.

S702 단계에서, 장치(30)는 사용자의 표정을 긍정 상태에 해당하는 긍정 표정 및 부정 상태에 해당하는 부정 표정으로 분류할 수 있다.In step S702, the device 30 may classify the user's expression into a positive expression corresponding to a positive state and a negative expression corresponding to a negative state.

장치(30)는 사용자의 표정 정보로부터 사용자의 표정을 긍정 상태에 해당하는 긍정 표정 및 부정 상태에 해당하는 부정 표정으로 분류할 수 있다.The device 30 may classify the user's facial expression into a positive expression corresponding to a positive state and a negative expression corresponding to a negative state based on the user's facial expression information.

S703 단계에서, 장치(30)는 표정 정보로부터 긍정 표정이 지속되는 긍정 지속 시간 및 부정 표정이 지속되는 부정 지속 시간을 산출할 수 있다.In step S703, the device 30 may calculate a positive duration for which a positive expression lasts and a negative duration for which a negative expression lasts from facial expression information.

S704 단계에서, 장치(30)는 표정 정보로부터 긍정 표정의 강도인 긍정 강도 및 부정 표정이 강도인 부정 강도를 확인할 수 있다.In step S704, the device 30 may check the positive intensity, which is the intensity of a positive facial expression, and the negative intensity, which is the intensity of a negative facial expression, from the facial expression information.

장치(30)는 표정에 관련된 특징들을 추출하여 감정 강도를 판단할 수 있다. 예를 들어, 사용자 영상의 표정 정보루부터, 입의 각도, 눈의 크기, 눈썹의 움직임 등과 같은 표정 특징들을 추출하고, 해당 특징들을 기반으로 감정 강도를 판단할 수 있다. 이러한 특징 분석은 통계적인 방법이나 머신러닝 기법을 사용하여 수행될 수 있다.The device 30 can determine the intensity of emotion by extracting features related to facial expressions. For example, facial expression features such as mouth angle, eye size, eyebrow movement, etc. can be extracted from the facial expression information of the user image, and emotional intensity can be determined based on the corresponding features. This feature analysis can be performed using statistical methods or machine learning techniques.

예를 들어, 입의 각도가 클수록, 눈의 크기가 클수록, 눈썹의 움직임이 클수록 각 감정 상태에 해당하는 긍정 강도 및 부정 강도를 높게 결정할 수 있다.For example, the larger the angle of the mouth, the size of the eyes, and the movement of the eyebrows, the higher the positive and negative intensity corresponding to each emotional state can be determined.

S705 단계에서, 장치(30)는 긍정 지속 시간에 긍정 강도에 기반하여 결정된 긍정 가중치를 적용한 긍정 수치를 산출할 수 있다.In step S705, the device 30 may calculate a positivity value by applying a positivity weight determined based on the positivity intensity to the positivity duration.

장치(30)는 긍정 가중치를 긍정 강도에 비례하여 결정할 수 있으며, 긍정 지속 시간에 긍정 가중치를 적용하여 긍정 수치를 산출할 수 있다.The device 30 may determine the positivity weight in proportion to the positivity intensity and calculate the positivity value by applying the positivity weight to the positivity duration.

S706 단계에서, 장치(30)는 부정 지속 시간에 부정 강도에 기반하여 결정된 부정 가중치를 적용한 부정 수치를 산출할 수 있다.In step S706, the device 30 may calculate a denial value by applying a denial weight determined based on the denial intensity to the denial duration.

장치(30)는 부정 가중치를 부정 강도에 비례하여 결정할 수 있으며, 부정 지속 시간에 부정 가중치를 적용하여 부정 수치를 산출할 수 있다.The device 30 can determine the denial weight in proportion to the denial intensity and calculate the denial value by applying the denial weight to the denial duration.

S707 단계에서, 장치(30)는 긍정 수치 및 부정 수치의 비율에 기반하여 표정 이해도를 결정할 수 있다.In step S707, the device 30 may determine the level of facial expression understanding based on the ratio of positive and negative values.

장치(30)는 긍정 수치에서 부정 수치의 비율을 산출할 수 있으며, 긍정 수치에서 부정 수치의 비율이 낮을수록 표정 이해도를 높게 결정하고, 긍정 수치에서 부정 수치의 비율이 높을수록 표정 이해도를 낮게 결정할 수 있다.The device 30 can calculate the ratio of negative values to positive values. The lower the ratio of negative values to positive values, the higher the facial expression understanding is determined. The higher the positive numerical value to negative numerical ratio is, the lower the facial expression understanding is determined. You can.

이때, 표정 이해도는 사용자의 표정 정보를 기반으로 제품에 대한 사용자의 이해도를 나타내는 수치를 의미할 수 있으며, 표정 이해도가 높을수록 제품에 대한 이해도가 높고, 표정 이해도가 낮을수록 제품에 대한 이해도가 낮은 것을 의미할 수 있다.At this time, facial expression understanding can refer to a number representing the user's understanding of the product based on the user's facial expression information. The higher the facial expression understanding, the higher the understanding of the product, and the lower the facial expression understanding, the lower the understanding of the product. It can mean something.

도 8은 일실시예에 따른 음성 이해도 및 제품의 메뉴얼에 대한 사용자의 이해도를 확인하는 과정을 설명하기 위한 순서도이다.Figure 8 is a flowchart for explaining the process of checking the user's understanding of the voice understanding and the product manual according to one embodiment.

도 8을 참조하면, 먼저 S801 단계에서, 장치(30)는 사용자 영상으로부터 사용자의 음성 정보를 획득할 수 있다.Referring to FIG. 8, first, in step S801, the device 30 may obtain the user's voice information from the user's image.

S802 단계에서, 장치(30)는 음성 정보로부터 소리의 세기를 확인할 수 있다.In step S802, the device 30 can check the intensity of the sound from the voice information.

S803 단계에서, 장치(30)는 음성 정보로부터 키워드를 추출할 수 있다.In step S803, the device 30 may extract keywords from voice information.

S804 단계에서, 장치(30)는 키워드 중 제품과 관련된 제품 키워드의 개수를 확인할 수 있다.In step S804, the device 30 may check the number of product keywords related to the product among the keywords.

S805 단계에서, 장치(30)는 소리의 세기 및 제품 키워드의 개수를 기반으로 음성 이해도를 결정할 수 있다.In step S805, the device 30 may determine speech understandability based on the intensity of sound and the number of product keywords.

일실시예에 따르면, 장치(30)는 소리의 세기가 작을수록, 제품 키워드의 개수가 많을수록 음성 이해도를 높게 결정하고, 소리의 세기가 클수록, 제품 키워드의 개수가 적을수록 음성 이해도를 낮게 결정할 수 있다.According to one embodiment, the device 30 may determine the speech understanding to be higher as the intensity of the sound is smaller and the number of product keywords is greater, and determine the speech understanding to be lower as the intensity of the sound is greater and the number of product keywords is smaller. there is.

이때, 음성 이해도는 사용자의 음성 정보를 기반으로 제품에 대한 사용자의 이해도를 나타내는 수치를 의미할 수 있으며, 음성 이해도가 높을수록 제품에 대한 이해도가 높고, 음성 이해도가 낮을수록 제품에 대한 이해도가 낮은 것을 의미할 수 있다.At this time, voice understanding can refer to a value that represents the user's understanding of the product based on the user's voice information. The higher the voice understanding, the higher the understanding of the product, and the lower the voice understanding, the lower the understanding of the product. It can mean something.

S806 단계에서, 장치(30)는 시선 이해도, 표정 이해도 및 음성 이해도를 기반으로 사용자의 이해도를 결정할 수 있다.In step S806, the device 30 may determine the user's understanding level based on gaze understanding, facial expression understanding, and voice understanding.

일실시예에 따르면, 장치(30)는 시선 이해도, 표정 이해도, 음성 이해도의 값을 합산하여 사용자의 이해도를 결정할 수 있다. 장치(30)는 합산한 값이 높을수록 제품에 대한 사용자의 이해도가 높은 것으로 판단하고, 합산 값이 낮을수록 제품에 대한 사용자의 이해도가 낮은 것으로 판단할 수 있다.According to one embodiment, the device 30 may determine the user's understanding level by adding the values of gaze understanding, facial expression understanding, and voice understanding. The device 30 may determine that the higher the summed value, the higher the user's understanding of the product, and the lower the summed value, the lower the user's understanding of the product.

S807 단계에서, 장치(30)는 이해도에 메뉴얼 영상의 길이 및 단계의 개수에 기반하여 결정된 가중치를 적용하여, 사용자의 이해도를 조정할 수 있다.In step S807, the device 30 may adjust the user's level of understanding by applying a weight determined based on the length and number of steps of the manual image to the level of understanding.

장치(30)는 메뉴얼 영상으로부터 메뉴얼 영상의 길이 및 메뉴얼 단계의 개수를 확인할 수 있다.The device 30 can check the length of the manual image and the number of manual steps from the manual image.

장치(30)는 메뉴얼 영상의 길이 및 메뉴얼 단계의 개수에 반비례하여 가중치를 결정할 수 있으며, 이해도에 결정된 가중치를 적용하여 사용자의 이해도를 조정할 수 있다.The device 30 may determine a weight in inverse proportion to the length of the manual image and the number of manual steps, and may adjust the user's level of understanding by applying the determined weight to the level of understanding.

장치(30)는 메뉴얼 영상의 길이가 길거나, 많은 메뉴얼 단계로 구성된 경우, 제품에 대한 이해가 상대적으로 어려울 것임을 반영하여 메뉴얼 영사의 길이 및 메뉴얼 단계의 개수에 기반하여 사용자의 이해도를 조정할 수 있다.The device 30 may adjust the user's level of understanding based on the length of the manual projection and the number of manual steps, reflecting that it will be relatively difficult to understand the product if the manual video is long or consists of many manual steps.

도 9는 일실시예에 따른 이해도를 기반으로 제품의 메뉴얼 콘텐츠를 생성하는 과정을 설명하기 위한 순서도이다.Figure 9 is a flow chart to explain the process of generating manual content for a product based on understanding according to an embodiment.

도 9를 참조하면, 먼저 S901 단계에서, 장치(30)는 시선 이해도에 반비례하여 메뉴얼 콘텐츠의 재생 속도를 결정할 수 있다.Referring to FIG. 9, first, in step S901, the device 30 may determine the playback speed of manual content in inverse proportion to gaze comprehension.

장치(30)는 시선 이해도에 반비례하여 메뉴얼 콘텐츠의 재생 속도를 조정함으로써, 사용자 개개인의 학습 속도와 이해 수준에 맞는 학습 경험을 제공할 수 있다. 이는 사용자가 콘텐츠를 보다 효과적으로 이해하고 습득할 수 있도록 도움을 줄 수 있다.The device 30 can provide a learning experience tailored to each user's learning speed and level of understanding by adjusting the playback speed of manual content in inverse proportion to the level of gaze comprehension. This can help users understand and acquire content more effectively.

장치(30)는 사용자의 시선 이해도가 낮을 경우, 메뉴얼 콘텐츠의 재생 속도를 낮춤으로써 사용자가 정보를 더욱 쉽게 소화하고 이해할 수 있으며, 사용자의 학습 효율성을 향상시키고 지루함이나 혼란을 최소화하는 데 도움을 줄 수 있다.If the user's gaze comprehension is low, the device 30 lowers the playback speed of the manual content so that the user can more easily digest and understand the information, improve the user's learning efficiency, and help minimize boredom or confusion. You can.

장치(30)는 메뉴얼 콘텐츠의 재생 속도를 시선 이해도에 반비례하게 조정하여, 사용자는 콘텐츠에 더욱 집중할 수 있다. 재생 속도가 사용자의 시선 이해도에 따라 적절하게 조절되면 너무 빠르거나 느리지 않아 사용자의 흥미를 유지하고, 학습에 집중할 수 있는 환경을 조성할 수 있다.The device 30 adjusts the playback speed of manual content in inverse proportion to gaze comprehension, allowing the user to focus more on the content. If the playback speed is appropriately adjusted according to the user's gaze and understanding, it is not too fast or too slow, maintaining the user's interest and creating an environment where they can focus on learning.

또한, 사용자의 시선 이해도에 따라 메뉴얼 콘텐츠의 재생 속도를 조정함으로써, 개별적인 요구와 수준에 맞춘 정보를 전달할 수 있다.Additionally, by adjusting the playback speed of manual content according to the user's level of understanding, information tailored to individual needs and levels can be delivered.

즉, 위의 효과를 통해 장치(30)는 시선 이해도에 반비례하여 메뉴얼 콘텐츠의 재생 속도를 조정함으로써, 사용자의 개별적인 요구와 학습 수준에 맞는 개인화된 학습 경험을 제공할 수 있으며, 사용자의 학습 효율성과 이해도 향상을 도모할 수 있다.In other words, through the above effect, the device 30 can provide a personalized learning experience tailored to the user's individual needs and learning level by adjusting the playback speed of the manual content in inverse proportion to the gaze comprehension, and can improve the user's learning efficiency and It can help improve understanding.

S902 단계에서, 장치(30)는 표정 이해도에 반비례하여 메뉴얼 콘텐츠의 반복 횟수를 결정할 수 있다.In step S902, the device 30 may determine the number of repetitions of the manual content in inverse proportion to the level of facial expression understanding.

일실시예에 따르면, 장치(30)는 표정 이해도가 낮은 경우, 사용자는 메뉴얼 콘텐츠를 이해하지 못하거나 어려움을 겪고 있을 수 있다고 판단하고, 메뉴얼 콘텐츠를 반복해서 제공함으로써 사용자가 콘텐츠를 이해할 수 있도록 도와줄 수 있다. 반복 횟수를 늘리는 것은 사용자가 콘텐츠를 다시 보고 이해하는 기회를 더 많이 가지게 되어 이해도를 향상시킬 수 있도록 한다.According to one embodiment, when facial expression understanding is low, the device 30 determines that the user may not understand the manual content or is having difficulty, and provides the manual content repeatedly to help the user understand the content. I can give it. Increasing the number of repetitions allows users to have more opportunities to view and understand the content again, thereby improving comprehension.

반대로, 표정 이해도가 높은 경우, 장치(30)는 사용자는 메뉴얼 콘텐츠를 빠르게 이해하고 있는 것으로 판단하고, 반복 횟수를 줄여 다음 단계로 넘어갈 수 있다. 사용자가 이미 충분히 이해했다고 판단되므로 반복 횟수를 줄여서 사용자에게 좀 더 효율적인 학습 경험을 제공할 수 있다.Conversely, if the level of facial expression understanding is high, the device 30 may determine that the user quickly understands the manual content and move to the next step by reducing the number of repetitions. Since it is determined that the user has already fully understood, the number of repetitions can be reduced to provide the user with a more efficient learning experience.

따라서, 표정 이해도에 반비례하여 메뉴얼 콘텐츠의 반복 횟수를 결정하는 과정은 사용자의 학습 상태를 고려하여 적절한 반복 횟수를 조정함으로써 사용자의 학습 효율성을 높이는 효과를 가질 수 있다.Therefore, the process of determining the number of repetitions of manual content in inverse proportion to the understanding of facial expressions can have the effect of increasing the user's learning efficiency by adjusting the appropriate number of repetitions in consideration of the user's learning state.

S903 단계에서, 장치(30)는 음성 이해도에 기반하여 메뉴얼 콘텐츠의 설명 음성의 세기를 결정할 수 있다.In step S903, the device 30 may determine the intensity of the voice explaining the manual content based on the voice understandability.

일실시예에 따르면, 음성 이해도가 낮은 경우에는 음성의 세기를 높여 사용자가 명확하게 들을 수 있도록 지원하며, 음성 이해도가 높은 경우에는 음성의 세기를 낮추어 사용자에게 불편을 주지 않으면서도 명확한 음성 전달을 유지할 수 있도록 조정할 수 있다. 이를 통해 사용자는 음성으로 제공되는 메뉴얼 콘텐츠를 편리하게 이해할 수 있고, 필요한 정보를 정확하게 파악할 수 있다.According to one embodiment, when speech understanding is low, the intensity of the voice is increased to help the user hear clearly, and when speech understanding is high, the intensity of the voice is lowered to maintain clear speech transmission without causing inconvenience to the user. It can be adjusted to do so. Through this, users can conveniently understand manual content provided by voice and accurately grasp the information they need.

S904 단계에서, 장치(30)는 사용자 영상으로부터 제품과 사용자 사이의 거리를 확인할 수 있다.In step S904, the device 30 can check the distance between the product and the user from the user image.

S905 단계에서, 장치(30)는 제품과 사용자 사이의 거리에 반비례하여, 메뉴얼 콘텐츠에서 제품의 확대 비율을 결정할 수 있다.In step S905, the device 30 may determine the enlargement ratio of the product in the manual content in inverse proportion to the distance between the product and the user.

장치(30)는 거리가 먼 경우에는 제품이 작게 보일 수 있으므로 메뉴얼 콘텐츠에서 제품의 확대 비율을 높여 제품을 더 명확하게 표시할 수 있으며, 사용자는 제품의 세부 정보를 더 잘 파악할 수 있도록 한다.Since the product may appear small when the device 30 is far away, the product can be displayed more clearly by increasing the magnification ratio of the product in the manual content, allowing the user to better understand the detailed information of the product.

반대로 거리가 가까운 경우에는 제품이 크게 보일 수 있으므로 메뉴얼 콘텐츠에서 제품의 확대 비율을 줄여 제품이 사용자의 시야를 넘어가지 않도록 하고, 사용자는 제품을 더 편안하게 관찰하고 조작할 수 있다.Conversely, if the distance is close, the product may appear large, so reduce the enlargement ratio of the product in the manual content to prevent the product from exceeding the user's field of view, and the user can observe and operate the product more comfortably.

따라서, 제품과 사용자 사이의 거리에 반비례하여 제품의 확대 비율을 결정하는 과정은 사용자의 시각적 편의성과 제품 정보의 명확성을 향상시킬 수 있다.Therefore, the process of determining the enlargement ratio of the product in inverse proportion to the distance between the product and the user can improve the user's visual convenience and the clarity of product information.

도 10은 일실시예에 따른 NFT의 판매 수익을 분배하는 과정을 설명하기 위한 순서도이다.Figure 10 is a flow chart to explain the process of distributing NFT sales revenue according to an embodiment.

일실시예에 따르면, 장치(30)는 제품의 메뉴얼 영상에 대하여 NFT를 발행하고, 제품의 판매 수익에 기반하여NFT의 판매 수익을 제품의 판매자 및 제품의 메뉴얼 영상을 제작한 제작자에게 분배할 수 있다.According to one embodiment, the device 30 issues an NFT for a product's manual video, and distributes the NFT's sales revenue to the seller of the product and the producer who produced the product's manual video based on the sales revenue of the product. there is.

도 10을 참조하면, 먼저 S1001 단계에서, 장치(30)는 제품의 판매 수익을 확인할 수 있다.Referring to FIG. 10, first, in step S1001, the device 30 can check the sales revenue of the product.

일실시예에 따르면, 장치(30)는 제품을 판매하는 판매자 혹은 제품을 판매하는 판매 페이지로부터 제품의 판매량, 판매 가격, 수익 등에 대한 정보를 수집하고, 수집한 정보를 이용하여, 제품의 판매 수익을 확인할 수 있다. 또한, 판매자로부터 직접 제품에 의해 창출된 수익에 대한 정보를 획득할 수 있지만, 제품의 판매 수익을 확인하는 방법은 이에 한정되지는 않는다.According to one embodiment, the device 30 collects information on product sales volume, sales price, profit, etc. from a seller selling the product or a sales page selling the product, and uses the collected information to generate sales revenue for the product. can confirm. Additionally, information about the revenue generated by a product can be obtained directly from the seller, but the method of checking the sales revenue of the product is not limited to this.

S1002 단계에서, 장치(30)는 판매 수익이 미리 설정된 기준 이상인 것에 기반하여, 제품의 메뉴얼 영상에 대한 NFT 제작을 승인할 수 있다. 이때, 미리 설정된 기준은 실시예에 따라 상이하게 설정될 수 있다.In step S1002, the device 30 may approve NFT production for the product's manual video based on the sales revenue being greater than or equal to a preset standard. At this time, the preset standard may be set differently depending on the embodiment.

본 발명에서의 대체 불가 토큰(NFT, Non-Fungible Token)이란 하나의 토큰을 다른 토큰으로 대체하는 것이 불가능한 암호화폐로서 여러 차례의 거래 이후에도 고유 식별 코드가 변하지 않고 식별될 수 있도록 콘텐츠에 고유 아이디와 메타데이터 정보를 할당한 자산일 수 있다.In the present invention, a non-fungible token (NFT) is a cryptocurrency in which it is impossible to replace one token with another. A unique ID and a unique ID are included in the content so that the unique identification code can be identified without changing even after several transactions. It may be an asset to which metadata information has been assigned.

일실시예에 따르면, 암호화된 디지털 자산의 생성은, 주소, 공개 키(public key) 및 개인 키(private key) 페어를 갖는, 암호화된 고유의 디지털 자산 코드를 생성하는 것을 포함한다.According to one embodiment, creating an encrypted digital asset includes generating a unique encrypted digital asset code having an address, a public key, and a private key pair.

본 발명에 있어서의 대체불가능한 토큰(Non-Fungible Token; NFT)은 그 진위를 영구하게 기록하는 고유 비트로 인증된 디지털 자산으로서, 이더리움과 같은 암호 화폐의 기반이 되는 분산 원장 시스템인 블록체인에 저장된다. Non-Fungible Token (NFT) in the present invention is a digital asset certified with a unique bit that permanently records its authenticity and is stored in blockchain, a distributed ledger system that is the basis of cryptocurrency such as Ethereum. do.

블록체인 기술을 이용해 토큰화(또는 자산화)했다는 점에서는 대체가능한 암호 화폐와 유사한 면이 있지만, 암호 화폐는 현실의 화폐처럼 누구나 통용할 수 있는 반면, NFT는 각각의 디지털 자산이 고유한 인식 값을 갖고 있기 때문에 대체불가능한 특성을 갖고 있다.It is similar to fungible cryptocurrency in that it is tokenized (or assetized) using blockchain technology. However, while cryptocurrency can be used by anyone like real money, NFT allows each digital asset to have a unique recognition value. Because it has it, it has irreplaceable characteristics.

이러한 NFT는 블록체인 기술의 특성상 한 번 생성되면 삭제하거나 위조할 수가 없고 소유권과 거래 이력이 명시되므로 일종의 디지털 인증서 및 소유권 증명서와 같이 활용할 수 있다. 예를 들어, 이더리움 네트워크 상의 ERC-721은 대체불가능한 토큰(NFT)이다.Due to the nature of blockchain technology, these NFTs cannot be deleted or forged once created, and their ownership and transaction history are clearly stated, so they can be used as a type of digital certificate or ownership certificate. For example, ERC-721 on the Ethereum network is a non-fungible token (NFT).

장치(30)는 판매 수익과 미리 설정된 기준을 비교하여, 판매 수익이 미리 설정된 기준 이상인 경우에 제품의 메뉴얼 영상에 대한 NFT 제작을 승인할 수 있다.The device 30 may compare sales revenue with a preset standard and approve NFT production for the product's manual video if the sales revenue is greater than or equal to the preset standard.

S1003 단계에서, 장치(30)는 제품의 메뉴얼 영상의 분당 시청률이 높은 구간을 클립하여 NFT 제작을 위한 이미지로 생성할 수 있다.In step S1003, the device 30 may clip a section with a high viewership per minute of the product's manual video and create an image for NFT production.

S1004 단계에서, 장치(30)는 이미지를 이용하여 NFT를 생성할 수 있다.In step S1004, the device 30 can create an NFT using an image.

일실시예에 따르면, 장치(30)는 이미지의 NFT 발급을 위한 이미지 등록 정보를 획득할 수 있다. 이때, 이미지 등록 정보는 제품의 이름, 판매자, 메뉴얼 영상을 제작한 제작자, 제품의 메뉴얼 영상 중 적어도 하나를 포함할 수 있다. 장치(30)는 이미지 등록 정보로부터 이미지의 NFT를 발급하고, 발급된 이미지의 NFT에 대한 NFT 발급 정보를 생성할 수 있다.According to one embodiment, the device 30 may obtain image registration information for issuing an NFT of an image. At this time, the image registration information may include at least one of the name of the product, the seller, the producer who produced the manual video, and the product's manual video. The device 30 may issue an NFT of an image from image registration information and generate NFT issuance information for the NFT of the issued image.

여기서, NFT를 발급 정보를 생성하는 과정은 제품의 이름, 판매자, 메뉴얼 영상을 제작한 제작자, 제품의 메뉴얼 영상 중 적어도 하나를 포함하는 이미지 등록 정보에 대한 NFT를 발행하는 것으로, NFT를 발급하는 과정에서 NFT 발행을 위한 소정의 수수료가 청구될 수 있다.Here, the process of generating NFT issuance information involves issuing an NFT for image registration information that includes at least one of the product's name, seller, producer who produced the manual video, and the product's manual video. The process of issuing an NFT A small fee may be charged for NFT issuance.

이때, NFT 발급 정보는 이미지에 대한 제품의 이름, 판매자, 메뉴얼 영상을 제작한 제작자, 제품의 메뉴얼 영상에 대한 설명 및 NFT의 가격 등의 정보를 포함할 수 있으나, 이에 한정되지는 않는다.At this time, the NFT issuance information may include, but is not limited to, information such as the name of the product for the image, the seller, the producer who produced the manual video, a description of the product's manual video, and the price of the NFT.

장치(30)는 이미지의 NFT를 발행하여, NFT발급 정보를 생성할 때, 이미지의 NFT를 암호화된 디지털 자산으로 생성할 수 있다. 일실시예에 따르면, 암호화된 디지털 자산의 생성은, 주소, 공개 키(public key) 및 개인 키(private key) 페어를 갖는, 암호화된 고유의 디지털 자산 코드를 생성하는 것을 포함한다.When the device 30 issues an NFT of an image and generates NFT issuance information, it can generate the NFT of the image as an encrypted digital asset. According to one embodiment, creating an encrypted digital asset includes generating a unique encrypted digital asset code having an address, a public key, and a private key pair.

일실시예에 따르면, 암호화된 디지털 자산에는, 이미지에 부여되어 있는 고유한 번호인 식별자가 포함된다. 따라서, 암호화된 디지털 자산은 이미지와 일대일로 매칭될 수 있다.According to one embodiment, the encrypted digital asset includes an identifier, which is a unique number assigned to the image. Therefore, encrypted digital assets can be matched one-to-one with images.

장치(30)는 제품의 메뉴얼 영상을 NFT로 발행함으로써, 기존의 제품 판매로 얻은 수익 외에도 NFT의 판매로부터 추가적인 수익을 창출하도록 할 수 있으며, NFT는 고유하고 한정된 특성을 가지므로, 수요가 높을 경우 그 가치는 상승할 수 있다.The device 30 can generate additional revenue from the sale of NFT in addition to the revenue earned from existing product sales by issuing the product's manual video as NFT. Since NFT has unique and limited characteristics, when demand is high Its value may rise.

또한, 장치(30)는 NFT는 디지털 자산의 소유권을 나타내는 것이기 때문에, 제품의 메뉴얼 영상을 NFT로 발행함으로써 새로운 수익 모델을 창출할 수 있다. 예를 들어, NFT의 소유자에게 특별한 혜택을 제공하거나, NFT 홀더 간의 권리 교환을 통해 커뮤니티를 형성하는 등 다양한 방식으로 수익을 창출할 수 있다.In addition, the device 30 can create a new profit model by issuing a product manual video as an NFT because NFT represents ownership of a digital asset. For example, profits can be generated in various ways, such as providing special benefits to NFT owners or forming a community through the exchange of rights between NFT holders.

또한, 장치(30)는 제품의 메뉴얼 영상을 NFT로 발행함으로써 제품을 판매하는 회사 혹은 브랜드의 가치를 향상시킬 수 있다. NFT는 디지털 아트로서 가치를 가질 수 있기 때문에, 제품과 브랜드의 독특성과 차별화 요소를 강조할 수 있으며, 브랜드 인지도와 이미지 구축에 긍정적인 영향을 미칠 수 있다.Additionally, the device 30 can improve the value of a company or brand selling a product by issuing a product manual video as an NFT. Because NFTs can have value as digital art, they can emphasize the uniqueness and differentiation of products and brands, and can have a positive impact on brand awareness and image building.

즉, 장치(30)는 제품의 메뉴얼 영상을 NFT로 발행하는 과정을 통해 제품과 브랜드에 대한 추가적인 가치를 창출하고, 차별화된 비즈니스 모델을 구축하는 데 도움을 줄 수 있다.In other words, the device 30 can create additional value for products and brands through the process of issuing product manual videos as NFTs and help build a differentiated business model.

S1005 단계에서, 장치(30)는 NFT를 마켓에 업로드하고 NFT의 판매 수익 중 미리 설정된 비율을 제품을 판매하는 판매자와 제품의 메뉴얼 영상을 생성한 제작자에게 분배할 수 있다. 이때, 미리 설정된 비율은 실시예에 따라 상이하게 설정될 수 있다.In step S1005, the device 30 may upload the NFT to the market and distribute a preset percentage of the NFT sales revenue to the seller selling the product and the producer who created the product's manual video. At this time, the preset ratio may be set differently depending on the embodiment.

장치(30)는 NFT 발급 정보를 NFT 거래 사이트에 등록할 수 있다. 이때, 장치(30)는 NFT 발급 정보를 NFT 거래 사이트에 등록함으로써, 제품의 메뉴얼 영상의 NFT가 거래되도록 할 수 있다.The device 30 can register NFT issuance information on the NFT transaction site. At this time, the device 30 can enable the NFT of the product's manual video to be traded by registering the NFT issuance information on the NFT trading site.

이를 위해, 장치(30)는 NFT 거래 사이트를 제공하는 서버와 연결되어 있거나, NFT 거래 사이트를 제공하는 서버를 포함하여 구현될 수 있다.To this end, the device 30 may be connected to a server that provides an NFT transaction site, or may be implemented including a server that provides an NFT transaction site.

장치(30)는 NFT의 발급 정보를 NFT 거래 사이트에 등록하고, NFT가 거래될 때마다 거래된 NFT의 발급 정보에 대한 거래 히스토리를 데이터베이스에 저장할 수 있다.The device 30 may register the issuance information of the NFT on the NFT transaction site and store the transaction history of the issuance information of the traded NFT in the database each time the NFT is traded.

장치(30)는 제품을 판매하는 판매자와 제품의 메뉴얼 영상을 생성한 제작자에게 NFT 판매 수익의 일정 비율을 분배함으로써, 그들에게 추가적인 인센티브를 제공할 수 있다. 이는 제품의 판매자와 제작자에게 NFT 발행 및 판매 활동에 대한 보상을 제공함으로써, 더 나은 협력과 창작을 유도할 수 있다.The device 30 can provide additional incentives to sellers selling products and creators of product manual videos by distributing a certain percentage of the NFT sales revenue to them. This can encourage better collaboration and creation by providing rewards for NFT issuance and sales activities to sellers and creators of products.

또한, 장치(30)는 NFT의 판매 수익을 제품 판매자와 제작자에게 분배함으로써, 제품을 판매하는 판매자와 제작자 간의 협력 관계를 강화시킬 수 있으며, 상호 이익을 공유하고 더 긴밀한 협력을 구축함으로써, 더 나은 제품 개발 및 마케팅을 이룰 수 있는 효과를 가져올 수 있다.In addition, the device 30 can strengthen the cooperative relationship between the seller selling the product and the producer by distributing the sales revenue of the NFT to the product seller and the producer, and by sharing mutual benefits and establishing closer cooperation, a better It can have an impact on product development and marketing.

장치(30)는NFT를 통해 제품의 브랜드 가치를 상승시킬 수 있다. NFT는 제작자와 소비자 간의 직접적인 연결을 가능하게 함으로써, 제품 브랜드의 신뢰성과 가치를 강조할 수 있고, 이는 제품의 브랜드 이미지를 강화하고, 소비자들에게 추가적인 가치와 혜택을 제공함으로써 경쟁력을 향상시킬 수 있는 효과를 가져올 수 있다. 더 나아가, 제품의 판매를 활성화시킬 수 있다.The device 30 can increase the brand value of the product through NFT. By enabling a direct connection between creators and consumers, NFTs can emphasize the reliability and value of the product brand, which can strengthen the product's brand image and improve competitiveness by providing additional value and benefits to consumers. It can have an effect. Furthermore, it can stimulate product sales.

도 11은 실시예에 따른 장치(30)의 구성의 예시도이다.Figure 11 is an exemplary diagram of the configuration of the device 30 according to an embodiment.

일실시예에 따른 장치(30)는 프로세서(31) 및 메모리(32)를 포함한다. 일실시예에 따른 장치(30)는 상술한 서버 또는 단말일 수 있다. 프로세서(31)는 도 1 내지 도 10을 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 10을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(32)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(32)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.Device 30 according to one embodiment includes a processor 31 and memory 32. The device 30 according to one embodiment may be the server or terminal described above. The processor 31 may include at least one device described above with reference to FIGS. 1 to 10 or may perform at least one method described with reference to FIGS. 1 to 10 . The memory 32 may store information related to the above-described method or store a program in which the above-described method is implemented. Memory 32 may be volatile memory or non-volatile memory.

프로세서(31)는 프로그램을 실행하고, 장치(30)를 제어할 수 있다. 프로세서(31)에 의하여 실행되는 프로그램의 코드는 메모리(32)에 저장될 수 있다. 장치(30)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.The processor 31 can execute programs and control the device 30. The code of the program executed by the processor 31 may be stored in the memory 32. The device 30 is connected to an external device (eg, a personal computer or a network) through an input/output device (not shown) and can exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the following claims.

Claims (3)

장치에 의해 수행되는 방법에 있어서,
제1 상태인 제품을 촬영한 제1 이미지를 획득하는 단계;
제2 상태인 상기 제품을 촬영한 제2 이미지를 획득하는 단계;
제3 상태인 상기 제품을 촬영한 제3 이미지를 획득하는 단계;
상기 제1 이미지를 출력하는 단계;
상기 제1 이미지에 대한 사용자 입력을 수신하는 단계;
상기 사용자 입력이 제1 사용자 입력인 경우, 상기 제1 이미지를 상기 제2 이미지로 변환하여 출력하는 단계; 및
상기 사용자 입력이 제2 사용자 입력인 경우, 상기 제1 이미지를 상기 제3 이미지로 변환하여 출력하는 단계;를 포함하고,
상기 제2 상태는,
상기 제품의 적어도 일부가 상기 제1 상태와 시각적으로 구분되는 상태이고,
상기 제3 상태는,
상기 제품의 적어도 일부를 상기 제1 상태에 비해 확대 또는 축소한 상태를 포함하고,
상기 제1 이미지를 상기 제2 이미지로 변환하여 출력하는 단계에서,
상기 제1 이미지와 제2 이미지 사이의 시각적인 차이를 최소화하기 위하여, 미리 학습된 인공지능 모델에 상기 제1 이미지 및 상기 제2 이미지를 입력하여 중간 이미지를 출력하는 단계,
상기 제1 이미지 및 상기 제2 이미지와 상기 중간 이미지의 공통 부분 및 차이 부분을 추출하는 단계, 및
상기 중간 이미지에서 상기 공통 부분은 유지하고, 상기 차이 부분을 블러 처리하여 상기 중간 이미지를 수정하는 단계를 더 포함하고,
상기 중간 이미지는,
상기 제1 이미지와 상기 제2 이미지를 비교하여, 상기 제1 이미지와 상기 제2 이미지의 차이 정도를 산출하고,
상기 차이 정도에 기반하여 출력되는 개수가 결정되고,
상기 사용자 입력의 소리 입력으로부터 키워드를 추출하고,
상기 키워드 중 상기 제품과 관련된 제품 키워드의 개수를 확인하고,
미리 설정된 기준 시간에 상기 출력되는 개수와 반비례하면서, 상기 제품 키워드의 개수와 비례하도록 결정된 가중치를 적용하여 출력 유지 시간이 결정되는,
사용자 상호작용 기반 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공 방법.
In a method performed by a device,
Obtaining a first image of a product in a first state;
Obtaining a second image of the product in a second state;
Obtaining a third image of the product in a third state;
outputting the first image;
Receiving user input for the first image;
If the user input is a first user input, converting the first image into the second image and outputting it; and
When the user input is a second user input, converting the first image into the third image and outputting it,
The second state is,
At least a portion of the product is in a state that is visually distinguishable from the first state,
The third state is,
Including a state in which at least a part of the product is enlarged or reduced compared to the first state,
In the step of converting and outputting the first image into the second image,
In order to minimize the visual difference between the first image and the second image, inputting the first image and the second image into a pre-trained artificial intelligence model and outputting an intermediate image;
extracting common portions and difference portions of the first image, the second image, and the intermediate image, and
Further comprising modifying the intermediate image by maintaining the common portion in the intermediate image and blurring the difference portion,
The middle image is,
Compare the first image and the second image to calculate the degree of difference between the first image and the second image,
The number to be output is determined based on the degree of difference,
Extracting keywords from the sound input of the user input,
Check the number of product keywords related to the product among the keywords,
The output maintenance time is determined by applying a weight determined to be inversely proportional to the number output at a preset reference time and proportional to the number of product keywords,
Method for creating and providing responsive user manual content based on user interaction.
삭제delete 제1항에 있어서,
상기 제1 이미지를 상기 제3 이미지로 변환하여 출력하는 단계 이후,
상기 제3 이미지에 대한 추가 사용자 입력이 수신된 경우, 상기 제품의 메뉴얼 영상을 제1 크기의 팝업 형태로 출력하는 단계;
상기 추가 사용자 입력의 터치 강도가 미리 설정된 기준 이상인 경우, 터치 위치에 해당하는 상기 제품의 부분에 포함된 부품의 부품 정보 및 상기 부품의 판매 페이지를 제1 크기와 상이한 제2 크기의 팝업 형태로 출력하는 단계; 및
상기 추가 사용자 입력의 터치 횟수가 미리 설정된 기준 횟수 이상인 경우, 상기 제품 관련 고객 센터 연결 안내 메시지를 출력하는 단계를 더 포함하는,
사용자 상호작용 기반 반응형 사용자 메뉴얼 콘텐츠의 생성 및 제공 방법.
According to paragraph 1,
After converting the first image into the third image and outputting it,
When an additional user input for the third image is received, outputting a manual image of the product in a pop-up form of a first size;
If the touch intensity of the additional user input is more than a preset standard, the part information of the part included in the part of the product corresponding to the touch position and the sales page of the part are output in the form of a pop-up of a second size different from the first size. steps; and
If the number of touches of the additional user input is more than a preset reference number, outputting a product-related customer center connection information message,
Method for creating and providing responsive user manual content based on user interaction.
KR1020230117414A 2023-09-05 2023-09-05 Method, apparatus and system for generating and providing responsive user manual contents based on user interaction KR102645143B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230117414A KR102645143B1 (en) 2023-09-05 2023-09-05 Method, apparatus and system for generating and providing responsive user manual contents based on user interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230117414A KR102645143B1 (en) 2023-09-05 2023-09-05 Method, apparatus and system for generating and providing responsive user manual contents based on user interaction

Publications (1)

Publication Number Publication Date
KR102645143B1 true KR102645143B1 (en) 2024-03-07

Family

ID=90271523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230117414A KR102645143B1 (en) 2023-09-05 2023-09-05 Method, apparatus and system for generating and providing responsive user manual contents based on user interaction

Country Status (1)

Country Link
KR (1) KR102645143B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140099415A (en) * 2013-02-02 2014-08-12 태양광발전도로(주) The real product making and delivery method after working and assembling complete in programe as game, programe or mobile device, operating server which making the real product
KR20160065185A (en) * 2013-09-30 2016-06-08 에이치티엘-스트레파 스폴카 아크사이즈나 Safety needle device
KR101699491B1 (en) 2016-03-29 2017-01-24 주식회사 포워드벤처스 Device, method, and computer program for displaying function instructions
KR102261828B1 (en) 2020-04-10 2021-06-08 주식회사 리드워크 Service system for product manual using augmented reality
KR20210076775A (en) 2019-12-16 2021-06-24 삼성전자주식회사 Electronic device for supporting customized manuals
KR20220096808A (en) 2020-12-31 2022-07-07 채상훈 Method for providing speech recognition based product guidance service using user manual

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140099415A (en) * 2013-02-02 2014-08-12 태양광발전도로(주) The real product making and delivery method after working and assembling complete in programe as game, programe or mobile device, operating server which making the real product
KR20160065185A (en) * 2013-09-30 2016-06-08 에이치티엘-스트레파 스폴카 아크사이즈나 Safety needle device
KR101699491B1 (en) 2016-03-29 2017-01-24 주식회사 포워드벤처스 Device, method, and computer program for displaying function instructions
KR20210076775A (en) 2019-12-16 2021-06-24 삼성전자주식회사 Electronic device for supporting customized manuals
KR102261828B1 (en) 2020-04-10 2021-06-08 주식회사 리드워크 Service system for product manual using augmented reality
KR20220096808A (en) 2020-12-31 2022-07-07 채상훈 Method for providing speech recognition based product guidance service using user manual

Similar Documents

Publication Publication Date Title
Kopalle et al. Examining artificial intelligence (AI) technologies in marketing via a global lens: Current trends and future research opportunities
CN111418198B (en) Electronic device for providing text-related image and method of operating the same
KR102490009B1 (en) Method, device and system for providing platform service for purchasing and selling product linked to influencer based on artificial intelligence
US11700420B2 (en) Media manipulation using cognitive state metric analysis
KR102404511B1 (en) Method, device and system for recommending customized product information based on artificial intelligence
KR102407595B1 (en) Method, device and system for providing winery experience service based on metaverse
Blackwell Interacting with an inferred world: The challenge of machine learning for humane computer interaction
US10547900B2 (en) Method and system for provision of a plurality of multiple media components
Churamani et al. Affect-driven learning of robot behaviour for collaborative human-robot interactions
US20230362112A1 (en) Virtual-assistant-based resolution of user inquiries via failure-triggered document presentation
US11868672B1 (en) Methods and systems for interactive displays with intelligent generative content and tandem computing
KR102463875B1 (en) Method, device and system for providing personalized psychotherapy content using big data
KR102645143B1 (en) Method, apparatus and system for generating and providing responsive user manual contents based on user interaction
Rincon et al. Using emotions for the development of human-agent societies
KR102470154B1 (en) Method, device and system for providing medical equipment trading and sharing platform service based on blockchain
KR102447426B1 (en) Method, device and system for recommending lifestyle guide information analyzing personal color and timeline based behavioral data for hyper personalization
KR102452100B1 (en) Method, device and system for providing learning service base on brain wave and blinking eyes
Alzubi et al. A multimodal human-computer interaction for smart learning system
US20220093001A1 (en) Relaying optimized state and behavior congruence
Pal et al. Fintech Agents: Technologies and Theories
KR102625227B1 (en) Method, device and system for providing license distribution platform
KR102619388B1 (en) Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation
KR102574021B1 (en) Method, apparatus and system for generating responsive image content based on personalized images extracted from image data history using artificial intelligence model
KR102521020B1 (en) Method, device and system for matching galleries, artists and consumers and providing payment platform services based on artificial intelligence
KR102619389B1 (en) Method, device and system for providing interface of metaverse memorial hall service based on constellation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant