WO2016043570A1 - Terminal device, method for driving terminal device, and computer readable recording medium - Google Patents

Terminal device, method for driving terminal device, and computer readable recording medium Download PDF

Info

Publication number
WO2016043570A1
WO2016043570A1 PCT/KR2015/009896 KR2015009896W WO2016043570A1 WO 2016043570 A1 WO2016043570 A1 WO 2016043570A1 KR 2015009896 W KR2015009896 W KR 2015009896W WO 2016043570 A1 WO2016043570 A1 WO 2016043570A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
sensory information
content
haptic
information
Prior art date
Application number
PCT/KR2015/009896
Other languages
French (fr)
Korean (ko)
Inventor
배유동
이은화
비핀인두르캬
악쉬타단기
하리니삼팟드
Original Assignee
삼성전자 주식회사
아이아이아이티 하이데라바드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150024510A external-priority patent/KR20160034789A/en
Application filed by 삼성전자 주식회사, 아이아이아이티 하이데라바드 filed Critical 삼성전자 주식회사
Publication of WO2016043570A1 publication Critical patent/WO2016043570A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a terminal device, a method of driving the terminal device, and a computer-readable recording medium, and more particularly, to a terminal device such as a smartphone or a wearable device, which is represented in content such as video, audio, and text.
  • a terminal device, a method of driving the terminal device, and a computer-readable recording medium which can express a user's emotional state or an atmosphere of an object as a haptic, for example, vibration.
  • Recent research in the field of emotional computing has focused on building emotionally intelligent computers. Most of this research has focused on developing ways in which machines perceive users' emotions.
  • Typical examples in the field of emotional computing are cognitive tutors that can warn of the display of content based on assistive devices that help individuals in the learner's emotional state and autism spectrum to detect the emotional state of the communication partner. tutors). Such systems may be seen to have emotional perceptual intelligence that recognizes the user's emotional state and is adapted accordingly.
  • This emotional feedback can be either monomodal, such as visual, auditory, or tactile, or multimodal, such as visual-haptic, auditory-haptic. Can be.
  • Multimodal interfaces can also be used to provide emotionally intelligent emotional feedback to users.
  • Cognitive psychology research in the field of multisensory integration requires that the cues provided in all modes be congruent with each other so that multimodal feedback is effective, as well as the cues provided in one mode are effective in the cues belonging to the other. It may be distorted or invalidated.
  • Multimodal interfaces can allow for intuitive and efficient real world-like interactions.
  • Such an interface creates immersion (e.g. in virtual reality), enables efficient attention management (e.g., alerts on a mobile phone), and (eg, ultrasonic fracturing of data) It has been explored for other uses, such as sonification, to better understand complex information.
  • MRT Multiple Resource Theory
  • the spatial location of the voice stimulus may be affected by synchronized (corresponding to) visual stimuli. Participants could hear many flashes of sound bursts and see flashing lights (synchronized with many sounds) coming from spatially distinct resources. They are asked to point toward the sound source while ignoring the flashes of light. The results show that participants typically change their attitude towards the position of the light strobe.
  • Rubber hand illusion is about how cognition of touch can be affected by visual feedback. When subjects see rubber hands swung, they report feelings in rubber hands while their invisible hands are also swung at the same time. This illusion occurs because the human brain misunderstands tactile perception based on visual perception.
  • Parchment skin illusion is an example of the interaction between voice and tactile stimuli. Participants are asked to rub their palms. This sound is recorded, accentuated and corrected to frequencies above 2 KHz, and played back to the subjects via headphones. Participants report that they feel very dry, like parchment paper, when they hear the stressed feedback.
  • the emotional McGurk effect demonstrates how humans integrate facial expressions and rhyme cues to recognize affection. Participants provided static faces representing multiple emotions with speech sounds changing from rhymes to express different emotions. The results of the emotional confirmation show that both visual bias and negative bias depend on the reliability of the stimulus.
  • Cognitive psychology research in multisensory affect integration has mostly focused on speech-visual integration, especially facial expressions and voice rhymes. Touch is a very powerful way to convey emotions, and how lean is the affection transmitted through visual and haptic ways or voice and haptic interactions.
  • An embodiment of the present invention is a terminal device capable of expressing a user's emotional state or an atmosphere of an object expressed in content such as video, audio, and text in a terminal device such as a smartphone or a wearable device as a haptic, for example, a vibration. It is an object of the present invention to provide a method of driving a device and a computer-readable recording medium.
  • the terminal device is a storage unit for storing the sensory information related to the emotional state of the user of the terminal device expressed in the content or the atmosphere of the object present in the content, the content is to be input And a sensory information extractor configured to extract sensory information related to the emotional state or the mood, and a controller configured to perform a haptic related operation using the extracted sensory information.
  • the terminal device further includes a surrounding situation recognition unit for recognizing a surrounding situation to generate the content, and a haptic operation unit performing the haptic related operation, and the controller controls the haptic operating unit based on the sensory information. can do.
  • the surrounding situation recognition unit may include at least one of an image capturing unit photographing the surrounding situation and a voice obtaining unit obtaining the voice of the surrounding situation.
  • the terminal device further comprises a user interface for receiving a user command for adjusting the emotional state of the user expressed in the content, and a communication interface for transmitting the sensory information to an external device for performing the haptic-related operation
  • the storage unit may store state control information corresponding to the user command by matching the sensory information, and the controller may control the communication interface to transmit the sensory information to the external device.
  • the user interface may receive a user command for expressing an emotion that matches the emotional state or a user command for expressing an emotion opposite to the emotional state.
  • the content may include at least one of video content, audio content, and text content.
  • the sensory information extractor may include a content feature recognizer that recognizes the emotional state or the mood, a mapper that performs a mapping operation to find sensory information matching the recognized emotional state or the mood, and the found sensory information. It may include a parameter extraction unit for extracting the parameters.
  • the parameter extractor may extract the sensory information by further considering characteristics of an external device that receives the sensory information when the sensory information is extracted.
  • the sensory information may include haptic information for the haptic related operation, and the haptic information may include at least one parameter of intensity, frequency, wavelength, and rhythm.
  • Each of the parameters may include a plurality of levels, and the haptic information may include a parameter corresponding to one of the plurality of levels.
  • the method of driving a terminal device storing the sensory information related to the emotional state of the user of the terminal device expressed in the content or the atmosphere of the object present in the content, the content is input And extracting sensory information related to the emotional state or the mood, and performing a haptic related operation using the extracted sensory information.
  • the driving method of the terminal device further includes a step of recognizing a surrounding situation and performing the haptic related operation to generate the content, wherein the processing comprises the haptic related operation based on the sensory information. Can be controlled.
  • the step of recognizing the surrounding situation may include at least one of photographing the surrounding situation and acquiring a voice of the surrounding situation.
  • the driving method of the terminal device further includes receiving a user command for adjusting the emotional state of the user expressed in the content, and transmitting the sensory information to an external device performing the haptic-related operation,
  • the storing may include storing state control information corresponding to the user command with the sensory information, and the processing may be controlled to transmit the sensory information to the external device.
  • the receiving of the user command may include receiving a user command to express an emotion corresponding to the emotional state or a user command to express an emotion opposite to the emotional state.
  • the content may include at least one of video content, audio content, and text content.
  • the extracting of the sensory information may include: recognizing the emotional state or the mood, performing a mapping operation to find sensory information matching the recognized emotional state or the mood, and parameters of the found sensory information. And extracting the parameter may extract the sensory information by further considering characteristics of an external device that receives the sensory information when the sensory information is extracted.
  • the sensory information may include haptic information for the haptic related operation, and the haptic information may include at least one parameter of intensity, frequency, wavelength, and rhythm.
  • Each of the parameters may include a plurality of levels, and the haptic information may include a parameter corresponding to one of the plurality of levels.
  • a computer-readable recording medium including a program for executing a method of driving a terminal device, wherein the method of driving the terminal device includes an emotion state of a user of the terminal device expressed in content or an object present in the content.
  • Setting sensory information related to an atmosphere of the user, extracting sensory information related to the emotional state or the mood when the content is input, and performing a haptic related operation using the extracted sensory information may be performed.
  • FIG. 1 is a diagram showing an emotional service system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an emotional service system according to another embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a detailed structure of a terminal device 1 of FIG. 1;
  • FIG. 4 is a block diagram showing a detailed structure of a terminal device 1 shown in FIG. 1 or a terminal device shown in FIG. 2;
  • FIG. 5 is a diagram illustrating an example of the sensory information extraction unit of FIGS. 3 and 4;
  • FIG. 6 is a view for explaining a service process related to the system of FIG.
  • FIG. 7 is a diagram illustrating a specific operation of the terminal device 1 shown in FIG. 6;
  • FIG. 8 is a flowchart illustrating a driving process of a terminal device according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a driving process of the terminal device 1 shown in FIG. 1;
  • FIG. 10 is a flowchart illustrating a driving process of the terminal device shown in FIG. 2;
  • FIG. 11 is a diagram illustrating a driving process of a terminal device 1 of FIG. 1 or a terminal device of FIG. 2 according to another embodiment of the present invention.
  • FIG. 12 is an exemplary view for explaining the authoring tool constructed in accordance with the guidelines generated by the auditory tactile experiment.
  • FIG. 1 is a diagram illustrating an emotional service system according to an exemplary embodiment of the present invention, which relates to adjusting an emotion of a receiving user who receives content.
  • the emotional service system 90 may include a terminal device 1 (100), a terminal device (110), a communication network (120), and a service providing device (130). Can be.
  • the terminal device 1 100 and the terminal device 2 110 include a mobile device such as a smart phone, a notebook computer, an MP3, and a PDP, and a wearable device such as a gearbox.
  • a mobile device such as a smart phone, a notebook computer, an MP3, and a PDP
  • a wearable device such as a gearbox.
  • tactile senses such as haptic motion as well as multiple senses such as vision and hearing.
  • the terminal device 1 100 may transmit video, audio, or text content to the terminal device 2 110, which may well express its emotional state as a calling terminal.
  • the terminal device 1 (100) may provide a captured image that can express its own happy state, or select and provide other video content that can replace it to the terminal device 2 (110).
  • the user of the terminal device 1 (100) may allow the emotional state expressed in the content to be delivered to the terminal device 2 (110) as it is, but, for example, when the terminal device 2 (110) transmits a depressed or bad state. ) So that the emotional state may be transmitted in a state in which the user of) does not panic.
  • the terminal device 2 110 may perform a haptic operation such as vibration before receiving the content from the terminal device 1 100 and expressing the received content. Therefore, if the haptic motion expresses a depressed or bad state, the user of the terminal device 2 110 may be very nervous. In this regard, the user of the terminal device 1 (100) may specify that an emotional state opposite to the specific content is expressed by the haptic motion.
  • the terminal device 1 (100) may be a content created by the user, and of course, a content that can replace the same, but receives a user command to control and express the emotional state expressed in the content and the emotional state. Then, the emotional state is recognized from the content, and the sensory information for the haptic operation, that is, the parameters are extracted based on the state control information for adjusting the emotional state based on the recognized emotional state and the user command. The extracted parameter information may be transmitted to the terminal device 2 110 that performs the haptic operation.
  • the terminal device 1 100 may store a program for processing sensory information, for example, an application (hereinafter, referred to as an app), and execute the same.
  • an application hereinafter, referred to as an app
  • a user of the terminal device 1 (100) touches an icon displayed on a screen to execute a corresponding app, and through this, a content for expressing his or her emotional state and a user command for adjusting the emotional state expressed in the content.
  • You will be able to enter For example, even if the content indicates the same emotional state, it may be regarded that other sensory information is transmitted to the terminal device 2 110 according to a user command related to the state control information.
  • the sensory information may be different from each other depending on the characteristic information of the terminal device 110, for example, the specification. For example, even if they have the same content and the same state control information, the parameters of the sensory information output may be somewhat different, since the specification of the receiving terminal device 2 (110) should be considered.
  • the terminal device 1 (110) can be stored in advance and used therein, but the service providing device (130) for the characteristic information of the receiving terminal device (110), for example, for the specification. You can request and use the information.
  • all extracted parameters may be transmitted to the terminal device 2 110, and the terminal device 2 110 may extract and use the parameter corresponding to the terminal device 110. This may be possible because the device information about the characteristics of the terminal devices are included therein.
  • the terminal device 2 110 is not significantly different from the terminal device 1 100. However, there is a difference in that it is a receiving terminal.
  • the terminal device 2 110 may perform a haptic operation according to the sensory information provided by the terminal device 1 100, which is a calling terminal. For example, this haptic action can be made in a vibrating manner.
  • the corresponding content may be executed. For example, in the case of a video, the corresponding video will be displayed on the screen, and in the case of a voice file, the corresponding video file may be executed and output to a voice output unit such as a speaker. Also, in the case of a text message, the text message can be displayed on the screen.
  • the terminal device 2 110 may analyze the received parameters and perform a haptic operation according to the analysis result.
  • the terminal device 1 (100) fails to select and provide parameters suitable for its characteristics, it may be additionally performed to extract a parameter corresponding to itself from among many parameters.
  • the communication network 120 includes both wired and wireless communication networks.
  • the wired network includes an internet network such as a cable network or a public telephone network (PSTN)
  • the wireless communication network includes a CDMA, WCDMA, GSM, Evolved Packet Core (EPC), Long Term Evolution (LTE), WiBro network, and the like. to be.
  • the communication network 120 according to an embodiment of the present invention is not limited thereto, and may be used as, for example, a cloud computing network under a cloud computing environment as an access network of a next generation mobile communication system to be implemented.
  • an access point in the communication network 120 may access an exchange or the like of a telephone company, but in the case of a wireless communication network, data may be connected to an SGSN or a gateway GPRS support node (GGSN) operated by a communication company. Or, it can be connected to various repeaters such as BTS (Base Station Transmission), NodeB, e-NodeB and process data.
  • BTS Base Station Transmission
  • NodeB NodeB
  • e-NodeB process data.
  • the communication network 120 may include an access point.
  • Access points include small base stations, such as femto or pico base stations, which are frequently installed in buildings.
  • the femto or pico base station is classified according to the maximum number of terminal devices 1 (100) and the terminal device 2 (110) can be connected according to the classification of the small base station.
  • the access point includes a short-range communication module for performing short-range communication such as Zigbee and Wi-Fi with the terminal 1 (100) and the terminal 2 (110).
  • the access point may use TCP / IP or Real-Time Streaming Protocol (RTSP) for wireless communication.
  • RTSP Real-Time Streaming Protocol
  • the short-range communication may be performed in various standards such as Bluetooth, Zigbee, Infrared (IrDA), Ultra High Frequency (UHF) and Very High Frequency (VHF) and Ultra Wideband Communication (UWB).
  • the access point extracts the location of the data packet, specifies the best communication path for the extracted location, and transmits the data packet along the designated communication path to the next device, such as the terminal device 1 (100) and the terminal device 2 (110).
  • An access point may share several circuits in a general network environment, and may include, for example, a router, a repeater, and a repeater.
  • the service providing apparatus 130 may store an app for providing an emotional service according to an embodiment of the present invention, and provide an app stored at the user's request.
  • the service providing device 130 may provide device characteristic information of the receiving terminal device 2 (110) at the request of the terminal device 1 (100).
  • the service providing apparatus 130 may store and execute a program, ie, a tool, for processing all information related to an app executed in the terminal device 1 (100) as a concept of a cloud device.
  • the terminal device 1 110 may receive a user command for adjusting content and an emotional state expressed in the content. Then, the service providing device 130 may extract the sensory information based on this, and provide the sensor information to the terminal device 2 (110).
  • the service providing device 130 may provide an open API (Application Program Interface) to the third party.
  • the service providing apparatus 130 may operate as a third party platform.
  • the service providing device 130 may store various types of Apple provided by a third party.
  • Such an apple may be related to devices compatible with the terminal device 1 (100) and the terminal device 2 (110), and may also be an apple that interworks with an existing service or content.
  • FIG. 2 is a diagram illustrating an emotional service system according to another embodiment of the present invention, which relates to operating in a standalone state.
  • the emotional service system 90 ′ may include some or all of the terminal device 200 and the peripheral device 210.
  • peripheral device 210 may be omitted and configured, for example, the terminal device 200 may detect the state of the surrounding environment, not the state of the peripheral device 210. In order to fully understand the invention, it will be described as including all.
  • the terminal device 200 is not significantly different from the terminal device 1 100 described with reference to FIG. 1.
  • the terminal device 200 of FIG. 2 does not use video, audio content, etc. that can photograph itself or express its emotional state like the terminal device 1 (100) of FIG.
  • an image of an image displayed on a screen of a movie theater may be an emotional state expressed in the captured image, more precisely, an atmosphere of an object, which is expressed by any direct haptic motion.
  • the terminal device 1 100 of FIG. 1 may also use contents related to the surrounding situation or the situation of the peripheral device 210 as in the terminal device 200 of FIG. 2.
  • the terminal device 1 100 of FIG. 1 is intended to express its emotional state by transmitting the content to the receiving terminal device 2 110 that receives the content, and the terminal device 200 of FIG. The difference is that you can feel this haptic motion.
  • FIG. 3 is a block diagram illustrating a detailed structure of the terminal device 1 and the terminal device of FIG.
  • the terminal device 1 100 may partially or entirely include the control unit 300, the storage unit 310, and the sensory information extraction unit 320. It may further include a user interface unit.
  • the inclusion of some or all includes some components such as the user interface unit or the storage unit 310 being omitted, or some components such as the storage unit 310 are integrated with the sensory information extracting unit 320. It means that things, etc., and to include a telegram in order to help a full understanding of the invention.
  • the user interface includes a button input unit and a display unit, through which a request for execution of an emotional service for multisensory feedback according to an embodiment of the present invention may be requested.
  • the associated program may be executed through the button input unit, or the associated program may be executed by touching an icon displayed on the screen of the display unit.
  • the user interface unit adjusts its emotional state to any content, for example, video content, voice content, or text content that is pre-stored in the storage unit 310 or provided by the user, in some form.
  • User commands as to whether to deliver to the user at 110 can be specified.
  • the user command may be a user command corresponding to an emotional state expressed in the content, or may be a user command for transmitting an opposite emotional state.
  • the haptic gesture may input a user command to indicate an opposite state of joy.
  • the controller 300 may control overall operations of the user interface unit, the storage unit 310, and the sensory information extraction unit 320 in the terminal device 1 (100). For example, when a user command for arbitrary content is input through the user interface, the sensory information extracting unit 320 receives a user command related to the corresponding content and the inputted user command, that is, state control information for adjusting an emotional state. Can be provided as
  • the controller 300 may provide the information requested by the sensory information extractor 320 by controlling the storage 310. For example, when sensory information (or state information) representing various emotional states of the content and state control information matched thereto are stored in the storage unit 310, the sensory information mapped to the sensory information and state control information is stored. May be provided to the sensory information extraction unit 320. In this process, the controller 300 may further output sensory information in consideration of device characteristic information of the terminal device 2 110 and provide the sensory information to the sensory information extracting unit 320.
  • the controller 300 may include an image processor.
  • the controller 300 may be involved in not only transmitting and receiving general data and information through the image processor, but also transmitting sensory information extracted through the sensory information extractor 320 to the terminal device 2 110.
  • various operations may be additionally performed, such as being involved in data conversion processes such as encoding and decoding.
  • the storage unit 310 may store various information processed by the controller 300.
  • the storage unit 310 may store sensory information representing various emotional states that can be expressed in content and state control information corresponding thereto.
  • the sensory information refers to information related to sight, touch, and hearing, which means a direct emotional state such as 'happy' and 'sad' expressed in the content.
  • the sensory information may mean haptic information including various levels of vibration, frequency, rhythm, intensity, waveform, and the like, when the haptic state is expressed in the tactile sense. Such haptic information may be a parameter of sensory information.
  • the sensory information including the haptic information is substantially set and processed in the sensory information extractor 320.
  • the above operation may be performed through a separate storage unit directly interworking with the sensory information extracting unit 320, and thus the present invention will not be limited to the above description in the embodiment of the present invention.
  • the sensory information extracting unit 320 may extract sensory information based on the state control information designated by the user through the user interface unit and the emotional state expressed in the content. To this end, the sensory information extracting unit 320 may perform a process of extracting sensory information by using the data stored in the storage 310 in cooperation with the controller 300 or by directly accessing the storage 310. have.
  • the sensory information extracting unit 320 may store a program for performing an operation of extracting sensory information therein, and execute the program when the user requests it.
  • FIG. 4 is a block diagram illustrating another detailed structure of the terminal device 1 shown in FIG. 1 or the terminal device shown in FIG. 2.
  • the terminal device 200 includes a communication interface 400, a user interface 410, a context recognizer 420, and a controller 430.
  • the sensory information extraction unit 440, the haptic operation unit 450, and the storage unit 460 may include some or all of the above, in which part or all is the same as described above.
  • the communication interface 400 may be involved in downloading an app according to a user's request, and transmit the sensory information extracted according to the operation of the sensory information extractor 440 to an external device. It is used to send and receive various information. In this regard, since it has been described above sufficiently, further description thereof will be omitted.
  • the user interface unit 410 is not significantly different from the user interface unit in FIG. 3 and will be replaced by the contents thereof. However, in the case of FIG. 2, the user interface unit 410 may input a separate user command for executing the situation recognition unit 420.
  • the context recognizer 420 may typically include an image capture unit for capturing an image, a voice acquirer for voice recognition, and the like. For example, when a user of the terminal device 200 captures image content displayed on a screen of a movie theater or receives audio provided with the corresponding image, the recognized data is recognized by the controller 430. It may be stored in the storage unit 460 under control.
  • the control unit 430 may include a communication interface unit 400, a user interface unit 410, a situation recognition unit 420, a control unit 430, a sensory information extractor 440, and a haptic operation unit 450 in the terminal device 200. And controls the overall operation of the storage unit 460.
  • the storage unit 460 stores the image and audio content captured by the situation recognition unit 420.
  • the controller 430 may extract the sensory information using the user command related to the state control information set by the user in the user interface 410 and the content stored in the storage 460. To operate.
  • the captured image may be provided to the sensory information extractor 440.
  • the haptic operator 450 may be controlled using the sensory information extracted from the provided captured image.
  • the controller 430 may include a determination unit for determining the extracted sensory information.
  • the sensory information may include parameters such as rhythm, frequency, and waveform, and may include various haptic information indicating levels for respective parameters, the controller 430 operates the haptic operator 450.
  • a process for analyzing sensory information, that is, haptic information, may be performed.
  • the sensory information extraction unit 440 and the storage unit 460 have been described above with reference to FIG. 3, and thus, further description thereof will be omitted.
  • the haptic operator 450 may include, for example, a vibration motor. Therefore, under the control of the controller 430, the state of the surrounding situation can be expressed to the user of the terminal device 200 in a sense, that is, a tactile sense.
  • the haptic operator 450 may operate to reflect various haptic information such as rhythm, frequency, and waveform under the control of the controller 430.
  • FIG. 5 is a diagram illustrating a sensory information extraction unit of FIGS. 3 and 4.
  • the sensory information extractor 440 may include a content characteristic recognizer 500, a mapper 510, a storage 520, and parameter extraction. It may include some or all of the portion 530.
  • the inclusion of some or all may be omitted by some components such as the storage unit 520, or may be integrated into other components such as the mapping unit 510, these components may be configured in part or all Means that it may be included in the recording medium to operate in one program form, etc., and all of them are included to aid a sufficient understanding of the present invention.
  • the content characteristic recognizer 500 may determine the content characteristic by analyzing the input content.
  • the content characteristic refers to recognizing the emotional state expressed in the content by analyzing video, audio, and text messages. For example, if a smiley face of the user is detected in the video, the user may be recognized as happy. If a smiley voice is detected in the audio, the user may be recognized as happy. The specific state or context of the text message may be analyzed to recognize the happy state. Therefore, the content according to an embodiment of the present invention can be seen that the visual emotional state in the video and the auditory emotional state in the audio as intrinsic stimulus.
  • the content characteristic recognizer 500 may be called an emotion estimator in that it estimates a factor for stimulating human emotion.
  • mapping unit 510 performs a process of mapping the data stored in the storage unit 520 based on the emotional state recognized by the content characteristic recognition unit 500, that is, the state information and the state control information designated by the user.
  • mapping may be understood as a process of finding a block in which state information and state control information exist in common. Such a block may contain various haptic information described later.
  • the sensory information extracted through the mapping process may be, for example, various information classified according to characteristics of the terminal device, that is, specifications. For example, low- and high-end terminal devices can be considered to have common state control information and state information. Therefore, the mapping unit 510 may be regarded as finding various sensory information for each specification.
  • the parameter extractor 530 may extract haptic parameters corresponding to one piece of sensory information, that is, haptic parameters related to intensity, frequency, wavelength, and rhythm, based on the acquired device characteristics of the receiving terminal device 2 (110). .
  • FIG. 6 is a view for explaining a service process related to the system of FIG.
  • the terminal device 1 100 performs a setting for adjusting an emotional state expressed in content (S600).
  • this setting may be regarded as related to whether the terminal device 2 110 transmits the information to the terminal device 110 or the opposite state as the emotional state expressed in the content.
  • the terminal device 1 extracts the sensory information related to the emotional state expressed in the content based on the set state control information (S610).
  • the extraction of sensory information may be understood to include all the processes described with reference to FIG. 5.
  • the terminal device 1 100 transmits the extracted sensory information to the terminal device 2 110 (S620), and the terminal device 2110 performs a haptic operation based on the received sensory information (S630).
  • the terminal device 110 may analyze the received sensory information and perform a vibration operation as a haptic motion according to the analysis result.
  • FIG. 7 is a diagram illustrating a specific operation of the terminal device 1 shown in FIG. 6.
  • the terminal device 1 100 may execute the service-related Apple by touching an icon displayed on the screen (S700).
  • the user of the terminal device 1 100 may prepare content in which a visual stimulus, an auditory stimulus, or an audio-visual stimulus is embedded, and determine how to express an emotional state (S710). For example, it may be set to show a haptic response to the opponent as opposed to the emotional state expressed in the content.
  • the terminal device 1 performs a process for extracting the sensory information using a tool for extracting the sensory information that is part of the app, or a separate tool (S720). This process may be understood as the process of FIG. 5.
  • the terminal device 1 performs its own haptic operation using the extracted sensory information, more precisely, haptic parameters included in the sensory information, or transmits it to the receiver terminal 2 (110) of FIG.
  • FIG. 8 is a flowchart illustrating a driving process of a terminal device according to an embodiment of the present invention, which may be related to a recording medium.
  • the terminal device 1 100 has a sense related to an emotional state of a user of a terminal device expressed in content or an atmosphere of an object present in the content.
  • the terminal device 1 100 may set sensory information related to the emotional state of the user expressed in the content, and set state control information for adjusting the emotional state to match the sensory information.
  • setting means not only matching and storing in the storage unit but also including the same in one program.
  • the terminal device 1 100 extracts sensory information related to an emotional state or an atmosphere (S810).
  • the terminal device 1 may receive a user command for adjusting the emotional state of the user expressed in the content as the state control information, and extracts sensory information related to the content based on the received user command.
  • the sensory information may be extracted using the state control information corresponding to the user command and the emotional state expressed in the content.
  • the sensory information is meant to include haptic information.
  • the terminal device 1 100 may output sensory information to perform a haptic related operation using the extracted sensory information (S820).
  • FIG. 9 is a flowchart illustrating a driving process of the terminal device 1 of FIG. 1 or the terminal device of FIG. 2.
  • the terminal device 1 100 stores sensory information related to an emotional state of a user expressed in content or an atmosphere of an object present in the content. (S900).
  • the terminal device 1 100 may store state control information for adjusting an emotional state with sensory information.
  • the terminal device 1 100 extracts sensory information related to an emotional state or an atmosphere (S910).
  • the terminal device 1 100 may receive a user command for adjusting the emotional state of the user expressed in the content as the state control information.
  • the terminal device 1 100 may extract sensory information related to the content based on the received user command.
  • the sensory information may be extracted using the state control information corresponding to the user command and the emotional state expressed in the content.
  • the sensory information is meant to include haptic information.
  • the terminal device 1 100 processes the sensory information to perform the haptic related operation on the extracted sensory information (S920). For example, the terminal device 1 100 may transmit sensory information to the receiving terminal device, that is, the terminal device 2 110 of FIG. 1.
  • FIG. 10 is a flowchart illustrating a driving process of the terminal device illustrated in FIG. 2.
  • the terminal device 200 may recognize a surrounding situation by using, for example, a camera provided in the imaging unit, a microphone provided in the voice recognition unit, or the like. S1000).
  • the surrounding situation refers to the surrounding environment or the peripheral device 210. Therefore, recognition refers to photographing an image displayed on a screen of a movie theater, such as a movie theater, acquiring audio together, and recognizing it.
  • the terminal device 200 Prior to this recognition process, if the terminal device 200 needs to input state control information for adjusting the emotional state as a user command as shown in FIG. 9, since the terminal device 200 is related to its own emotional state, the emotional state represented in the content It would be desirable to set it to correspond to.
  • the terminal device 200 extracts sensory information related to the content of the recognized surrounding situation (S1010).
  • the terminal device 200 analyzes the content to detect the emotional state or mood of the object included in the image, and extracts the sensory information associated with the emotional state or mood.
  • sensory information may refer to the haptic information mentioned above, but, for example, when only video content having only visual stimuli is input, corresponding sensory information is extracted, and audio-visual stimuli such as video and audio are extracted.
  • the sensory information may have different types of haptic information included therein and specific parameter values may vary.
  • the terminal device 200 may perform a haptic operation based on the extracted sensory information (S1020).
  • FIG. 11 is a diagram illustrating a driving process of the terminal device 1 of FIG. 1 or the terminal device of FIG. 2 according to another embodiment of the present invention.
  • the terminal device 1 100 For convenience of description, referring to FIG. 11 along with FIG. 1, the terminal device 1 100 according to an embodiment of the present invention generates a set of arousal mapping data (S1110).
  • generating the awakening mapping data set may correspond to storing the aforementioned sensory information and state control information.
  • the terminal device 1 100 may prepare content and perform an emotional state adjustment process for the content (S1110).
  • the terminal device 1 100 may estimate arousal evaluation values related to the emotional state of the content. This process may correspond to the process of determining the emotional state of the content.
  • the terminal device 1 100 determines whether the state control information corresponds to the content or is opposite (S1130). If it is determined that the result corresponds, the mapping operation corresponding to the emotional state is performed (S1140), and if it is the opposite, the mapping operation of the emotional state opposite to the emotional state is performed (S1150). For example, in the case of contradictory, if the arousal increases in the correspondence, it decreases, and if the awakening decreases in the correspondence, the mapping operation is performed.
  • the device characteristic may be additionally determined (S1160).
  • mapping data corresponding to the device characteristic, that is, the haptic parameter is output (S1170).
  • the extracted corresponding mapping data may be transmitted to the receiving terminal device 2 (110), so that the corresponding device may extract the parameter based on its own device information (S1180).
  • the International Affective Picture System is a very well-cited data set that contains 1182 images with associated significance and arousal ratings.
  • IAPS International Affective Picture System
  • the LAPS assessments reported in the literature were then conducted a pilot to confirm that they could be reproduced with the target participants. The assessments obtained were found to be within the standard deviation of one of the assessments reported in the literature, which participants could then use to validate the dataset.
  • tactile data sets There are no standardized tactile data sets available. So, we constructed a tactile data set by sampling the tactile design space with dimensions of intensity, frequency, rhythm, and waveform. Conduct experiments were conducted to confirm that the tactile stimuli selected for the embodiment of the present invention could be cognitively distinguishable. Emotional assessments were then collected from participants for 180 stimuli in this data set. This tactile data set and IAPS subset were used in this experiment.
  • SAM Self-Assessment Manikin
  • An app or authoring tool provides a method for interaction designers to create tactile stimuli, given knowledge of the emotional content of the poetry stimulus.
  • the emotional content of the visual stimulus may be explicitly provided as significance and arousal evaluations or emotion keywords.
  • the emotional content of the visual stimulus may be extracted from the features of the image itself using methods similar to those described in the emotion-based image retrieval literature.
  • Authoring tools based on guidelines generated by behavioral experiments generate a set of parameters for tactile stimulation.
  • the architecture of the authoring tool was discussed with reference to FIG. 5.
  • the system handles two inputs, a stimulus value and a modulation value that tells the interaction designers that they want to modulate the emotion conveyed by the stimulus.
  • This input can be treated as ⁇ Table 3>.
  • Table 3 shows the adjustment input / output values.
  • a significance and arousal estimator such as the content characteristic recognizer 500 of FIG. 5 handles an emotional keyword that carries emotional content of a visual stimulus as an input.
  • 'Keywords' may be low features of visual data such as simple emotional words or facial expressions, color distribution in the scene, contrast, difference values between temporarily adjacent display data, and the like.
  • the given emotional keyword is converted into corresponding significance and arousal ratings.
  • the mapping model uses a tactile mapping database and guidelines generated using behavioral experiments to generate tactile parameters. If an adjustment is specified as "correspondence", it creates tactile parameters corresponding to visual emotion. If specified as a “collision,” it creates tactile parameters that can increase or decrease the significance or arousal of the visual stimulus.
  • mapping section 510 of FIG. 5 infers the closest significance and arousal assessments that can be used to generate the parameters.
  • a parameter estimator such as the parameter extractor 530 of FIG. 5 compares the device characteristics with those of the prototype (or prototype) on which the experiment was performed. The characteristics of the device of interest are the bandwidth and intensity range of the device. It maps the output from the mapping module into the parameter space of the device and outputs the tactile parameters needed to create an emotional stimulus.
  • IADS International Affective Digitized Sounds
  • the International Affective Digitized Sounds (IADS) system is a frequently cited data set that includes 167 different environment sounds with associated significance and arousal ratings.
  • IADS International Affective Digitized Sounds
  • haptic stimuli in an emotional haptic dataset with three groups. selected.
  • Group A included the pairs we obtained by combining Aud-LA stimuli with all three types of haptic group stimuli.
  • Groups B, C, D and E included pairs obtained by combining Aud-NN, Auid-HA, Aud-LV and Aud-HA with each of all three types of haptic group stimuli. All three haptic groups can have two levels, one having low intensity and the other having high intensity.
  • each group has one auditory stimulus paired with a low intensity haptic stimulus (AHL), and another auditory stimulus paired with a high intensity haptic stimulus (AHH).
  • AHL low intensity haptic stimulus
  • AHH high intensity haptic stimulus
  • Each pair group has 36 stimulus pairs.
  • Aud is an auditory stimulus
  • LA is low arousal
  • NN is neutral significance / wake
  • HA is high arousal
  • LV low significance
  • HV high significance.
  • the intensity parameter affects both significance and arousal assessments.
  • the waveform did not affect significance or arousal evaluations.
  • FIG. 12 is an exemplary view for explaining the authoring tool constructed in accordance with the guidelines generated by the auditory tactile experiment.
  • the authoring tool may provide a method for interaction designers to generate haptic stimuli once emotional auditory (or audio) stimulus content is recognized.
  • Emotional auditory stimulus content may be provided explicitly as significance and arousal assessments or emotion keywords.
  • Emotional content can also be extracted from the characteristics of the stimulus itself. Based on the guidelines and models generated by behavioral experiments, the authoring tool can generate a set of parameters for the haptic stimulus.
  • the system as in FIG. 12 may input two pieces of information about the auditory stimulus and whether the interaction designer (or user) wishes to adjust the emotions delivered by the stimulus.
  • the two values that can be input will be described later.
  • the significance and arousal estimator 1200 obtains an emotional keyword that conveys the input emotional auditory content. Using an emotional circular model, the significance and arousal estimator 1200 converts a given emotional keyword into corresponding significance and arousal assessments.
  • the mapping module 1210 uses a model and guidelines generated using behavioral experiments to generate haptic parameters. If the adjustment entered by the user is specified as Correspond, the mapping module 1220 generates haptic parameters corresponding to auditory emotions. If specified as a conflict, it creates a haptic parameter that can increase or decrease the significance or arousal of the auditory stimulus. If a precise mapping for a given significance and arousal assessment is not possible, then the mapping module 1210 can estimate the closest possible significance and arousal assessments to generate the parameter. For the above operation, the mapping module 1210 may interwork with the storage unit 1220.
  • the parameter estimator 1230 compares the device characteristics with those of the prototype device performed in the experiment. Characteristics of the device of interest are device bandwidth and intensity range. Mapping the output from the mapping module 1210 into the device parameter space and outputting the haptic parameters needed to generate the emotional stimulus.
  • the parameter estimator 1230 selects and outputs only haptic parameters that match the input device characteristics. Can be.
  • the authoring tool of FIG. 12 may be stored and operated in the sensory information extracting units 320 and 440 of FIGS. 3 and 4.
  • the content source is auditory stimulus content.
  • the significance and arousal estimator 1200 of FIG. 12 may be the content characteristic recognizer 500 of FIG. 5, the mapping module 1210 may be a mapping unit 510, and the storage unit 1220.
  • the parameter estimator 1230 may be the storage 520 and the parameter extractor 530 of FIG. 5, respectively.
  • an embodiment of the present invention stores various values according to guidelines, that is, parameter values obtained in an experiment with respect to visual stimulus, auditory stimulus and visual-acoustic stimulus, and then inputs the input stimulus. Depending on the type of content, appropriate parameter values may be generated (or extracted) and output as haptic parameters.
  • Embodiments of the present invention relate to emotional computing in a human-computer interface (HCI).
  • Embodiments of the present invention have a commercial potential for controlling user emotional states in wearable devices or mobile devices in the future.
  • the present invention is not necessarily limited to these embodiments.
  • all of the components may be selectively operated in combination with one or more.
  • each or some of the components of the components are selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer-readable non-transitory computer readable media and read and executed by a computer, thereby implementing an embodiment of the present invention.
  • the non-transitory readable recording medium refers to a medium that stores data semi-permanently and can be read by a device, not a medium storing data for a short time such as a register, a cache, or a memory.
  • the above-described programs may be stored and provided in a non-transitory readable recording medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a terminal device, a method for driving a terminal device, and a computer readable recording medium. A terminal device according to an embodiment of the present invention may comprise: a storage unit for storing sensory information associated with an emotional state of a user of the terminal device, expressed in a content or with an atmosphere of an object present in a content; a sensory information extraction unit for extracting the sensory information associated with the emotional state or the atmosphere when the content is input; and a control unit for performing a haptic-related operation using the extracted sensory information.

Description

단말장치, 단말장치의 구동방법 및 컴퓨터 판독가능 기록매체Terminal device, method of driving terminal device and computer readable recording medium
본 발명은 단말장치, 단말장치의 구동방법 및 컴퓨터 판독가능 기록매체에 관한 것으로서, 더 상세하게는 예컨대 스마트폰 또는 웨어러블 장치와 같은 단말장치에서 비디오, 오디오 및 문자(text)와 같은 컨텐츠에 표현되어 있는 사용자의 감정 상태 또는 객체의 분위기를 햅틱(haptic) 가령 진동으로서 표현해 줄 수 있는 단말장치, 단말장치의 구동방법 및 컴퓨터 판독가능 기록매체에 관한 것이다.The present invention relates to a terminal device, a method of driving the terminal device, and a computer-readable recording medium, and more particularly, to a terminal device such as a smartphone or a wearable device, which is represented in content such as video, audio, and text. A terminal device, a method of driving the terminal device, and a computer-readable recording medium, which can express a user's emotional state or an atmosphere of an object as a haptic, for example, vibration.
정서 컴퓨팅 분야에서 최근 연구는 감정적으로 지능적인 컴퓨터를 구축하는 데에 집중되어 왔다. 이러한 연구의 대부분은 기계들이 사용자들의 감정을 인식하는 방식들을 개발하는 데에 집중되어 왔다. 정서 컴퓨팅 분야에서 전형적인 예들은 학습자의 정서 상태 및 자폐증 스펙트럼(autism spectrum)에 있는 개인들이 통신 상대자의 감정 상태를 검출하는 것을 돕는 보조 장치들에 근거해서 컨텐츠 표시를 경고할 수 있는 인지 튜터들(cognitive tutors)을 포함한다. 이러한 시스템들은 사용자의 감정 상태를 인식하고 그에 따라 채택되는 감정 인식 지능(emotional perceptual intelligence)을 갖는 것으로 보여질 수 있다.Recent research in the field of emotional computing has focused on building emotionally intelligent computers. Most of this research has focused on developing ways in which machines perceive users' emotions. Typical examples in the field of emotional computing are cognitive tutors that can warn of the display of content based on assistive devices that help individuals in the learner's emotional state and autism spectrum to detect the emotional state of the communication partner. tutors). Such systems may be seen to have emotional perceptual intelligence that recognizes the user's emotional state and is adapted accordingly.
표현 지능(expressive intelligence)의 존재, 즉 감정적으로 지능적인 피드백을 제공하는 능력은 시스템이 감정적으로 지능적이기에 동등하게 중요하다. 이러한 감성적인 피드백은 가령 시각(visual), 청각(auditory) 또는 촉각과 같은 단일방식(unimodal) 또는 가령 시-촉각(visual-haptic), 청-촉각(auditory-haptic)과 같은 다중방식(multimodal)일 수 있다.The presence of expressive intelligence, the ability to provide emotionally intelligent feedback, is equally important because the system is emotionally intelligent. This emotional feedback can be either monomodal, such as visual, auditory, or tactile, or multimodal, such as visual-haptic, auditory-haptic. Can be.
다중방식 인터페이스의 현재 연구는 주로 다중적인(multiple) 정보가 얼마나 효과적으로 나타날 수 있고, 다른 방식들을 사용해서 동시 다발적으로 끝단 사용자들(end users)에게 전달될 수 있는지에 집중된다. 다중방식 인터페이스는 사용자들에게 감정적으로 지능적인 감성 피드백을 제공하기 위해 역시 사용될 수 있다.Current research on multiple mode interfaces mainly focuses on how effectively multiple information can be presented and delivered to end users simultaneously using different methods. Multimodal interfaces can also be used to provide emotionally intelligent emotional feedback to users.
다중감각 통합 분야에서의 인지 심리학 연구는 다중방식 피드백이 효과적이도록, 모든 방식들에 제공된 큐들이 서로 일치(congruent)해야 하고, 뿐만 아니라 하나의 방식을 통해 제공된 큐들은 다른 방식에 속한 큐들의 효과를 왜곡하거나 무효화할 수 있을 것이다.Cognitive psychology research in the field of multisensory integration requires that the cues provided in all modes be congruent with each other so that multimodal feedback is effective, as well as the cues provided in one mode are effective in the cues belonging to the other. It may be distorted or invalidated.
다중방식 인터페이스에 대한 연구는 현실 세계에서 사람들이 다중방식 양상(fashion)으로 그들의 환경과 상호 작용한다는 사실에 영감을 얻게 되었다. 다중방식 인터페이스는 직관적이고 효율적인 현실 세계와 유사한 상호 작용을 허용할 수 있다. 이러한 인터페이스는 (예를 들어 가상 현실에서) 몰입감을 생성하고, (예를 들어, 모바일 폰에서의 경고들과 같이) 효율적인 집중(attention) 관리를 가능하게 하며, (예를 들어, 데이터의 초음파파쇄(sonification)와 같이) 복합적인 정보를 더 잘 이해하도록 하는 다른 용도들을 위해 탐구되어 왔다.The study of multimodal interfaces was inspired by the fact that in the real world people interact with their environment in a multimodal fashion. Multimodal interfaces can allow for intuitive and efficient real world-like interactions. Such an interface creates immersion (e.g. in virtual reality), enables efficient attention management (e.g., alerts on a mobile phone), and (eg, ultrasonic fracturing of data) It has been explored for other uses, such as sonification, to better understand complex information.
다중방식 인터페이스에 대한 방대한 양의 연구들은 다른 인식 방식들(perceptual modalities)로 정보가 얼마가 효과적으로 부호화될 수 있는지에 집중되어 왔다. 이 분야에서 가장 영향력 있는 이론은 각 방식에 이용할 수 있는 고정된 용량자원(capacity resources)이 있다는 입장을 갖는 MRT(Multiple Resource Theory)이다. 시-청각 및 시-촉각(tactile) 피드백의 메타 분석들에 따르면, 시-청각 피드백은 단일 태스크(task)가 수행될 때 가장 효과적이고, 시-촉각 피드백은 다중 태스킹 환경에서 효과적이라는 것을 보여주고 있다.A vast amount of research on multimodal interfaces has focused on how effectively information can be encoded in different perceptual modalities. The most influential theory in this area is the Multiple Resource Theory (MRT), which has the position that there are fixed capacity resources available for each approach. Meta-analysis of visual and auditory and tactile feedback shows that visual and auditory feedback is most effective when a single task is performed, and that tactile feedback is effective in a multitasking environment. have.
인지 심리학에서의 연구는 인간의 뇌가 다중 입력 채널들로부터 단일화된 응집된 인식 안에서 정보가 어떻게 통합되는지에 대하여 집중적으로 연구되어 왔다. 2개의 방식이 조화되지 않는(incongruent) 입력들을 수신하는 충돌 패러다임은 인간들이 어떻게 정보를 통합하는지 연구하는 데 사용되어 왔다. 시-햅틱, 시-청각 및 청-햅틱 분야들에서의 상호작용은 이러한 패러다임을 사용해 탐구되어 왔다. 이러한 패러다임으로부터 나온 고전적인 결과들 중 일부는 이하에서 논의된다.Research in cognitive psychology has been focused on how information is integrated in the aggregated perception of the human brain unified from multiple input channels. A collision paradigm in which the two approaches receive incongruent inputs has been used to study how humans integrate information. Interactions in the field of vision-haptic, hearing-hearing and hearing-haptic have been explored using this paradigm. Some of the classic results from this paradigm are discussed below.
복화술사(Ventriloquist) 효과에서, 음성 자극의 공간 위치는 동기화된(서로 일치하는) 시각 자극에 의해 영향을 받을 수 있다. 참가자들은 요란한 많은 소리들(flashes of sound bursts)을 들을 수 있었고, 공간적으로 구별된 자원들로부터 나오는 (많은 소리들과 동기화된) 번뜩이는 빛들을 볼 수 있다. 그들은 빛의 섬광들을 무시하는 반면 소리원(sound source)을 향해 있으라고 요청받는다. 결과는 참가자들이 전형적으로 빛 섬광의 위치를 향해 자세를 변경한다는 것을 보여준다.In the Ventriloquist effect, the spatial location of the voice stimulus may be affected by synchronized (corresponding to) visual stimuli. Participants could hear many flashes of sound bursts and see flashing lights (synchronized with many sounds) coming from spatially distinct resources. They are asked to point toward the sound source while ignoring the flashes of light. The results show that participants typically change their attitude towards the position of the light strobe.
고무 손 착각(rubber hand illusion)은 촉각의 인지가 시각적 피드백에 의해 어떻게 영향을 받을 수 있는지에 대한 것이다. 대상자들(subjects)이 고무 손이 휘둘리는 것을 보았을 때, 그들의 보이지 않는 손이 또한 동시에 휘둘리는 동안 그들은 고무 손에서 감각들을 느낀다고 보고하고 있다. 이러한 착각은 인간의 뇌가 시각적인 인식에 근거해 촉각적인 인식을 오인하기 때문에 일어나는 것이다.Rubber hand illusion is about how cognition of touch can be affected by visual feedback. When subjects see rubber hands swung, they report feelings in rubber hands while their invisible hands are also swung at the same time. This illusion occurs because the human brain misunderstands tactile perception based on visual perception.
양피지 피부 착각(parchment skin illusion)은 음성과 촉각 자극 사이의 상호작용의 예이다. 참가자들은 그들의 손바닥을 문지르도록 요청받는다. 이러한 소리는 녹음되고 2 KHz를 넘는 주파수들로 강조해(accentuating) 수정되며, 헤드폰을 통해 대상자들에게 다시 재생시킨다. 참가자들은 강조된 피드백을 들을 때 황산지(parchment paper)와 같이 매우 건조함을 느낀다고 보고하고 있다.Parchment skin illusion is an example of the interaction between voice and tactile stimuli. Participants are asked to rub their palms. This sound is recorded, accentuated and corrected to frequencies above 2 KHz, and played back to the subjects via headphones. Participants report that they feel very dry, like parchment paper, when they hear the stressed feedback.
이러한 결과들은 다중방식 감각 통합이 직접적으로 관련된 과정은 아니라는 것을 입증한다. 이것은 인간들이 최대우도(maximum-likelihood) 통합자들과 같이 행동하는 경향이 있고, 통계적으로 최적의 방식으로 다중감각 방식들(multiple sensory modalities)로부터 얻은 정보를 결합한다는 것을 가정하였다. 참가자들이 다중 방식들로부터 감정 큐들을 통합하도록 부탁받았을 때, 유사한 결과들이 보여진 바 있다.These results demonstrate that multimodal sensory integration is not a directly related process. This assumes that humans tend to behave like maximum-likelihood integrators and combine information from multiple sensory modalities in a statistically optimal way. Similar results were shown when participants were asked to integrate emotion cues from multiple ways.
감정 매거크 효과(emotional McGurk effect)는 인간들이 애정을 인식하기 위하여 얼굴 표정들과 운율 큐들을 어떻게 통합하는지를 입증하고 있다. 참가자들은 다른 감정을 표현하는 운율에서 변화하는 말소리들(speech sounds)과 함께 다중 감정들을 표시하는 정적인 얼굴들을 제공하였다. 감정 확인의 결과 시각적 바이어스(bias)와 음성 바이어스 둘 다 자극의 신뢰성에 달려있다는 것을 보여주고 있다.The emotional McGurk effect demonstrates how humans integrate facial expressions and rhyme cues to recognize affection. Participants provided static faces representing multiple emotions with speech sounds changing from rhymes to express different emotions. The results of the emotional confirmation show that both visual bias and negative bias depend on the reliability of the stimulus.
다중감각 정서 통합(multisensory affect integration)에서의 인지 심리학 연구는 음성-시각 통합, 특히 얼굴 표정과 음성 운율에 대부분 집중해 왔다. 터치는 감정들을 전달하기 위해 매우 강력한 방식이며, 시각 및 햅틱 방식들 또는 음성 및 햅틱 상호작용을 통해 전달된 애정이 얼마나 희박한지에 대한 연구이다.Cognitive psychology research in multisensory affect integration has mostly focused on speech-visual integration, especially facial expressions and voice rhymes. Touch is a very powerful way to convey emotions, and how lean is the affection transmitted through visual and haptic ways or voice and haptic interactions.
그런데, 다중방식을 통해 나타내어진 큐들이 어떻게 정서적으로 상호 작용할지에 대한 연구들은 별로 없다. 이러한 점을 감안하여, 끝단의 사용자들이 원하는 감정 반응(response)을 일관되게 끌어내기 위해, 인터액션 디자이너들이 시 촉각 방식들에서 정서적인 큐들을 결합하는 방법이 요구되고 있다.However, there are few studies on how the cues represented by the multiple methods interact emotionally. With this in mind, there is a need for interaction designers to combine emotional cues in tactile ways in order to consistently elicit the emotional responses desired by end users.
또한 정서적인 다중감각 인터페이스를 설계하기 위하여 이러한 방식들로부터 얻은 큐들이 단일화된 인식으로 얼마나 정서적으로 통합되었는지 대한 지식은 필수이다. 이러한 점에서 시각 및 햅틱 방식들이 얼마나 정서적으로 상호작용하는지를 조사해 이러한 쟁점을 고심할 필요가 있으며, 인터액션 디자이너들이 시각적 정보로 주어진 햅틱 피드백을 생성하기 위해 사용가능한 저작 툴이 요구되고 있다.Also, to design an emotional multisensory interface, knowledge of how emotionally integrated cues from these approaches are integrated into a unified perception is essential. In this regard, it is necessary to examine how emotionally the visual and haptic methods interact, and there is a need for an authoring tool that interaction designers can use to generate haptic feedback given visual information.
본 발명의 실시예는 예컨대 스마트폰 또는 웨어러블 장치와 같은 단말장치에서 비디오, 오디오 및 문자와 같은 컨텐츠에 표현되어 있는 사용자의 감정 상태 또는 객체의 분위기를 햅틱 가령 진동으로서 표현해 줄 수 있는 단말장치, 단말장치의 구동방법 및 컴퓨터 판독가능 기록매체를 제공함에 그 목적이 있다.An embodiment of the present invention is a terminal device capable of expressing a user's emotional state or an atmosphere of an object expressed in content such as video, audio, and text in a terminal device such as a smartphone or a wearable device as a haptic, for example, a vibration. It is an object of the present invention to provide a method of driving a device and a computer-readable recording medium.
본 발명의 실시예에 따른 단말장치는 컨텐츠에 표현되는 상기 단말장치의 사용자에 대한 감정 상태 또는 상기 컨텐츠에 존재하는 객체의 분위기에 관련된 감각(sensory) 정보를 저장하는 저장부, 상기 컨텐츠가 입력될 때, 상기 감정 상태 또는 상기 분위기에 관련된 감각 정보를 추출하는 감각정보 추출부, 및 상기 추출한 감각 정보를 이용하여 햅틱(haptic) 관련 동작을 수행하도록 하는 제어부를 포함한다.The terminal device according to an embodiment of the present invention is a storage unit for storing the sensory information related to the emotional state of the user of the terminal device expressed in the content or the atmosphere of the object present in the content, the content is to be input And a sensory information extractor configured to extract sensory information related to the emotional state or the mood, and a controller configured to perform a haptic related operation using the extracted sensory information.
상기 단말장치는 상기 컨텐츠를 생성하기 위해 주변 상황을 인식하는 주변상황 인식부, 및 상기 햅틱 관련 동작을 수행하는 햅틱 동작부를 더 포함하고, 상기 제어부는, 상기 감각 정보에 근거하여 상기 햅틱 동작부를 제어할 수 있다.The terminal device further includes a surrounding situation recognition unit for recognizing a surrounding situation to generate the content, and a haptic operation unit performing the haptic related operation, and the controller controls the haptic operating unit based on the sensory information. can do.
상기 주변상황 인식부는, 상기 주변 상황을 촬영하는 촬상부 및 상기 주변 상황의 음성을 취득하는 음성 취득부 중 적어도 하나를 포함할 수 있다.The surrounding situation recognition unit may include at least one of an image capturing unit photographing the surrounding situation and a voice obtaining unit obtaining the voice of the surrounding situation.
상기 단말장치는 상기 컨텐츠에 표현되는 사용자의 감정 상태를 조절하기 위한 사용자 명령을 입력받는 사용자 인터페이스부, 및 상기 햅틱 관련 동작을 수행하는 외부장치로 상기 감각 정보를 전송하는 통신 인터페이스부를 더 포함하고, 상기 저장부는, 상기 사용자 명령에 대응하는 상태조절 정보를 상기 감각 정보와 매칭시켜 저장하며, 상기 제어부는, 상기 외부장치로 상기 감각 정보를 전송하기 위해 상기 통신 인터페이스부를 제어할 수 있다.The terminal device further comprises a user interface for receiving a user command for adjusting the emotional state of the user expressed in the content, and a communication interface for transmitting the sensory information to an external device for performing the haptic-related operation, The storage unit may store state control information corresponding to the user command by matching the sensory information, and the controller may control the communication interface to transmit the sensory information to the external device.
상기 사용자 인터페이스부는 상기 감정 상태와 일치하는 감정을 표현하도록 하는 사용자 명령 또는 상기 감정 상태와 상반되는 감정을 표현하도록 하는 사용자 명령을 입력받을 수 있다.The user interface may receive a user command for expressing an emotion that matches the emotional state or a user command for expressing an emotion opposite to the emotional state.
상기 컨텐츠는 비디오 컨텐츠, 오디오 컨텐츠 및 문자 컨텐츠 중 중 적어도 하나를 포함할 수 있다.The content may include at least one of video content, audio content, and text content.
상기 감각정보 추출부는, 상기 감정 상태 또는 상기 분위기를 인식하는 컨텐츠 특성 인식부, 상기 인식한 감정 상태 또는 상기 분위기에 매칭되는 감각 정보를 찾기 위해 맵핑 동작을 수행하는 맵핑부, 및 상기 찾은 감각 정보의 파라미터들을 추출하는 파라미터 추출부를 포함할 수 있다.The sensory information extractor may include a content feature recognizer that recognizes the emotional state or the mood, a mapper that performs a mapping operation to find sensory information matching the recognized emotional state or the mood, and the found sensory information. It may include a parameter extraction unit for extracting the parameters.
상기 파라미터 추출부는 상기 감각 정보의 추출시 상기 감각 정보를 수신하는 외부장치의 특성을 추가로 고려하여 상기 감각 정보를 추출할 수 있다.The parameter extractor may extract the sensory information by further considering characteristics of an external device that receives the sensory information when the sensory information is extracted.
상기 감각 정보는 상기 햅틱 관련 동작을 위한 햅틱 정보를 포함하며, 상기 햅틱 정보는 강도(intensity), 주파수(frequency), 파장(waveform) 및 리듬(rhythm) 중 적어도 하나의 파라미터를 포함할 수 있다.The sensory information may include haptic information for the haptic related operation, and the haptic information may include at least one parameter of intensity, frequency, wavelength, and rhythm.
각각의 상기 파라미터는 복수의 수준(level)을 포함하며, 상기 햅틱 정보는 상기 복수의 수준 중 하나에 해당되는 파라미터를 포함할 수 있다.Each of the parameters may include a plurality of levels, and the haptic information may include a parameter corresponding to one of the plurality of levels.
또한 본 발명의 실시예에 따른 단말장치의 구동방법은, 컨텐츠에 표현되는 상기 단말장치의 사용자에 대한 감정 상태 또는 상기 컨텐츠에 존재하는 객체의 분위기에 관련된 감각 정보를 저장하는 단계, 상기 컨텐츠가 입력될 때, 상기 감정 상태 또는 상기 분위기에 관련된 감각 정보를 추출하는 단계, 및 상기 추출한 감각 정보를 이용하여 햅틱 관련 동작을 수행시키는 단계를 포함한다.In addition, the method of driving a terminal device according to an embodiment of the present invention, storing the sensory information related to the emotional state of the user of the terminal device expressed in the content or the atmosphere of the object present in the content, the content is input And extracting sensory information related to the emotional state or the mood, and performing a haptic related operation using the extracted sensory information.
상기 단말장치의 구동방법은 상기 컨텐츠를 생성하기 위해 주변 상황을 인식하는 단계, 및 상기 햅틱 관련 동작을 수행하는 단계를 더 포함하고, 상기 처리하는 단계는, 상기 감각 정보에 근거하여 상기 햅틱 관련 동작을 제어할 수 있다.The driving method of the terminal device further includes a step of recognizing a surrounding situation and performing the haptic related operation to generate the content, wherein the processing comprises the haptic related operation based on the sensory information. Can be controlled.
상기 주변상황을 인식하는 단계는, 상기 주변 상황을 촬영하는 단계 및 상기 주변 상황의 음성을 취득하는 단계 중 적어도 하나를 포함할 수 있다.The step of recognizing the surrounding situation may include at least one of photographing the surrounding situation and acquiring a voice of the surrounding situation.
상기 단말장치의 구동방법은 상기 컨텐츠에 표현되는 사용자의 감정 상태를 조절하기 위한 사용자 명령을 수신하는 단계, 및 상기 햅틱 관련 동작을 수행하는 외부장치로 상기 감각 정보를 전송하는 단계를 더 포함하고, 상기 저장하는 단계는, 상기 사용자 명령에 대응하는 상태조절 정보를 상기 감각 정보와 매칭시켜 저장하며, 상기 처리하는 단계는, 상기 외부장치로 상기 감각 정보를 전송하도록 제어할 수 있다.The driving method of the terminal device further includes receiving a user command for adjusting the emotional state of the user expressed in the content, and transmitting the sensory information to an external device performing the haptic-related operation, The storing may include storing state control information corresponding to the user command with the sensory information, and the processing may be controlled to transmit the sensory information to the external device.
상기 사용자 명령을 수신하는 단계는, 상기 감정 상태와 일치하는 감정을 표현하도록 하는 사용자 명령 또는 상기 감정 상태와 상반되는 감정을 표현하도록 하는 사용자 명령을 수신할 수 있다.The receiving of the user command may include receiving a user command to express an emotion corresponding to the emotional state or a user command to express an emotion opposite to the emotional state.
상기 컨텐츠는 비디오 컨텐츠, 오디오 컨텐츠 및 문자 컨텐츠 중 중 적어도 하나를 포함할 수 있다.The content may include at least one of video content, audio content, and text content.
상기 감각정보를 추출하는 단계는, 상기 감정 상태 또는 상기 분위기를 인식하는 단계, 상기 인식한 감정 상태 또는 상기 분위기에 매칭되는 감각 정보를 찾기 위해 맵핑 동작을 수행하는 단계, 및 상기 찾은 감각 정보의 파라미터들을 추출하는 단계를 포함하며, 상기 파라미터를 추출하는 단계는, 상기 감각 정보의 추출시 상기 감각 정보를 수신하는 외부장치의 특성을 추가로 고려하여 상기 감각 정보를 추출할 수 있다.The extracting of the sensory information may include: recognizing the emotional state or the mood, performing a mapping operation to find sensory information matching the recognized emotional state or the mood, and parameters of the found sensory information. And extracting the parameter may extract the sensory information by further considering characteristics of an external device that receives the sensory information when the sensory information is extracted.
상기 감각 정보는 상기 햅틱 관련 동작을 위한 햅틱 정보를 포함하며, 상기 햅틱 정보는 강도, 주파수, 파장 및 리듬 중 적어도 하나의 파라미터를 포함할 수 있다.The sensory information may include haptic information for the haptic related operation, and the haptic information may include at least one parameter of intensity, frequency, wavelength, and rhythm.
각각의 상기 파라미터는 복수의 수준을 포함하며, 상기 햅틱 정보는 상기 복수의 수준 중 하나에 해당되는 파라미터를 포함할 수 있다.Each of the parameters may include a plurality of levels, and the haptic information may include a parameter corresponding to one of the plurality of levels.
나아가, 단말장치의 구동방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체 있어서, 상기 단말장치의 구동방법은, 컨텐츠에 표현되는 상기 단말장치의 사용자에 대한 감정 상태 또는 상기 컨텐츠에 존재하는 객체의 분위기에 관련된 감각 정보를 설정하는 단계, 상기 컨텐츠가 입력될 때, 상기 감정 상태 또는 상기 분위기에 관련된 감각 정보를 추출하는 단계, 및 상기 추출한 감각 정보를 이용하여 햅틱(haptic) 관련 동작이 수행되도록 상기 감각 정보를 출력하는 단계를 실행할 수 있다.Furthermore, a computer-readable recording medium including a program for executing a method of driving a terminal device, wherein the method of driving the terminal device includes an emotion state of a user of the terminal device expressed in content or an object present in the content. Setting sensory information related to an atmosphere of the user, extracting sensory information related to the emotional state or the mood when the content is input, and performing a haptic related operation using the extracted sensory information The step of outputting the sensory information may be performed.
--
도 1은 본 발명의 실시예에 따른 감성 서비스 시스템을 나타내는 도면,1 is a diagram showing an emotional service system according to an embodiment of the present invention;
도 2는 본 발명의 다른 실시예에 따른 감성 서비스 시스템을 나타내는 도면,2 is a diagram showing an emotional service system according to another embodiment of the present invention;
도 3은 도 1의 단말장치 1의 세부 구조를 나타내는 블록 다이어그램,3 is a block diagram illustrating a detailed structure of a terminal device 1 of FIG. 1;
도 4는 도 1에 나타낸 단말장치 1 또는 도 2에 나타낸 단말장치의 세부 구조를 나타내는 블록 다이어그램,4 is a block diagram showing a detailed structure of a terminal device 1 shown in FIG. 1 or a terminal device shown in FIG. 2;
도 5는 도 3 및 도 4의 감각정보 추출부를 예시하여 나타낸 도면,5 is a diagram illustrating an example of the sensory information extraction unit of FIGS. 3 and 4;
도 6은 도 1의 시스템에 관련된 서비스 과정을 설명하기 위한 도면,6 is a view for explaining a service process related to the system of FIG.
도 7은 도 6에 나타낸 단말장치 1의 구체적인 동작을 도식화한 도면,7 is a diagram illustrating a specific operation of the terminal device 1 shown in FIG. 6;
도 8은 본 발명의 실시예에 따른 단말장치의 구동과정을 나타내는 흐름도,8 is a flowchart illustrating a driving process of a terminal device according to an embodiment of the present invention;
도 9는 도 1에 도시된 단말장치 1의 구동과정을 나타내는 흐름도,9 is a flowchart illustrating a driving process of the terminal device 1 shown in FIG. 1;
도 10은 도 2에 도시된 단말장치의 구동과정을 나타내는 흐름도,10 is a flowchart illustrating a driving process of the terminal device shown in FIG. 2;
도 11은 본 발명의 또 다른 실시예에 따른 도 1의 단말장치 1 또는 도 2의 단말장치의 구동 과정을 나타내는 도면, 그리고11 is a diagram illustrating a driving process of a terminal device 1 of FIG. 1 or a terminal device of FIG. 2 according to another embodiment of the present invention; and
도 12는 청-촉각 실험에 의해 생성된 가이드 라인에 일치시켜 구축된 저작툴을 설명하기 위한 예시도이다.12 is an exemplary view for explaining the authoring tool constructed in accordance with the guidelines generated by the auditory tactile experiment.
--
이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 감성 서비스 시스템을 나타내는 도면으로서, 컨텐츠를 수신하는 수신측 사용자의 감정을 조절하는 것에 관계된다.1 is a diagram illustrating an emotional service system according to an exemplary embodiment of the present invention, which relates to adjusting an emotion of a receiving user who receives content.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 감성 서비스 시스템(90)은 단말장치 1(100), 단말장치 2(110), 통신망(120) 및 서비스제공장치 (130)를 포함할 수 있다.As shown in FIG. 1, the emotional service system 90 according to an embodiment of the present invention may include a terminal device 1 (100), a terminal device (110), a communication network (120), and a service providing device (130). Can be.
여기서, 단말장치 1(100) 및 단말장치 2(110)는 스마트폰, 노트북, MP3, PDP과 같은 모바일 장치와 갤러시 기어와 같은 웨어러블 장치를 포함한다. 물론 이러한 장치에 특별히 한정하려는 것은 아니며, 시각 및 청각과 같은 다중 감각을 햅틱 동작과 같이 촉각으로 표현해 줄 수 있다면 어떠한 장치이어도 무관하다.Here, the terminal device 1 100 and the terminal device 2 110 include a mobile device such as a smart phone, a notebook computer, an MP3, and a PDP, and a wearable device such as a gearbox. Of course, it is not intended to be particularly limited to such a device, and any device may be used as long as it can express tactile senses such as haptic motion as well as multiple senses such as vision and hearing.
단말장치 1(100)은 가령 발신측 단말로서, 자신의 감정 상태를 잘 표현해 줄 수 있는 비디오, 오디오 또는 문자 컨텐츠를 단말장치 2(110)로 전송할 수 있다. 예를 들어, 단말장치 1(100)은 자신의 기쁜 상태를 표현해 줄 수 있는 촬영 영상을 제공하거나, 이를 대신해 줄 수 있는 다른 비디오 컨텐츠를 선택하여 단말장치 2(110)로 제공할 수 있다. 이의 과정에서 단말장치 1(100)의 사용자는 그 컨텐츠에 표현되는 감정 상태가 단말장치 2(110)로 그대로 전달되도록 할 수 있겠지만, 가령 우울한 또는 좋지 않은 상태를 전달하는 경우에는 단말장치 2(110)의 사용자가 당황하지 않도록 상반되는 상태로 감정 상태가 전달되도록 설정할 수 있다.For example, the terminal device 1 100 may transmit video, audio, or text content to the terminal device 2 110, which may well express its emotional state as a calling terminal. For example, the terminal device 1 (100) may provide a captured image that can express its own happy state, or select and provide other video content that can replace it to the terminal device 2 (110). In this process, the user of the terminal device 1 (100) may allow the emotional state expressed in the content to be delivered to the terminal device 2 (110) as it is, but, for example, when the terminal device 2 (110) transmits a depressed or bad state. ) So that the emotional state may be transmitted in a state in which the user of) does not panic.
다시 말해, 단말장치 2(110)는 단말장치 1(100)로부터 컨텐츠를 수신하고 수신한 컨텐츠를 표현하기 전에, 진동과 같은 햅틱 동작을 수행할 수 있다. 따라서 이러한 햅틱 동작이 우울한 또는 좋지 않은 상태를 표현해 준다면 단말장치 2(110)의 사용자는 매우 긴장할 수 있다. 이러한 점에서, 단말장치 1(100)의 사용자는 특정 컨텐츠와 상반되는 감정 상태가 햅틱 동작으로 표현되도록 지정할 수 있다.In other words, the terminal device 2 110 may perform a haptic operation such as vibration before receiving the content from the terminal device 1 100 and expressing the received content. Therefore, if the haptic motion expresses a depressed or bad state, the user of the terminal device 2 110 may be very nervous. In this regard, the user of the terminal device 1 (100) may specify that an emotional state opposite to the specific content is expressed by the haptic motion.
또한 단말 장치 1(100)은 사용자가 작성한 컨텐츠, 물론 이를 대신할 수 있는 컨텐츠이어도 무관하지만, 컨텐츠에 표현되는 감정 상태와 그 감정 상태를 조절해서 표현할 수 있도록 하는 사용자 명령을 사용자로부터 수신한다. 그리고, 컨텐츠로부터 감정 상태를 인식하고, 인식한 감정 상태와 사용자 명령에 근거한 감정 상태를 조절하기 위한 상태조절 정보를 기초로 햅틱 동작을 위한 감각 정보, 즉 파라미터들을 추출한다. 그리고 추출한 감각 정보의 파라미터들을 햅틱 동작을 수행하는 단말장치 2(110)로 전송할 수 있다.In addition, the terminal device 1 (100) may be a content created by the user, and of course, a content that can replace the same, but receives a user command to control and express the emotional state expressed in the content and the emotional state. Then, the emotional state is recognized from the content, and the sensory information for the haptic operation, that is, the parameters are extracted based on the state control information for adjusting the emotional state based on the recognized emotional state and the user command. The extracted parameter information may be transmitted to the terminal device 2 110 that performs the haptic operation.
이러한 기능을 수행하기 위하여 단말장치 1(100)은 내부에 감각 정보를 처리하기 위한 프로그램, 가령 애플리케이션(이하, 앱)을 저장하고 이를 실행시킬 수 있다. 예를 들어, 단말장치 1(100)의 사용자는 화면에 표시된 아이콘을 터치하여 해당 앱을 실행시키고 이를 통해 자신의 감정 상태를 표현하기 위한 컨텐츠와, 컨텐츠에 표현된 감정 상태를 조절하기 위한 사용자 명령을 입력할 수 있을 것이다. 가령, 컨텐츠는 동일한 감정 상태를 나타낸다 하더라도, 상태조절 정보에 관계된 사용자 명령에 따라, 다른 감각 정보가 단말장치 2(110)로 전달된다고 볼 수 있다.In order to perform this function, the terminal device 1 100 may store a program for processing sensory information, for example, an application (hereinafter, referred to as an app), and execute the same. For example, a user of the terminal device 1 (100) touches an icon displayed on a screen to execute a corresponding app, and through this, a content for expressing his or her emotional state and a user command for adjusting the emotional state expressed in the content. You will be able to enter For example, even if the content indicates the same emotional state, it may be regarded that other sensory information is transmitted to the terminal device 2 110 according to a user command related to the state control information.
그런데, 이러한 감각 정보는 단말장치 2(110)의 특성 정보, 가령 사양에 따라 서로 다를 수 있다. 예를 들어, 동일한 컨텐츠와 동일한 상태조절 정보를 갖는다 하더라도 출력되는 감각 정보의 파라미터들을 다소 차이가 있을 수 있는데, 이는 수신측 단말장치 2(110)의 사양을 고려해야 하기 때문이다. 이를 위해 단말장치 1(110)은 감각 정보를 추출하는 과정에서, 내부에 미리 저장하고 이를 이용할 수 있지만, 서비스제공장치(130)로 수신측 단말장치 2(110)의 특성 정보, 가령 사양에 대한 정보를 요청하여 이를 이용할 수 있을 것이다. 또는 추출된 모든 파라미터들을 단말장치 2(110)로 전송하고, 단말장치 2(110)에서 자신에 해당된 파라미터를 추출하여 이용하도록 할 수 있다. 이는 단말장치들의 자신의 특성에 대한 장치 정보를 내부에 포함하고 있기 때문에 가능할 수 있다고 볼 수 있다.However, the sensory information may be different from each other depending on the characteristic information of the terminal device 110, for example, the specification. For example, even if they have the same content and the same state control information, the parameters of the sensory information output may be somewhat different, since the specification of the receiving terminal device 2 (110) should be considered. To this end, in the process of extracting the sensory information, the terminal device 1 (110) can be stored in advance and used therein, but the service providing device (130) for the characteristic information of the receiving terminal device (110), for example, for the specification. You can request and use the information. Alternatively, all extracted parameters may be transmitted to the terminal device 2 110, and the terminal device 2 110 may extract and use the parameter corresponding to the terminal device 110. This may be possible because the device information about the characteristics of the terminal devices are included therein.
단말장치 2(110)는 단말장치 1(100)과 크게 다르지 않다. 다만, 수신측 단말이라는 점에서 차이가 있다. 단말장치 2(110)는 발신측 단말인 단말장치 1(100)에서 제공한 감각 정보에 따라 햅틱 동작을 수행할 수 있다. 예를 들어, 진동 방식으로 이러한 햅틱 동작이 이루어질 수 있다. 그리고, 단말장치 2(110)의 사용자가 수신된 컨텐츠를 확인하고자 할 때, 해당 컨텐츠를 실행시킬 수 있다. 예를 들어, 동영상인 경우 해당 동영상을 화면에 보여줄 것이고, 음성 파일인 경우 해당 음성 파일을 실행시켜 스피커와 같은 음성 출력부로 출력할 수 있다. 또한 문자 메시지인 경우, 해당 문자 메시지를 화면에 보여 줄 수 있다.The terminal device 2 110 is not significantly different from the terminal device 1 100. However, there is a difference in that it is a receiving terminal. The terminal device 2 110 may perform a haptic operation according to the sensory information provided by the terminal device 1 100, which is a calling terminal. For example, this haptic action can be made in a vibrating manner. When the user of the terminal device 2 110 wants to check the received content, the corresponding content may be executed. For example, in the case of a video, the corresponding video will be displayed on the screen, and in the case of a voice file, the corresponding video file may be executed and output to a voice output unit such as a speaker. Also, in the case of a text message, the text message can be displayed on the screen.
또한 단말장치 2(110)는 수신된 파라미터들을 분석할 수 있고 분석 결과에 따라 햅틱 동작을 수행할 수 있을 것이다. 뿐만 아니라, 단말장치 1(100)에서 자신의 특성에 맞는 파라미터들을 선택하여 제공하지 못한 경우, 많은 파라미터들 중에서 자신에 해당되는 파라미터를 추출하는 동작을 추가로 수행할 수도 있을 것이다.In addition, the terminal device 2 110 may analyze the received parameters and perform a haptic operation according to the analysis result. In addition, when the terminal device 1 (100) fails to select and provide parameters suitable for its characteristics, it may be additionally performed to extract a parameter corresponding to itself from among many parameters.
통신망(120)은 유무선 통신망을 모두 포함한다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(120)은 이에 한정되는 것이 아니며, 향후 구현될 차세대 이동통신 시스템의 접속망으로서 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망 등에 사용될 수 있다. 가령, 통신망(120)이 유선 통신망인 경우 통신망(120) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다. The communication network 120 includes both wired and wireless communication networks. Here, the wired network includes an internet network such as a cable network or a public telephone network (PSTN), and the wireless communication network includes a CDMA, WCDMA, GSM, Evolved Packet Core (EPC), Long Term Evolution (LTE), WiBro network, and the like. to be. Of course, the communication network 120 according to an embodiment of the present invention is not limited thereto, and may be used as, for example, a cloud computing network under a cloud computing environment as an access network of a next generation mobile communication system to be implemented. For example, when the communication network 120 is a wired communication network, an access point in the communication network 120 may access an exchange or the like of a telephone company, but in the case of a wireless communication network, data may be connected to an SGSN or a gateway GPRS support node (GGSN) operated by a communication company. Or, it can be connected to various repeaters such as BTS (Base Station Transmission), NodeB, e-NodeB and process data.
통신망(120)은 액세스포인트를 포함할 수 있다. 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 여기서, 펨토 또는 피코 기지국은 소형 기지국의 분류상 단말장치 1(100) 및 단말장치 2(110)를 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 단말장치 1(100) 및 단말장치 2(110)와 지그비 및 와이파이(Wi-Fi) 등의 근거리 통신을 수행하기 위한 근거리 통신 모듈을 포함한다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선(IrDA), UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 단말장치 1(100) 및 단말장치 2(110)로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함될 수 있다.The communication network 120 may include an access point. Access points include small base stations, such as femto or pico base stations, which are frequently installed in buildings. Here, the femto or pico base station is classified according to the maximum number of terminal devices 1 (100) and the terminal device 2 (110) can be connected according to the classification of the small base station. Of course, the access point includes a short-range communication module for performing short-range communication such as Zigbee and Wi-Fi with the terminal 1 (100) and the terminal 2 (110). The access point may use TCP / IP or Real-Time Streaming Protocol (RTSP) for wireless communication. Here, the short-range communication may be performed in various standards such as Bluetooth, Zigbee, Infrared (IrDA), Ultra High Frequency (UHF) and Very High Frequency (VHF) and Ultra Wideband Communication (UWB). Can be. Accordingly, the access point extracts the location of the data packet, specifies the best communication path for the extracted location, and transmits the data packet along the designated communication path to the next device, such as the terminal device 1 (100) and the terminal device 2 (110). Can be delivered to. An access point may share several circuits in a general network environment, and may include, for example, a router, a repeater, and a repeater.
서비스제공장치(130)는 본 발명의 실시예에 따른 감성 서비스를 제공하기 위한 앱을 저장하고, 사용자의 요청시 저장한 앱을 제공할 수 있다. 또한 서비스제공장치(130)는 단말장치 1(100)의 요청시 수신측 단말장치 2(110)의 장치 특성 정보를 제공할 수 있다. 나아가, 서비스제공장치(130)는 클라우드 장치의 개념으로서, 단말 장치 1(100)에서 실행되는 앱에 관련된 모든 정보를 처리하기 위한 프로그램, 즉 툴(tool)을 저장하고, 이를 실행시킬 수도 있다. 예를 들어, 단말 장치 1(110)에서는 컨텐츠와 그 컨텐츠에 표현된 감성 상태를 조절하기 위한 사용자 명령을 수신할 수 있다. 그러면, 서비스제공장치(130)는 이를 근거로 감각 정보를 추출하여 단말장치 2(110)로 제공해 줄 수 있다.The service providing apparatus 130 may store an app for providing an emotional service according to an embodiment of the present invention, and provide an app stored at the user's request. In addition, the service providing device 130 may provide device characteristic information of the receiving terminal device 2 (110) at the request of the terminal device 1 (100). Furthermore, the service providing apparatus 130 may store and execute a program, ie, a tool, for processing all information related to an app executed in the terminal device 1 (100) as a concept of a cloud device. For example, the terminal device 1 110 may receive a user command for adjusting content and an emotional state expressed in the content. Then, the service providing device 130 may extract the sensory information based on this, and provide the sensor information to the terminal device 2 (110).
한편, 서비스제공장치(130)는 서드파티에 오픈 API(Application Program Interface)를 제공할 수 있다. 다시 말해, 서비스제공장치(130)는 서드파티의 플랫폼으로서 동작할 수 있다. 이에 따라 서비스제공장치(130)는 서드파티에서 제공하는 다양한 형태의 애플을 저장할 수 있을 것이다. 이러한 애플은 단말장치 1(100) 및 단말장치 2(110)와 호환되는 장치들에 관련된 것일 수 있고, 나아가 기존의 서비스나 컨텐츠에 연동하는 애플이 될 수 있을 것이다.On the other hand, the service providing device 130 may provide an open API (Application Program Interface) to the third party. In other words, the service providing apparatus 130 may operate as a third party platform. Accordingly, the service providing device 130 may store various types of Apple provided by a third party. Such an apple may be related to devices compatible with the terminal device 1 (100) and the terminal device 2 (110), and may also be an apple that interworks with an existing service or content.
도 2는 본 발명의 다른 실시예에 따른 감성 서비스 시스템을 나타내는 도면으로서, 스탠드얼론(standalone) 상태로 동작하는 것에 관계된다.2 is a diagram illustrating an emotional service system according to another embodiment of the present invention, which relates to operating in a standalone state.
도 2에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 감성 서비스 시스템(90')은 단말장치(200) 및 주변장치(210)의 일부 또는 전부를 포함할 수 있다.As shown in FIG. 2, the emotional service system 90 ′ according to another embodiment of the present invention may include some or all of the terminal device 200 and the peripheral device 210.
여기서, 일부 또는 전부는 주변장치(210)가 생략되어 구성될 수 있는 것을 의미하는 것으로서, 가령 단말장치(200)가 주변장치(210)의 상태가 아니라 주변 환경의 상태를 감지하는 것도 가능하지만, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, some or all means that the peripheral device 210 may be omitted and configured, for example, the terminal device 200 may detect the state of the surrounding environment, not the state of the peripheral device 210. In order to fully understand the invention, it will be described as including all.
단말장치(200)는 도 1에서 설명한 단말장치 1(100)과 크게 다르지 않다. 다만, 도 2의 단말장치(200)는 도 1의 단말장치 1(100)과 같이 자신을 촬영하거나 자신의 감성 상태를 대신 표현해 줄 수 있는 비디오, 오디오 컨텐츠 등을 이용하는 것이 아니라, 가령 주변장치(210)로서 영화관의 스크린에 표현되는 영상을 촬영하여 촬영한 영상에 표현되는 감정 상태, 더 정확하게는 객체의 분위기가 될 수 있는데, 여하한 직접 햅틱 동작으로 표현하는 것이다. 물론 도 1의 단말장치 1(100)도 도 2의 단말장치(200)와 같이 주변 상황 또는 주변장치(210)의 상황에 관련된 컨텐츠를 이용하는 것도 얼마든지 가능할 수 있을 것이다.The terminal device 200 is not significantly different from the terminal device 1 100 described with reference to FIG. 1. However, the terminal device 200 of FIG. 2 does not use video, audio content, etc. that can photograph itself or express its emotional state like the terminal device 1 (100) of FIG. As shown in FIG. 210, an image of an image displayed on a screen of a movie theater may be an emotional state expressed in the captured image, more precisely, an atmosphere of an object, which is expressed by any direct haptic motion. Of course, the terminal device 1 100 of FIG. 1 may also use contents related to the surrounding situation or the situation of the peripheral device 210 as in the terminal device 200 of FIG. 2.
다만, 도 1의 단말장치 1(100)은 컨텐츠를 수신하는 수신측 단말장치 2(110)로 전송해 주어 자신의 감정 상태를 표현하려는 것이고, 도 2의 단말장치(200)는 주변 상황을 자신이 햅틱 동작으로 느껴볼 수 있다는 점에서 차이가 있다.However, the terminal device 1 100 of FIG. 1 is intended to express its emotional state by transmitting the content to the receiving terminal device 2 110 that receives the content, and the terminal device 200 of FIG. The difference is that you can feel this haptic motion.
도 3은 도 1의 단말장치 1 및 도 2의 단말장치의 세부 구조를 예시하여 나타낸 블록다이어그램이다.3 is a block diagram illustrating a detailed structure of the terminal device 1 and the terminal device of FIG.
설명의 편의상 도 3을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 단말장치 1(100)은 제어부(300), 저장부(310) 및 감각정보 추출부(320)의 일부 또는 전부를 포함하며, 사용자 인터페이스부를 더 포함할 수 있다.For convenience of description, referring to FIG. 3 together with FIG. 1, the terminal device 1 100 according to an exemplary embodiment of the present invention may partially or entirely include the control unit 300, the storage unit 310, and the sensory information extraction unit 320. It may further include a user interface unit.
여기서, 일부 또는 전부를 포함한다는 것은 사용자 인터페이스부나 저장부(310)와 같은 일부 구성요소가 생략되어 구성되거나, 저장부(310)와 같은 일부 구성요소가 감각정보 추출부(320)와 통합 구성되는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전보 포함하는 것으로 설명한다.Here, the inclusion of some or all includes some components such as the user interface unit or the storage unit 310 being omitted, or some components such as the storage unit 310 are integrated with the sensory information extracting unit 320. It means that things, etc., and to include a telegram in order to help a full understanding of the invention.
도 1의 상황을 감안해 볼 때, 사용자 인터페이스부는 버튼 입력부 및 디스플레이부를 포함하며, 이를 통해 본 발명의 실시예에 따른 다중감각 피드백을 위한 감성 서비스의 실행을 요청할 수 있다. 예를 들어, 버튼 입력부를 통해 관련 프로그램을 실행시키거나, 디스플레이부의 화면에 표시된 아이콘을 터치하여 관련 프로그램을 실행시킬 수 있다.In consideration of the situation of FIG. 1, the user interface includes a button input unit and a display unit, through which a request for execution of an emotional service for multisensory feedback according to an embodiment of the present invention may be requested. For example, the associated program may be executed through the button input unit, or the associated program may be executed by touching an icon displayed on the screen of the display unit.
또한 사용자 인터페이스부는 임의의 컨텐츠, 가령 사용자가 제작한 또는 저장부(310)에 기저장되거나 외부로부터 제공받은 비디오 컨텐츠나 음성 컨텐츠, 문자 컨텐츠에 대하여 자신의 감정 상태를 어떠한 형태로 조절하여 단말장치 2(110)의 사용자에게 전달할지에 대한 사용자 명령을 지정할 수 있다. 예를 들어, 사용자 명령은 컨텐츠에 표현된 감정 상태에 상응하는 사용자 명령일 수 있고, 상반되는 감정 상태를 전달하도록 하는 사용자 명령일 수 있다. 다시 말해, 컨텐츠는 좋지 않은 상태를 나타내는 것이라 하더라도 햅틱 동작은 이와 상반되는 기쁜 상태를 나타내도록 하는 사용자 명령을 입력할 수 있다.In addition, the user interface unit adjusts its emotional state to any content, for example, video content, voice content, or text content that is pre-stored in the storage unit 310 or provided by the user, in some form. User commands as to whether to deliver to the user at 110 can be specified. For example, the user command may be a user command corresponding to an emotional state expressed in the content, or may be a user command for transmitting an opposite emotional state. In other words, even though the content may indicate a bad state, the haptic gesture may input a user command to indicate an opposite state of joy.
제어부(300)는 단말장치 1(100) 내의 사용자 인터페이스부, 저장부(310), 감각정보 추출부(320)의 전반적인 동작을 제어할 수 있다. 예를 들어, 사용자 인터페이스를 통해 임의의 컨텐츠에 대한 사용자 명령이 입력되는 경우, 해당 컨텐츠와 입력된 사용자 명령, 즉 감정 상태를 조절하기 위한 상태조절 정보에 관계된 사용자 명령을 감각정보 추출부(320)로 제공할 수 있다.The controller 300 may control overall operations of the user interface unit, the storage unit 310, and the sensory information extraction unit 320 in the terminal device 1 (100). For example, when a user command for arbitrary content is input through the user interface, the sensory information extracting unit 320 receives a user command related to the corresponding content and the inputted user command, that is, state control information for adjusting an emotional state. Can be provided as
또한 제어부(300)는 감각정보 추출부(320)에서 요청하는 정보를 저장부(310)를 제어하여 제공할 수 있다. 예를 들어, 저장부(310)에 컨텐츠의 다양한 감정 상태를 표현하는 감각 정보(또는 상태 정보)와, 그에 매칭되는 상태조절 정보가 저장되어 있는 경우, 감각 정보와 상태조절 정보에 맵핑되는 감각 정보를 감각정보 추출부(320)에 제공해 줄 수 있다. 이의 과정에서, 제어부(300)는 단말장치 2(110)의 장치 특성 정보를 추가로 고려하여 감각 정보를 출력하여 감각정보 추출부(320)에 제공할 수 있을 것이다.In addition, the controller 300 may provide the information requested by the sensory information extractor 320 by controlling the storage 310. For example, when sensory information (or state information) representing various emotional states of the content and state control information matched thereto are stored in the storage unit 310, the sensory information mapped to the sensory information and state control information is stored. May be provided to the sensory information extraction unit 320. In this process, the controller 300 may further output sensory information in consideration of device characteristic information of the terminal device 2 110 and provide the sensory information to the sensory information extracting unit 320.
한편, 제어부(300)는 영상 처리부를 포함할 수 있다. 다시 말해, 제어부(300)는 영상 처리부를 통해 일반적인 데이터 및 정보의 송수신뿐만 아니라, 가령 감각정보 추출부(320)를 통해 추출된 감각 정보를 단말장치 2(110)로 전송하는 것에 관여할 수 있고, 이의 과정에서 인코딩 및 디코딩과 같은 데이터 변환 과정에 관여하는 등 다양한 동작을 추가로 수행할 수 있을 것이다.The controller 300 may include an image processor. In other words, the controller 300 may be involved in not only transmitting and receiving general data and information through the image processor, but also transmitting sensory information extracted through the sensory information extractor 320 to the terminal device 2 110. In this case, various operations may be additionally performed, such as being involved in data conversion processes such as encoding and decoding.
저장부(310)는 제어부(300)가 처리하는 다양한 정보를 저장할 수 있다. 또한 저장부(310)는 컨텐츠에 표현될 수 있는 다양한 감정 상태를 표현하는 감각 정보와 그에 매칭되는 상태조절 정보를 저장할 수 있다. 여기서, 감각 정보는 컨텐츠에 표현된 '기쁘다', '슬프다'와 같은 직접적인 감성 상태를 의미하는 시각, 촉각, 청각에 관련된 정보를 의미한다. 또한 감각 정보는 '기쁘다'라는 상태를 촉각으로 표현할 때, 가령 진동의 주파수, 리듬, 강도, 파형 등에 다양한 수준(level)을 결정한 햅틱 정보를 포함하는 의미일 수 있다. 이러한 햅틱 정보는 감각 정보의 파라미터가 될 수 있을 것이다.The storage unit 310 may store various information processed by the controller 300. In addition, the storage unit 310 may store sensory information representing various emotional states that can be expressed in content and state control information corresponding thereto. Here, the sensory information refers to information related to sight, touch, and hearing, which means a direct emotional state such as 'happy' and 'sad' expressed in the content. Also, the sensory information may mean haptic information including various levels of vibration, frequency, rhythm, intensity, waveform, and the like, when the haptic state is expressed in the tactile sense. Such haptic information may be a parameter of sensory information.
이러한 햅틱 정보를 포함하는 감각 정보는 실질적으로 감각정보 추출부(320) 내에 설정되어 처리되는 것이 바람직할 수 있다. 또는 감각정보 추출부(320)에 직접 연동하는 별도의 저장부를 통해 상기의 동작이 이루어질 수 있으므로 본 발명의 실시예에서의 위의 내용에 특별히 한정하지는 않을 것이다.It may be preferable that the sensory information including the haptic information is substantially set and processed in the sensory information extractor 320. Alternatively, the above operation may be performed through a separate storage unit directly interworking with the sensory information extracting unit 320, and thus the present invention will not be limited to the above description in the embodiment of the present invention.
감각정보 추출부(320)는 사용자가 사용자 인터페이스부를 통해 지정한 상태조절 정보 및 컨텐츠에 표현된 감정 상태에 근거하여 감각정보를 추출할 수 있다. 이를 위하여, 감각정보 추출부(320)는 제어부(300)와 협업하여 저장부(310)에 저장된 데이터를 이용하거나, 직접적으로 저장부(310)에 접속하여 감각 정보를 추출하는 과정을 수행할 수 있다.The sensory information extracting unit 320 may extract sensory information based on the state control information designated by the user through the user interface unit and the emotional state expressed in the content. To this end, the sensory information extracting unit 320 may perform a process of extracting sensory information by using the data stored in the storage 310 in cooperation with the controller 300 or by directly accessing the storage 310. have.
이를 위하여 감각정보 추출부(320)는 감각 정보를 추출하는 동작을 수행하기 위한 프로그램을 내부에 저장하고, 사용자의 요청이 있을 때 이를 실행시킬 수 있을 것이다.To this end, the sensory information extracting unit 320 may store a program for performing an operation of extracting sensory information therein, and execute the program when the user requests it.
도 4는 도 1에 나타낸 단말장치 1 또는 도 2에 나타낸 단말장치의 다른 세부 구조를 예시하여 나타낸 블록 다이어그램이다.4 is a block diagram illustrating another detailed structure of the terminal device 1 shown in FIG. 1 or the terminal device shown in FIG. 2.
설명의 편의상 도 4를 도 2와 함께 참조하면, 본 발명의 실시예에 따른 단말장치(200)는 통신 인터페이스부(400), 사용자 인터페이스부(410), 상황 인식부(420), 제어부(430), 감각정보 추출부(440), 햅틱 동작부(450) 및 저장부(460)의 일부 또는 전부를 포함할 수 있으며, 여기서 일부 또는 전부를 포함한다는 것은 앞서와 동일하다.For convenience of description, referring to FIG. 4 together with FIG. 2, the terminal device 200 according to an embodiment of the present invention includes a communication interface 400, a user interface 410, a context recognizer 420, and a controller 430. ), The sensory information extraction unit 440, the haptic operation unit 450, and the storage unit 460 may include some or all of the above, in which part or all is the same as described above.
통신 인터페이스부(400)는 도 1과 관련해 볼 때, 사용자의 요청에 따라 앱을 다운로드하는 것에 관여할 수 있고, 감각정보 추출부(440)의 동작에 따라 추출된 감각 정보를 외부 장치로 전송하는 등 다양한 정보를 송수신하기 위해 사용된다. 이와 관련해서는 앞서 충분히 설명하였으므로 더 이상의 설명은 생략한다.Referring to FIG. 1, the communication interface 400 may be involved in downloading an app according to a user's request, and transmit the sensory information extracted according to the operation of the sensory information extractor 440 to an external device. It is used to send and receive various information. In this regard, since it has been described above sufficiently, further description thereof will be omitted.
사용자 인터페이스부(410)는 도 3에서의 사용자 인터페이스부와 크게 다르지 않으므로 그 내용들로 대신하고자 한다. 다만, 사용자 인터페이스부(410)는 도 2의 경우, 상황 인식부(420)를 실행시키기 위한 별도의 사용자 명령을 입력할 수 있다.The user interface unit 410 is not significantly different from the user interface unit in FIG. 3 and will be replaced by the contents thereof. However, in the case of FIG. 2, the user interface unit 410 may input a separate user command for executing the situation recognition unit 420.
상황 인식부(420)는 대표적으로 영상 촬영을 위한 촬상부, 음성 인식을 위한 음성 취득부 등을 포함할 수 있다. 예를 들어, 단말장치(200)의 사용자가 영화관의 스크린에 표시되는 영상 컨텐츠를 촬영한 경우, 또는 해당 영상과 함께 제공되는 오디오를 수신하는 경우, 이를 인식하고 인식한 데이터는 제어부(430)의 제어 하에 저장부(460)에 저장될 수 있다.The context recognizer 420 may typically include an image capture unit for capturing an image, a voice acquirer for voice recognition, and the like. For example, when a user of the terminal device 200 captures image content displayed on a screen of a movie theater or receives audio provided with the corresponding image, the recognized data is recognized by the controller 430. It may be stored in the storage unit 460 under control.
제어부(430)는 단말장치(200) 내의 통신 인터페이스부(400), 사용자 인터페이스부(410), 상황 인식부(420), 제어부(430), 감각정보 추출부(440), 햅틱 동작부(450) 및 저장부(460)의 전반적인 동작을 제어한다. 예를 들어, 도 2와 관련해 볼 때, 상황 인식부(420)를 통해 촬영된 영상과 오디오 컨텐츠를 저장부(460)에 저장시킨다. 그리고, 제어부(430)는 사용자 인터페이스부(410)에서 사용자가 설정한 상태조절 정보에 관련된 사용자 명령과, 저장부(460)에 저장된 컨텐츠를 이용하여 감각정보를 추출하도록 감각정보 추출부(440)를 동작시킨다. 다시 말해, 사용자가 저장부(460)에 저장된, 즉 현재 촬영되는 컨텐츠에 대하여 햅틱 동작이 이루어지도록 기설정한 경우, 촬영되는 영상을 감각정보 추출부(440)로 제공할 수 있다. 그리고 제공된 촬영 영상으로부터 추출된 감각 정보를 이용하여 햅틱 동작부(450)를 제어할 수 있다.The control unit 430 may include a communication interface unit 400, a user interface unit 410, a situation recognition unit 420, a control unit 430, a sensory information extractor 440, and a haptic operation unit 450 in the terminal device 200. And controls the overall operation of the storage unit 460. For example, referring to FIG. 2, the storage unit 460 stores the image and audio content captured by the situation recognition unit 420. In addition, the controller 430 may extract the sensory information using the user command related to the state control information set by the user in the user interface 410 and the content stored in the storage 460. To operate. In other words, when the user presets the haptic operation to be performed on the content that is currently stored in the storage unit 460, the captured image may be provided to the sensory information extractor 440. The haptic operator 450 may be controlled using the sensory information extracted from the provided captured image.
이러한 점에서, 제어부(430)는 추출된 감각 정보를 판단하기 위한 판단부를 포함할 수 있을 것이다. 다시 말해, 감각 정보는 리듬, 주파수, 파형과 같은 파라미터들을 포함하고, 각각의 파라미터들에 대한 수준을 나타내는 다양한 햅틱 정보를 포함할 수 있기 때문에, 제어부(430)는 햅틱 동작부(450)를 동작시키기 위해 감각 정보 즉 햅틱 정보를 분석하기 위한 과정이 이루어질 수 있다.In this regard, the controller 430 may include a determination unit for determining the extracted sensory information. In other words, since the sensory information may include parameters such as rhythm, frequency, and waveform, and may include various haptic information indicating levels for respective parameters, the controller 430 operates the haptic operator 450. A process for analyzing sensory information, that is, haptic information, may be performed.
감각정보 추출부(440) 및 저장부(460)와 관련해서는 앞서 도 3을 참조하여 충분히 설명하였으므로 더 이상의 설명은 생략하도록 한다.The sensory information extraction unit 440 and the storage unit 460 have been described above with reference to FIG. 3, and thus, further description thereof will be omitted.
햅틱 동작부(450)는 가령 진동 모터를 포함할 수 있다. 따라서, 제어부(430)의 제어에 따라, 주변 상황의 상태를 단말장치(200)의 사용자에게 감각, 즉 촉각으로 표현해 줄 수 있게 된다. 햅틱 동작부(450)는 제어부(430)의 제어에 따라 리듬, 주파수, 파형과 같은 다양한 햅틱 정보를 반영하도록 동작할 수 있을 것이다.The haptic operator 450 may include, for example, a vibration motor. Therefore, under the control of the controller 430, the state of the surrounding situation can be expressed to the user of the terminal device 200 in a sense, that is, a tactile sense. The haptic operator 450 may operate to reflect various haptic information such as rhythm, frequency, and waveform under the control of the controller 430.
도 5는 도 3 및 도 4의 감각정보 추출부를 예시하여 나타낸 도면이다.5 is a diagram illustrating a sensory information extraction unit of FIGS. 3 and 4.
설명의 편의상 도 5를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 감각정보 추출부(440)는 컨텐츠 특성 인식부(500), 맵핑부(510), 저장부(520) 및 파라미터 추출부(530)의 일부 또는 전부를 포함할 수 있다.For convenience of description, referring to FIG. 5 together with FIG. 1, the sensory information extractor 440 according to an embodiment of the present invention may include a content characteristic recognizer 500, a mapper 510, a storage 520, and parameter extraction. It may include some or all of the portion 530.
여기서, 일부 또는 전부를 포함한다는 것은 저장부(520)와 같은 일부 구성 요소가 생략되어 구성되거나, 맵핑부(510)와 같은 다른 구성요소에 통합되어 구성될 수 있으며, 이러한 구성 요소들은 일부 또는 전부가 기록매체 내에 포함되어 하나의 프로그램 형태로 동작할 수도 있을 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, the inclusion of some or all may be omitted by some components such as the storage unit 520, or may be integrated into other components such as the mapping unit 510, these components may be configured in part or all Means that it may be included in the recording medium to operate in one program form, etc., and all of them are included to aid a sufficient understanding of the present invention.
컨텐츠 특성 인식부(500)는 입력된 컨텐츠를 분석하여 컨텐츠 특성을 판단할 수 있다. 여기서, 컨텐츠 특성이란 비디오, 오디오 및 문자 메시지 등을 분석하여 컨텐츠에 표현된 감정 상태를 인식하는 것을 의미한다. 예를 들어, 비디오 내에 사용자의 웃는 얼굴이 검출되면 기쁜 상태로 인식하고, 오디오 내에 웃는 목소리가 검출되면 기쁜 상태로 인식하며, 문자 메시지의 특정 단어나 문맥을 분석하여 기쁜 상태를 인식할 수 있다. 따라서, 본 발명의 실시예에 따른 컨텐츠는 비디오 내에 시각적인 감정 상태와 오디오 내에 청각적인 감정 상태가 자극요인으로서 내재한다고 볼 수 있다. 컨텐츠 특성 인식부(500)는 인간의 감성을 자극하기 위한 인자(factor)를 추정한다는 점에서 감성 추정부라 명명될 수 있을 것이다.The content characteristic recognizer 500 may determine the content characteristic by analyzing the input content. Here, the content characteristic refers to recognizing the emotional state expressed in the content by analyzing video, audio, and text messages. For example, if a smiley face of the user is detected in the video, the user may be recognized as happy. If a smiley voice is detected in the audio, the user may be recognized as happy. The specific state or context of the text message may be analyzed to recognize the happy state. Therefore, the content according to an embodiment of the present invention can be seen that the visual emotional state in the video and the auditory emotional state in the audio as intrinsic stimulus. The content characteristic recognizer 500 may be called an emotion estimator in that it estimates a factor for stimulating human emotion.
또한 맵핑부(510)는 컨텐츠 특성 인식부(500)에서 인식된 감정 상태 즉 상태정보와 사용자가 지정한 상태조절 정보를 근거로 저장부(520)에 저장된 데이터에 맵핑하는 과정을 수행한다. 여기서 맵핑이라는 것은 상태정보와 상태조절 정보가 공통되게 존재하는 블록을 찾는 과정으로 이해해도 좋다. 이러한 블록은 이후에 기술하는 다양한 햅틱 정보를 포함할 수 있을 것이다. 맵핑 과정을 통해 추출된 감각 정보는 예를 들어, 단말장치의 특성, 즉 사양에 따라 구분되는 다양한 정보가 될 수 있을 것이다. 가령 저사양과 고사양의 단말장치는 공통된 상태조절 정보와 상태 정보를 갖는다고 볼 수 있다. 따라서, 맵핑부(510)는 사양별로 다양한 감각 정보를 찾는다고 볼 수 있다.In addition, the mapping unit 510 performs a process of mapping the data stored in the storage unit 520 based on the emotional state recognized by the content characteristic recognition unit 500, that is, the state information and the state control information designated by the user. Here, mapping may be understood as a process of finding a block in which state information and state control information exist in common. Such a block may contain various haptic information described later. The sensory information extracted through the mapping process may be, for example, various information classified according to characteristics of the terminal device, that is, specifications. For example, low- and high-end terminal devices can be considered to have common state control information and state information. Therefore, the mapping unit 510 may be regarded as finding various sensory information for each specification.
이어 파라미터 추출부(530)는 취득한 수신측 단말장치 2(110)의 장치 특성을 근거로 하여 하나의 감각 정보에 해당되는 햅틱 정보 즉 강도, 주파수, 파장, 리듬 등에 관련된 햅틱 파라미터들을 추출할 수 있다.Subsequently, the parameter extractor 530 may extract haptic parameters corresponding to one piece of sensory information, that is, haptic parameters related to intensity, frequency, wavelength, and rhythm, based on the acquired device characteristics of the receiving terminal device 2 (110). .
도 6은 도 1의 시스템에 관련된 서비스 과정을 설명하기 위한 도면이다.6 is a view for explaining a service process related to the system of FIG.
도 6을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 단말장치 1(100)은 컨텐츠에 표현되는 감정 상태를 조절하기 위한 설정을 수행한다(S600). 다시 말해, 이러한 설정은 컨텐츠에 표현된 감정 상태와 동일하게 단말장치 2(110)로 전달할지, 아니면 상반되게 전달할지에 관련된다고 볼 수 있다.Referring to FIG. 6 together with FIG. 1, the terminal device 1 100 according to an exemplary embodiment of the present invention performs a setting for adjusting an emotional state expressed in content (S600). In other words, this setting may be regarded as related to whether the terminal device 2 110 transmits the information to the terminal device 110 or the opposite state as the emotional state expressed in the content.
또한 단말장치 1(100)은 설정한 상태조절 정보에 근거해 컨텐츠에 표현된 감정 상태와 관련된 감각 정보를 추출한다(S610). 여기서, 감각 정보를 추출한다는 것은 도 5에서 설명한 과정들을 모두 포함하는 것으로 이해해도 좋다.In addition, the terminal device 1 (100) extracts the sensory information related to the emotional state expressed in the content based on the set state control information (S610). Here, the extraction of sensory information may be understood to include all the processes described with reference to FIG. 5.
이어 단말장치 1(100)은 추출한 감각 정보를 단말장치 2(110)로 전송하며(S620), 단말장치 2(110)는 수신한 감각 정보에 근거해 햅틱 동작을 수행한다(S630). 예를 들어, 단말장치 2(110)는 수신한 감각 정보를 분석하여 분석 결과에 따라 햅틱 동작으로서 진동 동작을 수행할 수 있다.Subsequently, the terminal device 1 100 transmits the extracted sensory information to the terminal device 2 110 (S620), and the terminal device 2110 performs a haptic operation based on the received sensory information (S630). For example, the terminal device 110 may analyze the received sensory information and perform a vibration operation as a haptic motion according to the analysis result.
도 7은 도 6에 나타낸 단말장치 1의 구체적인 동작을 도식화한 도면이다.FIG. 7 is a diagram illustrating a specific operation of the terminal device 1 shown in FIG. 6.
도 7에 도시된 바와 같이, 단말장치 1(100)은 화면에 표시된 아이콘을 터치하여 서비스 관련 애플을 실행시킬 수 있다(S700).As illustrated in FIG. 7, the terminal device 1 100 may execute the service-related Apple by touching an icon displayed on the screen (S700).
이어 단말장치 1(100)의 사용자는 시각 자극, 청각자극 또는 시-청각 자극이 내재되어 있는 컨텐츠를 준비하고, 감정 상태를 어떻게 표현할지 결정할 수 있다(S710). 가령 상대에게 컨텐츠에 표현된 감정 상태와 상반되게 햅틱 반응을 보이도록 설정할 수 있다.Subsequently, the user of the terminal device 1 100 may prepare content in which a visual stimulus, an auditory stimulus, or an audio-visual stimulus is embedded, and determine how to express an emotional state (S710). For example, it may be set to show a haptic response to the opponent as opposed to the emotional state expressed in the content.
이러한 과정이 끝나면, 단말장치 1(100)은 앱의 일부인 감각 정보 추출을 위한 툴, 또는 별도의 툴을 이용하여 감각 정보를 추출하는 과정을 수행한다(S720). 이러한 과정은 도 5의 과정으로 이해해도 좋을 것이다.After this process, the terminal device 1 (100) performs a process for extracting the sensory information using a tool for extracting the sensory information that is part of the app, or a separate tool (S720). This process may be understood as the process of FIG. 5.
이후 단말장치 1(100)은 추출한 감각 정보, 더 정확하게는 감각 정보에 포함되는 햅틱 파라미터들을 이용하여 자신이 햅틱 동작을 수행하거나, 도 1의 수신측 단말장치 2(110)로 전송해 주게 된다.Thereafter, the terminal device 1 (100) performs its own haptic operation using the extracted sensory information, more precisely, haptic parameters included in the sensory information, or transmits it to the receiver terminal 2 (110) of FIG.
도 8은 본 발명의 실시예에 따른 단말장치의 구동과정을 나타내는 흐름도로서, 기록매체에 관련될 수 있다.8 is a flowchart illustrating a driving process of a terminal device according to an embodiment of the present invention, which may be related to a recording medium.
설명의 편의상 도 8을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 단말장치 1(100)은 컨텐츠에 표현되는 단말장치의 사용자에 대한 감정 상태 또는 컨텐츠에 존재하는 객체의 분위기에 관련된 감각 정보를 설정한다(S800).For convenience of description, referring to FIG. 8 together with FIG. 1, the terminal device 1 100 according to an exemplary embodiment of the present invention has a sense related to an emotional state of a user of a terminal device expressed in content or an atmosphere of an object present in the content. Set the information (S800).
예를 들어, 단말장치 1(100)은 컨텐츠에 표현되는 사용자의 감정 상태와 관련된 감각 정보를 설정하고, 감정 상태를 조절하기 위한 상태조절 정보를 감각 정보와 매칭시켜 설정할 수 있다. 여기서, 설정한다는 것은 저장부 내에 매칭시켜 저장하는 것은 물론, 하나의 프로그램 내에 포함시키는 것을 의미한다.For example, the terminal device 1 100 may set sensory information related to the emotional state of the user expressed in the content, and set state control information for adjusting the emotional state to match the sensory information. In this case, setting means not only matching and storing in the storage unit but also including the same in one program.
이어 단말장치 1(100)은 컨텐츠가 입력될 때, 감정 상태 또는 분위기에 관련된 감각 정보를 추출한다(S810).Subsequently, when the content is input, the terminal device 1 100 extracts sensory information related to an emotional state or an atmosphere (S810).
이와 과정에서, 단말장치 1(100)은 상태조절 정보로서 컨텐츠에 표현되는 사용자의 감정 상태를 조절하기 위한 사용자 명령을 수신할 수 있고, 수신한 사용자 명령에 근거하여 컨텐츠에 관계된 감각 정보를 추출할 수 있다. 다시 말해, 사용자 명령에 해당되는 상태조절 정보와 컨텐츠에 표현된 감정상태를 이용하여 감각 정보를 추출한다고 볼 수 있다. 여기서, 감각 정보는 햅틱 정보를 포함하는 의미이다.In this process, the terminal device 1 (100) may receive a user command for adjusting the emotional state of the user expressed in the content as the state control information, and extracts sensory information related to the content based on the received user command. Can be. In other words, the sensory information may be extracted using the state control information corresponding to the user command and the emotional state expressed in the content. Here, the sensory information is meant to include haptic information.
나아가 단말장치 1(100)은 추출한 감각 정보를 이용하여 햅틱 관련 동작을 수행하도록 감각 정보를 출력할 수 있다(S820).Furthermore, the terminal device 1 100 may output sensory information to perform a haptic related operation using the extracted sensory information (S820).
도 9는 도 1의 단말장치 1 또는 도 2의 단말장치의 구동과정을 나타내는 흐름도이다.9 is a flowchart illustrating a driving process of the terminal device 1 of FIG. 1 or the terminal device of FIG. 2.
설명의 편의상 도 9를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 단말장치 1(100)은 컨텐츠에 표현되는 사용자의 감정 상태 또는 컨텐츠에 존재하는 객체의 분위기에 관련된 감각 정보를 저장한다(S900).For convenience of description, referring to FIG. 9 together with FIG. 1, the terminal device 1 100 according to an embodiment of the present invention stores sensory information related to an emotional state of a user expressed in content or an atmosphere of an object present in the content. (S900).
예컨대, 도 1의 경우, 단말장치 1(100)은 감정 상태를 조절하기 위한 상태조절 정보를 감각 정보와 매칭시켜 저장할 수 있다.For example, in the case of FIG. 1, the terminal device 1 100 may store state control information for adjusting an emotional state with sensory information.
이어 단말장치 1(100)은 컨텐츠가 입력될 때, 감정 상태 또는 분위기에 관련된 감각 정보를 추출한다(S910).Subsequently, when the content is input, the terminal device 1 100 extracts sensory information related to an emotional state or an atmosphere (S910).
이의 과정에서 단말장치 1(100)은 상태조절 정보로서 컨텐츠에 표현되는 사용자의 감정 상태를 조절하기 위한 사용자 명령을 수신할 수 있다.In this process, the terminal device 1 100 may receive a user command for adjusting the emotional state of the user expressed in the content as the state control information.
이에 따라 단말장치 1(100)은 수신한 사용자 명령에 근거하여 컨텐츠에 관계된 감각 정보를 추출할 수 있을 것이다. 다시 말해, 사용자 명령에 해당되는 상태조절 정보와 컨텐츠에 표현된 감정상태를 이용하여 감각 정보를 추출한다고 볼 수 있다. 여기서, 감각 정보는 햅틱 정보를 포함하는 의미이다.Accordingly, the terminal device 1 100 may extract sensory information related to the content based on the received user command. In other words, the sensory information may be extracted using the state control information corresponding to the user command and the emotional state expressed in the content. Here, the sensory information is meant to include haptic information.
나아가 단말장치 1(100)은 추출한 감각 정보를 햅틱 관련 동작을 수행하도록 감각 정보를 처리한다(S920). 가령 단말장치 1(100)은 수신측 단말장치, 즉 도 1에서의 단말장치 2(110)로 감각 정보를 전송해 줄 수 있을 것이다.Further, the terminal device 1 100 processes the sensory information to perform the haptic related operation on the extracted sensory information (S920). For example, the terminal device 1 100 may transmit sensory information to the receiving terminal device, that is, the terminal device 2 110 of FIG. 1.
도 10은 도 2에 도시된 단말장치의 구동과정을 나타내는 흐름도이다.10 is a flowchart illustrating a driving process of the terminal device illustrated in FIG. 2.
도 10을 도 2와 함께 참조하면, 본 발명의 실시예에 따른 단말장치(200)는 가령 촬상부에 구비되는 카메라나 음성 인식부에 구비되는 마이크로폰 등을 이용하여 주변 상황을 인식할 수 있다(S1000). 여기서, 주변 상황은 주변 환경이나 주변 장치(210)를 의미한다. 따라서, 인식이란 주변 상황, 가령 영화관의 스크린에 표시되는 영상을 촬영하고 오디오도 함께 취득하여 이를 인식하는 것을 나타낸다.Referring to FIG. 10 along with FIG. 2, the terminal device 200 according to an exemplary embodiment of the present invention may recognize a surrounding situation by using, for example, a camera provided in the imaging unit, a microphone provided in the voice recognition unit, or the like. S1000). Here, the surrounding situation refers to the surrounding environment or the peripheral device 210. Therefore, recognition refers to photographing an image displayed on a screen of a movie theater, such as a movie theater, acquiring audio together, and recognizing it.
이러한 인식 과정에 앞서, 만약 단말장치(200)가 도 9에서와 같이 감정 상태를 조절하기 위한 상태조절 정보를 사용자 명령으로서 입력해야 하는 경우에는 자신의 감정 상태와 관련되는 것이므로 컨텐츠에 표현된 감정 상태에 상응하도록 설정하는 것이 바람직할 것이다.Prior to this recognition process, if the terminal device 200 needs to input state control information for adjusting the emotional state as a user command as shown in FIG. 9, since the terminal device 200 is related to its own emotional state, the emotional state represented in the content It would be desirable to set it to correspond to.
이어 단말장치(200)는 인식한 주변 상황의 컨텐츠에 관계된 감각 정보를 추출한다(S1010). 다시 말해, 단말장치(200)는 컨텐츠를 분석하여 영상 내에 포함된 객체의 감정 상태 또는 분위기를 검출하고, 그리고 그 감정 상태 또는 분위기에 연계된 감각 정보를 추출한다. 예를 들어, 이러한 감각 정보는 앞서 언급한 햅틱 정보를 의미할 수 있지만, 가령 시각 자극만 있는 비디오 컨텐츠만 입력되는 경우, 이에 상응하는 감각 정보를 추출하고, 또 비디오 및 오디오와 같이 시-청각 자극이 동시에 있는 컨텐츠의 경우에는 이에 상응하는 감각 정보를 추출하는 것으로 이해될 수도 있을 것이다. 실질적으로 이러한 감각 정보는 내부에 포함된 햅틱 정보의 종류가 다를 수 있고, 구체적인 파라미터 값이 다를 수 있다.Subsequently, the terminal device 200 extracts sensory information related to the content of the recognized surrounding situation (S1010). In other words, the terminal device 200 analyzes the content to detect the emotional state or mood of the object included in the image, and extracts the sensory information associated with the emotional state or mood. For example, such sensory information may refer to the haptic information mentioned above, but, for example, when only video content having only visual stimuli is input, corresponding sensory information is extracted, and audio-visual stimuli such as video and audio are extracted. In the case of the content at the same time it may be understood to extract the corresponding sensory information. In practice, the sensory information may have different types of haptic information included therein and specific parameter values may vary.
또한 단말장치(200)는 추출한 감각 정보에 근거하여 햅틱 동작을 수행할 수 있다(S1020).In addition, the terminal device 200 may perform a haptic operation based on the extracted sensory information (S1020).
도 11은 본 발명의 또 다른 실시예에 따른 도 1의 단말장치 1 또는 도 2의 단말장치의 구동 과정을 나타내는 도면이다.11 is a diagram illustrating a driving process of the terminal device 1 of FIG. 1 or the terminal device of FIG. 2 according to another embodiment of the present invention.
설명의 편의상 도 11을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 단말장치 1(100)은 각성(valence, arousal) 맵핑 데이터 집합을 생성한다(S1110). 여기서, 각성 맵핑 데이터 집합을 생성한다는 것은 앞서 언급한 감각 정보와 상태조절 정보를 매칭시켜 저장하는 것에 해당될 수 있다.For convenience of description, referring to FIG. 11 along with FIG. 1, the terminal device 1 100 according to an embodiment of the present invention generates a set of arousal mapping data (S1110). Here, generating the awakening mapping data set may correspond to storing the aforementioned sensory information and state control information.
이어 단말장치 1(100)은 컨텐츠를 준비하고, 컨텐츠에 대한 감정상태 조절 과정을 수행할 수 있다(S1110).Subsequently, the terminal device 1 100 may prepare content and perform an emotional state adjustment process for the content (S1110).
그리고, 단말장치 1(100)은 컨텐츠의 감정 상태와 관련된 각성 평가치들을 추정할 수 있다(S1120). 이의 과정은 컨텐츠의 감정 상태를 판단하는 과정에 해당될 수 있다.In operation S1120, the terminal device 1 100 may estimate arousal evaluation values related to the emotional state of the content. This process may correspond to the process of determining the emotional state of the content.
이어 단말장치 1(100)은 상태조절 정보가 컨텐츠에 상응하는 것인지 아니면, 상반되는 것인지 판단한다(S1130). 판단 결과 상응이면 감정 상태에 상응하는 맵핑 동작을 수행하고(S1140), 상반이면 감정 상태와 정 반대되는 감정 상태의 맵핑 동작을 수행한다(S1150). 예를 들어, 상반되는 경우, 상응에서 각성이 증가한 경우라면 감소하는 것으로, 또 상응에서 각성이 감소하는 경우라면 증가하는 것과 맵핑 동작을 수행한다고 볼 수 있다.Subsequently, the terminal device 1 100 determines whether the state control information corresponds to the content or is opposite (S1130). If it is determined that the result corresponds, the mapping operation corresponding to the emotional state is performed (S1140), and if it is the opposite, the mapping operation of the emotional state opposite to the emotional state is performed (S1150). For example, in the case of contradictory, if the arousal increases in the correspondence, it decreases, and if the awakening decreases in the correspondence, the mapping operation is performed.
이와 같은 맵핑 동작에 따라 맵핑 데이터가 출력되면, 장치 특성을 추가로 판단할 수 있다(S1160).When the mapping data is output according to the mapping operation as described above, the device characteristic may be additionally determined (S1160).
판단 결과, 장치 특성에 대한 정보를 갖는 경우에는 해당 장치 특성에 매칭되는 맵핑 데이터, 즉 햅틱 파라미터를 출력하게 된다(S1170).As a result of the determination, when the information on the device characteristic is included, mapping data corresponding to the device characteristic, that is, the haptic parameter is output (S1170).
반면, 장치 특성이 없는 경우에는, 추출된 해당 맵핑 데이터들을 수신측 단말장치 2(110)로 전송해 주어, 해당 장치에서 자신의 장치 정보를 근거로 파라미터를 추출하도록 할 수 있다(S1180).On the other hand, if there is no device characteristic, the extracted corresponding mapping data may be transmitted to the receiving terminal device 2 (110), so that the corresponding device may extract the parameter based on its own device information (S1180).
계속해서 본 발명의 실시예와 관련한 시-촉각(Visual Haptic) 상호 작용의 행위 실험들을 살펴보도록 한다.Continuing, we will look at behavioral experiments of visual haptic interactions in connection with embodiments of the present invention.
우리는 정서적인 시 촉각 자극들 사이에 상호작용을 조사하는 행위 실험을 수행했다. 본 과정에서 첫째 단계는 시 촉각 데이터 집합을 끌어내는 감정을 확인하는 것이었다. IAPS(International Affective Picture System)는 연계된 유의성(valence) 및 각성 평가(arousal ratings)를 갖는 1182 개의 이미지들을 포함하는 아주 잘 인용되곤 하는 데이터 집합이다. 우리는 원 데이터 집합 중 모든 카테고리(객체, 사람, 장면 및 동물들) 및 감정 평가들을 포함하는 IAPS로부터 120 개의 이미지들 중 대표 샘플을 선택했다. 그런 후 문헌에 보고된 LAPS 평가들은 표적 참가자들로 재생산될 수 있다는 것을 확인하기 위한 시범운용 프로그램(pilot)을 수행했다. 취득한 평가들이 문헌에 보고된 평가들 중 하나의 표준 편차 내에 있다는 것을 발견하였고, 그런 다음 참가자들이 사용해서 데이터 집합의 유효성을 확인할 수 있었다.We conducted behavioral experiments to investigate the interactions between emotional tactile stimuli. The first step in this process was to identify the emotions that led to the tactile data set. The International Affective Picture System (IAPS) is a very well-cited data set that contains 1182 images with associated significance and arousal ratings. We chose a representative sample of 120 images from the IAPS that included all categories (objects, people, scenes and animals) and emotional evaluations of the original data set. The LAPS assessments reported in the literature were then conducted a pilot to confirm that they could be reproduced with the target participants. The assessments obtained were found to be within the standard deviation of one of the assessments reported in the literature, which participants could then use to validate the dataset.
사용할 수 있는 표준화된 촉각 데이터 집합들은 없다. 그래서, 우리는 강도, 주파수, 리듬 및 파형의 차원들과 함께 촉각 설계 공간을 표본화해서 촉각 데이터 집합을 구성했다. 본 발명의 실시예를 위해 선택된 촉각 자극이 인식적으로 구별될 수 있는 것을 확인하려는 행위 실험을 수행했다. 그때 이러한 데이터 집합에서 180 개의 자극들을 위해 참가자들로부터 감정 평가들을 수집했다. 이러한 촉각 데이터 집합 및 IAPS 부분 집합이 이러한 실험에서 사용되었다.There are no standardized tactile data sets available. So, we constructed a tactile data set by sampling the tactile design space with dimensions of intensity, frequency, rhythm, and waveform. Conduct experiments were conducted to confirm that the tactile stimuli selected for the embodiment of the present invention could be cognitively distinguishable. Emotional assessments were then collected from participants for 180 stimuli in this data set. This tactile data set and IAPS subset were used in this experiment.
우리는 시 촉각 상호작용을 연구하기 위해 2개의 행위 실험들을 수행했다. 첫 번째 실험은 40 쌍의 시 촉각 자극으로 수행되었고 2 종류의 조건이 평가되었다. 상응하는 조건들에서, 시 촉각 자극들은 유사한 정서적인 정보를 전달했다. 상충(또는 상반)하는 조건들에서, 시 촉각 자극들은 다른 정서적인 정보를 전달했다. 이는 아래의 <표 1>에서와 같다.We performed two behavioral experiments to study tactile interactions. The first experiment was performed with 40 pairs of tactile stimuli and two types of conditions were evaluated. Under the corresponding conditions, visual tactile stimuli delivered similar emotional information. In conflicting (or opposing) conditions, tactile stimuli conveyed other emotional information. This is shown in Table 1 below.
표 1
Figure PCTKR2015009896-appb-T000001
Table 1
Figure PCTKR2015009896-appb-T000001
우리는 이러한 평가들을 얻기 위하여 2차원의 정서 순환 모델(circumplex mode)을 사용했다. 이러한 모델에서 정서적인 경험들은 유의성(자극이 얼마나 유쾌하거나 불쾌한지)과 각성((자극이 얼마나 흥분시키거나 진정시키는지)에 의해 설명된 2차원 공간에서 특징지어졌다.We used a two-dimensional emotional circulation model to obtain these estimates. Emotional experiences in this model were characterized in two-dimensional spaces, described by significance (how pleasant or unpleasant stimuli) and arousal (how excited or calmed by stimuli).
19 명의 참가자들이 이 실험에 참여했다. 참가자들은 시각적으로만, 촉각적으로만, 그리고 시-촉각적 자극으로 나타내어졌다. 그들은 SAM(Self-Assessment Manikin) 등급(scale)에서 이러한 자극을 평가하도록 부탁받았다. SAM 등급은 유의성 및 각성 평가들을 얻기 위해 특별히 설계된 리커트 척도(Likert scale)이다. 자극의 표시는 참가자들에 걸쳐 무작위로 그리고 대칭 균형(counter-balanced)이 있었다.19 participants participated in this experiment. Participants were represented visually, tactilely, and visually tactilely. They were asked to evaluate these stimuli on a Self-Assessment Manikin (SAM) scale. The SAM grade is a Likert scale designed specifically for obtaining significance and arousal assessments. Indications of stimulation were randomly and counter-balanced across participants.
이러한 행위 실험으로부터 발견할 수 있었던 사항은 유의성 평가들이 시 자극에 의해 지배적이라는 것이었고, 촉각 자극은 시 자극의 각성을 증가시키는 경향이 있다는 것이었다.What we found from these behavioral experiments was that significance assessments were dominated by poetry stimuli, and tactile stimuli tended to increase the arousal of poetry stimuli.
이어, 저 레벨(혹은 수준) 파라미터들을 위한 시 촉각 상호작용을 살펴보도록 한다.Next, let's look at the tactile interaction for low level (or level) parameters.
이전 실험들로부터 얻은 결과들은 우리가 유의성 및 각성 평가들의 조건에서 시 촉각 자극 사이의 상호작용을 이해하는 데 도움을 준다. 그렇지만, 시 자극에 대한 정보가 주어진 촉각 자극을 생성할 수 있기 위하여, 우리는 촉각 자극의 저 레벨 특징들의 조건에서 이러한 상호작용을 이해하는 것이 필요하다. 그래서 우리는 다음의 실험을 수행하였다.The results from previous experiments help us to understand the interaction between tactile stimuli in the conditions of significance and arousal evaluations. However, in order for information about the visual stimulus to be able to produce a given tactile stimulus, we need to understand this interaction under conditions of low level features of the tactile stimulus. So we performed the following experiment.
우리는 촉각 데이터 집합에서 108 개의 촉각 자극을 선택하였다. 이러한 자극은 강도에 근거해 2개의 그룹(HapA, HapB)으로 구분되었다. 우리는 또한 54 개의 이미지들의 IAPS 데이터 집합으로부터 얻은 자극의 3개 그룹을 또한 선택했는데 각 그룹은 VisA, VisB, VisC이다. 이러한 그룹들은 유의성 평가가 중립을 가지는 동안 저, 중간, 고 각성 평가들로 선택되었다. 참가자들은 다음의 도식(schema)에 따라 시각, 촉각 및 시 촉각 자극을 나타내었다. 이는 <표 2>와 같다. <표 2>는 시각-햅틱 결합을 나타낸다.We selected 108 tactile stimuli from the tactile data set. These stimuli were divided into two groups (HapA and HapB) based on intensity. We also selected three groups of stimuli from the IAPS dataset of 54 images, each of which was VisA, VisB, and VisC. These groups were selected for low, medium and high arousal ratings while the significance rating was neutral. Participants presented visual, tactile and visual tactile stimuli according to the following scheme. This is shown in Table 2. Table 2 shows the visual-haptic coupling.
표 2
Figure PCTKR2015009896-appb-T000002
TABLE 2
Figure PCTKR2015009896-appb-T000002
24 명의 참가자들은 이번 연구에 참가하였다. 참가자들은 시각적으로만, 촉각적으로만, 시 촉각 자극을 갖는 것으로 나타내어졌다. 그들은 SAM 등급에서 이러한 자극을 평가하도록 부탁받았다. 참가자들에 의해 제공된 평가들에 근거하여, 시 촉각 맵핑 데이터 집합이 생성되었다. 이러한 데이터 집합은 시각 자극의 정서적인 컨텐츠가 주어진 촉각 파라미터들을 위한 맵핑을 제공한다.24 participants participated in this study. Participants were shown to have visual tactile stimuli only visually, tactilely. They were asked to evaluate these stimuli at the SAM grade. Based on the assessments provided by the participants, a tactile mapping data set was generated. This data set provides a mapping for tactile parameters given the emotional content of the visual stimulus.
본 발명의 실시예에 따른 앱 또는 저작 툴(authoring tool)은 시 자극의 정서적인 컨텐츠에 대한 지식을 감안하면, 촉각 자극을 생성하기 위해 인터액션 디자이너들을 위한 방법을 제공한다. 시 자극의 정서적인 컨텐츠는 유의성 및 각성 평가들 또는 감정 키워드로서 명백하게 제공될 수 있다. 대안으로서, 시 자극의 정서적인 컨텐츠는 감성 기반 이미지 검색 문헌에서 기술된 것들과 유사한 방식들을 사용해서 이미지 그 자체의 특징들로부터 추출될 수 있다. 행위 실험에 의해 생성된 가이드라인에 근거한 저작 툴은 촉각 자극을 위한 일련의 파라미터들을 생성한다.An app or authoring tool according to an embodiment of the present invention provides a method for interaction designers to create tactile stimuli, given knowledge of the emotional content of the poetry stimulus. The emotional content of the visual stimulus may be explicitly provided as significance and arousal evaluations or emotion keywords. Alternatively, the emotional content of the visual stimulus may be extracted from the features of the image itself using methods similar to those described in the emotion-based image retrieval literature. Authoring tools based on guidelines generated by behavioral experiments generate a set of parameters for tactile stimulation.
저작 툴의 아키텍쳐는 도 5를 통해 살펴보았다. 그 시스템은 2개의 입력, 시 자극과 인터액션 디자이너들이 시 자극에 의해 전달된 감정을 조절하길 원하는지 말해주는 조절 값(modulation value)을 취급한다. 이러한 입력이 <표 3>으로서 취급될 수 있는 2개의 가능한 값들이 있다. <표 3>은 조절 입/출력 값들을 나타낸다.The architecture of the authoring tool was discussed with reference to FIG. 5. The system handles two inputs, a stimulus value and a modulation value that tells the interaction designers that they want to modulate the emotion conveyed by the stimulus. There are two possible values that this input can be treated as <Table 3>. Table 3 shows the adjustment input / output values.
표 3
Figure PCTKR2015009896-appb-T000003
TABLE 3
Figure PCTKR2015009896-appb-T000003
가령 도 5의 컨텐츠 특성 인식부(500)와 같은 유의성 및 각성 추정기(estimator)는 입력으로서 시 자극의 정서적인 컨텐츠를 운반하는 감정 키워드를 취급한다. '키워드'는 간단한 감성어들 또는 얼굴 표정, 장면에서의 컬러 분포, 콘트라스트, 임시적으로 인접한 표시 데이터 사이의 차이 값 등과 같은 시각적 데이터의 낮은(low) 특징들일 수 있다. 정서의 순환 모델을 사용해서, 주어진 감성 키워드를 상응하는 유의성 및 각성 평가들로 변환한다. 맵핑 모델은 촉각 파라미터들을 생성하기 위해 행위 실험들을 사용해서 생성된 시 촉각 맵핑 데이터베이스 및 가이드라인들을 사용한다. 만약 조절이 “상응”으로 특정되면, 시각적 정서에 상응하는 촉각 파라미터들을 생성한다. 만약 “충돌”로 특정되면, 시 자극의 유의성 또는 각성을 증가시키거나 감소시킬 수 있는 촉각 파라미터들을 생성한다. 만약 주어진 유의성과 각성 평가를 위한 정확한 맵핑이 사용될 수 없다면, 도 5의 맵핑부(510) 등의 모듈은 파라미터들을 생성하기 위해 사용될 수 있는 가장 근사한 유의성 및 각성 평가들을 추론한다. 도 5의 파라미터 추출부(530) 등의 파라미터 추정기는 장치 특성들을 실험이 수행된 프로토타입(혹은 시제품)의 특성들과 비교한다. 관심있는 장치의 특성은 장치의 대역폭과 강도 범위(intensity range)이다. 맵핑 모듈로부터의 출력을 장치의 파라미터 공간에 맵핑하고, 정서적인 자극을 생성하기 위해 필요한 촉각 파라미터들을 출력한다.For example, a significance and arousal estimator such as the content characteristic recognizer 500 of FIG. 5 handles an emotional keyword that carries emotional content of a visual stimulus as an input. 'Keywords' may be low features of visual data such as simple emotional words or facial expressions, color distribution in the scene, contrast, difference values between temporarily adjacent display data, and the like. Using a sentimental model of emotion, the given emotional keyword is converted into corresponding significance and arousal ratings. The mapping model uses a tactile mapping database and guidelines generated using behavioral experiments to generate tactile parameters. If an adjustment is specified as "correspondence", it creates tactile parameters corresponding to visual emotion. If specified as a “collision,” it creates tactile parameters that can increase or decrease the significance or arousal of the visual stimulus. If a correct mapping for a given significance and arousal assessment cannot be used, a module such as mapping section 510 of FIG. 5 infers the closest significance and arousal assessments that can be used to generate the parameters. A parameter estimator such as the parameter extractor 530 of FIG. 5 compares the device characteristics with those of the prototype (or prototype) on which the experiment was performed. The characteristics of the device of interest are the bandwidth and intensity range of the device. It maps the output from the mapping module into the parameter space of the device and outputs the tactile parameters needed to create an emotional stimulus.
실험을 통해 우리는 촉각 자극이 어떻게 시각 자극에 의해 전달된 정서적인 정보에 영향을 미칠 수 있는지 확인하였다. 또한 우리는 시각 자극과 상응 또는 충돌할 수 있는 정서적인 촉각 자극을 생성하기 위해 저작툴을 어떻게 구축할지를 제안하였다. 이러한 방법과 관련해서는 도 11을 통해 이미 살펴보았다.Experiments have shown how tactile stimuli can influence the emotional information delivered by visual stimuli. We also proposed how to build an authoring tool to create an emotional tactile stimulus that could correspond to or collide with the visual stimulus. This method has already been described with reference to FIG. 11.
한편, 유사한 또 다른 방식은 시각 입력 또는 시각과 소리 데이터 둘 다를 포함하는 입력을 위해 가능하다. 시각 및 소리 자극을 위한 촉각 저작 툴의 아키텍처는 도 7에 도시하였다. 따라서, 더 이상의 설명은 생략하도록 한다.On the other hand, another similar approach is possible for visual input or for input comprising both visual and sound data. The architecture of the tactile authoring tool for visual and sound stimulation is shown in FIG. 7. Therefore, further description will be omitted.
나아가, 본 발명의 실시예와 관련한 청-촉각(Audio haptic) 상호 작용의 행위 실험들을 살펴보도록 한다.Furthermore, the behavior experiments of audio haptic interactions in relation to the embodiment of the present invention will be described.
우리는 정서적인 청각과 정서적인 촉각 자극의 상호 작용을 조사하는 실험을 수행했다. 본 실험에 앞서, 청각 및 촉각 데이터 집합의 유효성을 다음과 같이 검증하였다. 국제적인 IADS(International Affective Digitized Sounds) 시스템은 연계된 유의성과 각성 평가를 갖는 167 개의 서로 다른 환경의 소리들을 포함한 자주 인용되곤 하는 데이터 집합이다. 우리는 이러한 데이터 집합을 유의성과 각성 정도를 고려하여 9개의 범주(예를 들어 저 유의성-저 각성, 고 유의성-중립 각성)로 나누고 각 범주에서 샘플을 취하여 IADS로부터 40개의 정서적 청각 자극 서브집합을 선택했다. 우리는 문헌에 보고된 IADS 평가들이 우리의 참가자 집합에서 잘 재현될 수 있는지 확인하기 위한 시범운영 프로그램(pilot)을 수행했다. 우리는 참가자들로부터 얻은 유의성 또는 각성 평가들이, IADS 문헌에 보고된 그것들과 큰 차이가 없음을 알 수 있었고, 이로써 청각 데이터 집합의 유효성이 입증되어 이후 실험에 계속 사용하게 되었다.We conducted experiments investigating the interaction between emotional hearing and emotional tactile stimuli. Prior to this experiment, the validity of the auditory and tactile data sets was verified as follows. The International Affective Digitized Sounds (IADS) system is a frequently cited data set that includes 167 different environment sounds with associated significance and arousal ratings. We divided these datasets into nine categories (e.g., low significance-low arousal, high significance-neutral arousal), taking samples from each category, taking into account the significance and the degree of arousal, and subtracting 40 emotional auditory stimulus subsets from IADS. selected. We conducted a pilot to ensure that the IADS assessments reported in the literature could be reproduced well in our set of participants. We found that the significance or arousal assessments obtained from the participants did not differ significantly from those reported in the IADS literature, thereby validating the auditory dataset and continuing to use it in subsequent experiments.
그리고 우리는 4 개의 파라미터들 즉 리듬, 파형, 주파수 및 강도를 다르게 해서 180 개의 구별되는 (distinct) 자극들을 포함하는 촉각 데이터 집합을 구성했다.We then constructed a tactile data set containing 180 distinct stimuli with four different parameters, rhythm, waveform, frequency and intensity.
우리는 감정 상태에 관한 청각-촉각(audio-haptic) 상호 작용을 연구하기 위해 2개의 실험을 수행하였다. 첫번째 실험에서, 우리는 청각 및 촉각적 양상에 나타난, 상응하거나 상충하는 정서적 정보가 어떻게 상호작용하는지를 조사했다. 본 실험에 사용된 모든 자극은 IADS 서브 집합(subset)에서 얻었고, 정서적인 햅틱 데이터 집합이 생성되었다. 우리는 2가지 조건, 즉 상응하는 조건과 상충하는 조건 하에 청각 및 촉각 자극을 서로 쌍을 지었다. 상응 조건에서,청각-촉각 자극은 서로 일치하는 정서적인 정보를 전달하였다. 상충 조건에서, 청각 및 촉각 자극은 일치하지 않는 정서적인 정보를 전달하였다. <표 4>는 청각-햅틱 자극 쌍 설계를 보여준다.We performed two experiments to study audio-haptic interactions with emotional states. In the first experiment, we examined how the corresponding or conflicting emotional information in the auditory and tactile aspects interacts. All the stimuli used in this experiment were obtained from the IADS subset, and an emotional haptic data set was generated. We paired the auditory and tactile stimuli with each other under two conditions, namely those that conflict with the corresponding conditions. In the corresponding conditions, auditory-tactile stimuli conveyed emotional information consistent with each other. In conflicting conditions, auditory and tactile stimuli delivered discordant emotional information. Table 4 shows the auditory-haptic stimulus pair design.
표 4
Figure PCTKR2015009896-appb-T000004
Table 4
Figure PCTKR2015009896-appb-T000004
40 개의 청각-햅틱 자극 쌍들을 19 명의 참가자(청각 및 햅틱 자극은 동시에 나타남)에게 주고, 참가자들에게 SAM 등급 상에서 청각-촉각 자극의 유의성 및 각성을 평가하도록 요청했다.Forty auditory-haptic stimulus pairs were given to 19 participants (aural and haptic stimuli appeared simultaneously) and asked participants to assess the significance and arousal of auditory-tactile stimuli on a SAM grade.
결과는 상응하는 경우, 촉각 자극의 존재가 청각 자극의 유의성 및 각성 평가들에 모두 영향을 미친다는 것을 보여주었다. 고 유의성 촉각 자극과 함께 고 유의성 청각 자극이 주어지면 유의성이 감소하는 것으로 나타났는데, 즉 이러한 경우엔 청각 자극이 덜 유쾌하게 느껴지는 것으로 이러한 현상은 직관에 반대된다. 저 각성 청각 및 촉각이 쌍으로 동시에 주어질 때 청각 자극만 주어지는 경우에 비하여 각성 평가가 증가하였다. 고 각성의 경우에, 청각-촉각 쌍 자극의 각성 평가는 청각 자극만의 경우와 통계적으로 차이가 없었다. 상충하는 경우, 청각-촉각 쌍 자극의 유의성 및 각성 평가는, 고 각성 촉각 -저 각성 청각의 쌍 자극의 경우를 제외하고는, 청각 자극에 의해서만 지배되었다.The results showed that, where appropriate, the presence of the tactile stimulus affects both the significance and arousal evaluations of the auditory stimulus. High significance auditory stimulation with high significance tactile stimulation was found to decrease significance, in which case the auditory stimulus felt less pleasant, which is counterintuitive. Arousal assessments were increased when low-aural auditory and tactile senses were given simultaneously in pairs, compared to the case where only auditory stimuli were given. In the case of high arousal, the arousal evaluation of auditory-tactile pair stimuli was not statistically different from that of auditory stimuli alone. In the case of conflict, the significance and arousal assessment of auditory-tactile pair stimuli were governed only by the auditory stimulus, except in the case of the paired stimulus of high awake tactile-low awake auditory.
감정 상태에 관한 청각-촉각 상호 작용을 연구하기 위한 두번째 실험으로, 감정 평가들에 영향을 미치는 요인들을 이해하기 위해, 저 레벨의 촉각 특성들(촉각자극의 세기,주파수,리듬,파형 등)이 어떻게 정서적인 청각-촉각 자극의 감성적 평가(유사성 및 각성 평가)에 작용하는지 알아보는 실험을 수행했다.As a second experiment to study auditory-tactile interactions with emotional states, low-level tactile characteristics (tactile stimulus intensity, frequency, rhythm, waveform, etc.) are used to understand the factors that affect emotional assessments. An experiment was conducted to determine how it affects the emotional assessment (similarity and arousal assessment) of emotional auditory-tactile stimuli.
만약 우리가 저-레벨 특성이 어떤 방식으로 평가들에 영향을 미치는지 알아낼 수 있다면, 우리는 적절한 저-레벨 햅틱 특성들을 선택해서만이 그 변화를 조정할 수 있을 것이다. 22 명의 참가자들이 본 연구에 참여했다.If we can figure out how the low-level characteristic affects the evaluations, we can only adjust the change by selecting the appropriate low-level haptic characteristics. 22 participants participated in this study.
우리는 5개의 그룹, Aud-LA, Aud-NN, Aud-HA, Aud-LV 및 Aud-HV이 있는 IADS 데이터 집합에서 청각 자극을, 그리고 3개의 그룹이 있는 정서적인 햅틱 데이터 집합에서 햅틱 자극을 선택했다. 우리는 5개의 쌍 그룹(PairGroup), 즉 그룹 A, B, C, B, E를 취했다. 그룹 A는 Aud-LA 자극을 모든 3가지 유형의 햅틱 그룹 자극과 결합해서 우리가 얻은 쌍들을 포함했다. 그룹 B, C, D 및 E는 Aud-NN, Auid-HA, Aud-LV 및 Aud-HA를 모든 3가지 유형의 햅틱 그룹 자극들 각각과 결합해서 얻은 쌍들을 포함했다. 모든 3개의 햅틱 그룹들은 2개의 레벨들-하나는 저강도를 갖는 것, 다른 하나는 고 강도를 갖는 것-을 가질 수 있다. 그래서, 각 그룹은 청각 자극이 저 강도 햅틱 자극(AHL)과 쌍을 이루는 하나, 청각 자극이 고 강도 햅틱 자극(AHH)과 쌍을 이루는 다른 하나를 갖는다. 각 쌍 그룹은 36 개의 자극 쌍들을 갖는다. 여기서 Aud는 청각자극을, LA는 저 각성을,NN는 중립 유의성/각성을,HA는 고 각성을,LV는 저 유의성,HV는 고 유의성을 나타내는 표시다.We performed auditory stimuli in an IADS dataset with five groups, Aud-LA, Aud-NN, Aud-HA, Aud-LV, and Aud-HV, and haptic stimuli in an emotional haptic dataset with three groups. selected. We took five pair groups, Groups A, B, C, B and E. Group A included the pairs we obtained by combining Aud-LA stimuli with all three types of haptic group stimuli. Groups B, C, D and E included pairs obtained by combining Aud-NN, Auid-HA, Aud-LV and Aud-HA with each of all three types of haptic group stimuli. All three haptic groups can have two levels, one having low intensity and the other having high intensity. Thus, each group has one auditory stimulus paired with a low intensity haptic stimulus (AHL), and another auditory stimulus paired with a high intensity haptic stimulus (AHH). Each pair group has 36 stimulus pairs. Where Aud is an auditory stimulus, LA is low arousal, NN is neutral significance / wake, HA is high arousal, LV is low significance, and HV is high significance.
참가자들을 무작위로 2개의 그룹-A 그룹과 B 그룹-으로 배정하였다. 각 그룹은 각각 11명의 참가자를 포함했다. A 그룹의 참가자들은 모두 AHL 레벨 쌍들로 나타내어졌고, 반면 B 그룹의 참가자들은 모두 AHH 레벨 쌍들로 나타내어졌다. AHL 및 AHH 레벨 모두 5개의 쌍 그룹을 가지므로, 우리는 하나의 세션(session)에서 각 쌍 그룹을 나타내었다. 그래서, 모든 참가자는 5 개의 세션을 통과해야 했다. 각 세션에서, 18개의 자극 쌍들이 나타내어졌고, 참가자들에게 SAM 등급에서 그들이 자극을 어떻게 느끼는지 평가하도록 요청했다. Participants were randomly assigned to two groups-group A and group B. Each group included 11 participants each. Participants in group A were all represented by AHL level pairs, while participants in group B were all represented by AHH level pairs. Since both AHL and AHH levels have five pair groups, we represent each pair group in one session. So all participants had to go through five sessions. In each session, 18 stimulus pairs were presented and asked participants to assess how they felt stimuli in the SAM grade.
그 결과 우리는 다음과 같은 결과들을 얻을 수 있었다.As a result, we obtained the following results.
강도 파라미터가 유의성 및 각성 평가들에 둘 다 영향을 미친다.The intensity parameter affects both significance and arousal assessments.
고 강도 햅틱 자극은 정도가 클 때 감소된 청각의 유의성을 이끌어 낸다. 예를 들어 35 ㏈에서 유의성 평가는 20 ㏈에 비해 더 감소하고, 각성 평가는 그 반대로 나타났다. High intensity haptic stimuli lead to reduced auditory significance at greater degrees. For example, at 35 ㏈, the significance test decreased more than 20 ,, and the arousal test was vice versa.
주파수만큼은 청각 유의성 평가들에 영향을 미쳤고, 165Hz 주파수는 유의성에 최대로 부정적인 변화를 초래했다. 고 유의성 청각은 주파수에 의해 대부분 영향을 받았다.As much as frequency influenced auditory significance assessments, the 165 Hz frequency resulted in the largest negative change in significance. High significance hearing was mostly affected by frequency.
리듬은 유의성 및 각성 평가들 둘 다에 영향을 주었다.Rhythm affected both significance and arousal assessments.
파형은 유의성 또는 각성 평가들에 영향을 미치지는 않았다.The waveform did not affect significance or arousal evaluations.
도 12는 청-촉각 실험에 의해 생성된 가이드 라인에 일치시켜 구축된 저작툴을 설명하기 위한 예시도이다.12 is an exemplary view for explaining the authoring tool constructed in accordance with the guidelines generated by the auditory tactile experiment.
가령, 저작툴은 정서적인 청각(혹은 오디오(auidio)) 자극 컨텐츠가 인식되면, 햅틱 자극을 생성하기 위하여 인터액션 디자이너들을 위한 방법을 제공할 수 있다. 정서적인 청각 자극 컨텐츠는 유의성 및 각성 평가들 또는 감정 키워드로서 명확히 제공될 수 있다. 또한 정서적인 컨텐츠는 자극 그 자체의 특성들로부터 추출될 수 있다. 행위 실험들에 의해 생성된 가이드라인 및 모델들에 근거해, 저작툴은 햅틱 자극을 위한 파라미터 집합을 생성할 수 있다.For example, the authoring tool may provide a method for interaction designers to generate haptic stimuli once emotional auditory (or audio) stimulus content is recognized. Emotional auditory stimulus content may be provided explicitly as significance and arousal assessments or emotion keywords. Emotional content can also be extracted from the characteristics of the stimulus itself. Based on the guidelines and models generated by behavioral experiments, the authoring tool can generate a set of parameters for the haptic stimulus.
도 12에서와 같은 시스템은 청각 자극과 인터액션 디자이너(혹은 사용자)가 그 자극에 의해 전달된 감정을 조절하고자 하는지에 대한 2개의 정보를 입력할 수 있다. 입력 가능한 2개의 값은 이후에 언급하기로 한다.The system as in FIG. 12 may input two pieces of information about the auditory stimulus and whether the interaction designer (or user) wishes to adjust the emotions delivered by the stimulus. The two values that can be input will be described later.
유의성 및 각성 추정기(1200)는 입력된 정서적인 청각 컨텐츠를 전달하는 감정 키워드를 얻는다. 정서 원형 모형(circumplex model)을 사용해서 유의성 및 각성 추정기(1200)는 주어진 감성 키워드를 그에 상응하는 유의성 및 각성 평가들로 변환한다.The significance and arousal estimator 1200 obtains an emotional keyword that conveys the input emotional auditory content. Using an emotional circular model, the significance and arousal estimator 1200 converts a given emotional keyword into corresponding significance and arousal assessments.
맵핑 모듈(1210)은 햅틱 파라미터들을 생성하기 위해 행위 실험들을 사용해서 생성된 모델 및 가이드 라인을 사용한다. 만약 사용자에 의해 입력된 조절이 상응(Correspond)으로 특정되면, 해당 맵핑 모듈(1220)은 청각 정서에 상응하는 햅틱 파라미터들을 생성한다. 만약 상충 (Conflict)로 특정되면, 청각 자극의 유의성 또는 각성을 증가하거나 감소할 수 있는 햅틱 파라미터를 생성한다. 만약 주어진 유의성 및 각성 평가를 위한 정확한 맵핑이 불가능하다면, 해당 맵핑 모듈(1210)은 파라미터를 생성하기에 가능한 가장 근접한 유의성 및 각성 평가들을 추정할 수 있다. 위의 동작을 위해 맵핑 모듈(1210)은 저장부(1220)에 연동할 수 있다.The mapping module 1210 uses a model and guidelines generated using behavioral experiments to generate haptic parameters. If the adjustment entered by the user is specified as Correspond, the mapping module 1220 generates haptic parameters corresponding to auditory emotions. If specified as a conflict, it creates a haptic parameter that can increase or decrease the significance or arousal of the auditory stimulus. If a precise mapping for a given significance and arousal assessment is not possible, then the mapping module 1210 can estimate the closest possible significance and arousal assessments to generate the parameter. For the above operation, the mapping module 1210 may interwork with the storage unit 1220.
파라미터 추정기(1230)는 실험에서 수행한 프로토 타입 장치의 특성에 장치 특성들을 비교한다. 관심 있는 장치의 특성은 장치 대역폭과 강도(intensity range)이다. 맵핑 모듈(1210)로부터의 출력을 장치 파라미터 공간에 맵핑하고, 정서 자극을 생성하기 위해 필요한 햅틱 파라미터들을 출력하게 된다.The parameter estimator 1230 compares the device characteristics with those of the prototype device performed in the experiment. Characteristics of the device of interest are device bandwidth and intensity range. Mapping the output from the mapping module 1210 into the device parameter space and outputting the haptic parameters needed to generate the emotional stimulus.
예를 들어, 맵핑 모듈(1210)이 저장부(1220)를 검색하여 다양한 장치 특성과 관련한 햅틱 파라미터들을 추출하였다면, 파라미터 추정기(12030)는 입력된 장치 특성에 매칭되는 햅틱 파라미터만을 선택하여 출력한다고 볼 수 있다.For example, if the mapping module 1210 searches the storage unit 1220 and extracts haptic parameters associated with various device characteristics, the parameter estimator 1230 selects and outputs only haptic parameters that match the input device characteristics. Can be.
도 12는 도 5 및 도 7과 비교해 볼 때, 실질적으로 크게 다르지 않다. 다시 말해, 도 12의 저작툴은 도 3 및 도 4의 감각정보 추출부(320, 440) 내에 저장되어 동작될 수 있다. 다만, 그 컨텐츠 원이 청각 자극 컨텐츠라는 데 차이가 있다. 또한, 위의 실험에 의해 도출된 가이드라인에 따라 저장된 햅틱 파라미터를 저장부(1220)로부터 출력한다는 데 차이가 있다. 12 is not substantially different as compared to FIGS. 5 and 7. In other words, the authoring tool of FIG. 12 may be stored and operated in the sensory information extracting units 320 and 440 of FIGS. 3 and 4. However, there is a difference that the content source is auditory stimulus content. In addition, there is a difference in outputting the stored haptic parameter from the storage unit 1220 according to the guidelines derived by the above experiment.
따라서, 이러한 점을 제외하면, 도 5 및 도 7에서의 내용과 크게 다르지 않으므로 그 내용들로 대신하고자 한다. 다시 말해, 도 12의 유의성 및 각성 추정기(1200)는 도 5의 컨텐츠 특성 인식부(500)가 될 수 있고, 맵핑 모듈(1210)은 맵핑부(510)가 될 수 있으며, 저장부(1220) 및 파라미터 추정기(1230)는 각각 도 5의 저장부(520) 및 파라미터 추출부(530)가 될 수 있다.Therefore, except for this point, the contents are not significantly different from those in FIGS. 5 and 7, and therefore, the contents will be replaced by those contents. In other words, the significance and arousal estimator 1200 of FIG. 12 may be the content characteristic recognizer 500 of FIG. 5, the mapping module 1210 may be a mapping unit 510, and the storage unit 1220. The parameter estimator 1230 may be the storage 520 and the parameter extractor 530 of FIG. 5, respectively.
이러한 점에 근거해 볼 때, 본 발명의 실시예는 가이드 라인에 의한 다양한 값, 다시 말해, 시각 자극, 청각 자극 및 시-청각 자극에 관련하여 실험에서 얻은 파라미터 값들을 저장한 후, 입력된 자극 컨텐츠의 유형에 따라 적절한 파라미터 값들을 생성(혹은 추출해) 햅틱 파라미터로서 출력할 수 있을 것이다.Based on this, an embodiment of the present invention stores various values according to guidelines, that is, parameter values obtained in an experiment with respect to visual stimulus, auditory stimulus and visual-acoustic stimulus, and then inputs the input stimulus. Depending on the type of content, appropriate parameter values may be generated (or extracted) and output as haptic parameters.
본 발명의 실시예는 HCI(Human-computer interface)에서 정서 컴퓨팅에 관련된다. 본 발명의 실시예는 앞으로 웨어러블 장치 또는 모바일 장치에서 사용자 감정 상태의 제어를 위해 상업적인 잠재 가능성(commercial potential)을 갖는다.Embodiments of the present invention relate to emotional computing in a human-computer interface (HCI). Embodiments of the present invention have a commercial potential for controlling user emotional states in wearable devices or mobile devices in the future.
한편, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다. On the other hand, even if all the components constituting the embodiment of the present invention is described as being combined or operated in combination, the present invention is not necessarily limited to these embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, each or some of the components of the components are selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer-readable non-transitory computer readable media and read and executed by a computer, thereby implementing an embodiment of the present invention.
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable recording medium refers to a medium that stores data semi-permanently and can be read by a device, not a medium storing data for a short time such as a register, a cache, or a memory. . Specifically, the above-described programs may be stored and provided in a non-transitory readable recording medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the above has been shown and described with respect to preferred embodiments of the invention, the invention is not limited to the specific embodiments described above, it is usually in the art to which the invention belongs without departing from the spirit of the invention claimed in the claims. Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.
--
--

Claims (15)

  1. 단말장치에 있어서,In the terminal device,
    컨텐츠에 표현되는 상기 단말장치의 사용자에 대한 감정 상태 또는 상기 컨텐츠에 존재하는 객체의 분위기에 관련된 감각(sensory) 정보를 저장하는 저장부;A storage unit for storing sensory information related to an emotional state of a user of the terminal device expressed in content or an atmosphere of an object present in the content;
    상기 컨텐츠가 입력될 때, 상기 감정 상태 또는 상기 분위기에 관련된 감각 정보를 추출하는 감각정보 추출부; 및A sensory information extractor configured to extract sensory information related to the emotional state or the mood when the content is input; And
    상기 추출한 감각 정보를 이용하여 햅틱(haptic) 관련 동작을 수행하도록 하는 제어부;를A controller configured to perform a haptic related operation using the extracted sensory information;
    포함하는 단말장치.Terminal device comprising.
  2. 제1항에 있어서,The method of claim 1,
    상기 컨텐츠를 생성하기 위해 주변 상황을 인식하는 주변상황 인식부; 및Peripheral situation recognition unit for recognizing the surrounding situation to generate the content; And
    상기 햅틱 관련 동작을 수행하는 햅틱 동작부;를 더 포함하고, And a haptic operation unit which performs the haptic related operation.
    상기 제어부는, 상기 감각 정보에 근거하여 상기 햅틱 동작부를 제어하는 것을 특징으로 하는 단말장치.The control unit, the terminal device, characterized in that for controlling the haptic operation unit based on the sensory information.
  3. 제2항에 있어서,The method of claim 2,
    상기 주변상황 인식부는,The surrounding situation recognition unit,
    상기 주변 상황을 촬영하는 촬상부 및 상기 주변 상황의 음성을 취득하는 음성 취득부 중 적어도 하나를 포함하는 것을 특징으로 하는 단말장치.And at least one of an image capturing unit for photographing the surrounding situation and a voice obtaining unit obtaining a voice of the surrounding situation.
  4. 제1항에 있어서,The method of claim 1,
    상기 컨텐츠에 표현되는 사용자의 감정 상태를 조절하기 위한 사용자 명령을 입력받는 사용자 인터페이스부; 및A user interface unit configured to receive a user command for adjusting an emotional state of a user expressed in the content; And
    상기 햅틱 관련 동작을 수행하는 외부장치로 상기 감각 정보를 전송하는 통신 인터페이스부;를 더 포함하고,And a communication interface for transmitting the sensory information to an external device that performs the haptic related operation.
    상기 저장부는, 상기 사용자 명령에 대응하는 상태조절 정보를 상기 감각 정보와 매칭시켜 저장하며,The storage unit stores the state control information corresponding to the user command by matching the sensory information,
    상기 제어부는, 상기 외부장치로 상기 감각 정보를 전송하기 위해 상기 통신 인터페이스부를 제어하는 것을 특징으로 하는 단말장치.The control unit, characterized in that for controlling the communication interface to transmit the sensory information to the external device.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 사용자 인터페이스부는 상기 감정 상태와 일치하는 감정을 표현하도록 하는 사용자 명령 또는 상기 감정 상태와 상반되는 감정을 표현하도록 하는 사용자 명령을 입력받는 것을 특징으로 하는 단말장치.The user interface unit is characterized in that for receiving a user command to express an emotion that matches the emotional state or a user command to express an emotion opposite to the emotional state.
  6. 제1항에 있어서,The method of claim 1,
    상기 컨텐츠는 비디오 컨텐츠, 오디오 컨텐츠 및 문자 컨텐츠 중 중 적어도 하나를 포함하는 것을 특징으로 하는 단말장치.And the content includes at least one of video content, audio content, and text content.
  7. 제1항에 있어서,The method of claim 1,
    상기 감각정보 추출부는,The sensory information extraction unit,
    상기 감정 상태 또는 상기 분위기를 인식하는 컨텐츠 특성 인식부;A content characteristic recognition unit recognizing the emotional state or the mood;
    상기 인식한 감정 상태 또는 상기 분위기에 매칭되는 감각 정보를 찾기 위해 맵핑 동작을 수행하는 맵핑부; 및A mapping unit that performs a mapping operation to find sensory information matching the recognized emotional state or the mood; And
    상기 찾은 감각 정보의 파라미터들을 추출하는 파라미터 추출부;를A parameter extraction unit for extracting parameters of the found sensory information;
    포함하는 것을 특징으로 하는 단말장치.Terminal device comprising a.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 파라미터 추출부는 상기 감각 정보의 추출시 상기 감각 정보를 수신하는 외부장치의 특성을 추가로 고려하여 상기 감각 정보를 추출하는 것을 특징으로 하는 단말장치.The parameter extractor extracts the sensory information by further considering characteristics of an external device that receives the sensory information when the sensory information is extracted.
  9. 제1항에 있어서,The method of claim 1,
    상기 감각 정보는 상기 햅틱 관련 동작을 위한 햅틱 정보를 포함하며,The sensory information includes haptic information for the haptic related operation,
    상기 햅틱 정보는 강도(intensity), 주파수(frequency), 파장(waveform) 및 리듬(rhythm) 중 적어도 하나의 파라미터를 포함하는 것을 특징으로 하는 단말장치.The haptic information includes at least one parameter of intensity, frequency, wavelength, and rhythm.
  10. 제9항에 있어서,The method of claim 9,
    각각의 상기 파라미터는 복수의 수준(level)을 포함하며,Each said parameter comprising a plurality of levels,
    상기 햅틱 정보는 상기 복수의 수준 중 하나에 해당되는 파라미터를 포함하는 것을 특징으로 하는 단말장치.The haptic information terminal device characterized in that it comprises a parameter corresponding to one of the plurality of levels.
  11. 단말장치의 구동방법에 있어서,In the driving method of the terminal device,
    컨텐츠에 표현되는 상기 단말장치의 사용자에 대한 감정 상태 또는 상기 컨텐츠에 존재하는 객체의 분위기에 관련된 감각(sensory) 정보를 저장하는 단계;Storing sensory information related to an emotional state of a user of the terminal device expressed in content or an atmosphere of an object present in the content;
    상기 컨텐츠가 입력될 때, 상기 감정 상태 또는 상기 분위기에 관련된 감각 정보를 추출하는 단계; 및Extracting sensory information related to the emotional state or the mood when the content is input; And
    상기 추출한 감각 정보를 이용하여 햅틱(haptic) 관련 동작을 수행시키는 단계;를Performing a haptic-related operation using the extracted sensory information;
    포함하는 단말장치의 구동방법.Method of driving a terminal device comprising.
  12. 제11항에 있어서,The method of claim 11,
    상기 컨텐츠를 생성하기 위해 주변 상황을 인식하는 단계; 및Recognizing a surrounding situation to generate the content; And
    상기 햅틱 관련 동작을 수행하는 단계;를 더 포함하고, And performing the haptic related operation.
    상기 처리하는 단계는, 상기 감각 정보에 근거하여 상기 햅틱 관련 동작을 제어하는 것을 특징으로 하는 단말장치의 구동방법.The processing may include controlling the haptic related operation based on the sensory information.
  13. 제12항에 있어서,The method of claim 12,
    상기 주변상황을 인식하는 단계는,Recognizing the surrounding situation,
    상기 주변 상황을 촬영하는 단계 및 상기 주변 상황의 음성을 취득하는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 단말장치의 구동방법.And at least one of photographing the surrounding situation and acquiring a voice of the surrounding situation.
  14. 제11항에 있어서,The method of claim 11,
    상기 컨텐츠에 표현되는 사용자의 감정 상태를 조절하기 위한 사용자 명령을 수신하는 단계; 및Receiving a user command for adjusting an emotional state of a user expressed in the content; And
    상기 햅틱 관련 동작을 수행하는 외부장치로 상기 감각 정보를 전송하는 단계;를 더 포함하고,And transmitting the sensory information to an external device that performs the haptic related operation.
    상기 저장하는 단계는, 상기 사용자 명령에 대응하는 상태조절 정보를 상기 감각 정보와 매칭시켜 저장하며,The storing may include storing state control information corresponding to the user command with the sensory information,
    상기 처리하는 단계는, 상기 외부장치로 상기 감각 정보를 전송하도록 제어하는 것을 특징으로 하는 단말장치의 구동방법.The processing may include controlling the sensor device to transmit the sensory information to the external device.
  15. 제14항에 있어서,The method of claim 14,
    상기 사용자 명령을 수신하는 단계는, 상기 감정 상태와 일치하는 감정을 표현하도록 하는 사용자 명령 또는 상기 감정 상태와 상반되는 감정을 표현하도록 하는 사용자 명령을 수신하는 것을 특징으로 하는 단말장치의 구동방법.The receiving of the user command may include receiving a user command for expressing an emotion corresponding to the emotional state or a user command for expressing an emotion opposite to the emotional state.
PCT/KR2015/009896 2014-09-19 2015-09-21 Terminal device, method for driving terminal device, and computer readable recording medium WO2016043570A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20140124879 2014-09-19
KR10-2014-0124879 2014-09-19
KR10-2015-0024510 2015-02-17
KR1020150024510A KR20160034789A (en) 2014-09-19 2015-02-17 Terminal, Driving Method of Terminal, and Computer Readible Recording Medium

Publications (1)

Publication Number Publication Date
WO2016043570A1 true WO2016043570A1 (en) 2016-03-24

Family

ID=55533528

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/009896 WO2016043570A1 (en) 2014-09-19 2015-09-21 Terminal device, method for driving terminal device, and computer readable recording medium

Country Status (1)

Country Link
WO (1) WO2016043570A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070033259A1 (en) * 2000-06-30 2007-02-08 Wies Evan F Chat interface with haptic feedback functionality
KR20110026362A (en) * 2009-09-07 2011-03-15 에스케이텔레콤 주식회사 Method and system for video call based on an haptic
KR20110041065A (en) * 2009-10-15 2011-04-21 에스케이텔레콤 주식회사 System, server, terminal and method for delivering haptic contents during video call
WO2013089294A1 (en) * 2011-12-15 2013-06-20 엘지전자 주식회사 Haptic transmission method and mobile terminal for same
US20130227411A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070033259A1 (en) * 2000-06-30 2007-02-08 Wies Evan F Chat interface with haptic feedback functionality
KR20110026362A (en) * 2009-09-07 2011-03-15 에스케이텔레콤 주식회사 Method and system for video call based on an haptic
KR20110041065A (en) * 2009-10-15 2011-04-21 에스케이텔레콤 주식회사 System, server, terminal and method for delivering haptic contents during video call
US20130227411A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
WO2013089294A1 (en) * 2011-12-15 2013-06-20 엘지전자 주식회사 Haptic transmission method and mobile terminal for same

Similar Documents

Publication Publication Date Title
WO2019013517A1 (en) Apparatus and method for voice command context
WO2020159288A1 (en) Electronic device and control method thereof
WO2017113974A1 (en) Speech processing method and device, and terminal
WO2019156332A1 (en) Device for producing artificial intelligence character for augmented reality and service system using same
CN107801096A (en) Control method, device, terminal device and the storage medium of video playback
TW201821946A (en) Data transmission system and method thereof
US20170214962A1 (en) Information processing apparatus, information processing method, and program
WO2017095082A1 (en) Audio providing method and device therefor
US10976998B2 (en) Information processing apparatus and information processing method for controlling a response to speech
WO2019225201A1 (en) Information processing device, information processing method, and information processing system
WO2019139301A1 (en) Electronic device and subtitle expression method thereof
WO2015102245A1 (en) Display device, server device, voice input system and methods thereof
CN109657099B (en) Learning interaction method and learning client
WO2015126097A1 (en) Interactive server and method for controlling the server
WO2021060728A1 (en) Electronic device for processing user utterance and method for operating same
WO2021085812A1 (en) Electronic apparatus and method for controlling same
WO2015199430A1 (en) Method and apparatus for managing data
KR102309505B1 (en) User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof
CN104244132A (en) Intelligent earphone system and control method thereof
CN110767229B (en) Voiceprint-based audio output method, device and equipment and readable storage medium
WO2016043570A1 (en) Terminal device, method for driving terminal device, and computer readable recording medium
KR20190034494A (en) Translation device and translation system
CN108769799B (en) Information processing method and electronic equipment
CN108174030B (en) Customized voice control implementation method, mobile terminal and readable storage medium
JP2014149571A (en) Content search device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15841917

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15841917

Country of ref document: EP

Kind code of ref document: A1