WO2018207953A1 - 터치 입력에 기반한 프로세스 처리 방법 및 시스템 - Google Patents

터치 입력에 기반한 프로세스 처리 방법 및 시스템 Download PDF

Info

Publication number
WO2018207953A1
WO2018207953A1 PCT/KR2017/004742 KR2017004742W WO2018207953A1 WO 2018207953 A1 WO2018207953 A1 WO 2018207953A1 KR 2017004742 W KR2017004742 W KR 2017004742W WO 2018207953 A1 WO2018207953 A1 WO 2018207953A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
product
touch input
touch
user
Prior art date
Application number
PCT/KR2017/004742
Other languages
English (en)
French (fr)
Inventor
배재광
Original Assignee
(주)인스타페이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인스타페이 filed Critical (주)인스타페이
Priority to PCT/KR2017/004742 priority Critical patent/WO2018207953A1/ko
Publication of WO2018207953A1 publication Critical patent/WO2018207953A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/326Payment applications installed on the mobile devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Definitions

  • the following embodiments relate to a method and system for processing a process, and in particular, to a method and system for processing a process as a touch input is sensed.
  • the user In order to process the payment process, in addition to selecting a desired product to be purchased at a shopping mall, the user is required to input additional information (e.g., delivery address information and member information about the shopping mall) for ordering and payment of the product. Or install a separate certificate or program.
  • additional information e.g., delivery address information and member information about the shopping mall
  • install a separate certificate or program e.g., delivery address information and member information about the shopping mall
  • Korean Patent Publication No. 10-2012-0125179 (published November 14, 2012) is implemented using a portable electronic device that processes a transaction through an electronic trading platform, and the portable electronic device generates transaction information related to the transaction.
  • a mobile transaction method is disclosed that obtains payment account information from a payment card, establishes a session with an electronic transaction platform to communicate with the electronic transaction platform, and cooperates with the electronic transaction platform to process payment for a transaction.
  • process information required for processing a process associated with the object may be obtained, and a method and system in which the process may be processed may be provided. have.
  • One embodiment may provide a method and system in which a payment process for a desired product associated with an object may be processed based on a user's touch input to the object.
  • the method comprising: receiving identification information indicating that a touch input for an object output on a touch screen of a terminal is detected; Obtaining process information required for processing of a process associated with the object from an external server based on the identification information; Processing the process based on the identification information and the process information; And transmitting information on a user who has performed the touch input and a processing result of the process to the external server or a server associated with the external server.
  • the touch input includes at least one touch sequentially input at predetermined time intervals, long touch held for a predetermined time or more, dragging, swiping, contact touch, poster value, and fingerprint information of a finger used for touch input. It may include at least one of the touch input.
  • Acquiring the process information and processing the process may be performed if the identification information indicates that the touch input coincides with a touch input preset by a user.
  • the object may be associated with a desired product that the user wants to purchase.
  • the external server and a server associated with the external server may be operated by an electronic transaction provider selling the product.
  • the process may be a payment process of the user for the product.
  • the process information may include product information about the product and user information about the user required for the processing of the payment process.
  • the touch input may include at least one of a first touch input and a second touch input.
  • the acquiring of the process information may include outputting detailed information about the product on the touch screen when the identification information indicates that the first touch input is detected.
  • the processing of the process may include processing the payment process when the identification information indicates that the second touch input is detected.
  • the object may include at least one of an image, a video, an advertisement, and text related to the product.
  • the acquiring of the process information may include extracting at least one of image information and text information included in the object based on the identification information; Retrieving information about the product from a database based on the extracted at least one information; And acquiring the information obtained by the search as the product information.
  • the extracting may include extracting the text information by extracting at least one word included in the text information
  • the searching may include extracting the word from the database.
  • the product information can be searched by comparing with the trade names registered in the.
  • the extracting may include extracting the image information by capturing an area on the touch screen on which the touch input is sensed, and searching for the extracted image.
  • the product information can be retrieved by comparing the information with product images registered in the database.
  • the processing of the process may include: receiving a confirmation signal for the payment process from the terminal; And completing the payment process based on the confirmation signal.
  • the identification information may include fingerprint information of a finger used for the touch input.
  • the process processing method may further include identifying whether the fingerprint information corresponds to fingerprint information registered in the terminal or the external server.
  • the payment process may be processed.
  • the identifying step it may be identified whether the fingerprint information matches the fingerprint information of the first finger of the user.
  • the payment process may be processed.
  • the identifying step it may be identified whether the fingerprint information matches the fingerprint information of the second finger of the user.
  • fingerprint information matches the fingerprint information of the second finger of the user, detailed information about the product may be output on the touch screen.
  • the electronic trading operator may be a predetermined affiliate business operator.
  • the acquiring of the process information may include, as the process information, information about the product sold by the affiliated operator and information about the user registered in the affiliated operator.
  • a method and system are provided that can handle a process associated with an object when a preset touch input is detected for the object.
  • a payment process for a desired product associated with the object is processed, thereby providing a method and system capable of processing the payment process without inputting unnecessary information of the user.
  • a method and system for providing detailed information on a desired product associated with an object or a payment process for a desired product may be processed.
  • FIG. 1 illustrates a method of processing a payment process by a touch input according to an exemplary embodiment.
  • FIG. 2 illustrates a terminal including a touch screen according to an embodiment.
  • FIG. 3 illustrates a payment system for processing a payment process according to an embodiment.
  • FIG. 4 is a flowchart illustrating a process processing method by a touch input according to an exemplary embodiment.
  • FIG. 5 is a flowchart illustrating a method of extracting and processing image information and / or text information of an object according to an example.
  • FIG. 6 is a flowchart illustrating a process information acquisition and process processing method according to a first touch input and a second touch input according to an example.
  • FIG. 7 is a flowchart illustrating a process processing method according to an example.
  • FIG. 8 is a flowchart illustrating a process processing method by a touch input including fingerprint information according to an example.
  • FIG. 9 illustrates a method of extracting and processing image information and / or text information of an object according to FIG. 5.
  • FIG. 10 illustrates a method of extracting and processing image information included in an object according to an example.
  • FIG. 11 illustrates a method of extracting and processing text information included in an object according to an example.
  • 12 to 19 are conceptual diagrams and circuit diagrams illustrating the type of touch input sensed by the terminal and a method of detecting the touch input by the terminal in more detail.
  • FIG. 1 illustrates a method of processing a payment process by a touch input according to an exemplary embodiment.
  • FIG. 1 illustrates a method in which a payment process for a product associated with an object is performed by the payment system 120 when a touch input is detected for an object output on a touch screen of the terminal 110.
  • the object output on the touch screen of the terminal 110 is a virtual object, and may be at least a part of image, text, advertisement, or video content output on a web page.
  • the object may be associated with the desired product that the user wishes to purchase.
  • the image, text, advertisement or video content included in the object may be associated with the desired product.
  • the web page on which the object is output may be a web page of a shopping mall operated by the electronic transaction provider (shopping mall) 130.
  • the shopping mall 130 may refer to a server that the electronic transaction provider holds for the operation of the shopping mall.
  • the user may allow a payment process for a desired product associated with the object to be performed by touching the object output on the touch screen of the terminal 110.
  • the touch input for proceeding the payment processor may be preset by the user.
  • the payment system 120 may obtain information required to process the payment process for the desired product from the shopping mall 130 that sells the desired product to be purchased by the user. have.
  • the information obtained from the shopping mall 130 may be information about a user and product information about a desired product.
  • the payment system 120 may process the payment process for the desired product using the information obtained from the shopping mall 130, so that the user may request information, such as orderer information and the like, for ordering the desired product.
  • the payment process for the desired product can be completed without inputting the delivery address information.
  • the shopping mall 130 confirms whether the user has registered as a member, or the process requiring input of order information such as orderer information and delivery information may be omitted.
  • the payment system 120 may provide the payment information and the payer information to the shopping mall 130 when the payment processing is completed.
  • the payment system 120 may transmit payment information to the terminal 110, and thus may allow the user to recognize that the payment for the desired product is completed.
  • FIG. 2 illustrates a terminal including a touch screen according to an embodiment.
  • the terminal 110 may include a display device 220 including a touch screen (touch panel) 225, a controller 210, and a communicator 250.
  • the terminal 110 may further include a touch screen controller 230 for controlling the touch screen 225.
  • the touch screen controller 230 may be included in the controller 210.
  • the display device 220 may output at least one of information processed by the controller 210, at least one object, and a user interface for receiving an input for processing the information or controlling the object.
  • the display device 220 may include a monitor, a liquid crystal display (LCD), a light emitting diode (LED) display, and an organic light emitting diode (OLED) display.
  • LCD liquid crystal display
  • LED light emitting diode
  • OLED organic light emitting diode
  • the touch screen 225 may detect at least one touch input from a user of the terminal 110.
  • the user may control the terminal 100 through the touch screen 225 or control an object output on the touch screen 110.
  • the touch screen 225 may be controlled by the touch screen controller 230.
  • the controller 210 may manage components of the terminal 110 and execute a program or application used by the terminal 110.
  • the controller 210 may execute an application installed in the terminal 110 to process the payment process by the payment system 120.
  • the controller 210 may process operations necessary for executing a program or an application and processing data.
  • the controller 210 may be at least one processor of the terminal 110 or at least one core in the processor.
  • the communication unit 250 may be an apparatus for communicating with another terminal (s) or a server different from the terminal 110. For example, when a touch input by a user is detected with respect to an object associated with a desired product, the controller 210 sends the payment system 120 through the communication unit 250 with detailed information about the payment or the product about the desired product. When the payment process is completed, the payment result may be received through the communication unit 250.
  • the communication unit 250 may include one or more antennas for transmitting and receiving signals and information with other terminal (s) or a server.
  • the communication unit 250 may be a hardware module such as a network interface card, a network interface chip and a networking interface port of the terminal 110, or a software module such as a network device driver or a networking program.
  • the terminal 110 may further include a storage unit 240 for storing data or information.
  • the storage 240 may store a program or an application executed by the controller 210 and information related thereto.
  • a method of changing the shape of the object output on the touch screen 110 by the controller 220 and outputting the changed object on the touch screen 110 will be described in more detail with reference to FIGS. 3 to 11 to be described later. It is explained.
  • FIG. 3 illustrates a payment system for processing a payment process according to an embodiment.
  • the payment system 120 receives a payment request (or identification information) received from the terminal 110, and receives the payment request (or identification information). It may be a server or other device that processes a payment process for a desired product associated with an object based on the product information about the desired product obtained from the shopping mall 130 and the user information about the user of the terminal. When the payment process is completed, the payment system 120 may transmit the payment information indicating the result of the corresponding payment process and the payer information about the user who made the payment to the shopping mall 130, and inform the terminal 110 that the payment process is completed. You can notify.
  • the payment system 120 may include a controller 310, a communication unit 320, and a database 330.
  • the database 330 may exist as a separate configuration from the payment system 120.
  • the controller 310 may manage components of the payment system 120 and may execute a program or an application used by the payment system 120. For example, the controller 310 may process operations necessary for executing a program and processing data required for the payment process.
  • the controller 310 may be at least one processor of the payment system 120 or at least one core in the processor.
  • the controller 310 processes a payment process for a desired product based on identification information indicating that a touch input is detected from the terminal 110 or refers to a database 330 for a product for the desired product. You can search for information.
  • the text information extraction and processing unit 312 of the controller 310 may extract text information included in the object based on the identification information received from the terminal 110, and based on the extracted text information, The product information on the product can be retrieved.
  • the image information extraction and processing unit 314 of the control unit 310 may extract image information included in the object based on the identification information received from the terminal 110, and based on the extracted image information The product information on the product can be retrieved.
  • the text information extraction and processing unit 312 and the information extraction and processing unit 314 may be configured as a hardware module or software module included in the control unit 310.
  • the communication unit 320 may be a device for communicating with the terminal 110 and the shopping mall 130. That is, the communication unit 320 may be a hardware module or network device driver (such as a network interface card, a network interface chip, a networking interface port, etc.) of the payment system 120 that transmits / receives data and information of the terminal 110 and the shopping mall 130. driver) or a software module such as a networking program.
  • a hardware module or network device driver such as a network interface card, a network interface chip, a networking interface port, etc.
  • a software module such as a networking program.
  • FIG. 4 is a flowchart illustrating a process processing method by a touch input according to an exemplary embodiment.
  • the controller 310 of the payment system 120 may receive identification information indicating that a user's touch input with respect to an object output to the terminal 110 is detected through the communication unit 320.
  • the identification information includes a request for purchase of a certain product associated with the object that the user wishes to purchase.
  • the identification information may include information regarding the type of touch input sensed by the touch screen 225 and its specification.
  • the controller 310 may determine whether the touch input indicated by the received identification information is a preset touch input. For example, the controller 310 may determine whether the touch input indicated by the received identification information matches the touch input registered in at least one of the payment system 120 and the shopping mall 130 in the user terminal 110. have. For example, when the identification information indicates that the touch input coincides with the touch input preset by the user, steps 440 and 450 to be described below may be performed.
  • the touch input sensed by the terminal 110 is used for at least one touch sequentially input at predetermined time intervals, long touch held for a predetermined time, dragging, swipe, contact touch, poster touch, and touch input. It may include at least one of the touch input including the fingerprint information of the finger.
  • identifying information by dragging at least a portion of the object to a specific area of the touch screen 225. May be generated and transmitted to payment system 120, and steps 430 and 440 may be performed.
  • identification information may be generated and transmitted to the payment system 120, and steps 430 and 440 may be performed. Can be.
  • the controller 310 may acquire process information required for processing a process associated with an object touched from an external server, based on the received identification information.
  • An external server and a server associated with the external server are servers operated by an electronic trading company that sells the product and may correspond to the shopping mall 130 described above with reference to FIGS. 1 to 3.
  • the process may be a payment process for a desired product associated with the object of the user who performed the touch.
  • the process information may include product information on a desired product required for processing of a payment process and user information on the user who becomes a payer of the product.
  • the shopping mall 130 may be a predetermined affiliate business operator. In other words, even if the terminal 110 does not access the affiliate's shopping mall (for example, even if the web page on which the object is output is not the web page of the affiliate's shopping mall), information about the product sold by the affiliated operator and the affiliated operator is not included. Information about the registered user can be obtained as process information.
  • the controller 310 may process the process based on the received identification information and the process information. For example, the controller 310 may process a payment process using identification information indicating that a touch input is detected, user information and product information from the shopping mall 130.
  • the controller 310 displays information about a user (eg, a payer) who has performed a touch input and a processing result (eg, a payment result) of the process (eg, a payment result). , May be transmitted to the shopping mall 130.
  • a user eg, a payer
  • a processing result eg, a payment result
  • a payment result e.g., a payment result
  • the controller 310 may import product information necessary for processing the payment process from the shopping mall 130.
  • the payment system 120 may be provided with a payment API that can call the payment.
  • the payment API is provided in a script language so that the shopping mall 130 may use the payment API regardless of a development language.
  • the payment system 120 may request a payment from a financial company (eg, a bank or a card company). Based on the payment request, when the payment result is received from the financial company, the payment system 120 may transmit a processing result indicating the payment result to the shopping mall 130. In addition, the payment system 120 may transmit information about a user corresponding to the payer information to the shopping mall 130.
  • a financial company eg, a bank or a card company
  • a method of processing a specific payment process and a method of obtaining product information by the payment system 120 will be described in more detail with reference to FIGS. 5 to 11 to be described later.
  • FIG. 5 is a flowchart illustrating a method of extracting and processing image information and / or text information of an object according to an example.
  • the object output on the terminal 110 may include at least one of an image, a video, an advertisement, and text related to a desired product that the user wants to purchase.
  • the object output from the object output on the terminal 110 is provided.
  • a method of extracting text / image information to obtain information about a desired product is shown.
  • Step 430 described above with reference to FIG. 4 may include steps 510 to 540 to be described below.
  • the controller 310 may extract at least one of image information and text information included in an object output on the terminal 110 based on the received identification information. If the object includes text information related to the product, the text information extraction and processing unit 312 may extract the text information by extracting at least one word included in the text information.
  • the image information extraction and processing unit 314 may extract image information by capturing an area on the touch screen where a touch input is detected.
  • the controller 310 may search for information on a desired product from the database 330 based on the at least one information extracted in operation 510.
  • the text information extraction and processing unit 312 may search for information on the product by comparing the words included in the extracted text information with the trade names registered in the database 330.
  • the image information extraction and processing unit 314 may search for information on the product by comparing the extracted image information with the product images registered in the database 333.
  • the controller 310 may acquire information acquired by the search in operation 520 as commodity information.
  • the product information may include information about a desired product, and may include information about a plurality of products having high similarity based on the comparison of the extracted image information and / or text information with data in the database 330. .
  • the controller 310 may provide the terminal 110 with product information obtained in operation 530 through the communication unit 520. That is, the acquired product information may be provided to the user by being output through the terminal 110.
  • the commodity information includes information on a plurality of commodities
  • the commodity information may be output through the terminal 110 in the order of price of the commodity, a rating of the commodity, or a lot of reviews about the commodity.
  • the payment process of step 440 may be performed based on the user's additional selection (or touch input) of the output product information.
  • FIG. 6 is a flowchart illustrating a process information acquisition and process processing method according to a first touch input and a second touch input according to an example.
  • FIG. 6 illustrates a process information acquisition method and a payment process processing method when a touch input by a user includes a plurality of touch inputs.
  • the touch input may include a first touch input and a second touch input.
  • the touch input may include a plurality of sequential / non-sequential touch inputs.
  • the controller 310 may determine whether the identification information indicates that the first touch input is detected.
  • the controller 310 may provide the terminal 110 with detailed information about the desired product, and thus, the detailed information about the product is transmitted to the terminal. It may be output on the touch screen 225 of (110).
  • the controller 310 may determine whether the identification information indicates that the second touch input is detected. If the identification information indicates that the second touch input is detected, for example, step 440 may be performed to process the payment process. If another touch input is detected or if the second touch input is not detected for a predetermined time, the payment process may not proceed.
  • the detailed information of the desired product may be output to the terminal 110 when the first touch input of the user of the terminal 110 is performed, and the payment process for the desired product may be processed at the second touch input.
  • Each of the first touch input and the second touch input includes at least one touch sequentially input at a predetermined time interval, a long touch held for a predetermined time, a drag, a swipe, a contact touch, a poster touch, and a touch input. It may include at least one of the touch input including the fingerprint information of the finger used.
  • FIG. 7 is a flowchart illustrating a process processing method according to an example.
  • Step 440 may include steps 710 and 720 to be described below.
  • the controller 310 may receive a confirmation signal for a payment process from the terminal 110 through the communication unit 320.
  • the confirmation signal may include information for confirming / approving the payment for the desired product by the user of the terminal 110.
  • the controller 310 may complete a payment process for a desired product based on the received confirmation signal. Alternatively, if a confirmation signal including information for confirming / approving payment for a desired product is not received, the payment process may be completed without being completed.
  • step 450 described above with reference to FIG. 4 may be performed.
  • FIG. 8 is a flowchart illustrating a process processing method by a touch input including fingerprint information according to an example.
  • the touch input to the user's object of the terminal 110 may include fingerprint information of the user's finger used for the touch input. That is, the identification information received by the payment system 120 may include fingerprint information of a finger used for a touch input.
  • the controller 310 may identify whether the fingerprint information included in the identification information matches the fingerprint information registered in the terminal 110 or the external server (or the shopping mall 130). Alternatively, the controller 310 may identify whether the fingerprint information included in the identification information matches the fingerprint information registered in the payment system 120. If the fingerprint information included in the identification information matches the fingerprint information registered in the terminal 110, the payment system 120, or the shopping mall 130, the payment process for the desired product may be processed.
  • step 810 may be performed as an alternative or in addition to the step 420.
  • step 810 whether the fingerprint information included in the identification information matches the fingerprint information of the first finger of the user may be identified, and the fingerprint information included in the identification information matches the fingerprint information of the first finger of the user. If so, the payment process for the desired product can be processed. Additionally or alternatively, in step 810, it can be identified whether the fingerprint information matches the fingerprint information of the user's second finger. When the fingerprint information included in the identification information matches the fingerprint information of the user's second finger, detailed information about the desired product may be provided to the terminal 110, and on the touch screen 225 of the terminal 110. Can be output.
  • the touch panel of the touch screen 225 may include a fingerprint sensor or a panel in which the fingerprint sensor is integrally formed.
  • the fingerprint information included in the touch input may be input through a separate fingerprint recognition sensor other than the touch on the touch screen 225.
  • the user of the terminal 110 clicks the shopping cart (in the shopping mall application by the shopping mall 130 or in the payment application by the payment system 120) to check other products and to further perform the payment process. Proceed to proceeding (at this time, by clicking (or touching) the contents (product) stored in the shopping cart can be extracted image about the product). Accordingly, the payment process may be performed on the goods according to the method described above with reference to FIGS. 4 to 8.
  • 9 to 11 illustrate a method of extracting and processing image information and / or text information of an object according to FIG. 5.
  • the user may designate an area for searching for a predetermined product by using a touch input (for example, by dragging at least a portion of the output object) on the object output on the terminal 110.
  • text associated with the product may be extracted (step 510) and brand name (s) containing the relevant text may be retrieved from the database 330 (step 520).
  • text extraction can be performed by optical character recognition (OCR).
  • OCR optical character recognition
  • Each word of the extracted text is compared with product names registered in the database 330 to search for and obtain product information of a product containing the word.
  • an image corresponding to the area selected by the touch input may be extracted (step 510). For example, after the minimum, maximum x, y coordinates (max-x, max-y, min-x, min-y) are calculated in the touched area (min-x, min-y), (min-x, max An image corresponding to a rectangular region corresponding to four points of -y), (max-x, min-y), and (max-x, max-y) may be extracted.
  • An image with a high image corresponding to the extracted image may be retrieved from the database 330 (step 520).
  • the image retrieval of step 520 is calculated by calculating a similarity between the main color and invariant moment values appearing in the extracted image and the merchandise image stored in the database 330 for at least one area centered on the center of the image. This can be done.
  • the image search comprises the steps of: i) weighting each region of the extracted image, extracting representative colors of the extracted image or region, and excluding dissimilar images from the search target; ii) removing the extracted image.
  • the product information as a search result may be output to the user's terminal 110 as a search product list (step 540), for example, by the user's selection, the payment process for the product may proceed (step 440). ).
  • the search results may include search results by text extraction and search results through image search as product information, or an optimal search result (for example, by combining search results through text extraction and search results through image search). , The intersection of the two search results) may be included as product information.
  • the payment system 120 may include an image detection unit generating an image of a selected area portion of the smartphone (corresponding to the terminal 110), an image preprocessing unit for clearly distinguishing a character image portion other than characters and characters included in the image, and a character.
  • a character recognition unit that performs a function of recognizing a character included in a preprocessed image based on a recognition algorithm, and a product information database (corresponding to the database 330) of a character extracted from the character recognition unit and an image processed by the image preprocessor.
  • a product searching unit which obtains the matching product information from the product information database and provides the product list as a product list, and a payment processing unit (the above-described configurations correspond to the control unit 310). Can be.
  • the image detector may include a screen capture unit, a selection area derivator, and an image generator.
  • the screen capture unit captures the entire screen that the user is viewing and creates an image.
  • the selection area deriver obtains the maximum / minimum x and y coordinate values by generating all coordinates moved by the user and generates 4 coordinates. And a rectangular region with four coordinates as the four vertices of the rectangle can be calculated.
  • the image generator may generate an image corresponding to an area obtained by the selection area derivation unit in the image generated by the screen capture unit.
  • the image preprocessor includes a tilt corrector, a color tone detector, a binary image converter, a noise remover, a structure analyzer, and a character divider.
  • the hue detector may extract a hue value (or hue value) of the image provided by the image detector in units of pixels, and then store the extracted hue value in a preset memory space.
  • the gray converting unit may perform a function of converting an original image, which is a target of character recognition, into a gray-scale image.
  • the binary image converter may convert a grayscale image into a binary image by using a color tone value provided from the color tone detector. In this case, the binary image converter may clearly distinguish between a character and a background of the grayscale image by using a hue value extracted from the original image in various ways.
  • the noise removing unit removes the noise included in the image that is the object of character recognition.
  • Techniques such as a low pass filter, a median filter, and a smoothing technique may be applied to remove the noise.
  • the structure analyzer may perform a function of detecting a text area and a product image area by analyzing a structure (or layout) of an image that is an object of character recognition.
  • the character divider may perform a function of dividing a text area of an image, which is a target of character recognition, in units of characters.
  • the character recognition unit may perform a function of recognizing a character included in a preprocessed image based on a character recognition algorithm. That is, the character recognition unit may recognize the character by extracting the characteristics of each character and comparing the value with the character registered in the database.
  • the commodity searcher may import a commodity list by comparing the commodity in the commodity information database based on the characters transferred from the character recognition unit.
  • content-based image retrieval may be performed through similarity inspection for each region of the image generated by the image detector and the product image stored in the product information database.
  • the payment processor may transmit a payment result to the shopping mall 130 after performing a payment based on the product information selected by the product search unit.
  • the shopping mall 130 may be a predetermined affiliate business operator.
  • the product information database may store product images and product information (product name, price, and options) registered by affiliated businesses, may be searched through the product search unit, and the shopping mall 130 for delivering the result processed by the payment processing unit. Url information can be stored.
  • the touch input device may detect a contact position of a finger or the like on the touch panel and provide information regarding the detected connection position as input information.
  • the touch input device can also sense the force exerted on the touch by using the property that the stray capacitance generated between the capacitive touch panel and the other components is changed by the touch pressure.
  • the electronic device 100 outputs a signal for driving the touch input device 1 and the touch input device 1 configured to transmit a touch input signal, and inputs an input signal from the touch input device 1.
  • the touch panel control device 3 which receives the touch panel drive signal from the touch panel control device 3, and generates a touch panel drive voltage to generate a touch panel drive voltage, and touches the touch panel control device 3.
  • the touch input device 1 may include a housing 10, a cover 20, a touch panel 30, a cavity 40, and light emitting layers 50 and 60.
  • the touch panel 30 includes a sensing electrode (a vertical electrode) and a driving electrode (a horizontal electrode), and an area at or near the intersection of the row electrode and the column electrode may be referred to as a node 15. have.
  • Each node 15 may have stray capacitance, which is capacitance present between electronic circuit components, between wirings, between wirings, and between components and a substrate.
  • a voltage is applied to the driving electrode, electric charge may be injected from the sensing electrodes through mutual capacitance at the intersection of the driving electrode 71 and the sensing electrodes 72.
  • a driving voltage in the form of a pulse train may be applied through the terminal A110.
  • the current i1 flowing from the terminal A110 can be accumulated in the sensing capacitor A310.
  • the amount of charge accumulated in the sensing capacitor A310 depends on the capacitance value of the sensing capacitor A310.
  • the switches A111 and A114 are turned off and the switches A112 and A113 are turned on, the charges accumulated in the sensing capacitor A310 are changed to the flow of the current i2 to integrate the capacitor ( May be accumulated in A320).
  • an analog output convertible to a digital signal of sufficient resolution is generated at the output terminal A340 of the operational amplifier A330. Accordingly, the presence or absence of a touch input is detected by using the output voltage output from the output terminal A340.
  • the main factor determining the output voltage is a capacitance value of the sensing capacitor A310. However, looking at the more direct cause, it can be seen that the magnitude of the current (i2) flowing into the integration capacitor (A320) is a major factor in determining the output voltage.
  • FIG. 16A illustrates a change in the electric field when a touch input is made by the human finger 600 and shows that the capacitance value of the capacitor becomes smaller due to the finger. Further, since the finger does not absorb the second electric field 311 existing in the space of the gap 40 between the driving electrode n1 and the liquid crystal panel 50, the size of the second electric field 311 is not changed. Therefore, the capacitance value of the first stray capacitor 311 is not changed yet.
  • FIG. 16B illustrates a case in which the touch panel 30 is applied with a strong pressure to the downward direction by applying a force to the finger. At this time, the size of the void 40 is reduced. In this case, since the distance between the driving electrode n1 and the liquid crystal panel 50 is closer, the size of the second electric field 311 becomes larger, and the capacitance value of the first stray capacitor 311 increases further. .
  • the current i2 flowing into the integration capacitor A320 is proportional to the current i1 flowing out of the terminal A110 minus the current i3 flowing through the first stray capacitor A311.
  • the current i1 flows by a predetermined magnitude. Therefore, as the impedance of the sensing capacitor A310 is higher and the impedance of the first stray capacitor A311 is lower, the amount of change of i2 becomes larger. In other words, the more the contact is made to the touch panel 30 and the more the force F for pressing the touch panel 30 increases, the larger the change amount of i2 is.
  • the area A1 shows no touch at all, and the finger is not near at all near the touch panel 30.
  • Area A2 represents a situation where a finger is in contact with the touch panel or the finger is very close to the touch panel.
  • the area A3 represents a case where not only the finger is in contact with the touch panel but also the gap 40 is gradually narrowed by the force of the finger pressing the touch panel.
  • the touch panel controller transmits a touch signal to the main processor.
  • the touch panel controller may transmit the node information on which ⁇ Cx is generated and the ⁇ Cx value to the main processor.
  • the main processor uses touch and poster value event information based on the location information calculated from the received node information, the object information at the corresponding location, the first threshold values ⁇ Cx, th1 and the second threshold values ⁇ Cx, th2, and ( [Delta] Cx-The magnitude information of the force according to the second threshold value ( ⁇ Cx, th2)) may be generated.
  • the pseudo code for the processing of a general touch input can be defined as follows.
  • the double tap may be recognized by comparing the time interval and the coordinates between the two tap events. For example, if the previous touch event is a tap event, the difference in occurrence time between the previous tap event and the current tap event is 1 second or less, and the difference between the occurrence coordinates of the tap events is less than or equal to a predetermined value (eg, 10), 2 Tapped events may be considered to have occurred a double tap event.
  • a predetermined value eg, 10
  • the pseudo code for the handling of the double tap event can be defined as follows.
  • the touch start event occurs, if the touch movement event and the touch completion event does not occur for a predetermined time, it may be determined as a long touch. For example, if the touch movement and the touch completion event do not occur for more than 2 seconds after the touch start event occurs, the long touch event may be generated.
  • the pseudo code for the processing of the long touch event may be defined as follows.
  • pseudo codes can be defined as follows.
  • moveDistance ((start.x-move.x) ⁇ 2 + (start.y-move.y) ⁇ 2) ⁇ 0.5 // Find Move Distance
  • the posterior value may be considered to have occurred.
  • a force touch event may be considered to have occurred if the force exerted for the touch is greater than a predetermined value, otherwise a normal tap event may be considered to have occurred.
  • the pseudo code for the processing of the posterior event may be defined as follows.
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the devices and components described in the embodiments may be, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable arrays (FPAs), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted.
  • the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Finance (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

단말의 터치 스크린 상에 출력된 객체에 대해 터치 입력이 감지되었음을 나타내는 식별 정보를 수신하고, 수신된 식별 정보에 기반하여 외부 서버로부터 객체와 연관된 프로세스의 처리를 위해 요구되는 프로세스 정보를 획득하고, 수신된 식별 정보 및 획득된 프로세스 정보에 기반하여 프로세스를 처리하는 방법 및 시스템이 제공된다. 터치 입력을 수행한 사용자에 대한 정보 및 프로세스의 처리 결과는 외부 서버 또는 외부 서버와 연관된 서버로 전송될 수 있다.

Description

터치 입력에 기반한 프로세스 처리 방법 및 시스템
아래의 실시예들은 프로세스를 처리하는 방법 및 시스템과 관련되고, 특히, 터치 입력이 감지됨에 따라 프로세스를 처리하는 방법 및 시스템과 관련된다.
사용자는 컴퓨터 또는 모바일 환경에서, 구입하고자 하는 상품에 대한 상세 정보를 획득할 수 있고, 사용자가 해당 상품을 구입할 것을 결정한 경우 컴퓨터 또는 모바일 환경에서 제공되는 어플리케이션 또는 웹 페이지를 통해 상품에 대한 결제 프로세스가 처리될 수 있다.
이러한 결제 프로세스의 처리를 위해서는, 사용자가 쇼핑몰 등에서 구입하고자 하는 소기의 상품을 선택하는 것 외에, 상품의 주문 및 결제를 위해서는 추가적인 정보 입력(예컨대, 배송지 정보 및 해당 쇼핑몰에 대한 회원 정보 등)이 요구되거나, 별도의 인증서 또는 프로그램을 설치할 것이 요구되었다. 상기와 같은 추가적인 정보의 입력 및 프로그램의 설치는 사용자의 불편을 야기하는 것으로서, 컴퓨터 및 모바일 환경에서의 사용자의 경험을 불만족스럽게 하는 것인 바, 종래의 상품의 주문 및 결제 프로세스에 비해, 간편하면서도 안전하게 소기의 상품에 대한 주문 및 결제 프로세스를 처리할 수 있는 방법 및 시스템이 요구된다.
한국공개특허 제10-2012-0125179호(공개일 2012년 11월 14일)에는 전자 거래 플랫폼을 통하여 거래를 처리하는 휴대 전자 장치를 이용하여 구현되고, 휴대 전자 장치가 거래와 관련된 거래 정보를 생성하고, 지불 카드로부터 지불 계좌 정보를 얻으며, 전자 거래 플랫폼과의 세션을 설정하여 전자 거래 플랫폼과 통신하고, 전자 거래 플랫폼과 협력하여 거래를 위한 지불을 처리하는 모바일 거래 방법이 개시되어 있다.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.
일 실시예는 단말의 터치 스크린 상에 출력된 객체에 대한 터치 입력이 감지됨에 따라, 객체와 연관된 프로세스의 처리를 위해 요구되는 프로세스 정보를 획득하고, 해당 프로세스가 처리되는 방법 및 시스템을 제공할 수 있다.
일 실시예는 사용자의 객체에 대한 터치 입력에 기반하여, 객체와 연관된 소기의 상품에 대한 결제 프로세스가 처리될 수 있는 방법 및 시스템을 제공할 수 있다.
일 측면에 있어서, 단말의 터치 스크린 상에 출력된 객체에 대한 터치 입력이 감지되었음을 나타내는 식별 정보를 수신하는 단계; 상기 식별 정보에 기반하여 외부 서버로부터 상기 객체와 연관된 프로세스의 처리를 위해 요구되는 프로세스 정보를 획득하는 단계; 상기 식별 정보 및 상기 프로세스 정보에 기반하여 상기 프로세스를 처리하는 단계; 및 상기 터치 입력을 수행한 사용자에 대한 정보 및 상기 프로세스의 처리 결과를 상기 외부 서버 또는 상기 외부 서버와 연관된 서버로 전송하는 단계를 포함하는, 프로세스 처리 방법이 제공된다.
상기 터치 입력은 소정의 시간 간격으로 순차적으로 입력되는 적어도 한 번의 터치, 소정의 시간 이상 동안 유지되는 롱 터치, 드래그, 스와이프, 접점터치, 포스터치 및 터치 입력에 사용된 손가락의 지문 정보를 포함하는 터치 입력 중 적어도 하나를 포함할 수 있다.
상기 프로세스 정보를 획득하는 단계 및 상기 프로세스를 처리하는 단계는, 상기 식별 정보가 상기 터치 입력이 사용자에 의해 기 설정된 터치 입력과 일치함을 나타내면 수행될 수 있다.
상기 객체는 사용자가 구매하고자 하는 소기의 상품과 연관될 수 있다.
상기 외부 서버 및 상기 외부 서버와 연관된 서버는 상기 상품을 판매하는 전자 거래 사업자에 의해 운영될 수 있다.
상기 프로세스는 상기 상품에 대한 상기 사용자의 결제 프로세스일 수 있다.
상기 프로세스 정보는 상기 결제 프로세스의 처리를 위해 요구되는 상기 상품에 대한 상품 정보 및 상기 사용자에 대한 사용자 정보를 포함할 수 있다.
상기 터치 입력은 제1 터치 입력 및 제2 터치 입력 중 적어도 하나를 포함할 수 있다.
상기 프로세스 정보를 획득하는 단계는, 상기 식별 정보가 상기 제1 터치 입력이 감지됨을 나타내면, 상기 상품에 대한 상세 정보를 상기 터치 스크린 상에 출력하는 단계를 포함할 수 있다.
상기 프로세스를 처리하는 단계는, 상기 식별 정보가 상기 제2 터치 입력이 감지됨을 나타내면, 상기 결제 프로세스를 처리할 수 있다.
상기 객체는 상기 상품과 관련된 이미지, 동영상, 광고 및 텍스트 중 적어도 하나를 포함할 수 있다.
상기 프로세스 정보를 획득하는 단계는, 상기 식별 정보에 기반하여 상기 객체에 포함된 이미지 정보 및 텍스트 정보 중 적어도 하나의 정보를 추출하는 단계; 상기 추출된 적어도 하나의 정보에 기반하여 데이터베이스로부터 상기 상품에 대한 정보를 검색하는 단계; 및 상기 검색에 의해 획득된 정보를 상기 상품 정보로서 획득하는 단계를 포함할 수 있다.
상기 객체가 상기 상품과 관련된 텍스트 정보를 포함하면, 상기 추출하는 단계는, 상기 텍스트 정보에 포함된 적어도 하나의 단어를 추출함으로써 상기 텍스트 정보를 추출하고, 상기 검색하는 단계는, 상기 단어를 상기 데이터베이스에 등록된 상품명들과 비교함으로써, 상기 상품 정보를 검색할 수 있다.
상기 객체가 상기 상품과 관련된 이미지 정보를 포함하면, 상기 추출하는 단계는, 상기 터치 입력이 감지된 상기 터치 스크린 상의 영역을 캡쳐함으로써 상기 이미지 정보를 추출하고, 상기 검색하는 단계는, 상기 추출된 이미지 정보를 상기 데이터베이스에 등록된 상품 이미지들과 비교함으로써, 상기 상품 정보를 검색할 수 있다.
상기 프로세스를 처리하는 단계는, 상기 단말로부터 상기 결제 프로세스에 대한 확인 신호를 수신하는 단계; 및 상기 확인 신호에 기반하여 상기 결제 프로세스를 완료하는 단계를 포함할 수 있다.
상기 식별 정보는 상기 터치 입력에 사용된 손가락의 지문 정보를 포함할 수 있다.
상기 프로세스 처리 방법은, 상기 지문 정보가 상기 단말 또는 상기 외부 서버에 등록된 지문 정보와 일치하는지 여부를 식별하는 단계를 더 포함할 수 있다.
상기 프로세스를 처리하는 단계는, 상기 지문 정보가 상기 단말 또는 상기 외부 서버에 등록된 지문 정보와 일치하면, 상기 결제 프로세스를 처리할 수 있다.
상기 식별하는 단계에서, 상기 지문 정보가 사용자의 제1 손가락의 지문 정보와 일치하는지 여부가 식별될 수 있다.
상기 지문 정보가 상기 사용자의 제1 손가락의 지문 정보와 일치하면, 상기 결제 프로세스가 처리될 수 있다.
상기 식별하는 단계에서, 상기 지문 정보가 사용자의 제2 손가락의 지문 정보와 일치하는지 여부가 식별될 수 있다.
상기 지문 정보가 상기 사용자의 제2 손가락의 지문 정보와 일치하면, 상기 상품에 대한 상세 정보가 상기 터치 스크린 상에 출력될 수 있다.
상기 전자 거래 사업자는 소정의 가맹 사업자일 수 있다.
상기 프로세스 정보를 획득하는 단계는, 상기 가맹 사업자가 판매하는 상기 상품에 대한 정보 및 상기 가맹 사업자에 등록된 상기 사용자에 대한 정보를 상기 프로세스 정보로서 획득할 수 있다.
객체에 대해 기 설정된 터치 입력이 감지될 때, 객체와 연관된 프로세스를 처리할 수 있는 방법 및 시스템이 제공된다.
사용자의 객체에 대한 터치 입력에 기반하여, 객체와 연관된 소기의 상품에 대한 결제 프로세스가 처리됨으로써, 사용자의 불필요한 정보 입력 없이 결제 프로세스를 처리할 수 있는 방법 및 시스템이 제공된다.
감지되는 터치 입력의 종류에 따라, 객체와 연관된 소기의 상품에 대한 상세 정보를 제공하거나, 소기의 상품에 대한 결제 프로세스가 처리될 수 있는 방법 및 시스템이 제공된다.
도 1은 일 실시예에 따른 터치 입력에 의한 결제 프로세스를 처리하는 방법을 나타낸다.
도 2는 일 실시예에 따른 터치 스크린을 포함하는 단말을 나타낸다.
도 3은 일 실시예에 따른 결제 프로세스를 처리하는 결제 시스템을 나타낸다.
도 4는 일 실시예에 따른 터치 입력에 의한 프로세스 처리 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른 객체의 이미지 정보 및/또는 텍스트 정보를 추출하고 처리하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른 제1 터치 입력 및 제2 터치 입력에 따른 프로세스 정보 획득 및 프로세스 처리 방법을 나타내는 흐름도이다.
도 7은 일 예에 따른 프로세스 처리 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른 지문 정보를 포함하는 터치 입력에 의한 프로세스 처리 방법을 나타내는 흐름도이다.
도 9는 도 5에 따른 객체의 이미지 정보 및/또는 텍스트 정보를 추출하고 처리하는 방법을 나타낸다.
도 10은 일 예에 따른 객체에 포함된 이미지 정보를 추출하고 처리하는 방법을 나타낸다.
도 11은 일 예에 따른 객체에 포함된 텍스트 정보를 추출하고 처리하는 방법을 나타낸다.
도 12 내지 19는 단말에 의해 감지되는 터치 입력의 종류 및 단말에 의한 터치 입력의 감지 방법을 더 자세하게 설명하는 개념도 및 회로도를 나타낸다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 터치 입력에 의한 결제 프로세스를 처리하는 방법을 나타낸다.
도 1에는 단말(110)의 터치 스크린 상에 출력된 객체에 대해 터치 입력이 감지되면, 객체와 연관된 상품에 대한 결제 프로세스가 결제 시스템(120)에 의해 이루어지는 방법이 도시되었다.
도시된 것처럼, 단말(110)의 터치 스크린 상에 출력되는 객체는 가상의 객체로서, 웹 페이지 상에 출력되는 이미지, 텍스트, 광고 또는 동영상 컨텐츠의 적어도 일부일 수 있다. 객체는 사용자가 구매하고자하는 소기의 상품과 연관될 수 있다. 말하자면, 객체에 포함된 이미지, 텍스트, 광고 또는 동영상 컨텐츠는 소기의 상품과 연관된 것일 수 있다. 객체가 출력되는 웹 페이지는 전자 거래 사업자(쇼핑몰)(130)에 의해 운영되는 쇼핑몰의 웹 페이지일 수 있다. 쇼핑몰(130)은 전자 거래 사업자가 쇼핑몰의 운영을 위해 보유하는 서버를 의미할 수 있다.
사용자는 단말(110)의 터치 스크린 상에 출력된 객체를 터치하는 것을 통해 객체와 연관된 소기의 상품에 대한 결제 프로세스가 진행되도록 할 수 있다. 이 때, 결제 프로세서를 진행하기 위한 터치 입력은 사용자에 의해 기 설정된 것일 수 있다. 결제 시스템(120)은, 사용자에 의한 터치 입력이 감지되면, 소기의 상품에 대한 결제 프로세스를 처리하기 위해 요구되는 정보를 사용자가 구매하고자 하는 소기의 상품을 판매하는 쇼핑몰(130)로부터 획득할 수 있다. 쇼핑몰(130)로부터 획득되는 정보는 사용자에 대한 정보 및 소기의 상품에 대한 상품 정보일 수 있다. 여기서, 사용자는 쇼핑몰(130)의 회원으로서, 쇼핑몰(130)은 사용자에 대한 정보를 회원 정보로서 보유하고 있는 것이 가정될 수 있다.
결제 시스템(120)은 쇼핑몰(130)로부터 획득되는 정보를 사용하여 소기의 상품에 대한 결제 프로세스를 처리할 수 있고, 따라서, 사용자는 소기의 상품의 주문을 위해 요구되는 정보, 예컨대, 주문자 정보 및 배송지 정보 등을 입력하지 않고도 소기의 상품에 대한 결제 처리를 완료할 수 있다. 말하자면, 사용자가 소기의 상품을 구매함에 있어서, 쇼핑몰(130)에 의해 사용자의 회원 가입 여부가 확인되거나, 주문자 정보 및 배송 정보와 같은 주문 정보의 입력이 요구되는 프로세가 생략될 수 있다.
결제 시스템(120)은 결제 처리가 완료되면, 결제 정보 및 결제자 정보를 쇼핑몰(130)로 제공할 수 있다. 또한, 결제 시스템(120)은 단말(110)에도 결제 정보를 전송할 수 있고, 따라서, 사용자가 소기의 상품에 대한 결제가 완료되었음을 인식하도록 할 수 있다.
단말(110) 및 결제 시스템(130)의 구조 구체적인 결제 프로세스의 처리 방법에 대해서는 후술될 도 2 내지 도 11을 참조하여 더 자세하게 설명된다.
도 2는 일 실시예에 따른 터치 스크린을 포함하는 단말을 나타낸다.
단말(110)은 터치 스크린(터치 패널)(225)을 포함하는 디스플레이 장치(220), 제어부(210) 및 통신부(250)를 포함할 수 있다. 또한, 단말(110)은 터치 스크린(225)을 제어하기 위한 터치 스크린 제어부(230)를 더 포함할 수 있다. 터치 스크린 제어부(230)는 제어부(210)에 포함되어 구성될 수도 있다.
디스플레이 장치(220)는 제어부(210)에 의해 처리된 정보, 적어도 하나의 객체 및 상기 정보의 처리 또는 객체의 제어를 위한 입력을 수신하기 위한 사용자 인터페이스 중 적어도 하나를 출력할 수 있다. 예컨대, 디스플레이 장치(220)는 모니터, 액정 디스플레이(Liquid Crystal Display; LCD), 발광 다이오드(Light Emitting Diode; LED) 디스플레이 및 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 디스플레이를 포함할 수 있다.
터치 스크린(225)은 단말(110)의 사용자로부터의 적어도 하나의 터치 입력을 감지할 수 있다. 예컨대, 사용자는 터치 스크린(225)을 통해 단말(100)을 제어하거나 터치 스크린(110) 상에 출력된 객체를 제어할 수 있다. 터치 스크린(225)은 터치 스크린 제어부(230)에 의해 제어될 수 있다.
제어부(210)는 단말(110)의 구성 요소들을 관리할 수 있고, 단말(110)이 사용하는 프로그램 또는 어플리케이션을 실행할 수 있다. 예컨대, 제어부(210)는 결제 시스템(120)에 의한 결제 프로세스의 처리를 위해 단말(110) 내에 설치되는 어플리케이션을 실행할 수 있다. 또한, 제어부(210)는 프로그램 또는 어플리케이션의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있다. 제어부(210)는 단말(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.
통신부(250)는 단말(110)과는 상이한 다른 단말(들) 또는 서버와 통신하기 위한 장치일 수 있다. 예컨대, 소기의 상품과 연관된 객체에 대해, 사용자에 의한 터치 입력이 감지되면, 제어부(210)는 통신부(250)를 통해 결제 시스템(120)으로 소기의 상품에 대한 결제 또는 상품에 대한 상세 정보를 요청할 수 있고, 결제 프로세스가 완료될 경우, 통신부(250)를 통해 결제 결과를 수신할 수 있다.
도시되지는 않았으나, 통신부(250)는 다른 단말(들) 또는 서버와의 신호 및 정보의 송수신을 위한 하나 이상의 안테나를 포함할 수 있다. 통신부(250)는 단말(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
단말(110)은 데이터 또는 정보를 저장하기 위한 저장부(240)를 더 포함할 수 있다. 저장부(240)에는 제어부(210)가 실행하는 프로그램 또는 어플리케이션 및 이와 관련된 정보가 저장될 수 있다.
제어부(220)에 의해 터치 스크린(110) 상에 출력된 객체의 형태가 변경되고 형태가 변경된 객체가 터치 스크린(110) 상에 출력되는 방법에 대해서는 후술될 도 3 내지 도 11을 참조하여 더 자세하게 설명된다.
앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 3은 일 실시예에 따른 결제 프로세스를 처리하는 결제 시스템을 나타낸다.
결제 시스템(120)은 단말(110)에 의해 객체에 대한 터치 입력이 감지됨에 따라, 단말(110)로부터 수신되는 결제 요청(또는 식별 정보)를 수신하고, 수신된 결제 요청(또는 식별 정보)과 쇼핑몰(130)로부터 획득되는 소기의 상품에 관한 상품 정보 및 단말의 사용자에 대한 사용자 정보에 기반하여 객체와 연관된 소기의 상품에 대한 결제 프로세스를 처리하는 서버 또는 기타 장치일 수 있다. 결제 시스템(120)은 결제 프로세스가 완료되면, 해당 결제 프로세스의 결과를 나타내는 결제 정보 및 결제한 사용자에 대한 결제자 정보를 쇼핑몰(130)로 전송할 수 있고, 결제 프로세스가 완료되었음을 단말(110)에 통지할 수 있다.
결제 시스템(120)은 제어부(310), 통신부(320) 및 데이터베이스(330)를 포함할 수 있다. 또는, 데이터베이스(330)는 결제 시스템(120)과 별개의 구성으로서 존재할 수 있다.
제어부(310)는 결제 시스템(120)의 구성 요소들을 관리할 수 있고, 결제 시스템(120)이 사용하는 프로그램 또는 어플리케이션을 실행할 수 있다. 예컨대, 제어부(310)는 결제 프로세스의 처리에 요구되는 프로그램의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있다. 제어부(310)는 결제 시스템(120)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.
제어부(310)는, 단말(110)로부터 수신된, 터치 입력이 감지됨을 나타내는 식별 정보에 기반하여, 소기의 상품에 대한 결제 프로세스를 처리하거나, 데이터베이스(330)를 참조하여 소기의 상품에 대한 상품 정보를 검색할 수 있다. 예컨대, 제어부(310)의 텍스트 정보 추출 및 처리부(312)는 단말(110)로부터 수신된 식별 정보에 기반하여, 객체에 포함된 텍스트 정보를 추출할 수 있고, 추출된 텍스트 정보에 기반하여 소기의 상품에 대한 상품 정보를 검색할 수 있다. 또한, 제어부(310)의 이미지 정보 추출 및 처리부(314)는 단말(110)로부터 수신된 식별 정보에 기반하여, 객체에 포함된 이미지 정보를 추출할 수 있고, 추출된 이미지 정보에 기반하여 소기의 상품에 대한 상품 정보를 검색할 수 있다. 텍스트 정보 추출 및 처리부(312) 및 정보 추출 및 처리부(314)는 제어부(310) 내에 포함된 하드웨어 모듈 또는 소프트웨어 모듈로서 구성될 수 있다.
통신부(320)는 단말(110) 및 쇼핑몰(130)과 통신하기 위한 장치일 수 있다. 말하자면, 통신부(320)는 단말(110) 및 쇼핑몰(130) 데이터 및 정보를 전송/수신하는 결제 시스템(120)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
결제 시스템(120)의 구체적인 동작 및 결제 프로세스의 처리 방법에 대해서는 후술될 도 4 내지 도 11을 참조하여 더 자세하게 설명된다.
앞서 도 1 및 2를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 4는 일 실시예에 따른 터치 입력에 의한 프로세스 처리 방법을 나타내는 흐름도이다.
단계(410)에서, 결제 시스템(120)의 제어부(310)는, 통신부(320)를 통해, 단말(110)에 출력된 객체에 대한 사용자의 터치 입력이 감지되었음을 나타내는 식별 정보를 수신할 수 있다. 식별 정보는, 사용자가 구매하고자 하는, 상기 객체와 연관된 소정의 상품의 구매를 위한 요청을 포함한다. 또한, 식별 정보는 터치 스크린(225)에 의해 감지된 터치 입력의 종류 및 그 명세에 관한 정보를 포함할 수 있다.
단계(420)에서, 제어부(310)는 수신된 식별 정보가 나타내는 터치 입력이 기 설정된 터치 입력인지 여부를 판정할 수 있다. 예컨대, 제어부(310)는 수신된 식별 정보가 나타내는 터치 입력이 사용자의 단말(110)에, 결제 시스템(120) 및 쇼핑몰(130) 중 적어도 하나에 등록된 터치 입력과 일치하는지 여부를 판정할 수 있다. 예컨대, 식별 정보가 상기 터치 입력이 사용자에 의해 기 설정된 터치 입력과 일치함을 나타낼 경우에, 후술될 단계들(440 및 450)이 수행될 수 있다.
단말(110)에 감지되는 터치 입력은 소정의 시간 간격으로 순차적으로 입력되는 적어도 한 번의 터치, 소정의 시간 이상 동안 유지되는 롱 터치, 드래그, 스와이프, 접점터치, 포스터치 및 터치 입력에 사용된 손가락의 지문 정보를 포함하는 터치 입력 중 적어도 하나를 포함할 수 있다.
단말(110) 상에 출력되는 객체 및 객체가 출력된 터치 스크린(225)의 영역을 터치하는 것 외에, 예컨대, 객체의 적어도 일부를 드래그하여 터치 스크린(225)의 특정 영역으로 옮기는 것에 의해서도 식별 정보가 생성되어 결제 시스템(120)으로 전송될 수 있고, 단계들(430 및 440)이 수행될 수 있다.
또는, 터치 입력에 소정 값 이상의 힘이 사용되거나, 특정 손가락에 의한 터치 입력이 감지될 때, 식별 정보가 생성되어 결제 시스템(120)으로 전송될 수 있고, 단계들(430 및 440)이 수행될 수 있다.
단계(430)에서, 제어부(310)는 수신된 식별 정보에 기반하여 외부 서버로부터 터치된 객체와 연관된 프로세스의 처리를 위해 요구되는 프로세스 정보를 획득할 수 있다. 외부 서버 및 상기 외부 서버와 연관된 서버는 상기 상품을 판매하는 전자 거래 사업자에 의해 운영되는 서버로서, 도 1 내지 3을 참조하여 전술된 쇼핑몰(130)에 대응할 수 있다. 프로세스는 터치를 수행한 사용자의 상기 객체와 연관된 소기의 상품에 대한 결제 프로세스일 수 있다. 프로세스 정보는 결제 프로세스의 처리를 위해 요구되는 소기의 상품에 대한 상품 정보 및 상기 상품의 결제자가 되는 상기 사용자에 대한 사용자 정보를 포함할 수 있다.
쇼핑몰(130)은 전자 거래 사업자로서 소정의 가맹 사업자일 수 있다. 말하자면, 단말(110)이 가맹 사업자의 쇼핑몰에 접속하지 않았더라도(예컨대, 객체가 출력된 웹 페이지가 가맹 사업자의 쇼핑몰의 웹 페이지가 아니더라도), 가맹 사업자가 판매하는 상품에 대한 정보 및 가맹 사업자에 등록된 상기 사용자에 대한 정보가 프로세스 정보로서 획득될 수 있다.
단계(440)에서, 제어부(310)는 수신된 식별 정보 및 프로세스 정보에 기반하여 프로세스를 처리할 수 있다. 예컨대, 제어부(310)는 터치 입력이 감지되었음을 나타내는 식별 정보와 쇼핑몰(130)으로부터의 사용자 정보 및 상품 정보를 사용하여 결제 프로세스를 처리할 수 있다.
단계(450)에서, 제어부(310)는 터치 입력을 수행한 사용자(예컨대, 결제자)에 대한 정보 및 상기 프로세스의 처리 결과(예컨대, 결제 결과)를 외부 서버 또는 상기 외부 서버와 연관된 서버(예컨대, 쇼핑몰(130)로 전송할 수 있다.
예컨대, 제어부(310)는 결제 프로세스의 처리 필요한 상품 정보를 쇼핑몰(130)로부터 가져올 수 있다. 결제 시스템(120)에는 결제를 호출 할 수 있는 결제API가 제공될 수 있다. 결제API는 스크립트 언어로 제공되어 쇼핑몰(130)은 개발 언어에 상관없이 결제 API를 사용할 수 있다. 결제API는 별도의 설치 작업 없이 결제가 필요한 화면에 소스(<script src=”결제API.js”></script>)를 추가함으로써 사용될 수 있다. 그리고, 결제를 연결할 소기의 상품에 터치 이벤트가 추가될 수 있고, 터치가 발생하면, 결제API가 호출되어 상품 정보가 쇼핑몰(130)로부터 획득될 수 있다. 사용자 정보는 쇼핑몰(130)로부터 획득되거나 데이터베이스(330)로부터 조회될 수 있다.
획득된 상품 정보 및 사용자 정보에 기반하여, 결제 시스템(120)은 금융사(예컨대, 은행 또는 카드사)에 대해 결제를 요청할 수 있다. 결제 요청에 기반하여, 결제 결과가 금융사로부터 수신되면, 결제 시스템(120)은 해당 결제 결과를 나타내는 처리 결과를 쇼핑몰(130)에 전송할 수 있다. 또한, 결제 시스템(120)은 결제자 정보에 대응하는 사용자에 대한 정보를 쇼핑몰(130)에 전송할 수 있다.
결제 시스템(120)에 의한 구체적인 결제 프로세스의 처리 방법 및 상품 정보 획득 방법에 대해서는 후술될 도 5 내지 도 11을 참조하여 더 자세하게 설명된다.
앞서 도 1 내지 3을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 5는 일 예에 따른 객체의 이미지 정보 및/또는 텍스트 정보를 추출하고 처리하는 방법을 나타내는 흐름도이다.
단말(110) 상에 출력된 객체는 사용자가 구매하고자 하는 소기의 상품과 관련된 이미지, 동영상, 광고 및 텍스트 중 적어도 하나를 포함할 수 있고, 도 5에서는, 단말(110) 상에 출력된 객체로부터 텍스트/이미지 정보를 추출하여 소기의 상품에 대한 정보를 획득하는 방법이 도시된다. 도 4를 참조하여 전술된 단계(430)는 후술될 단계들(510 내지 540)을 포함할 수 있다.
단계(510)에서, 제어부(310)는 수신된 식별 정보에 기반하여 단말(110) 상에 출력된 객체에 포함된 이미지 정보 및 텍스트 정보 중 적어도 하나의 정보를 추출할 수 있다. 텍스트 정보 추출 및 처리부(312)는 객체가 상기 상품과 관련된 텍스트 정보를 포함하면, 텍스트 정보에 포함된 적어도 하나의 단어를 추출함으로써 텍스트 정보를 추출할 수 있다.
이미지 정보 추출 및 처리부(314)는 객체가 상기 상품과 관련된 이미지 정보를 포함하면, 터치 입력이 감지된 상기 터치 스크린 상의 영역을 캡쳐함으로써 이미지 정보를 추출할 수 있다.
단계(520)에서, 제어부(310)는 단계(510)에서 추출된 적어도 하나의 정보에 기반하여 데이터베이스(330)로부터 소기의 상품에 대한 정보를 검색할 수 있다. 예컨대, 텍스트 정보 추출 및 처리부(312)는 추출된 텍스트 정보에 포함된 단어를 데이터베이스(330)에 등록된 상품명들과 비교함으로써, 상품에 대한 정보를 검색할 수 있다. 또한, 이미지 정보 추출 및 처리부(314)는 추출된 이미지 정보를 데이터베이스(333)에 등록된 상품 이미지들과 비교함으로써, 상품에 대한 정보를 검색할 수 있다.
단계(530)에서, 제어부(310)는 단계(520)에서 검색에 의해 획득된 정보를 상품 정보로서 획득할 수 있다. 상품 정보는 소기의 상품에 대한 정보를 포함하고, 추출된 이미지 정보 및/또는 텍스트 정보와 데이터베이스(330) 내의 데이터와의 비교에 기반하여 유사도가 높은 복수의 상품들에 대한 정보를 포함할 수 있다.
단계(540)에서, 제어부(310)는 통신부(520)를 통해 단계(530)에서 획득된 상품 정보를 단말(110)에 제공할 수 있다. 즉, 획득된 상품 정보는 단말(110)을 통해 출력됨으로써 사용자에게 제공될 수 있다. 상품 정보가 복수의 상품들에 대한 정보를 포함할 경우에는, 상품 정보는 상품의 가격 순, 상품에 대한 평점 순 또는 상품에 대한 상품평이 많은 순으로 단말(110)을 통해 출력될 수 있다.
출력된 상품 정보에 대한, 단말(110)의 사용자의 추가적인 선택(또는 터치 입력)에 기반하여, 단계(440)의 결제 프로세스가 수행될 수 있다.
결제 시스템(120)에 의한 더 구체적인 상품 정보 검색 방법은 후술될 도 9 내지 도 11을 참조하여 더 자세하게 설명된다.
앞서 도 1 내지 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 6은 일 예에 따른 제1 터치 입력 및 제2 터치 입력에 따른 프로세스 정보 획득 및 프로세스 처리 방법을 나타내는 흐름도이다.
도 6에서는 사용자에 의한 터치 입력이, 복수의 터치 입력을 포함하는 경우의, 프로세스 정보 획득 방법 및 결제 프로세스 처리 방법이 도시된다. 예컨대, 도 6에서는 터치 입력이 제1 터치 입력 및 제2 터치 입력을 포함할 수 있는 것으로 가정되었다. 또는, 터치 입력은 순차/비순차적인 복수의 터치 입력들을 포함할 수 있다.
도 4를 참조하여 전술된 단계(420)에서, 제어부(310)는 식별 정보가 제1 터치 입력이 감지되었음을 나타내는지 여부를 판정할 수 있다.
단계(610)에서, 제어부(310)는 식별 정보가 제1 터치 입력이 감지됨을 나타내면, 소기의 상품에 대한 상세 정보를 단말(110)에 제공할 수 있고, 따라서, 상품에 대한 상세 정보가 단말(110)의 터치 스크린(225) 상에 출력될 수 있다.
단계(620)에서, 제어부(310)는 식별 정보가 제2 터치 입력이 감지되었음을 나타내는지 여부를 판정할 수 있다. 식별 정보가 상기 제2 터치 입력이 감지됨을 나타내면, 예컨대, 단계(440)가 수행됨으로써 결제 프로세스가 처리될 수 있다. 다른 터치 입력이 감지되거나, 소정의 시간 동안 제2 터치 입력이 감지되지 않으면, 결제 프로세스는 진행되지 않을 수 있다.
말하자면, 단말(110)의 사용자의 제1 터치 입력 시에는 소기의 상품의 상세 정보가 단말(110)에 출력될 수 있고, 제2 터치 입력 시에는 소기의 상품에 대한 결제 프로세스가 처리될 수 있다.
제1 터치 입력 및 제2 터치 입력 각각은, 소정의 시간 간격으로 순차적으로 입력되는 적어도 한 번의 터치, 소정의 시간 이상 동안 유지되는 롱 터치, 드래그, 스와이프, 접점터치, 포스터치 및 터치 입력에 사용된 손가락의 지문 정보를 포함하는 터치 입력 중 적어도 하나를 포함할 수 있다.
앞서 도 1 내지 5를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 7은 일 예에 따른 프로세스 처리 방법을 나타내는 흐름도이다.
도 7에서는, 도 4를 참조하여 전술된 단계(440)의 결제 프로세스를 처리하는 방법이 설명된다. 단계(440)는 후술될 단계들(710 및 720)을 포함할 수 있다.
단계(710)에서, 제어부(310)는 통신부(320)를 통해 단말(110)로부터 결제 프로세스에 대한 확인 신호를 수신할 수 있다. 확인 신호는 단말(110)의 사용자에 의한 소기의 상품에 대한 결제를 확인/승인하는 정보를 포함할 수 있다.
단계(720)에서, 제어부(310)는 수신한 확인 신호에 기반하여 소기의 상품에 대한 결제 프로세스를 완료할 수 있다. 또는, 소기의 상품에 대한 결제를 확인/승인하는 정보를 포함하는 확인 신호가 수신되지 않으면, 결제 프로세스는 완료되지 않고 종료될 수 있다.
결제 프로세스가 완료되면, 도 4를 참조하여 전술된 단계(450)가 수행될 수 있다.
앞서 도 1 내지 6을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 8은 일 예에 따른 지문 정보를 포함하는 터치 입력에 의한 프로세스 처리 방법을 나타내는 흐름도이다.
단말(110)의 사용자의 객체에 대한 터치 입력은 터치 입력에 사용된 사용자의 손가락의 지문 정보를 포함할 수 있다. 즉, 결제 시스템(120)이 수신하는 식별 정보는 터치 입력에 사용된 손가락의 지문 정보를 포함할 수 있다.
단계(810)에서, 제어부(310)는 식별 정보에 포함된 지문 정보가 단말(110) 또는 외부 서버(혹은, 쇼핑몰(130))에 등록된 지문 정보와 일치하는지 여부를 식별할 수 있다. 또는, 제어부(310)는 식별 정보에 포함된 지문 정보가 결제 시스템(120)에 등록된 지문 정보와 일치하는지 여부를 식별할 수 있다. 식별 정보에 포함된 지문 정보가 단말(110), 결제 시스템(120) 또는 쇼핑몰(130)에 등록된 지문 정보와 일치하면, 소기의 상품에 대한 결제 프로세스가 처리될 수 있다.
도시된 것처럼, 전술된 단계(810)는 단계(420)에 대안적인 또는 추가적인 단계로서 수행될 수 있다.
단계(810)에서는, 식별 정보에 포함된 지문 정보가 사용자의 제1 손가락의 지문 정보와 일치하는지 여부가 식별될 수 있고, 식별 정보에 포함된 지문 정보가 사용자의 제1 손가락의 지문 정보와 일치하면, 소기의 상품에 대한 결제 프로세스가 처리될 수 있다. 추가적으로 또는 대안적으로, 단계(810)에서는, 지문 정보가 사용자의 제2 손가락의 지문 정보와 일치하는지 여부가 식별될 수 있다. 식별 정보에 포함된 지문 정보가 사용자의 제2 손가락의 지문 정보와 일치하면, 소기의 상품에 대한 상세 정보가 단말(110)에 제공될 수 있고, 단말(110)의 터치 스크린(225) 상에 출력될 수 있다.
터치 스크린(225)의 터치 패널은 지문 인식 센서를 포함하거나, 지문 인식 센서가 일체형으로 구성되는 패널일 수 있다. 또는, 터치 입력에 포함되는 지문 정보는 터치 스크린(225)에 대한 터치 외의 별개의 지문 인식 센서를 통해 입력될 수 있다.
결제 프로세스 진행 후, 단말(110)의 사용자는 장바구니(쇼핑몰(130)에 의한 쇼핑몰 어플리케이션 내에서 혹은 결제 시스템(120)에 의한 결제 어플리케이션 내에서)를 클릭하여 다른 상품을 확인하고 추가로 결제 프로세스를 진행할 수 있다(이 때 장바구니에 보관된 내용물(상품)을 클릭(또는 터치)함으로써 상품에 관한 이미지가 추출될 수 있음). 따라서, 도 4 내지 8을 참조하여 전술된 방법에 따라 상품에 대해 결제 프로세스가 진행될 수 있다.
앞서 도 1 내지 7을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 9 내지 11은 도 5에 따른 객체의 이미지 정보 및/또는 텍스트 정보를 추출하고 처리하는 방법을 나타낸다.
사용자는 단말(110) 상에 출력된 객체에 대해 터치 입력을 사용하여(예컨대, 출력된 객체의 적어도 일부의 영역을 드래그함으로써) 소정의 상품을 검색하기 위한 영역을 지정할 수 있다.
선택된 영역으로부터, 상품과 관련된 텍스트가 추출될 수 있고(단계(510)), 데이터베이스(330)로부터 상기 관련된 텍스트를 포함하는 상품명(들)이 검색될 수 있다(단계(520)). 예컨대, 텍스트 추출은 광학 문자 인식(OCR)에 의해 수행될 수 있다. 추출된 텍스트의 각 단어가 데이터베이스(330)에 등록되어 있는 상품명들과 비교됨으로써 해당 단어가 들어있는 상품의 상품 정보가 검색되어 획득될 수 있다.
또한, 터치 입력에 의해 선택된 영역에 해당하는 이미지가 추출될 수 있다(단계(510)). 예컨대, 터치된 영역에서 최소, 최대 x, y 좌표 (max-x, max-y, min-x, min-y)가 계산된 후 (min-x, min-y), (min-x, max-y), (max-x, min-y), (max-x, max-y)의 4개의 점들에 대응하는 사각형 영역에 해당하는 이미지가 추출될 수 있다.
추출된 이미지에 대응하는(또는 유사도가 높은) 이미지가 높은 이미지가 데이터베이스(330)로부터 검색될 수 있다(단계(520)). 예컨대, 추출된 이미지에 나타나는 주요 색상 및 불변 모멘트 값과 이미지의 중심을 중심으로 존재하는 적어도 하나의 영역에 대한 데이터베이스(330)에 저장된 상품 이미지와의 유사도를 계산함으로써, 단계(520)의 이미지 검색이 수행될 수 있다. 더 구체적으로, 이미지 검색은, i) 추출된 이미지의 영역 별로 가중치를 부여하고, 추출된 이미지 또는 영역의 대표 색상을 추출한 후여 유사하지 않은 이미지를 검색 대상에서 제외하는 단계, ii) 추출된 이미지를 균등한 셀로 분할하고, 각 셀의 중심에서 영역을 확장하면서 유사 이미지 검색하는 단계 및 iii) 추출된 이미지의 회전, 이동, 크기 변화에 의해 변하지 않는 불변 모멘트에 기반하여 i)에서 제외되지 않은 이미지들을 검색하는 단계를 수행함으로써 이루어질 수 있다.
검색 결과로서의 상품 정보는 검색 상품 리스트로서 사용자의 단말(110)에 출력될 수 있고(단계(540)), 예컨대, 사용자의 선택에 의해, 상품에 대한 결제 프로세스가 진행될 수 있다(단계(440)).
상기 검색 결과는 텍스트 추출에 의한 검색 결과, 이미지 검색을 통한 검색 결과를 상품 정보로서 포함할 수 있고, 또는, 텍스트 추출에 의한 검색 결과 및 이미지 검색을 통한 검색 결과를 조합함으로써 최적의 검색 결과(예컨대, 양 검색 결과에 의한 교집합)가 상품 정보로서 포함될 수 있다.
전체적인 결제 시스템(120)의 동작을 더 자세하게 설명한다. 결제 시스템(120)은 스마트폰(단말(110)에 대응)에서 선택된 영역 부분을 이미지로 생성하는 이미지 검출부, 이미지에 포함된 문자와 문자 이외의 상품 이미지 부분을 명확히 구분하기 위한 이미지 전처리부, 문자 인식 알고리즘에 기반하여 전 처리된 이미지에 포함된 문자를 인식하는 기능을 수행하는 문자 인식부, 문자 인식부에서 추출한 문자와 이미지 전처리부에서 처리된 이미지를 상품 정보 데이터베이스(데이터베이스(330)에 대응)의 데이터와 비교하여 일치하는 상품 정보를 상품 정보 데이터베이스에서 획득하여 상품 리스트로서 제공하는 상품 검색부와, 검색된 상품의 결제를 처리하는 결제 처리부(전술된 구성들은 제어부(310)에 대응)를 포함할 수 있다.
이미지 검출부는 화면 캡쳐부, 선택 영역 도출부, 이미지 생성부를 포함할 수 있다. 화면 캡쳐부에서 사용자가 보고 있는 화면 전체를 캡쳐하여 이미지를 생성하고, 선택 영역 도출부는 사용자가 터치로 이동한 모든 좌표를 가져와서 최대/최소 x, y 좌표 값을 구해 4개의 좌표를 생성할 수 있고 4개의 좌표를 사각형의 네 꼭지점으로 하는 사각형 영역이 계산될 수 있다. 이미지 생성부는 화면 캡쳐부에서 생성된 이미지에 선택 영역 도출부에서 구한 영역 부분에 해당하는 이미지를 생성할 수 있다.
이미지 전처리부는 기울기 보정부, 색조 검출부, 이진 영상 변환부, 잡음 제거부, 구조 분석부 및 문자 분할부를 포함한다.
색조 검출부는 이미지 검출부에서 제공 받은 이미지의 색조 값(또는 색상 값, hue value)을 픽셀 단위로 추출한 후, 추출된 색조 값을 기 설정된 메모리 공간에 저장하는 기능을 수행할 수 있다.
회색 변환부는 문자 인식의 대상이 되는 원본 이미지를 그레이스케일(gray-scale) 이미지로 변환하는 기능을 수행할 수 있다. 이진 영상 변환부는 색조 검출부로부터 제공 받은 색조 값을 활용하여 그레이스케일 이미지를 이진 영상(binary image)로 변환하는 기능을 수행할 수 있다. 이 때, 이진 영상 변환부는 원본 이미지에서 추출한 색조 값을 다양한 방식으로 활용하여 그레이스케일 이미지의 문자와 배경을 명확하게 구분할 수 있다.
잡음 제거부는 문자 인식의 대상이 되는 이미지에 포함된 잡음을 제거하는 기능을 수행한다. 잡읍 제거를 위해서는 저 주파수 통과 필터(Low Pass Filter), 미디언 필터(Median Filter), Smoothing 기법 등의 기법이 적용될 수 있다.
구조 분석부는 문자 인식의 대상이 되는 이미지의 구조(또는 레이아웃)를 분석하여 텍스트 영역과 상품 이미지 영역을 검출하는 기능을 수행할 수 있다.
문자 분할부는 문자 인식의 대상이 되는 이미지의 텍스트 영역을 문자 단위로 분할하는 기능을 수행할 수 있다.
문자 인식부는 문자 인식 알고리즘을 기반으로 전 처리된 이미지에 포함된 문자를 인식하는 기능을 수행할 수 있다. 즉, 문자 인식부는 각 문자의 특징들을 추출한 후 그 값을 데이터베이스에 등록된 문자와 비교함으로써 해당 문자를 인식할 수 있다.
상품 검색부는 문자 인식부로부터 넘겨 받은 문자를 기반으로 상품 정보 데이터베이스에 있는 상품명과 비교하여 상품 목록을 가져올 수 있다. 또한, 이미지 검출부에서 생성한 이미지와 상품 정보 데이터베이스에 저장되어 있는 상품 이미지에 대한 소정의 영역 별 유사도 검사를 통해 내용 기반 이미지 검색을 수행할 수 있다.
결제 처리부는 상품 검색부에서 선택된 상품 정보에 기반하여 결제를 수행한 후 결제 결과를 쇼핑몰(130)로 전달할 수 있다. 쇼핑몰(130)은 전자 거래 사업자로서 소정의 가맹 사업자일 수 있다.
상품 정보 데이터베이스는 가맹 사업자에서 등록한 상품 이미지, 상품 정보(상품명, 가격, 옵션) 등을 저장할 수 있고, 상품 검색부를 통해 검색될 수 있으며, 또한 결제 처리부에서 처리된 결과를 전달하기 위한 쇼핑몰(130)의 url 정보를 저장할 수 있다.
앞서 도 1 내지 8을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 12 내지 19에서, 단말(110)에 의해 감지되는 터치 입력의 종류 및 단말(110)에 의한 터치 입력의 감지 방법에 대해 더 자세하게 설명한다.
1. 터치 행위 감지
터치 입력 장치는 터 치패널 상에서 손가락 등의 접촉 위치를 감지하고, 감지된 접속 위치에 관한 정보를 입력 정보로서 제공할 수 있다. 터치 입력 장치는 또한 정전식 터치 패널과 다른 부품 사이에 발생하는 표유 용량이 터치 압력에 의하여 변화하는 성질을 이용해서 터치에 가해진 힘을 감지할 수 있다.
1) 전도체 패턴을 이용한 전자 장치(단말(110)에 대응)의 예시
도 12에서, 전자장치(100)는 터치 입력 신호를 전달할 수 있도록 구성되는 터치 입력 장치(1), 터치 입력 장치(1)를 구동하기 위한 신호를 출력하고 터치 입력 장치(1)로부터의 입력 신호를 수신하도록 되어 있는 터치 패널 제어 장치(3), 터치 패널 제어 장치(3)로부터 터치 패널 구동 신호를 수신하여 터치 패널 구동 전압을 발생시키는 전압 구동기(2), 터치 패널 제어 장치(3)로부터 터치 입력 신호를 수신하여 저장 장치(5)에 저장된 프로그램을 실행하도록 구성되는 메인 프로세서(4), 터치 입력 신호에 따라 실행되는 하나 이상의 프로그램을 저장하는 저장 장치(5) 및 메인 프로세서(4)의 처리 결과를 출력하는 디스플레이 장치(6)를 포함할 수 있다.
2) 터치 입력 장치의 구성
도 13 및 14에서, 터치 입력 장치(1)는 하우징(10), 커버(20), 터치패널(30), 공극(40), 발광층(50,60)을 포함하여 구성될 수 있다. 터치 패널(30)은 감지 전극(수직 방향의 전극)과 구동 전극(수평 방향의 전극)이 존재하며, 행전극과 열전극이 교차하는 지점 또는 그 근처의 영역을 노드(15)라고 지칭할 수 있다. 각 노드(15)에는 전자회로 부품 간, 배선 간, 배선 및 부품과 기판 간에 존재하는 정전 용량인 표유 용량이 존재할 수 있다. 구동 전극에 전압이 인가되면, 구동 전극(71)과 감지 전극(72)들의 교차점에서 상호 커패시턴스를 통해 감지 전극들에서 전하가 주입될 수 있다. 각 감지 전극(72)에 입력되는 전하량은 구동 신호의 제1 레벨(Vdirve)과 상호 커패시턴스(Csense)의 곱으로 나타낼 수 있다(즉, Qsense = Vdirve * Csense).
3) 터치 입력 감지 센서의 동작 원리
도 15에서, 단자(A110)를 통해 펄스 트레인 형태의 구동 전압이 인가될 수 있다. 이 때, 스위치(A111, A114)를 온 상태로 두고, 스위치(A112, A113)를 오프 상태로 둠으로써, 단자(A110)로부터 흘러들어간 전류(i1)가 센싱 커패시터(A310)에 축적될 수 있다. 이 때, 센싱 커패시터(A310)에 축적되는 전하의 양은 센싱 커패시터(A310)의 용량 값에 따라 달라지게 된다. 그 다음, 스위치(A111, A114)를 오프 상태로 전환하고 스위치(A112, A113)를 온 상태로 변경하면, 센싱 커패시터(A310)에 축적되어 있던 전하들이 전류(i2)의 흐름으로 바뀌어 적분 커패시터(A320)에 축적될 수 있다. 상기와 같은 조작을 수 차례 반복함으로써 연산 증폭기(A330)의 출력 단자(A340)에는 충분한 해상도의 디지털 신호로 변환 가능한 아날로그 출력이 발생하게 된다. 따라서, 출력 단자(A340)에서 출력되는 출력 전압을 이용하여 터치 입력의 존재 여부를 감지하게 되는데, 상기 출력 전압을 결정하는 주된 요소는 센싱 커패시터(A310)의 용량 값이다. 그러나 좀 더 직접적인 원인을 살펴보면, 적분 커패시터(A320)에 흘러들어가는 전류(i2)의 크기가 상기 출력 전압을 결정하는 주된 요인이 된다고 볼 수 있다.
4) 터치 입력 감지 센서의 동작 원리
도 16의 a)는 사람의 손가락(600)에 의해 터치 입력이 이루어진 경우의 전기장의 변화를 나타낸 것으로 손가락으로 인해 커패시터의 용량 값이 작아지게 됨을 도시한다. 그리고, 손가락은 구동전극(n1)과 액정패널(50) 사이의 공극(40) 공간에 존재하는 제2 전기장(311)을 흡수하지 못하기 때문에, 제2 전기장(311)의 크기에는 변화가 없으며, 따라서 제1 표유 커패시터(311)의 용량 값은 아직 변하지 않게 된다.
도 16의 b)는 손가락에 힘을 가함으로써 터치 패널(30)이 아래쪽으로 휠 정도로 강한 압력을 가하고 있는 경우를 나타낸다. 이 때, 공극(40)의 크기가 감소하게 된다. 이 경우, 구동전극(n1)과 액정패널(50) 사이의 간격이 가까워지기 때문에 제2 전기장(311)의 크기는 더 커지게 되고, 제1 표유 커패시터(311)의 용량 값은 더 상승하게 된다.
5) 터치에 따른 전기장의 변화 회로 구조 모델링
도 17에서, 적분 커패시터(A320)로 흘러들어가는 전류 i2는 단자(A110)로부터 흘러나오는 전류 i1에서 제1 표유 커패시터(A311)를 통해 흐르는 전류 i3를 차감한 값에 비례한다고 볼 수 있다. 이 때, 가변하는 센싱 커패시터(A310)와 제1 표유 커패시터(A311)의 값에 관계 없이, 전류 i1은 미리 정해진 크기만큼 흐르도록 되어 있다. 따라서, 센싱 커패시터(A310)의 임피던스가 높을 수록, 그리고 제1 표유 커패시터(A311)의 임피던스가 낮을수록, i2의 변화량은 커지게 된다. 다시 말하면, 터치패널(30)에 접촉이 많이 일어날수록, 그리고 터치패널(30)을 누르는 힘(F)이 증가할수록 i2의 변화량은 커지게 된다.
도 18에서, 영역 A1은 터치가 전혀 일어나지 않았으며, 터치 패널(30) 근처에 손가락이 전혀 접근하지 않은 상태를 나타낸다. 영역 A2는 터치 패널에 손가락이 접촉되었거나, 손가락이 터치 패널에 매우 근접한 상황을 나타낸다. 영역 A3는 터치패널에 손가락이 접촉되었을 뿐만 아니라, 손가락이 터치 패널을 누르는 힘에 의하여 공극(40)이 점점 좁아지는 경우를 나타낸다.
6) 터치에 따른 전기장의 변화 회로 구조 모델링
도 19에서, 터치 입력 장치에 가해지는 압력이 언제부터 발생하는지가 미리 결정될 수 있다. 예컨대, 터치 패널의 변형이 시작되는 압력을 압력 수치 0으로 설정할 수도 있고, 또는 이와 다르게 손가락이 터치 입력 장치 표면에 접속하였지만, 아직 터치 패널의 변형이 시작되기 이전이라도 압력이 발생한 것으로 판단하여 압력수치 0으로 설정할 수도 있다. 이러한 임계값을 제3 임계치(ΔCx, th1)로 정의한다면, 제1 임계치(ΔCx, th1) <= 제3 임계치(ΔCx, th1) <=제2 임계치(ΔCx, th2)의 관계가 성립할 수 있다.
7) 감지된 터치 행위의 데이터화
센싱 커패시터의 용량 변화값(ΔCx)이 생기면 터치패널 제어장치가 메인 프로세서에 터치 신호를 전송한다. 이때, 터치패널 제어장치는 ΔCx가 발생한 노드 정보와 ΔCx 값을 메인 프로세서에 전송할 수 있다. 메인 프로세서는 전달 받은 노드 정보를 통해 산출된 위치정보, 해당 위치에 있는 객체 정보, 제1 임계치(ΔCx, th1)와 제2 임계치(ΔCx, th2)를 기준 값으로 터치와 포스터치 이벤트 정보, (ΔCx - 제2임계치(ΔCx, th2)) 값에 따른 힘의 크기 정보를 생성할 수 있다.
2. 터치 행위(터치 입력)의 처리
1) 일반 터치(탭)
터치 이동(스크린에 손가락이 닿은 채로 움직이는 행위) 이벤트가 발생하지 않고 터치 시작(스크린에 손이 닿을 때) 이벤트 및 터치 완료(스크린에서 손가락을 뗄 때) 이벤트가 순차적으로 발생되면, 일반 터치 이벤트가 발생한 것으로 간주될 수 있다.
일반 터치 입력(탭 이벤트)의 처리에 대한, 슈도(pseudo) 코드는 다음과 같이 정의될 수 있다.
TouchStart : 터치시작, TouchMove : 터치이동,
TouchEnd : 터치완료
if(TouchStart){ //터치시작 여부 체크
If(!TouchMove){ //터치이동 여부 체크
if(TouchEnd){ //터치완료 여부 체크
탭이벤트 처리 {
결제API 호출 //결제 진행
}
}
}
}
2) 더블 터치(더블탭)
전술한 탭 이벤트가 두 번 발생하면 더블 탭으로 판정될 수 있다. 이 때, 두 번의 탭 이벤트 간의 시간 간격 및 좌표를 비교함으로써 더블 탭이 인식될 수 있다. 예컨대, 직전의 터치 이벤트가 탭 이벤트이고, 직전 탭 이벤트와 현재 탭 이벤트 간의 발생 시각의 차이가 1초 이하이고, 탭 이벤트들의 발생 좌표들 간의 차이가 소정의 값(예컨대, 10) 이하이면, 2개의 탭 이벤트들은 더블 탭 이벤트가 발생한 것으로 간주될 수 있다.
더블 탭 이벤트의 처리에 대한, 슈도(pseudo) 코드는 다음과 같이 정의될 수 있다.
If(TabEvent){ // 탭 이벤트 발생 여부 체크
if(preEvent == TabEvent){ // 이전 이벤트의 탭 이벤트 여부 체크
If(nowEventTime - preEventTime < 1초){ // 이전 탭 이벤트와 현재 탭 이벤트 시간 차이 체크
If( |preEvent.x - nowEvent.x| < 5 // 이전 탭 이벤트와 현재 탭 이벤트의 위치 체크
And |preEvent.y - nowEvent.y| < 5){
더블탭이벤트 처리 { 결제API 호출 // 결제 진행
}
}
}
}
}
3) 롱 터치(롱탭)
터치 시작 이벤트 발생 후, 일정 시간 동안 터치 이동 이벤트와 터치완료 이벤트가 발생하지 않으면 롱 터치로 판단될 수 있다. 예컨대, 터치 시작 이벤트 발생 후 2초 이상 터치 이동 및 터치 완료 이벤트가 발생하지 않으면, 롱 터치 이벤트가 발생한 것으로 수 있다.
롱 터치 이벤트의 처리에 대한, 슈도(pseudo) 코드는 다음과 같이 정의될 수 있다.
if(TouchStart){ // 터치시작 여부 체크
while(nowTime - TouchStart.time < 2 ){ // 터치시작 된 시간이 2초 경과할 때까지 루프
if(TouchMove or TouchEnd){ // 터치이동, 터치완료 이벤트가 발생하면 종료
Exit;
}
}
롱탭이벤트 처리{ // 터치한 시간이 2초가 지났으므로 결제 창 호출
결제API 호출
}
}
4) 터치 이동 거리 분석
터치 시작 후 터치 종료 이벤트가 발생하기 전까지 일정 거리 이상을 움직였을 경우, 이동 거리를 분석하기 위한 처리 과정을 나타낸다. 터치 이동 거리 분석에 대한, 슈도(pseudo) 코드는 다음과 같이 정의될 수 있다.
if(TouchStart){ // 터치시작 여부 체크
While(1=1){ // 이동 거리가 10 초과 될 때까지 루프
moveDistance = ((start.x-move.x)^2 + (start.y - move.y)^2)^0.5 // 이동 거리를 구함
if(moveDistance > 10){ // 이동 거리가 10 초과 되면 루프를 나옴
Exit;
}
}
이동 이벤트 처리 {
결제API 호출
}
}
5) 포스터치(터치 힘의 크기에 따른 처리)
터치를 위해 가해진 힘이 기준 값보다 클 경우 포스터치가 발생한 것으로 간주될 수 있다. 예컨대, 터치를 위해 가해진 힘이 소정의 값보다 클 경우 포스 터치 이벤트가 발생한 것으로 간주되고, 그렇지 않으면 일반 탭 이벤트가 발생한 것으로 간주될 수 있다. 포스터치 이벤트의 처리에 대한, 슈도(pseudo) 코드는 다음과 같이 정의될 수 있다.
if(TouchStart){ //터치시작 여부 체크
While(1=1){ // 누르는 힘이 3이 넘을 때까지 될 때까지 루프
if(force > 3) { // 힘이 3이 넘으면 결제 이벤트 호출
포스터치 이벤트 처리 { 결제API 호출
}
Exit;
} else if ( touchEnd ) { // 힘이 3이 넘지 않은 상태에서 터치가 종료되면 루프를 빠져 나온다.
Exit;
}
}
}
앞서 도 1 내지 11을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (10)

  1. 단말의 터치 스크린 상에 출력된 객체에 대한 터치 입력이 감지되었음을 나타내는 식별 정보를 수신하는 단계;
    상기 식별 정보에 기반하여 외부 서버로부터 상기 객체와 연관된 프로세스의 처리를 위해 요구되는 프로세스 정보를 획득하는 단계;
    상기 식별 정보 및 상기 프로세스 정보에 기반하여 상기 프로세스를 처리하는 단계; 및
    상기 터치 입력을 수행한 사용자에 대한 정보 및 상기 프로세스의 처리 결과를 상기 외부 서버 또는 상기 외부 서버와 연관된 서버로 전송하는 단계
    를 포함하는, 프로세스 처리 방법.
  2. 제1항에 있어서,
    상기 터치 입력은 소정의 시간 간격으로 순차적으로 입력되는 적어도 한 번의 터치, 소정의 시간 이상 동안 유지되는 롱 터치, 드래그, 스와이프, 접점터치, 포스터치 및 터치 입력에 사용된 손가락의 지문 정보를 포함하는 터치 입력 중 적어도 하나를 포함하고,
    상기 프로세스 정보를 획득하는 단계 및 상기 프로세스를 처리하는 단계는, 상기 식별 정보가 상기 터치 입력이 사용자에 의해 기 설정된 터치 입력과 일치함을 나타내면 수행되는, 프로세스 처리 방법.
  3. 제1항에 있어서,
    상기 객체는 사용자가 구매하고자 하는 소기의 상품과 연관되고,
    상기 외부 서버 및 상기 외부 서버와 연관된 서버는 상기 상품을 판매하는 전자 거래 사업자에 의해 운영되고,
    상기 프로세스는 상기 상품에 대한 상기 사용자의 결제 프로세스이고,
    상기 프로세스 정보는 상기 결제 프로세스의 처리를 위해 요구되는 상기 상품에 대한 상품 정보 및 상기 사용자에 대한 사용자 정보를 포함하는, 프로세스 처리 방법.
  4. 제3항에 있어서,
    상기 터치 입력은 제1 터치 입력 및 제2 터치 입력 중 적어도 하나를 포함하고,
    상기 프로세스 정보를 획득하는 단계는,
    상기 식별 정보가 상기 제1 터치 입력이 감지됨을 나타내면, 상기 상품에 대한 상세 정보를 상기 터치 스크린 상에 출력하는 단계
    를 포함하고,
    상기 프로세스를 처리하는 단계는, 상기 식별 정보가 상기 제2 터치 입력이 감지됨을 나타내면, 상기 결제 프로세스를 처리하는, 프로세스 처리 방법.
  5. 제3항에 있어서,
    상기 객체는 상기 상품과 관련된 이미지, 동영상, 광고 및 텍스트 중 적어도 하나를 포함하고,
    상기 프로세스 정보를 획득하는 단계는,
    상기 식별 정보에 기반하여 상기 객체에 포함된 이미지 정보 및 텍스트 정보 중 적어도 하나의 정보를 추출하는 단계;
    상기 추출된 적어도 하나의 정보에 기반하여 데이터베이스로부터 상기 상품에 대한 정보를 검색하는 단계; 및
    상기 검색에 의해 획득된 정보를 상기 상품 정보로서 획득하는 단계
    를 포함하는, 프로세스 처리 방법.
  6. 제5항에 있어서,
    상기 객체가 상기 상품과 관련된 텍스트 정보를 포함하면,
    상기 추출하는 단계는, 상기 텍스트 정보에 포함된 적어도 하나의 단어를 추출함으로써 상기 텍스트 정보를 추출하고,
    상기 검색하는 단계는, 상기 단어를 상기 데이터베이스에 등록된 상품명들과 비교함으로써, 상기 상품 정보를 검색하고,
    상기 객체가 상기 상품과 관련된 이미지 정보를 포함하면,
    상기 추출하는 단계는,
    상기 터치 입력이 감지된 상기 터치 스크린 상의 영역을 캡쳐함으로써 상기 이미지 정보를 추출하고,
    상기 검색하는 단계는, 상기 추출된 이미지 정보를 상기 데이터베이스에 등록된 상품 이미지들과 비교함으로써, 상기 상품 정보를 검색하는, 프로세스 처리 방법.
  7. 제3항에 있어서,
    상기 프로세스를 처리하는 단계는,
    상기 단말로부터 상기 결제 프로세스에 대한 확인 신호를 수신하는 단계; 및
    상기 확인 신호에 기반하여 상기 결제 프로세스를 완료하는 단계
    를 포함하는, 프로세스 처리 방법.
  8. 제3항에 있어서,
    상기 식별 정보는 상기 터치 입력에 사용된 손가락의 지문 정보를 포함하고,
    상기 지문 정보가 상기 단말 또는 상기 외부 서버에 등록된 지문 정보와 일치하는지 여부를 식별하는 단계
    를 더 포함하고,
    상기 프로세스를 처리하는 단계는, 상기 지문 정보가 상기 단말 또는 상기 외부 서버에 등록된 지문 정보와 일치하면, 상기 결제 프로세스를 처리하는, 프로세스 처리 방법.
  9. 제8항에 있어서,
    상기 식별하는 단계에서, 상기 지문 정보가 사용자의 제1 손가락의 지문 정보와 일치하는지 여부가 식별되고,
    상기 지문 정보가 상기 사용자의 제1 손가락의 지문 정보와 일치하면, 상기 결제 프로세스가 처리되고,
    상기 식별하는 단계에서, 상기 지문 정보가 사용자의 제2 손가락의 지문 정보와 일치하는지 여부가 식별되고,
    상기 지문 정보가 상기 사용자의 제2 손가락의 지문 정보와 일치하면, 상기 상품에 대한 상세 정보가 상기 터치 스크린 상에 출력되는, 프로세스 처리 방법.
  10. 제3항에 있어서,
    상기 전자 거래 사업자는 소정의 가맹 사업자이고,
    상기 프로세스 정보를 획득하는 단계는, 상기 가맹 사업자가 판매하는 상기 상품에 대한 정보 및 상기 가맹 사업자에 등록된 상기 사용자에 대한 정보를 상기 프로세스 정보로서 획득하는, 프로세스 처리 방법.
PCT/KR2017/004742 2017-05-08 2017-05-08 터치 입력에 기반한 프로세스 처리 방법 및 시스템 WO2018207953A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004742 WO2018207953A1 (ko) 2017-05-08 2017-05-08 터치 입력에 기반한 프로세스 처리 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004742 WO2018207953A1 (ko) 2017-05-08 2017-05-08 터치 입력에 기반한 프로세스 처리 방법 및 시스템

Publications (1)

Publication Number Publication Date
WO2018207953A1 true WO2018207953A1 (ko) 2018-11-15

Family

ID=64104618

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004742 WO2018207953A1 (ko) 2017-05-08 2017-05-08 터치 입력에 기반한 프로세스 처리 방법 및 시스템

Country Status (1)

Country Link
WO (1) WO2018207953A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723640A (zh) * 2019-03-20 2020-09-29 株式会社石田 商品信息检查系统及计算机的控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092320A (ja) * 2000-09-14 2002-03-29 Ntt Electornics Corp 電子決済システム、電子決済方法、および電子決済機能付き携帯電話
KR101004038B1 (ko) * 2010-05-25 2010-12-31 (주)다우기술 통신 단말기의 화면 터치를 이용한 전자결제 승인 시스템 및 그 방법
KR20110016107A (ko) * 2009-08-11 2011-02-17 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20120128511A (ko) * 2011-05-17 2012-11-27 박인준 노출 상품 정보 제공 시스템 및 방법
KR20150021943A (ko) * 2012-05-18 2015-03-03 애플 인크. 지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR20170094952A (ko) * 2016-02-12 2017-08-22 (주)인스타페이 터치 입력에 기반한 프로세스 처리 방법 및 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092320A (ja) * 2000-09-14 2002-03-29 Ntt Electornics Corp 電子決済システム、電子決済方法、および電子決済機能付き携帯電話
KR20110016107A (ko) * 2009-08-11 2011-02-17 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101004038B1 (ko) * 2010-05-25 2010-12-31 (주)다우기술 통신 단말기의 화면 터치를 이용한 전자결제 승인 시스템 및 그 방법
KR20120128511A (ko) * 2011-05-17 2012-11-27 박인준 노출 상품 정보 제공 시스템 및 방법
KR20150021943A (ko) * 2012-05-18 2015-03-03 애플 인크. 지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR20170094952A (ko) * 2016-02-12 2017-08-22 (주)인스타페이 터치 입력에 기반한 프로세스 처리 방법 및 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723640A (zh) * 2019-03-20 2020-09-29 株式会社石田 商品信息检查系统及计算机的控制方法
CN111723640B (zh) * 2019-03-20 2024-01-19 株式会社石田 商品信息检查系统及计算机的控制方法

Similar Documents

Publication Publication Date Title
WO2017065475A1 (en) Electronic device and method for processing gesture thereof
WO2014182052A1 (en) Method and apparatus for providing contents including augmented reality information
AU2018319215B2 (en) Electronic apparatus and control method thereof
WO2012144667A1 (en) Method and electronic device for gesture recognition
WO2017095207A1 (en) User terminal and control method thereof
WO2016111584A1 (en) User terminal for displaying image and image display method thereof
WO2017135777A1 (en) Mobile electronic device and method for electronic payment
WO2017039341A1 (en) Display apparatus and control method thereof
EP3665559A1 (en) Electronic device and method for executing function using input interface displayed via at least portion of content
WO2014046440A1 (en) User terminal device and network server apparatus for providing evaluation information and methods thereof
WO2015009110A1 (ko) 디스플레이를 구비한 휴대 단말기 및 그 휴대 단말기의 동작 방법
WO2014030960A1 (en) Method and system for providing information by using store terminal
WO2016175420A1 (ko) 리타게팅 광고 상품 추천 사용자 장치와 서비스 제공 장치, 그를 포함하는 광고 상품 추천 시스템, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
WO2015149588A1 (zh) 手持设备上用户操作模式的识别方法及手持设备
WO2020197263A1 (en) Electronic device and multitasking supporting method thereof
WO2014035113A1 (en) Method of controlling touch function and an electronic device thereof
WO2019164290A1 (en) Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof
WO2019004670A1 (en) METHOD AND ELECTRONIC DEVICE FOR RENDERING SVG CONTENT
WO2015178716A1 (en) Search method and device
EP3087752A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
WO2012124837A1 (en) An apparatus and a method for gesture recognition
WO2018207953A1 (ko) 터치 입력에 기반한 프로세스 처리 방법 및 시스템
WO2016143964A1 (en) Terminal and operating method thereof
WO2015142031A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
WO2020027562A1 (en) Electronic apparatus for controlling display of virtual input interface in environment of a plurality of output screens and operating method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17908896

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC , EPO FORM 1205A DATED 24.02.2020.

122 Ep: pct application non-entry in european phase

Ref document number: 17908896

Country of ref document: EP

Kind code of ref document: A1