JP2020534590A - Processing of visual input - Google Patents

Processing of visual input Download PDF

Info

Publication number
JP2020534590A
JP2020534590A JP2020509490A JP2020509490A JP2020534590A JP 2020534590 A JP2020534590 A JP 2020534590A JP 2020509490 A JP2020509490 A JP 2020509490A JP 2020509490 A JP2020509490 A JP 2020509490A JP 2020534590 A JP2020534590 A JP 2020534590A
Authority
JP
Japan
Prior art keywords
image
processing method
image processing
text
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020509490A
Other languages
Japanese (ja)
Other versions
JP7027524B2 (en
Inventor
カン,ユフン
キム,ジョンテク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Priority claimed from PCT/KR2018/009470 external-priority patent/WO2019039799A1/en
Publication of JP2020534590A publication Critical patent/JP2020534590A/en
Application granted granted Critical
Publication of JP7027524B2 publication Critical patent/JP7027524B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 視覚的入力の処理のための技術を提供すること。【解決手段】 一実施形態に係るイメージ処理方法は、カメラにおいて連続的にキャプチャされる映像ストリームの少なくとも1つのフレームと関連する有意義な情報、および/または有意義な情報と関連するユーザインタフェースを提供することができる。【選択図】 図3PROBLEM TO BE SOLVED: To provide a technique for processing a visual input. An image processing method according to an embodiment provides meaningful information associated with at least one frame of a video stream continuously captured by a camera and / or a user interface associated with the meaningful information. be able to. [Selection diagram] Fig. 3

Description

本発明は、視覚的入力の処理のための技術に関する。より詳細には、カメラによって連続的にキャプチャされる映像ストリームの少なくとも1つのフレームと関連する有意義な情報、および/または、有意義な情報と関連するユーザインタフェースを提供することができるイメージ処理方法およびシステム、コンピュータと結合して本発明の実施形態に係るイメージ処理方法をコンピュータに実行させるためのコンピュータ読み取り可能な記憶媒体に記録されたコンピュータプログラム、およびその記憶媒体に関する。 The present invention relates to techniques for processing visual inputs. More specifically, image processing methods and systems that can provide meaningful information associated with at least one frame of a video stream continuously captured by a camera and / or a user interface associated with the meaningful information. The present invention relates to a computer program recorded on a computer-readable storage medium for causing the computer to execute the image processing method according to the embodiment of the present invention in combination with a computer, and the storage medium thereof.

イメージのような視覚的入力を処理するための多様な従来技術が存在する。例えば、韓国特許出願公開第10−2003−0024786号は、デジタルカメラで撮影した全体のイメージをテキスト情報と関連して分析し、前記情報をOCR(Optical Character Reader)技術などによって認識して解釈することで、追加の処理および/または送信のために圧縮されたテキストコードとして記録する技術を開示している。 There are a variety of prior art techniques for processing visual inputs such as images. For example, Korean Patent Application Publication No. 10-2003-0024786 analyzes the entire image taken by a digital camera in relation to text information, and recognizes and interprets the information by OCR (Optical Character Reader) technology or the like. It discloses a technique for recording as compressed text code for additional processing and / or transmission.

カメラによって連続的にキャプチャされる映像ストリームの少なくとも1つのフレームと関連する有意義な情報、および/または、有意義な情報と関連するユーザインタフェースを提供すること。 To provide meaningful information associated with at least one frame of a video stream continuously captured by a camera and / or a user interface associated with the meaningful information.

カメラによって連続的にキャプチャされる映像ストリームの少なくとも1つのフレームと関連する有意義な情報、および/または、有意義な情報と関連するユーザインタフェースを提供することができるイメージ処理方法およびシステム、コンピュータと結合して本発明の実施形態に係るイメージ処理方法をコンピュータに実行させるためのコンピュータ読み取り可能な記憶媒体に記録されたコンピュータプログラム、およびその記憶媒体を提供する。 Image processing methods and systems that can provide meaningful information associated with at least one frame of a video stream continuously captured by a camera and / or a user interface associated with the meaningful information, combined with a computer. The present invention provides a computer program recorded on a computer-readable storage medium for causing a computer to execute the image processing method according to the embodiment of the present invention, and a storage medium thereof.

イメージ処理方法であって、イメージ処理モードに入ったことに応答してカメラモジュールを実行させる段階、前記実行されたカメラモジュールにおいて連続的にイメージのストリームの入力を受けて画面に順に表示する段階、前記入力されたイメージのストリームを認識エンジンに伝達する段階、および、前記入力されたイメージのストリームに対して前記認識エンジンによって認識された認識結果が存在する場合、前記入力されたイメージのストリームが表示中の画面上に前記認識結果をさらに順に表示する段階、を含むことを特徴とする、イメージ処理方法を提供する。 An image processing method, in which a camera module is executed in response to entering an image processing mode, and a stage in which an image stream is continuously input in the executed camera module and displayed on the screen in order. The stage of transmitting the input image stream to the recognition engine, and when there is a recognition result recognized by the recognition engine for the input image stream, the input image stream is displayed. Provided is an image processing method comprising a step of displaying the recognition results in order on the screen inside.

イメージ処理方法であって、電子機器のカメラモジュールによってキャプチャされたイメージを、ネットワークを介して受信する段階、前記受信されたイメージが含むオブジェクトのディテクトアニメーションを生成する段階、前記生成されたディテクトアニメーションを前記電子機器に送信する段階、前記受信されたイメージのイメージ検索結果を生成する段階、および前記生成されたイメージ検索結果を前記電子機器に送信する段階を含むことを特徴とする、イメージ処理方法を提供する。 An image processing method in which an image captured by a camera module of an electronic device is received via a network, a step of generating a detect animation of an object included in the received image, and a step of generating the generated detect animation. An image processing method comprising a step of transmitting to the electronic device, a step of generating an image search result of the received image, and a step of transmitting the generated image search result to the electronic device. provide.

コンピュータと結合して前記イメージ処理方法をコンピュータに実行させるためのコンピュータ読み取り可能な記憶媒体に記録されたコンピュータプログラムを提供する。 Provided is a computer program recorded on a computer-readable storage medium for combining with a computer to cause the computer to execute the image processing method.

前記イメージ処理方法をコンピュータに実行させるためのプログラムが記録されているコンピュータ読み取り可能な記憶媒体を提供する。 Provided is a computer-readable storage medium in which a program for causing a computer to execute the image processing method is recorded.

コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、イメージ処理モードに入ったことに応答してカメラモジュールを実行させ、前記実行されたカメラモジュールにおいて連続的にイメージのストリームの入力を受けて画面に順に表示し、前記入力されたイメージのストリームを認識エンジンに伝達し、前記入力されたイメージのストリームに対して前記認識エンジンによって認識された認識結果が存在する場合、前記入力されたイメージのストリームが表示中の画面上に前記認識結果をさらに順に表示する動作を実行する、ことを特徴とする、コンピュータ装置を提供する。 The executed camera module comprises at least one processor implemented to execute a computer-readable instruction, the at least one processor causing the camera module to execute in response to entering image processing mode. In, the input of the image stream is continuously received and displayed on the screen in order, the input image stream is transmitted to the recognition engine, and the recognition recognized by the recognition engine with respect to the input image stream. Provided is a computer device characterized in that, when a result exists, the stream of the input image executes an operation of displaying the recognition result in order on a screen being displayed.

コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、電子機器のカメラモジュールにおいてキャプチャされたイメージをネットワークを介して受信し、前記受信されたイメージが含むオブジェクトのディテクトアニメーションを生成し、前記生成されたディテクトアニメーションを前記電子機器に送信し、前記受信されたイメージのイメージ検索結果を生成し、前記生成されたイメージ検索結果を前記電子機器に送信する動作を実行する、ことを特徴とする、コンピュータ装置を提供する。 An image captured in a camera module of an electronic device is received over a network by the at least one processor, which comprises at least one processor implemented to execute a computer-readable instruction, and the received image. Generates a detect animation of the object included in the device, transmits the generated detect animation to the electronic device, generates an image search result of the received image, and transmits the generated image search result to the electronic device. Provided is a computer device characterized by performing an action to be performed.

カメラによって連続的にキャプチャされる映像ストリームの少なくとも1つのフレームと関連する有意義な情報、および/または、有意義な情報と関連するユーザインタフェースを提供することができる。 It is possible to provide meaningful information associated with at least one frame of a video stream continuously captured by a camera and / or a user interface associated with the meaningful information.

本発明の一実施形態における、ネットワーク環境の例を示した図である。It is a figure which showed the example of the network environment in one Embodiment of this invention. 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。It is a block diagram for demonstrating the internal structure of an electronic device and a server in one Embodiment of this invention. 本発明の一実施形態における、イメージ処理システムの実行環境の例を示した図である。It is a figure which showed the example of the execution environment of the image processing system in one Embodiment of this invention. 本発明の一実施形態における、OCR認識によって追加情報または追加機能を提供する例を示した図である。It is a figure which showed the example which provides the additional information or the additional function by OCR recognition in one Embodiment of this invention. 本発明の一実施形態における、OCR認識によって追加情報または追加機能を提供する例を示した図である。It is a figure which showed the example which provides the additional information or the additional function by OCR recognition in one Embodiment of this invention. 本発明の一実施形態における、認識された文字数によってフォントサイズを調節する例を示した図である。It is a figure which showed the example which adjusts the font size by the number of recognized characters in one Embodiment of this invention. 本発明の一実施形態における、認識された文字数によってフォントサイズを調節する例を示した図である。It is a figure which showed the example which adjusts the font size by the number of recognized characters in one Embodiment of this invention. 本発明の一実施形態における、認識された文字数によってフォントサイズを調節する例を示した図である。It is a figure which showed the example which adjusts the font size by the number of recognized characters in one Embodiment of this invention. 本発明の一実施形態における、バーコード認識によって追加機能を提供する例を示した図である。It is a figure which showed the example which provides the additional function by bar code recognition in one Embodiment of this invention. 本発明の一実施形態における、QRコード(登録商標)認識によって追加機能を提供する例を示した図である。It is a figure which showed the example which provides the additional function by QR code (registered trademark) recognition in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。It is a figure which showed the example which provides the image search result in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。It is a figure which showed the example which provides the image search result in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。It is a figure which showed the example which provides the image search result in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。It is a figure which showed the example which provides the image search result in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。It is a figure which showed the example which provides the image search result in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。It is a figure which showed the example which provides the image search result in one Embodiment of this invention. 本発明の一実施形態における、主要カラーを抽出して彩度を制限する例を示した図である。It is a figure which showed the example which extracts the main color and limits the saturation in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を類型によってデザインされたテンプレートで提供する例を示した図である。It is a figure which showed the example which provides the image search result by the template designed by the type in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を類型によってデザインされたテンプレートで提供する例を示した図である。It is a figure which showed the example which provides the image search result by the template designed by the type in one Embodiment of this invention. 本発明の一実施形態における、イメージ検索結果を類型によってデザインされたテンプレートで提供する例を示した図である。It is a figure which showed the example which provides the image search result by the template designed by the type in one Embodiment of this invention. 本発明の一実施形態における、ディテクトアニメーションを表示する例を示した図である。It is a figure which showed the example which displays the detect animation in one Embodiment of this invention. 本発明の一実施形態における、ディテクトアニメーションを表示する例を示した図である。It is a figure which showed the example which displays the detect animation in one Embodiment of this invention. 本発明の一実施形態における、ディテクトアニメーションを表示する例を示した図である。It is a figure which showed the example which displays the detect animation in one Embodiment of this invention. 本発明の一実施形態における、ディテクトアニメーションを表示する例を示した図である。It is a figure which showed the example which displays the detect animation in one Embodiment of this invention. 本発明の一実施形態における、ディテクトアニメーションの例を示した図である。It is a figure which showed the example of the detect animation in one Embodiment of this invention. 本発明の一実施形態における、イメージ処理方法の例を示したフローチャートである。It is a flowchart which showed the example of the image processing method in one Embodiment of this invention. 本発明の一実施形態における、イメージ処理方法の他の例を示したフローチャートである。It is a flowchart which showed the other example of the image processing method in one Embodiment of this invention. 本発明の一実施形態における、イメージ処理方法のさらに他の例を示したフローチャートである。It is a flowchart which showed still another example of the image processing method in one Embodiment of this invention. 本発明の一実施形態における、ディテクトアニメーションを生成する方法の例を示したフローチャートである。It is a flowchart which showed the example of the method of generating the detect animation in one Embodiment of this invention. 本発明の一実施形態における、プレース認識によって追加情報を提供する例を示した図である。It is a figure which showed the example which provides additional information by place recognition in one Embodiment of this invention. 本発明の一実施形態における、イメージコードの認識によって追加情報を提供する例を示した図である。It is a figure which showed the example which provides additional information by recognition of an image code in one Embodiment of this invention.

以下、実施形態について、添付の図面を参照しながら詳しく説明する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

本発明の実施形態に係るイメージ処理方法は、以下で説明される電子機器および/またはサーバのようなコンピュータ装置によって実行されてよい。このとき、コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されるコンピュータプログラムの制御にしたがって本発明の一実施形態に係るイメージ処理方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合してイメージ処理方法をコンピュータに実行させるためにコンピュータ読み取り可能な記憶媒体に記録されてよい。 The image processing method according to an embodiment of the present invention may be performed by a computer device such as an electronic device and / or a server described below. At this time, in the computer device, the computer program according to the embodiment of the present invention may be installed and executed, and the computer device may perform image processing according to the embodiment of the present invention under the control of the executed computer program. You may carry out the method. The computer program described above may be recorded on a computer-readable storage medium in combination with a computer device to allow the computer to perform an image processing method.

図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。 FIG. 1 is a diagram showing an example of a network environment according to an embodiment of the present invention. The network environment of FIG. 1 shows an example including a plurality of electronic devices 110, 120, 130, 140, a plurality of servers 150, 160, and a network 170. Such FIG. 1 is merely an example for explaining the invention, and the number of electronic devices and the number of servers are not limited as in FIG.

複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器1(110)の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器1(110)は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することができる多様な物理的なコンピュータ装置のうちの1つを意味してよい。 The plurality of electronic devices 110, 120, 130, 140 may be fixed terminals or mobile terminals realized by a computer device. Examples of a plurality of electronic devices 110, 120, 130, 140 include smartphones, mobile phones, navigation systems, PCs (personal computers), notebook PCs, digital broadcasting terminals, PDAs (Personal Digital Assistants), and PMPs (Tablet Multimedia Players). ), Tablets, etc. As an example, FIG. 1 shows a smartphone as an example of the electronic device 1 (110), but in the embodiment of the present invention, the electronic device 1 (110) substantially uses a wireless or wired communication method. It may mean one of a variety of physical computer devices capable of communicating with other electronic devices 120, 130, 140 and / or servers 150, 160 via network 170.

通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは階層的ネットワーク、などを含むネットワークトポロジのうちの任意の1つ以上を含んでよいが、これらに限定されることはない。 The communication method is not limited, and not only the communication method using the communication network (for example, mobile communication network, wired Internet, wireless Internet, broadcasting network) that can be included in the network 170, but also the short distance between devices. Wireless communication may be included. For example, the network 170 includes a PAN (personal area network), a LAN (local area network), a CAN (campus area network), a MAN (metropolitan area network), a WAN (wide network) network, and the like. It may include any one or more of the networks. In addition, network 170 may include any one or more of network topologies including bus networks, star networks, ring networks, mesh networks, star-bus networks, tree or hierarchical networks, and the like. There is no limitation.

サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して、命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じて、該当のアプリケーションが目的とするサービス(一例として、本実施形態に係るイメージ処理のためのサービスの他にも、情報提供サービス、メッセージングサービス、メールサービス、コンテンツ送信サービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび実行のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。 Each of the servers 150, 160 is realized by one or more computer devices that communicate with a plurality of electronic devices 110, 120, 130, 140 via the network 170 to provide instructions, codes, files, contents, services, and the like. You can. For example, the server 150 may be a system that provides the first service to a plurality of electronic devices 110, 120, 130, 140 connected via the network 170, and the server 160 may also be a plurality of systems connected via the network 170. It may be a system that provides a second service to electronic devices 110, 120, 130, 140. As a more specific example, the server 150 is a service (for example, the present implementation) aimed at by the application through an application which is a computer program installed and executed in a plurality of electronic devices 110, 120, 130, 140. In addition to the service for image processing related to the form, an information providing service, a messaging service, a mail service, a content transmission service, etc.) may be provided to a plurality of electronic devices 110, 120, 130, 140 as the first service. .. As another example, the server 160 may provide a service as a second service that distributes files for installing and executing the above-mentioned application to a plurality of electronic devices 110, 120, 130, 140.

図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器1(110)の内部構成およびサーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器1(110)またはサーバ150と同一または類似の内部構成を有してよい。 FIG. 2 is a block diagram for explaining the internal configurations of the electronic device and the server according to the embodiment of the present invention. FIG. 2 describes the internal configuration of the electronic device 1 (110) and the internal configuration of the server 150 as examples for the electronic device. Further, the other electronic devices 120, 130, 140 and the server 160 may have the same or similar internal configuration as the electronic device 1 (110) or the server 150 described above.

電子機器1(110)およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータ読み取り可能な記憶媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記憶装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記憶装置は、メモリ211、221とは区分される別の永続的記憶装置として電子機器1(110)やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器1(110)においてインストールされて実行されるブラウザや特定のサービスの提供のために電子機器1(110)にインストールされたアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記憶媒体からロードされてよい。このような別のコンピュータ読み取り可能な記憶媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記憶媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記憶媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。 Electronic device 1 (110) and server 150 may include memory 211,221, processors 212,222, communication modules 213 and 223, and input / output interfaces 214 and 224. The memories 211 and 221 are computer-readable storage media and may include a permanent mass storage device such as a RAM (random access memory), a ROM (read only memory), and a disk drive. Here, a permanent large-capacity storage device such as a ROM or a disk drive may be included in the electronic device 1 (110) or the server 150 as another permanent storage device that is separated from the memories 211 and 221. In addition, the memories 211 and 221 contain an operating system and at least one program code (for example, an electronic device 1 (110) for providing a browser installed and executed in the electronic device 1 (110) or a specific service. The code for applications etc. installed in) may be recorded. Such software components may be loaded from a computer-readable storage medium separate from the memories 211 and 221. Such other computer-readable storage media may include computer-readable storage media such as floppy® drives, disks, tapes, DVD / CD-ROM drives, memory cards, and the like. In other embodiments, software components may be loaded into memory 211,221 through communication modules 213, 223, which are not computer readable storage media. For example, at least one program is a computer program installed by a file provided via network 170 by a file distribution system (eg, server 160 described above) that distributes developer or application installation files (eg, described above). It may be loaded into the memory 211 or 221 based on the application.

プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記憶装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。 Processors 212 and 222 may be configured to process instructions in a computer program by performing basic arithmetic, logic, and input / output operations. Instructions may be provided to processors 212 and 222 by memory 211, 221 or communication modules 213 and 223. For example, processors 212 and 222 may be configured to execute instructions received according to program code recorded in storage devices such as memories 211 and 221.

通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器1(110)および/またはサーバ150が他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記憶装置に記録されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)に受信されてよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことのできる記憶媒体(上述した永続的記憶装置)に記録されてよい。 The communication modules 213 and 223 may provide a function for the electronic device 1 (110) and the server 150 to communicate with each other via the network 170, and the electronic device 1 (110) and / or the server 150 may provide other functions. A function for communicating with an electronic device (for example, electronic device 2 (120)) or another server (for example, server 160) may be provided. As an example, a request generated by the processor 212 of the electronic device 1 (110) according to a program code recorded in a storage device such as a memory 211 is transmitted to the server 150 via the network 170 under the control of the communication module 213. You can. On the contrary, control signals, instructions, contents, files, etc. provided under the control of the processor 222 of the server 150 pass through the communication module 223 and the network 170, and then through the communication module 213 of the electronic device 1 (110). It may be received at 1 (110). For example, control signals, commands, contents, files, etc. of the server 150 received through the communication module 213 may be transmitted to the processor 212 and the memory 211, and the contents, files, etc. are further included in the electronic device 1 (110). It may be recorded on a storage medium (permanent storage device described above).

入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードやマウスなどの装置を、出力装置は、ディスプレイやスピーカなどの装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器1(110)と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150に接続するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器1(110)のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。 The input / output interface 214 may be a means for an interface with the input / output device 215. For example, the input device may include a device such as a keyboard or a mouse, and the output device may include a device such as a display or a speaker. As another example, the input / output interface 214 may be a means for an interface with a device such as a touch screen in which functions for input and output are integrated into one. The input / output device 215 may be composed of an electronic device 1 (110) and one device. Also, the input / output interface 224 of the server 150 may be a means for connecting to the server 150 or for interfacing with a device (not shown) for input or output that the server 150 can include. As a more specific example, when the processor 212 of the electronic device 1 (110) processes the instruction of the computer program loaded in the memory 211, the processor 212 is configured by using the data provided by the server 150 and the electronic device 2 (120). The service screen or content to be generated may be displayed on the display through the input / output interface 214.

また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器1(110)がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器1(110)にさらに含まれるように実現されてよい。 Also, in other embodiments, the electronic device 1 (110) and the server 150 may include more components than the components of FIG. However, most prior art components need not be clearly illustrated. For example, the electronic device 1 (110) may be realized to include at least a part of the above-mentioned input / output device 215, a transceiver, a GPS (Global Positioning System) module, a camera, various sensors, and a database. It may further include other components such as. As a more specific example, when the electronic device 1 (110) is a smartphone, the acceleration sensor, gyro sensor, camera module, various physical buttons, buttons using the touch panel, input / input, which are generally included in the smartphone. Various components such as an output port, a vibrator for vibration, and the like may be realized to be further included in the electronic device 1 (110).

図3は、本発明の一実施形態における、イメージ処理システムの実行環境の例を示した図である。図3は、電子機器1(110)が、カメラモジュール310、OCR認識エンジン320、バーコード認識エンジン330、およびQRコード認識エンジン340を含み、サーバ150が、イメージ検索エンジン350およびディテクトアニメーション生成エンジン360を含む例を示している。実施形態によって、ディテクトアニメーション生成エンジン360は、電子機器1(110)に含まれてもよい。 FIG. 3 is a diagram showing an example of an execution environment of an image processing system according to an embodiment of the present invention. In FIG. 3, electronic device 1 (110) includes a camera module 310, an OCR recognition engine 320, a barcode recognition engine 330, and a QR code recognition engine 340, and a server 150 includes an image search engine 350 and a detect animation generation engine 360. An example including is shown. Depending on the embodiment, the detect animation generation engine 360 may be included in the electronic device 1 (110).

各エンジン320〜360は、ソフトウェアモジュールの形態で実現されてよい。例えば、電子機器1(110)が含むOCR認識エンジン320、バーコード認識エンジン330、およびQRコード認識エンジン340は、電子機器1(110)においてインストールされて実行されるアプリケーションが提供する機能的表現であってよい。この場合、電子機器1(110)のプロセッサ212は、アプリケーションのコードにしたがって、OCR認識エンジン320、バーコード認識エンジン330、およびQRコード認識エンジン340による動作を実行してよい。同じように、サーバ150が含むイメージ検索エンジン350およびディテクトアニメーション生成エンジン360も、ソフトウェアモジュールの形態で実現されてよく、サーバ150において実行されるコンピュータプログラムが提供する機能的表現であってよい。この場合、サーバ150のプロセッサ222は、コンピュータプログラムのコードにしたがってイメージ検索エンジン350およびディテクトアニメーション生成エンジン360による動作を実行してよい。 Each engine 320-360 may be implemented in the form of a software module. For example, the OCR recognition engine 320, the barcode recognition engine 330, and the QR code recognition engine 340 included in the electronic device 1 (110) are functional expressions provided by an application installed and executed in the electronic device 1 (110). It may be there. In this case, the processor 212 of the electronic device 1 (110) may execute the operation by the OCR recognition engine 320, the barcode recognition engine 330, and the QR code recognition engine 340 according to the code of the application. Similarly, the image search engine 350 and the detect animation generation engine 360 included in the server 150 may be realized in the form of software modules, and may be functional expressions provided by a computer program executed on the server 150. In this case, the processor 222 of the server 150 may execute the operation by the image search engine 350 and the detect animation generation engine 360 according to the code of the computer program.

OCR認識エンジン320は、イメージ内から1つ以上の文字および/または数字を認識してよい。 The OCR recognition engine 320 may recognize one or more letters and / or numbers from within the image.

バーコード認識エンジン330は、イメージ内からバーコードを認識してよい。 The barcode recognition engine 330 may recognize the barcode from within the image.

QRコード認識エンジン340は、イメージ内からQRコードを認識してよい。 The QR code recognition engine 340 may recognize the QR code from within the image.

イメージ検索エンジン350は、イメージの入力を受け、該当のイメージと関連する多様な検索結果(イメージやテキストなど)を返還してよい。 The image search engine 350 may receive input of an image and return various search results (image, text, etc.) related to the image.

ディテクトアニメーション生成エンジン360は、イメージ内からオブジェクトを探索する過程を視覚的に表現するためのディテクトアニメーションを生成して提供してよい。このようなディテクトアニメーションは、検索結果が出るまでの待機時間にユーザの興味を誘発し、検索結果の表示が遅くないような印象を与えるための効果として活用されてよい。 The detect animation generation engine 360 may generate and provide a detect animation for visually expressing the process of searching for an object in an image. Such a detect animation may be utilized as an effect for inducing the user's interest in the waiting time until the search result is obtained and giving the impression that the display of the search result is not slow.

電子機器1(110)が本実施形態に係るイメージ処理モードに入った場合、電子機器1(110)は、カメラモジュール310を実行させてよく、ユーザからの特別な入力がなくても、カメラモジュール310によって連続的にキャプチャされるイメージストリームを、OCR認識エンジン320、バーコード認識エンジン330、およびQRコード認識エンジン340の入力として伝達してよい。このとき、OCR認識エンジン320、バーコード認識エンジン330、およびQRコード認識エンジン340それぞれは、入力されたイメージストリームのイメージ(フレーム)を順に分析し、それぞれ該当するオブジェクト(文字、数字、バーコード、QRコードなど)をイメージ内から認識してよい。 When the electronic device 1 (110) enters the image processing mode according to the present embodiment, the electronic device 1 (110) may execute the camera module 310, and the camera module may be executed without any special input from the user. The image stream continuously captured by the 310 may be transmitted as inputs to the OCR recognition engine 320, the barcode recognition engine 330, and the QR code recognition engine 340. At this time, each of the OCR recognition engine 320, the barcode recognition engine 330, and the QR code recognition engine 340 analyzes the image (frame) of the input image stream in order, and each corresponds object (character, number, bar code, The QR code, etc.) may be recognized from within the image.

上述のように、OCR認識エンジン320は、イメージストリームが含むイメージを順に分析することでイメージ内に含まれる文字および/または数字の認識を試行してよく、認識された文字および/または数字を返還してよい。この場合、電子機器1(110)は、返還された文字および/または数字を画面に表示してよく、表示された文字および/または数字と関連のある追加情報や追加機能を提供してよい。例えば、第1言語の文字が認識された場合、電子機器1(110)は、認識された第1言語の文字を他の言語の文字に翻訳することができる翻訳機能へのアクセスのためのユーザインタフェースを提供してよい。他の例として、電子機器1(110)は、返還された文字および/または数字をキーワードとして利用する検索機能へのアクセスのためのユーザインタフェースを提供してよい。さらに他の例として、電子機器1(110)は、返還された文字および/または数字をキーワードとして自動的に検索を行い、その検索結果を提供してもよい。 As mentioned above, the OCR recognition engine 320 may attempt to recognize the characters and / or numbers contained in the image by sequentially analyzing the images contained in the image stream and return the recognized characters and / or numbers. You can do it. In this case, electronic device 1 (110) may display the returned characters and / or numbers on the screen and may provide additional information and functions related to the displayed characters and / or numbers. For example, when a character in the first language is recognized, the electronic device 1 (110) is a user for accessing a translation function capable of translating the recognized character in the first language into a character in another language. An interface may be provided. As another example, electronic device 1 (110) may provide a user interface for accessing a search function that utilizes the returned letters and / or numbers as keywords. As yet another example, the electronic device 1 (110) may automatically perform a search using the returned characters and / or numbers as keywords and provide the search results.

バーコード認識エンジン330は、イメージストリームが含むイメージを順に分析することでイメージ内に含まれるバーコードの認識を試行してよく、認識されたバーコードに関する情報を返還してよい。この場合、電子機器1(110)は、返還された情報と関連のある追加情報や追加機能を提供してよい。例えば、電子機器1(110)は、返還されたバーコードに関する情報に基づいて該当のバーコードに対応する情報(一例として、バーコードに対応する書籍やワインなどに関する情報)を検索し、その検索結果を追加情報として提供してよい。他の例として、電子機器1(110)は、バーコードに対応する情報へのアクセスのためのユーザインタフェースを提供してもよい。 The barcode recognition engine 330 may attempt to recognize the barcode contained in the image by sequentially analyzing the images contained in the image stream, and may return information on the recognized barcode. In this case, electronic device 1 (110) may provide additional information or additional functions associated with the returned information. For example, the electronic device 1 (110) searches for information corresponding to the corresponding bar code (for example, information on books, wine, etc. corresponding to the bar code) based on the information on the returned bar code, and the search is performed. The results may be provided as additional information. As another example, electronic device 1 (110) may provide a user interface for accessing information corresponding to a barcode.

QRコード認識エンジン340は、イメージストリームが含むイメージを順に分析することでイメージ内に含まれるQRコードの認識を試行してよく、認識されたQRコードに関する情報を返還してよい。この場合、電子機器1(110)は、返還された情報と関連のある追加情報や追加機能を提供してよい。バーコードの場合と同じように、電子機器1(110)は、認識されたQRコードに対応する情報(一例として、QRコードが含むURLに対応する情報)を追加情報として提供してもよいし、または、認識されたQRコードに対応する情報へのアクセスのためのユーザインタフェースを提供してもよい。 The QR code recognition engine 340 may try to recognize the QR code contained in the image by sequentially analyzing the images included in the image stream, and may return the information regarding the recognized QR code. In this case, the electronic device 1 (110) may provide additional information and additional functions related to the returned information. As in the case of the barcode, the electronic device 1 (110) may provide the information corresponding to the recognized QR code (for example, the information corresponding to the URL included in the QR code) as additional information. Alternatively, a user interface for accessing information corresponding to the recognized QR code may be provided.

このように、電子機器1(110)がイメージ処理モードに入った場合、電子機器1(110)は、ユーザからの特別な入力がなくてもカメラモジュール310を実行させ、カメラモジュール310において提供されるイメージストリームのイメージそれぞれから文字、数字、バーコード、QRコードなどのようなオブジェクトを自動的に探索し、探索されたオブジェクトと関連のある追加情報や追加機能が自動的に提供されるようにすることが可能となる。 As described above, when the electronic device 1 (110) enters the image processing mode, the electronic device 1 (110) executes the camera module 310 without any special input from the user and is provided in the camera module 310. Automatically search for objects such as letters, numbers, bar codes, QR codes, etc. from each image in the image stream, and automatically provide additional information and functions related to the searched object. It becomes possible to do.

一方、電子機器1(110)は、ユーザの撮影ボタンの選択(一例として、タッチスクリーン環境においてタッチスクリーンに表示された撮影ボタンの領域をユーザが指でタッチ)のように、予め設定されたユーザインタフェースにおいてユーザ入力の発生をモニタリングしてよい。図3において、過程370は、ユーザ入力の発生をモニタリングし、ユーザ入力が発生した場合には、ユーザ入力にしたがって、キャプチャされたイメージがサーバ150に伝達される例を示している。より具体的な例として、図2を参照しながら説明したように、電子機器1(110)は、通信モジュール213を利用してネットワーク170を介してキャプチャされたイメージをサーバ150に送信してよく、サーバ150は、ネットワーク170を介して送信されたキャプチャされたイメージを、通信モジュール223を利用して受信してよい。 On the other hand, the electronic device 1 (110) is a preset user such as a user selecting a shooting button (for example, the user touches a shooting button area displayed on the touch screen in a touch screen environment with a finger). The occurrence of user input may be monitored at the interface. In FIG. 3, process 370 monitors the occurrence of user input, and when user input occurs, shows an example in which the captured image is transmitted to the server 150 according to the user input. As a more specific example, as described with reference to FIG. 2, the electronic device 1 (110) may transmit the image captured via the network 170 to the server 150 by using the communication module 213. The server 150 may receive the captured image transmitted via the network 170 by using the communication module 223.

サーバ150は、伝達されたイメージを、イメージ検索エンジン350とディテクトアニメーション生成エンジン360にそれぞれ提供してよい。 The server 150 may provide the transmitted image to the image search engine 350 and the detect animation generation engine 360, respectively.

上述のように、イメージ検索エンジン350は、電子機器1(110)でキャプチャされて、伝達されたイメージを入力として受信し、該当のイメージと関連のある多様な検索結果を返還してよい。例えば、イメージ検索エンジン350は、該当のイメージが含むオブジェクトを認識し、認識されたオブジェクトと関連するイメージや文書、テキストなどを検索して返還してよい。より具体的な例として、イメージに含まれた子犬を認識し、この子犬の種類が「レトリーバー」と分析された場合、「レトリーバー」と関連のあるイメージや文書などの検索結果を生成および返還してよい。サーバ150は、返還された検索結果を、ネットワーク170を介して電子機器1(110)に送信してよく、電子機器1(110)では、該当の検索結果をユーザに提供してよい。実施形態によって、電子機器1(110)は、イメージだけではなく、イメージをキャプチャするときの時間と電子機器1(110)の現在置、電子機器1(110)のユーザ情報などをサーバ150に追加で送信してもよい。この場合、サーバ150は、位置、時間、ユーザ情報のうちの少なくとも1つにさらに基づいて検索結果を提供してよい。例えば、イメージと関連する多様な検索結果のうち、ユーザの現在位置と関連のある検索結果や時間と関連のある検索結果が、検索結果の表示において優先順位を取得してよい。 As described above, the image search engine 350 may receive the image captured and transmitted by the electronic device 1 (110) as input and return various search results related to the image. For example, the image search engine 350 may recognize an object included in the image, search for an image, a document, a text, or the like related to the recognized object, and return the object. As a more specific example, if a puppy included in an image is recognized and this puppy type is analyzed as a "retriever", search results such as images and documents related to the "retriever" will be generated and returned. You can. The server 150 may transmit the returned search result to the electronic device 1 (110) via the network 170, and the electronic device 1 (110) may provide the corresponding search result to the user. Depending on the embodiment, the electronic device 1 (110) adds not only the image but also the time when the image is captured, the current position of the electronic device 1 (110), the user information of the electronic device 1 (110), and the like to the server 150. You may send it with. In this case, the server 150 may further provide search results based on at least one of location, time, and user information. For example, among various search results related to an image, a search result related to the user's current position or a search result related to time may acquire a priority in displaying the search result.

ディテクトアニメーション生成エンジン360は、電子機器1(110)でキャプチャされて伝達されたイメージを入力として受け、該当のイメージ内からオブジェクトを探索する過程を視覚的に表現するためのディテクトアニメーションを生成してよい。この場合にも、サーバ150は、生成されたディテクトアニメーションを、ネットワーク170を介して電子機器1(110)に送信してよく、電子機器1(110)においてディテクトアニメーションを予め設定された時間にわたって該当のイメージと関連付けて表示することにより、電子機器1(110)のユーザが検索結果(上述したイメージ検索エンジン350において返還され、サーバ150から電子機器1(110)に提供される検索結果)が出るまでの待機時間に該当のユーザの興味を誘発し、検索結果の表示が遅くないような印象を与えるための効果として活用されてよい。このようなディテクトアニメーションは、基本的に、イメージから探索しようとするオブジェクトと関連する位置の複数の点と、このような点を連結する線とで構成されてよく、点の表現と点を連結する線の表現がアニメーション効果として表示されてよい。また、実施形態によって、点と線の太さや大きさ、明るさ、色などを変化させて追加的なアニメーション効果を与えてもよい。さらに、点と点を連結する線からなる面を互いに異なる色で表示して立体感を与えてもよく、または点を連結する線を曲線処理する実施形態が考慮されてもよい。このようなディテクトアニメーションについては、以下でより詳しく説明する。 The detect animation generation engine 360 receives an image captured and transmitted by the electronic device 1 (110) as an input, and generates a detect animation for visually expressing the process of searching for an object in the corresponding image. Good. In this case as well, the server 150 may transmit the generated detect animation to the electronic device 1 (110) via the network 170, and the detect animation is applied to the electronic device 1 (110) over a preset time. By displaying in association with the image of, the user of the electronic device 1 (110) obtains a search result (a search result returned by the image search engine 350 described above and provided to the electronic device 1 (110) by the server 150). It may be used as an effect for inducing the interest of the corresponding user in the waiting time until the search result is displayed so as not to be slow. Such a detect animation may basically consist of a plurality of points at positions related to the object to be searched from the image and a line connecting such points, and the expression of the points and the points are connected. The representation of the line to be done may be displayed as an animation effect. In addition, depending on the embodiment, the thickness, size, brightness, color, and the like of points and lines may be changed to give an additional animation effect. Further, the surfaces composed of the points connecting the points may be displayed in different colors to give a three-dimensional effect, or an embodiment in which the lines connecting the points are curved may be considered. Such detect animation will be described in more detail below.

図4および図5は、本発明の一実施形態における、OCR認識によって追加情報または追加機能を提供する例を示した図である。 4 and 5 are diagrams showing an example of providing additional information or additional functions by OCR recognition in one embodiment of the present invention.

図4は、電子機器1(110)の画面例410〜440を示している。第1画面例410は、図3を参照しながら説明したように、カメラモジュール310においてキャプチャされたイメージストリームがOCR認識エンジン320に自動的に伝達され、OCR認識エンジン320においてリアルタイムで文字が認識された例を示している。 FIG. 4 shows screen examples 410 to 440 of the electronic device 1 (110). In the first screen example 410, as described with reference to FIG. 3, the image stream captured by the camera module 310 is automatically transmitted to the OCR recognition engine 320, and the characters are recognized in real time by the OCR recognition engine 320. An example is shown.

このとき、第2画面例420では、認識の完了にともない、認識された文字の色が変更されてイメージ上に表示され、T(TEXT)文字認識ボタンが表示された例を示している。 At this time, the second screen example 420 shows an example in which the color of the recognized character is changed and displayed on the image as the recognition is completed, and the T (TEXT) character recognition button is displayed.

また、第3画面例430は、T文字認識ボタンの選択にともない、認識された文字に対するコピー、翻訳、読み取りなどのように、認識された文字と関連する機能が提供された例を示している。例えば、コピー機能は、認識された文字をクリップボードにコピーするための機能であってよい。また、翻訳機能は、認識された第1言語の文字を第2言語の文字に翻訳するための機能であってよい。さらに、読み取り機能は、認識された第1文字を読み上げる機能であってよく、第1文字に該当するオーディオを生成して出力する機能であってよい。 Further, the third screen example 430 shows an example in which functions related to the recognized character, such as copy, translation, and reading for the recognized character, are provided with the selection of the T character recognition button. .. For example, the copy function may be a function for copying the recognized character to the clipboard. Further, the translation function may be a function for translating the recognized characters of the first language into the characters of the second language. Further, the reading function may be a function of reading out the recognized first character, and may be a function of generating and outputting audio corresponding to the first character.

第4画面例440は、ユーザによる翻訳機能の選択にともない、認識された第1言語の文字が第2言語の文字に翻訳されて表示された例を示している。このとき、第4画面例440に表示された詳細を見る機能は、認識された第1言語の文字に対する言語辞書の検索結果や、認識された第1言語の文字をキーワードとして利用した検索結果などのように、追加コンテンツを提供するか別途の翻訳結果ページに移動するための機能であってよい。また、認識が正確になされなかったり翻訳結果が納得のいく結果でなかったりする場合には、手書き認識機能ボタンを利用して文字を直接書いて検索を実行するための手書き検索機能がさらに提供されてもよい。 The fourth screen example 440 shows an example in which the recognized characters in the first language are translated into the characters in the second language and displayed as the translation function is selected by the user. At this time, the function for viewing the details displayed in the fourth screen example 440 includes a search result of the language dictionary for the recognized first language character, a search result using the recognized first language character as a keyword, and the like. It may be a function for providing additional content or moving to a separate translation result page. In addition, if the recognition is not accurate or the translation result is not satisfactory, a handwriting search function is further provided to directly write characters using the handwriting recognition function button and execute the search. You may.

図4の実施形態では、認識された文字全体に対して追加機能を提供する例について説明したが、実施形態によって、認識された文字のうちから一部を選択し、選択された一部の文字に対して該当の追加機能が提供されてもよい。 In the embodiment of FIG. 4, an example of providing an additional function for the entire recognized character has been described, but depending on the embodiment, a part of the recognized characters is selected and a part of the selected characters is selected. Applicable additional functions may be provided for.

図5は、電子機器1(110)の画面例510〜530を示している。このとき、第1画面例510は、テキスト(文字および/または数字)の認識前にイメージが画面に表示された例を示している。 FIG. 5 shows screen examples 510 to 530 of the electronic device 1 (110). At this time, the first screen example 510 shows an example in which the image is displayed on the screen before the text (characters and / or numbers) is recognized.

また、第2画面例520は、テキストの認識にともない、該当のテキストがイメージ内において表示されている位置と類似の位置に、認識されたテキストを表示する例を示している。 Further, the second screen example 520 shows an example in which the recognized text is displayed at a position similar to the position where the corresponding text is displayed in the image as the text is recognized.

また、第3画面例530は、認識されたテキストをユーザが見やすいように再構成して、表示した例を示している。このとき、第3画面例530では、認識されたテキストがより適切に表現されるように、イメージが暗く処理された例を示している。さらに、第3画面例530では、認識されたテキストと関連してコピー機能、翻訳機能、および読み取り機能のような追加機能が提供された例を説明している。 Further, the third screen example 530 shows an example in which the recognized text is reconstructed and displayed so that the user can easily see it. At this time, the third screen example 530 shows an example in which the image is darkened so that the recognized text is expressed more appropriately. Further, the third screen example 530 describes an example in which additional functions such as a copy function, a translation function, and a reading function are provided in connection with the recognized text.

このとき、第2画面例520と第3画面例530で表示されるテキストは、色の変化のようなアニメーション効果や、テキストが表示されるフレームの2次元から3次元への変化などのようなアニメーション効果とともに表示されてもよい。 At this time, the text displayed in the second screen example 520 and the third screen example 530 has an animation effect such as a color change, a change in the frame in which the text is displayed from two dimensions to three dimensions, and the like. It may be displayed with an animation effect.

図6〜8は、本発明の一実施形態における、認識された文字数によってフォントサイズを調節する例を示した図である。 6 to 8 are diagrams showing an example of adjusting the font size according to the number of recognized characters in one embodiment of the present invention.

図6は、認識された文字数が1〜6文字である場合に、認識されたテキストを80pxサイズで表示する例を示している。 FIG. 6 shows an example of displaying the recognized text in 80 px size when the number of recognized characters is 1 to 6.

また、図7は、認識された文字数が7〜40文字である場合に、認識されたテキストを60pxサイズで表示する例を示している。 Further, FIG. 7 shows an example in which the recognized text is displayed in a size of 60 px when the number of recognized characters is 7 to 40 characters.

さらに、図8は、認識された文字数が41文字以上である場合に、認識されたテキストを40pxサイズで表示する例を示している。 Further, FIG. 8 shows an example in which the recognized text is displayed in a size of 40 px when the number of recognized characters is 41 or more.

このように、電子機器1(110)は、認識されたテキストを表示するにあたり、イメージから認識されたテキストの文字数によってフォントサイズを自動的に調節して表示することが可能となる。 As described above, when displaying the recognized text, the electronic device 1 (110) can automatically adjust and display the font size according to the number of characters of the text recognized from the image.

図9は、本発明の一実施形態における、バーコード認識によって追加機能を提供する例を示した図である。 FIG. 9 is a diagram showing an example of providing an additional function by bar code recognition in one embodiment of the present invention.

図9は、電子機器1(110)の画面例910および920を示している。第1画面例910は、バーコードが含まれたイメージが表示された例を示しており、第2画面例920は、バーコード認識エンジン330によるバーコードの認識にともない、バーコードボタンが表示された例を示している。ユーザが表示されたバーコードボタンを選択した場合、該当のバーコードに該当する製品情報(一例として、書籍情報やワイン情報など)が提供されてよい。 FIG. 9 shows screen examples 910 and 920 of electronic device 1 (110). The first screen example 910 shows an example in which an image including a barcode is displayed, and the second screen example 920 displays a barcode button as the barcode recognition engine 330 recognizes the barcode. An example is shown. When the user selects the displayed barcode button, product information corresponding to the barcode (for example, book information, wine information, etc.) may be provided.

図10は、本発明の一実施形態における、QRコード認識によって追加機能を提供する例を示した図である。 FIG. 10 is a diagram showing an example of providing an additional function by QR code recognition in one embodiment of the present invention.

図10は、電子機器1(110)の画面例1010および1020を示している。第1画面例1010は、QRコードが含まれたイメージが表示された例を示しており、第2画面例1020は、QRコード認識エンジン340によるQRコードの認識にともない、QRコードボタンが表示された例を示している。ユーザが表示されたQRコードボタンを選択した場合、該当のQRコードが含むURLのページがランディングされてよい。 FIG. 10 shows screen examples 1010 and 1020 of electronic device 1 (110). The first screen example 1010 shows an example in which an image including a QR code is displayed, and the second screen example 1020 displays a QR code button as the QR code is recognized by the QR code recognition engine 340. An example is shown. When the user selects the displayed QR code button, the page of the URL including the corresponding QR code may be landed.

図11〜15は、本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。 11 to 15 are diagrams showing an example of providing an image search result in one embodiment of the present invention.

図11は、電子機器1(110)の画面例1110〜1130を示している。第1画面例1110は、イメージが表示された例を示しており、第2画面例1120は、イメージ内からオブジェクトが探索される例を示している。このとき、ユーザが撮影ボタンを押すことにともない、イメージがサーバ150に送信されてよく、サーバ150では、イメージ検索エンジン350およびディテクトアニメーション生成エンジン360においてイメージ検索とディテクトアニメーションの生成が行われてよい。第2画面例1120は、複数の点と点を連結する線とで構成されるディテクトアニメーションがサーバ150から提供されて画面に表示されることにより、犬(dog)の顔を探索していることを視覚的にユーザに知らせる例を示している。また、第3画面例1130は、探索されたオブジェクトと関連のあるテキスト情報(関連キーワード)として「子犬」と「ラブラドルレトリバー」が表示され、イメージのイメージ検索結果がさらに表示された例を示している。このようなテキスト情報とイメージ検索結果は、サーバ150から提供されてよい。このとき、探索されたオブジェクトと関連のあるテキスト情報として表示された「子犬」または「ラブラドルレトリバー」が表示された領域がユーザによって選択された場合、該当のテキスト情報をキーワードとして利用したテキスト検索結果がユーザに提供されてよい。また、イメージ検索結果それぞれがユーザによって選択された場合、該当の検索結果に相応するページがランディングされてよい。 FIG. 11 shows screen examples 111 to 1130 of the electronic device 1 (110). The first screen example 1110 shows an example in which an image is displayed, and the second screen example 1120 shows an example in which an object is searched from within the image. At this time, the image may be transmitted to the server 150 when the user presses the shooting button, and the server 150 may perform the image search and the detect animation generation in the image search engine 350 and the detect animation generation engine 360. .. In the second screen example 1120, a detect animation composed of a plurality of points and a line connecting the points is provided from the server 150 and displayed on the screen to search for the face of a dog (dog). Is shown as an example of visually informing the user. Further, the third screen example 1130 shows an example in which "puppy" and "Labrador retriever" are displayed as text information (related keywords) related to the searched object, and the image search result of the image is further displayed. There is. Such text information and image search results may be provided by the server 150. At this time, if the user selects the area where the "puppy" or "Labrador retriever" displayed as the text information related to the searched object is displayed, the text search result using the corresponding text information as a keyword. May be provided to the user. Further, when each of the image search results is selected by the user, the page corresponding to the corresponding search result may be landed.

図12は、電子機器1(110)の画面例1210〜1240を示している。第1画面例1210は、イメージが表示された例を示しており、第2画面例1220と第3画面例1230は、複数の点と、点を連結する線とで構成されるディテクトアニメーションが表示されることにより、魚を探索していることを視覚的にユーザに知らせる過程の例を示している。また、第3画面例1240は、探索されたオブジェクトと関連のあるテキスト情報(関連キーワード)として「観賞魚」と「アジアアロワナ」が表示され、イメージのイメージ検索結果がさらに表示された例を示している。この場合にも、探索されたオブジェクトと関連のあるテキスト情報として表示された「観賞魚」または「アジアアロワナ」が表示された領域がユーザによって選択された場合、該当のテキスト情報をキーワードとして利用したテキスト検索結果がユーザに提供されてよい。また、イメージ検索結果それぞれがユーザによって選択された場合、該当の検索結果に相応するページがランディングされてよい。 FIG. 12 shows screen examples 121 to 1240 of electronic device 1 (110). The first screen example 1210 shows an example in which an image is displayed, and the second screen example 1220 and the third screen example 1230 display a detect animation composed of a plurality of points and a line connecting the points. By doing so, an example of the process of visually informing the user that the fish is being searched for is shown. In addition, the third screen example 1240 shows an example in which "ornamental fish" and "Asia arowana" are displayed as text information (related keywords) related to the searched object, and the image search result of the image is further displayed. ing. In this case as well, when the area displaying "Aquarium fish" or "Asian arowana" displayed as text information related to the searched object is selected by the user, the corresponding text information is used as a keyword. Text search results may be provided to the user. Further, when each of the image search results is selected by the user, the page corresponding to the corresponding search result may be landed.

図13〜15も、図11および図12と同じように、イメージ検索結果を提供する過程の例を示している。図13は、花を外郭線に沿ってディテクトしてオブジェクトを認識してディテクトアニメーションとイメージ検索結果を提供する過程を、図14は、猫の顔を外郭線に沿ってディテクトしてオブジェクトを認識してディテクトアニメーションとイメージ検索結果を提供する過程を、図15は、エッフェル塔を外郭線に沿ってディテクトしてオブジェクトを認識してディテクトアニメーションとイメージ検索結果を提供する過程を、それぞれ示している。 13 to 15 also show an example of the process of providing image search results, as in FIGS. 11 and 12. FIG. 13 shows the process of detecting a flower along the outer line to recognize an object and providing a detect animation and an image search result, and FIG. 14 shows a process of detecting a cat's face along the outer line to recognize an object. The process of providing the detect animation and the image search result is shown, and FIG. 15 shows the process of detecting the Eiffel tower along the outer line to recognize the object and providing the detect animation and the image search result, respectively. ..

図16は、本発明の一実施形態における、イメージ検索結果を提供する例を示した図であり、図17は、本発明の一実施形態における、主要カラーを抽出して彩度を制限する例を示した図である。図16は、イメージの主要カラーをオートピック技術によって抽出し、抽出された主要カラーを関連キーワードやイメージ検索結果の表示に活用する例を示している。このとき、テキストの視認性を考慮した上で、HSB(Hue−Saturation−Brightness)値で彩度(S)や明度(B)の数値を50〜70%範囲に制限して活用してよい。図17は、カラーピッカー(color picker)によって主要カラーを抽出し、彩度の数値を50%に制限した例を現示している。 FIG. 16 is a diagram showing an example of providing an image search result in one embodiment of the present invention, and FIG. 17 is an example of extracting a main color and limiting saturation in one embodiment of the present invention. It is a figure which showed. FIG. 16 shows an example in which the main colors of an image are extracted by the autotopic technique and the extracted main colors are used for displaying related keywords and image search results. At this time, in consideration of the visibility of the text, the Saturation (S) and the brightness (B) values may be limited to the range of 50 to 70% in the HSB (Hue-Saturation-Brightness) value. FIG. 17 shows an example in which the main colors are extracted by a color picker and the saturation value is limited to 50%.

図18〜20は、本発明の一実施形態における、イメージ検索結果を提供する例を示した図である。図18〜20は、「人物_国内」、「人物_グループ」、「人物_海外」、「百科_動物」、「百科_名画」、「百科_ワイン」、「名所」、「地域」、「国内_プレース」などのような多様な類型によって予めデザインされたテンプレートとして、イメージ検索結果のうちの特定の検索結果を正解型カードの形態で実現して提供する例を示している。この場合にも、テキストの視認性を考慮した上で、HSB(Hue−Saturation−Brightness)値で彩度や明度の数値を50〜70%範囲に制限して活用してよい。 18 to 20 are diagrams showing an example of providing an image search result in one embodiment of the present invention. Figures 18 to 20 show "person_domestic", "person_group", "person_overseas", "encyclopedia_animal", "encyclopedia_masterpiece", "encyclopedia_wine", "famous place", "region", As a template pre-designed by various types such as "domestic_place", an example of providing a specific search result among image search results in the form of a correct answer type card is shown. Also in this case, the saturation and lightness values may be limited to the range of 50 to 70% by the HSB (Hue-Saturation-Brightness) value in consideration of the visibility of the text.

図21〜24は、本発明の一実施形態における、ディテクトアニメーションを表示する例を示した図である。 21 to 24 are diagrams showing an example of displaying a detect animation in one embodiment of the present invention.

ディテクトアニメーションの生成方法は、以下のとおりである。例えば、上述したディテクトアニメーション生成エンジン360によってディテクトアニメーション生成方法が実行されてよい。 The method of generating the detect animation is as follows. For example, the detect animation generation method may be executed by the detect animation generation engine 360 described above.

(1)前処理過程:グレースケール、ブロー、エッジディテクションなどのように、イメージ探索で要求される前処理を実行する過程。 (1) Preprocessing process: A process of executing preprocessing required for image search, such as grayscale, blow, and edge detection.

(2)オブジェクト探索(Object Detection):入力された映像内からオブジェクトを検索し、該当のオブジェクトを含むバウンディングボックス(bounding box)を生成する過程。オブジェクトの検索には一般的に周知のオブジェクト探索技術が活用されてよく、生成されたバウンディングボックスの領域に対して次の過程が実行されてよい。 (2) Object Detection: A process of searching for an object in the input video and generating a bounding box containing the object. A generally well-known object search technique may be used to search for an object, and the following process may be performed on the generated bounding box area.

(3)オブジェクトの輪郭線から意味のある特徴点を抽出する過程。一例として、FASTアルゴリズムを使用して予め設定された数(一例として、約数百個)の特徴点が抽出されてよい。 (3) The process of extracting meaningful feature points from the outline of an object. As an example, a preset number (for example, about several hundred) of feature points may be extracted using the FAST algorithm.

(4)抽出された特徴点の凸包(convex hull)を生成する過程。一例として、該当の特徴点をすべて含むブロック多角形が凸包として生成されてよく、このような凸包の生成は、周知のアルゴリズムを使用して生成されてよい。 (4) A process of generating a convex hull of the extracted feature points. As an example, a block polygon containing all the feature points in question may be generated as a convex package, and the generation of such a convex package may be generated using a well-known algorithm.

(5)凸包を構成する点が予め定められた数(一例として、6個)に及ばない場合、追加段階を行いながら必要な個数になるまで点を追加する過程。一例として、凸包をなす2つの点の中間から最も近い特徴点を選択し、凸包を構成するための点として活用してよい。 (5) When the number of points constituting the convex hull does not reach a predetermined number (6 as an example), the process of adding points until the required number is reached while performing the addition step. As an example, the closest feature point may be selected from the middle of the two points forming the convex hull and used as a point for forming the convex hull.

(6)上述した(4)および(5)で選択された複数の点で外郭線をなす複数の点(外郭点)を構成し、外郭点中心座標(中心点)を計算する過程。一例として、各座標の(X値の平均、Y値の平均)の点を中心点として計算してよい。 (6) A process of constructing a plurality of points (outer points) forming an outer line with a plurality of points selected in (4) and (5) described above and calculating the center coordinates (center points) of the outer points. As an example, the calculation may be performed with the point (average of X value, average of Y value) of each coordinate as the center point.

(7)各外郭点に対し、外郭点と中心点との間の中間値と最も近い特徴点を選択する過程。 (7) For each outer point, the process of selecting the feature point closest to the intermediate value between the outer point and the center point.

(8)内部に線を追加しようとする場合に(6)および(7)段階を繰り返す過程。一段階の線だけを連結する場合には省略されてよい。 (8) The process of repeating steps (6) and (7) when trying to add a line inside. It may be omitted when connecting only one-step lines.

(9)点の座標とアニメーションの順序を返還するか、または生成されたアニメーションを返還する過程。 (9) The process of returning the coordinates of points and the order of animation, or the generated animation.

このような(1)〜(9)の過程によるディテクトアニメーションの生成過程は、一実施形態として、デザインによって多様な形態に変形させて生成してもよい。 The process of generating the detect animation by the processes (1) to (9) may be transformed into various forms depending on the design as one embodiment.

例えば、図21では、5個の点で構成される凸包とデブス(depth)3の点を連結した三角形構造のディテクトアニメーションを示している。より詳細に、図21は、凸包であるオブジェクトの輪郭に五角形ドットを形成して連結し、デブス2ドットを形成して五角形ドットと連結し、デブス2ドットの左右を連結し、デブス3ドットである中心点を形成してデブス2ドットとデブス3ドットを上下連結することにより、ディテクトアニメーションの形態を生成する例を示している。このとき、デブス2ドットが五角形ドットの連結線の中心と中心点(デブス3ドット)を連結した線の1/3地点に形成される例を示している。 For example, FIG. 21 shows a detect animation of a triangular structure in which a convex package composed of five points and a point of depth 3 are connected. More specifically, in FIG. 21, a pentagonal dot is formed and connected to the contour of an object which is a convex hull, a debs 2 dot is formed and connected to the pentagon dot, and the left and right sides of the debs 2 dot are connected to form a debs 3 dot. An example is shown in which a form of detect animation is generated by forming a central point, which is a central point, and connecting two dots of Debs and three dots of Debs vertically. At this time, an example is shown in which the Debs 2 dots are formed at 1/3 of the line connecting the center and the center point (Debs 3 dots) of the connecting line of the pentagonal dots.

また、図22では、9個の点で構成される凸包とデブス3の点を連結した三角形と四角形構造のディテクトアニメーションを示している。このような図22では、輪郭ドット(凸包を構成する9個の点)から中心ドット(中心点)までの直線上で色差が予め設定された差以上の座標(一例として、輪郭ドットの開始点RGB値のうち、B値で20以上の差がある位置)にドットを表示し、同じデブスのドット同士は左右を連結し、上下デブスのドットの間には最も近くの距離のドットを連結することにより、ディテクトアニメーションの形態を生成する例を示している。 Further, FIG. 22 shows a detect animation of a triangular and quadrangular structure in which a convex hull composed of nine points and the points of Debs 3 are connected. In FIG. 22 such as this, the coordinates (for example, the start of the contour dots) in which the color difference is equal to or larger than the preset difference on the straight line from the contour dots (nine points constituting the convex hull) to the center dot (center point) Dots are displayed at the points where there is a difference of 20 or more in the B value among the RGB values), the dots of the same depth are connected to the left and right, and the dots of the closest distance are connected between the dots of the upper and lower fats. By doing so, an example of generating the form of the detect animation is shown.

さらに、図23および図24では、三角形構造の色を相違させることによって立体感を与え、同時に透明度を調節する例を示している。言い換えれば、図23よりも図24において、三角形構造における透明度がより高まった例を示している。 Further, FIGS. 23 and 24 show an example in which a three-dimensional effect is given by different colors of the triangular structure and the transparency is adjusted at the same time. In other words, FIG. 24 shows an example in which the transparency in the triangular structure is higher than that in FIG. 23.

図25は、本発明の一実施形態における、ディテクトアニメーションの例を示した図である。図25は、図15を参照しながら説明したエッフェル塔に対するディテクトアニメーションが、単なるイメージの形態ではなく、図25において順に示した絵のように複数の点と点を連結する線との表示を繰り返すことにより、このようなディテクトアニメーションが、検索結果が出るまでの間にユーザの興味を誘発し、検索結果の表示が遅れていないような印象を与えるための効果として活用されることを示している。このとき、ディテクトアニメーションは、上述のように、点と線の太さや大きさ、明るさ、色などを変化させることによって追加的なアニメーション効果を与えてもよく、図23と図24で説明したように、三角形構造や四角形構造に互いに異なる色を適用することによって立体感を与えてもよく、または色の透明度を調節してイメージが表示される程度を決定してもよい。 FIG. 25 is a diagram showing an example of detect animation in one embodiment of the present invention. In FIG. 25, the detect animation for the Eiffel Tower described with reference to FIG. 15 is not merely an image form, but repeats the display of a plurality of points and a line connecting the points as shown in the pictures in FIG. 25 in order. This shows that such a detect animation is used as an effect to induce the user's interest before the search result is obtained and to give the impression that the display of the search result is not delayed. .. At this time, the detect animation may give an additional animation effect by changing the thickness, size, brightness, color, etc. of the points and lines as described above, and has been described with reference to FIGS. 23 and 24. As described above, different colors may be applied to the triangular structure or the quadrangular structure to give a three-dimensional effect, or the transparency of the colors may be adjusted to determine the degree to which the image is displayed.

図26は、本発明の一実施形態における、イメージ処理方法の例を示したフローチャートである。本実施形態に係るイメージ処理方法は、上述した電子機器1(110)のようなコンピュータ装置によって実行されてよい。例えば、電子機器1(110)のプロセッサ212は、メモリ211が含むオペレーティングシステムのコードと、少なくとも1つのコンピュータプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ212は、電子機器1(110)に記録されたコードが提供する制御命令にしたがって電子機器1(110)が図26のイメージ処理方法に含まれる段階2610〜2640を実行するように電子機器1(110)を制御してよい。 FIG. 26 is a flowchart showing an example of an image processing method according to an embodiment of the present invention. The image processing method according to the present embodiment may be executed by a computer device such as the electronic device 1 (110) described above. For example, the processor 212 of the electronic device 1 (110) may be implemented to execute a control instruction (instruction) by the code of the operating system included in the memory 211 and the code of at least one computer program. Here, the processor 212 causes the electronic device 1 (110) to execute the steps 261 to 2640 included in the image processing method of FIG. 26 according to the control instruction provided by the code recorded in the electronic device 1 (110). Electronic device 1 (110) may be controlled.

段階2610で、コンピュータ装置は、イメージ処理モードに入ったことに応答してカメラモジュールを実行させてよい。一例として、コンピュータ装置にインストールされたアプリケーションは、イメージ処理モードに入るためのユーザインタフェースをユーザに提供してよい。ユーザのユーザインタフェースに対する入力が発生した場合、コンピュータ装置は、発生した入力にしたがって入ったイメージ処理モードにおいてカメラモジュールを実行させてよい。 At step 2610, the computer device may execute the camera module in response to entering the image processing mode. As an example, an application installed on a computer device may provide the user with a user interface for entering image processing mode. When an input to the user's user interface occurs, the computer device may execute the camera module in the image processing mode entered according to the generated input.

段階2620で、コンピュータ装置は、実行するカメラモジュールにおいて連続的にイメージのストリームの入力を受けて順に画面に表示してよい。例えば、スマートフォンでカメラが実行される場合にカメラに入力されてスマートフォンの画面にリアルタイムで表示される映像が、このようなイメージのストリームに対応してよい。 At step 2620, the computer device may continuously receive input of a stream of images in the camera module to be executed and display it on the screen in order. For example, when the camera is executed on the smartphone, the image input to the camera and displayed in real time on the screen of the smartphone may correspond to such a stream of images.

段階2630で、コンピュータ装置は、入力されたイメージのストリームを認識エンジンに伝達してよい。カメラモジュールは、持続的に、リアルタイムで入力されるイメージのストリームを認識エンジンに伝達してよく、認識エンジンは、イメージのストリームを分析して認識エンジンが目的とする認識結果を生成してよい。例えば、図3の実施形態では、電子機器1(110)がOCR認識エンジン320のようなテキスト認識エンジンやバーコード認識エンジン330、およびQRコード認識エンジン340のようなイメージコード認識エンジンを含む例について説明した。 At step 2630, the computer device may transmit a stream of input images to the recognition engine. The camera module may continuously transmit a stream of images input in real time to the recognition engine, which may analyze the stream of images to produce the recognition result intended by the recognition engine. For example, in the embodiment of FIG. 3, the electronic device 1 (110) includes a text recognition engine such as the OCR recognition engine 320, a barcode recognition engine 330, and an image code recognition engine such as the QR code recognition engine 340. explained.

段階2640で、コンピュータ装置は、入力されたイメージのストリームに対して認識エンジンによって認識された認識結果が存在する場合、入力されたイメージのストリームを認識結果として表示中の画面上にさらに順に表示してよい。例えば、認識エンジンは、認識結果として入力されたイメージが含むテキストを認識するテキスト認識エンジンを含んでよい。 At step 2640, if there is a recognition result recognized by the recognition engine for the input image stream, the computer device further displays the input image stream as the recognition result on the screen being displayed. You can. For example, the recognition engine may include a text recognition engine that recognizes the text contained in the image input as a recognition result.

このとき、テキスト認識エンジンによって認識された認識結果が存在する場合、段階2640で、コンピュータ装置は、入力されたイメージから認識されたテキスト領域の位置に基づいて認識されたテキストの表示位置を動的に調節してよい。例えば、図4の第1画面例410は、イメージにおいてテキストが含まれた領域の位置に、認識されたテキストが表示された例を示している。他の例として、図5の第2画面例520でも、テキストの認識にともない、該当のテキストのイメージ内における位置と類似の位置に、認識されたテキストを表示する例を説明している。例えば、スマートフォンのようなコンピュータ装置をユーザの手で振動させることによって入力されたイメージにおいて同じテキスト領域の位置が持続的に変更されてもよい。この場合、コンピュータ装置は、テキスト領域の位置が変更されることによってテキスト領域の位置を追跡し、追跡された位置に認識されたテキストが表示されるようにテキストの表示位置を動的に調節してよい。 At this time, if there is a recognition result recognized by the text recognition engine, in step 2640, the computer device dynamically changes the display position of the recognized text based on the position of the text area recognized from the input image. May be adjusted to. For example, the first screen example 410 of FIG. 4 shows an example in which the recognized text is displayed at the position of the region including the text in the image. As another example, the second screen example 520 of FIG. 5 also describes an example in which the recognized text is displayed at a position similar to the position in the image of the corresponding text as the text is recognized. For example, the position of the same text area may be continuously changed in the input image by vibrating a computer device such as a smartphone by the user's hand. In this case, the computer device tracks the position of the text area by changing the position of the text area and dynamically adjusts the display position of the text so that the recognized text is displayed at the tracked position. You can.

また、段階2640で、コンピュータ装置は、入力されたイメージのストリームを表示中の画面上に前記認識されたテキストを順に表示し、入力されたイメージのうちでテキストが認識されたイメージにおけるテキスト領域の位置に基づき、認識されたテキストの表示位置を決定してよい。例えば、コンピュータ装置は、上述のように、テキスト領域の位置が変更されることによって認識されたテキストの表示位置を動的に調節し、テキストの認識が最終的に完了すれば、最終的にテキストが認識された位置に認識されたテキストを表示してよい。この場合には、入力されたイメージにおいてテキスト領域の位置が持続的に変更されてよく、またはテキストがない他のイメージが持続的に入力される場合にも、認識されたテキストの表示位置は固定されてよい。 Further, at step 2640, the computer device sequentially displays the recognized text on the screen displaying the stream of the input image, and the text area in the image in which the text is recognized among the input images is displayed. The display position of the recognized text may be determined based on the position. For example, the computer device dynamically adjusts the display position of the recognized text by changing the position of the text area as described above, and finally the text when the recognition of the text is finally completed. The recognized text may be displayed at the recognized position. In this case, the position of the text area may be persistently changed in the input image, or the display position of the recognized text is fixed even when another image without text is continuously input. May be done.

また、コンピュータ装置は、入力されたイメージのストリームに対して認識されたテキストに対するユーザ確認のためのユーザインタフェースを、入力されたイメージのストリームを表示中の画面上にさらに順に表示してもよい。例えば、テキスト認識エンジンによってテキストの認識が最終的に完了した後、コンピュータ装置は、最終的に認識されたテキストに対してユーザの確認を受ける過程を処理してよい。例えば、図4の第2画面420は、文字認識ボタンのように、認識されたテキストの確認をユーザから受けるためのユーザインタフェースを表示した例を示している。このとき、コンピュータ装置の画面には、依然としてイメージのストリームがリアルタイムで表示中であってよい。 Further, the computer device may display the user interface for user confirmation for the text recognized for the input image stream in order on the screen displaying the input image stream. For example, after the text recognition engine has finally completed the recognition of the text, the computer device may handle the process of receiving user confirmation for the finally recognized text. For example, the second screen 420 of FIG. 4 shows an example of displaying a user interface for receiving confirmation of the recognized text from the user, such as a character recognition button. At this time, the stream of the image may still be displayed in real time on the screen of the computer device.

このとき、認識されたテキストの確認をユーザから受けるためのユーザインタフェースでユーザ確認が発生したとき、コンピュータ装置は、入力されたイメージのうちでテキストが表示されたイメージを画面に表示してよい。例えば、コンピュータ装置は、入力されたイメージのうちの第1イメージにおいてユーザから確認を受けたテキストが認識されると、イメージのストリームを画面に表示する代わりに、既に表示された第1イメージを画面に表示してよい。また、コンピュータ装置は、画面に表示されたイメージ上に認識されたテキストのコピーのためのユーザインタフェース、および認識されたテキストの翻訳のためのユーザインタフェースのうちの少なくとも1つをさらに表示してよい。例えば、図4および図5は、「コピー」ボタンおよび「翻訳」ボタンのように、認識されたテキストのコピーと翻訳のためのユーザインタフェースが表示された例を示している。 At this time, when the user confirmation occurs in the user interface for receiving the confirmation of the recognized text from the user, the computer device may display the image in which the text is displayed among the input images on the screen. For example, when the computer device recognizes the text confirmed by the user in the first image of the input images, instead of displaying the stream of the image on the screen, the computer device displays the already displayed first image on the screen. It may be displayed on. The computer device may further display at least one of a user interface for copying the recognized text and a user interface for translating the recognized text on the image displayed on the screen. .. For example, FIGS. 4 and 5 show examples of displaying a user interface for copying and translating recognized text, such as the "Copy" and "Translate" buttons.

また、コンピュータ装置は、認識されたテキストの文字数によって認識されたテキストのサイズを動的に変更して画面に表示してもよい。例えば、図6〜8では、認識されたテキストにおける文字数の増加にともない、認識されたテキストのサイズを動的に減らしながら画面に表示する例について説明した。 Further, the computer device may dynamically change the size of the recognized text according to the number of characters of the recognized text and display it on the screen. For example, FIGS. 6 to 8 have described an example of displaying on the screen while dynamically reducing the size of the recognized text as the number of characters in the recognized text increases.

また、他の例として、認識エンジンは、入力されたイメージが含むイメージコードを認識するためのイメージコード認識エンジンを含んでもよい。この場合、コンピュータ装置は、段階2640で、画面に順に表示されるイメージにおいて認識されたイメージコードに対応するページへのリンクを認識結果として入力されたイメージのストリームを、表示中の画面上にさらに順に表示してよい。例えば、図9では、認識されたバーコードに対応するページへのリンクを「バーコード」ボタンとして表示した例を示しており、図10では、認識されたQRコードに対応するページへのリンクを「QRコード」ボタンとして表示した例を示している。 Further, as another example, the recognition engine may include an image code recognition engine for recognizing the image code included in the input image. In this case, in step 2640, the computer device further displays a stream of images input as a result of recognizing a link to a page corresponding to the image code recognized in the images displayed in order on the screen on the displayed screen. It may be displayed in order. For example, FIG. 9 shows an example in which a link to a page corresponding to a recognized barcode is displayed as a "bar code" button, and FIG. 10 shows a link to a page corresponding to the recognized QR code. An example of displaying as a "QR code" button is shown.

実施形態によって、認識エンジンは、テキスト認識エンジンとイメージコード認識エンジンとともに複数の認識エンジンを含んでもよく、この場合、カメラモジュールにおいて入力されるイメージのストリームは、複数の認識エンジンそれぞれに入力されてよい。 Depending on the embodiment, the recognition engine may include a plurality of recognition engines together with a text recognition engine and an image code recognition engine, in which case a stream of images input in the camera module may be input to each of the plurality of recognition engines. ..

上述した段階2610〜2640は、カメラによるユーザの撮影がなされる前に、カメラに入力されたイメージのストリームに基づいてコンピュータ装置が自動的にテキストやイメージコードなどを認識して関連情報を表示する実施形態について説明している。言い換えれば、イメージ処理モードに入ったことに応答し、ユーザが撮影ボタンを押して特定の時点のイメージを選択しなくても、入力されたイメージのストリーム全体を分析することによってテキストやイメージコードの認識結果を自動的に提供することができる。 In steps 261 to 2640 described above, the computer device automatically recognizes text, image code, and the like based on the stream of images input to the camera and displays related information before the user is photographed by the camera. Embodiments are described. In other words, in response to entering image processing mode, text and image code recognition by analyzing the entire stream of input images without the user having to press the capture button to select an image at a particular point in time. Results can be provided automatically.

一方、ユーザが撮影ボタンを押して特定のイメージが選択された場合、コンピュータ装置は、上述した実施形態とは異なる機能をユーザに提供してよい。 On the other hand, when the user presses the shooting button and a specific image is selected, the computer device may provide the user with a function different from the above-described embodiment.

図27は、本発明の一実施形態における、イメージ処理方法の他の例を示した図である。本実施形態に係るイメージ処理方法も、上述した電子機器1(110)のようなコンピュータ装置によって実行されてよい。このとき、図27の段階2710〜2750は、図26の段階2620以後、撮影入力が発生する場合に実行されてよく、図27の段階が実行される場合、段階2630および段階2640は省略されてもよい。 FIG. 27 is a diagram showing another example of the image processing method in one embodiment of the present invention. The image processing method according to the present embodiment may also be executed by a computer device such as the electronic device 1 (110) described above. At this time, steps 2710 to 2750 of FIG. 27 may be executed when a shooting input is generated after step 2620 of FIG. 26, and when the step of FIG. 27 is executed, steps 2630 and 2640 are omitted. May be good.

段階2710で、コンピュータ装置は、入力されたイメージのストリームを順に表示しているときに撮影入力が発生した場合、撮影入力の発生時点と関連するイメージをキャプチャして画面に表示してよい。このような段階2710は、ユーザによる撮影入力の発生によって写真を撮影する過程を意味してよい。 At step 2710, if a capture input occurs while sequentially displaying a stream of input images, the computer device may capture an image associated with the time of occurrence of the capture input and display it on the screen. Such a step 2710 may mean a process of taking a picture by generating a shooting input by the user.

段階2720で、コンピュータ装置は、キャプチャされたイメージをサーバに送信してよい。一例として、サーバは、上述したサーバ150のようなコンピュータ装置に対応してよく、キャプチャされたイメージは、ネットワーク170を介してサーバに送信されてよい。 At step 2720, the computer device may send the captured image to the server. As an example, the server may correspond to a computer device such as the server 150 described above, and the captured image may be transmitted to the server via the network 170.

段階2730で、コンピュータ装置は、送信されたイメージが含むオブジェクトのディテクトアニメーションをサーバから受信してよい。一例として、ディテクトアニメーションは、オブジェクトの輪郭線のうちから抽出される複数の特徴点を複数の特徴点が抽出されたイメージ上の位置に表示し、表示された特徴点のうちの少なくとも一部の特徴点を線で連結するアニメーションを含んでよい。 At step 2730, the computer device may receive a detect animation of the object contained in the transmitted image from the server. As an example, the detect animation displays a plurality of feature points extracted from the outline of an object at positions on an image in which the plurality of feature points are extracted, and at least a part of the displayed feature points. It may include an animation that connects the feature points with a line.

段階2740で、コンピュータ装置は、ディテクトアニメーションをオブジェクトと関連付けて画面に表示してよい。ディテクトアニメーションをオブジェクトと関連付けて画面に表示する例については、図11〜15、図21〜25を参照しながら説明したとおりである。 At step 2740, the computer device may display the detect animation on the screen in association with the object. An example of displaying the detect animation on the screen in association with the object is as described with reference to FIGS. 11 to 15 and 21 to 25.

段階2750で、コンピュータ装置は、送信されたイメージのイメージ分析結果をサーバから受信し、画面に表示されたイメージと関連付けて表示してよい。イメージ分析結果は、イメージが含むオブジェクトの種類および/または名称を含んでよく、オブジェクトと関連してサーバで検索されたイメージ、文書、テキストのうちの少なくとも1つをさらに含んでよい。 At step 2750, the computer device may receive the image analysis result of the transmitted image from the server and display it in association with the image displayed on the screen. The image analysis result may include the type and / or name of the object contained in the image, and may further include at least one of the images, documents, texts searched on the server in connection with the object.

図28は、本発明の一実施形態における、イメージ処理方法のさらに他の例を示した図である。本実施形態に係るイメージ処理方法は、上述したサーバ150のようなコンピュータ装置によって実行されてよい。例えば、サーバ150のプロセッサ222は、メモリ221が含むオペレーティングシステムのコードと、少なくとも1つのコンピュータプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ222は、サーバ150に記録されたコードが提供する制御命令にしたがってサーバ150が図28のイメージ処理方法に含まれる段階2810〜2850を実行するようにサーバ150を制御してよい。 FIG. 28 is a diagram showing still another example of the image processing method according to the embodiment of the present invention. The image processing method according to this embodiment may be executed by a computer device such as the server 150 described above. For example, the processor 222 of the server 150 may be implemented to execute a control instruction (instruction) by the code of the operating system included in the memory 221 and the code of at least one computer program. Here, the processor 222 may control the server 150 so that the server 150 executes the steps 281 to 2850 included in the image processing method of FIG. 28 according to the control instruction provided by the code recorded in the server 150.

段階2810で、コンピュータ装置は、電子機器のカメラモジュールにおいてキャプチャされたイメージを、ネットワークを介して受信してよい。ここで、電子機器は、上述した電子機器1(110)に対応してよく、受信されるイメージは、図27の段階2720で送信されたイメージに対応してよい。言い換えれば、電子機器1(110)がユーザの撮影入力の発生によってキャプチャされたイメージを、ネットワーク170を介して送信すると、サーバ150が段階2810で該当のイメージを受信してよい。 At step 2810, the computer device may receive the image captured in the camera module of the electronic device over the network. Here, the electronic device may correspond to the electronic device 1 (110) described above, and the received image may correspond to the image transmitted in the step 2720 of FIG. 27. In other words, when the electronic device 1 (110) transmits the image captured by the generation of the user's shooting input via the network 170, the server 150 may receive the image in step 2810.

段階2820で、コンピュータ装置は、受信されたイメージが含むオブジェクトのディテクトアニメーションを生成してよい。上述のように、ディテクトアニメーションは、オブジェクトの輪郭線のうちから抽出される複数の特徴点を複数の特徴点が抽出されたイメージ上の位置に表示し、表示される特徴点のうちの少なくとも一部の特徴点を線で連結するアニメーションを含んでよい。 At step 2820, the computer device may generate a detect animation of the object contained in the received image. As described above, the detect animation displays a plurality of feature points extracted from the outline of the object at positions on the image in which the plurality of feature points are extracted, and at least one of the displayed feature points. It may include an animation that connects the feature points of the part with a line.

段階2830で、コンピュータ装置は、生成されたディテクトアニメーションを電子機器に送信してよい。この場合、図27の段階2730を参照しながら説明したように、電子機器は、ディテクトアニメーションを受信し、段階2740のように、受信されたディテクトアニメーションをオブジェクトと関連付けて画面に表示してよい。 At step 2830, the computer device may transmit the generated detect animation to the electronic device. In this case, as described with reference to step 2730 of FIG. 27, the electronic device may receive the detect animation and, as in step 2740, display the received detect animation in association with the object on the screen.

段階2840で、コンピュータ装置は、受信されたイメージのイメージ検索結果を生成してよい。イメージ検索結果は、イメージに含まれたオブジェクトの種類および/または名称を含んでよく、オブジェクトと関連して検索されたイメージ、文書、および/または、テキストをさらに含んでよい。 At step 2840, the computer device may generate image search results for the received image. Image search results may include the type and / or name of the object contained in the image, and may further include images, documents, and / or text searched in association with the object.

段階2850で、コンピュータ装置は、生成されたイメージ検索結果を電子機器に送信してよい。このとき、オブジェクトの種類および/または名称は、電子機器のカメラに入力されたイメージとオーバーラップさせて電子機器の画面に表示されてよい。また、検索されたイメージ、文書、および/または、テキストは、対応するページへのリンクを含み、電子機器のカメラモジュールに入力されたイメージと関連付けて電子機器の画面にさらに表示されてよい。例えば、図12は、「観賞魚」と「アジアアロワナ」のように認識されたオブジェクトの種類や名称を表示し、イメージによるインターネット検索の追加的な結果として、イメージ、文書、および/または、テキストをイメージと関連付けて表示する例を示している。 At step 2850, the computer device may transmit the generated image search results to the electronic device. At this time, the type and / or name of the object may be displayed on the screen of the electronic device so as to overlap with the image input to the camera of the electronic device. Also, the retrieved image, document, and / or text may include a link to the corresponding page and be further displayed on the screen of the electronic device in association with the image input to the camera module of the electronic device. For example, FIG. 12 displays the types and names of recognized objects such as "ornamental fish" and "Asian arowana", and images, documents, and / or text as an additional result of Internet search by image. Is shown as an example of displaying in association with an image.

また、コンピュータ装置は、受信されたイメージが含むオブジェクトと関連して検索された情報の類型によって類型別に予めデザインされたテンプレートとして検索された情報をカードの形態で実現し、電子機器に提供してもよい。例えば、図18〜20は、情報の類型(人物_国内、人物_グループ、人物_海外、百科_動物、百科_名画、百科_ワイン、名所、地域、国内_プレースなど)それぞれに対して予めデザインされたテンプレートが存在し、検索された情報の類型によって該当の類型のテンプレートとして検索された情報がカードの形態で実現されて提供される例について説明している。 In addition, the computer device realizes the information searched as a template pre-designed for each type according to the type of information searched in relation to the object included in the received image in the form of a card and provides it to the electronic device. May be good. For example, FIGS. 18 to 20 show in advance for each type of information (person_domestic, person_group, person_overseas, encyclopedia_animal, encyclopedia_masterpiece, encyclopedia_wine, famous place, region, domestic_place, etc.). Explains an example in which a designed template exists, and the information searched as a template of the corresponding type is realized and provided in the form of a card according to the type of the searched information.

このとき、電子機器で表示されたオブジェクトの種類および/または名称が選択(一例として、タッチスクリーン環境においてユーザがオブジェクトの種類および/または名称が表示された領域を指でタッチ)した場合、このような選択にともない、電子機器で発生する信号がネットワークを介してサーバに伝達されてよい。この場合、コンピュータ装置は、該当の信号を受信してよく、信号の受信に応答してオブジェクトの種類または名称をキーワードとして利用してテキスト検索結果を生成してよい。また、コンピュータ装置は、生成されたテキスト検索結果を電子機器に提供してよい。言い換えれば、電子機器のユーザは、イメージのイメージ検索結果に加え、イメージから得られたテキストのテキスト検索結果を順に提供することが可能となる。 At this time, when the type and / or name of the object displayed on the electronic device is selected (for example, in the touch screen environment, the user touches the area where the type and / or name of the object is displayed with a finger). With the selection, the signal generated by the electronic device may be transmitted to the server via the network. In this case, the computer device may receive the corresponding signal and may generate a text search result using the type or name of the object as a keyword in response to the reception of the signal. The computer device may also provide the generated text search results to the electronic device. In other words, the user of the electronic device can provide the text search result of the text obtained from the image in order in addition to the image search result of the image.

図29は、本発明の一実施形態における、ディテクトアニメーションを生成する方法の例を示したフローチャートである。本実施形態の方法が含む段階2910〜2950は、図28の段階2820に含まれて実行されてよい。 FIG. 29 is a flowchart showing an example of a method of generating a detect animation according to an embodiment of the present invention. Steps 291 to 2950 included in the method of this embodiment may be included and performed in step 2820 of FIG.

段階2910で、コンピュータ装置は、受信されたイメージが含むオブジェクトを探索してよい。例えば、コンピュータ装置は、受信されたイメージにグレースケール、ブロー、エッジディテクションなどのようなイメージ探索に要求される前処理を実行した後、イメージ内からオブジェクトを検索し、該当のオブジェクトを含むバウンディングボックス(bounding box)を生成してよい。このようなオブジェクトの検索には、一般的に周知のオブジェクト探索技術が活用されてよい。 At step 2910, the computer device may search for the objects contained in the received image. For example, a computer device performs preprocessing required for image search such as grayscale, blow, edge detection, etc. on a received image, then searches the image for an object, and bounds the image to include the object. A box (bounding box) may be generated. A generally well-known object search technique may be utilized for searching for such an object.

段階2920で、コンピュータ装置は、オブジェクトの輪郭線から複数の特徴点を抽出してよい。一例として、FAST(Feature from Accelerated Segment Test)アルゴリズムを使用して予め設定された数(一例として、約数百個)の特徴点が抽出されてよい。 At step 2920, the computer device may extract a plurality of feature points from the contours of the object. As an example, a preset number (for example, about several hundred) of feature points may be extracted using the FAST (Fairure from Accelerated Segment Test) algorithm.

段階2930で、コンピュータ装置は、抽出された特徴点の凸包(convex hull)を生成してよい。一例として、凸包アルゴリズムを使用して抽出された特徴点から凸包が生成されてよい。凸包を構成するための点が予め定義された数に及ばない場合、特徴点を追加でさらに抽出してもよい。 At step 2930, the computer device may generate a convex hull of the extracted feature points. As an example, a convex hull may be generated from feature points extracted using the convex hull algorithm. If the number of points for forming the convex hull does not reach the predefined number, additional feature points may be extracted.

段階2940で、コンピュータ装置は、抽出された特徴点のうち、前記凸包を構成する予め定められた数の外郭点の中心座標に基づいて中心点を計算してよい。例えば、凸包を構成する外郭点の座標に対して(X座標値の平均、Y座標値の平均)の点を中心的として計算してよい。 At step 2940, the computer device may calculate the center points of the extracted feature points based on the center coordinates of a predetermined number of outer points that make up the convex hull. For example, the calculation may be performed with the point (the average of the X coordinate values and the average of the Y coordinate values) as the center with respect to the coordinates of the outer points constituting the convex package.

段階2950で、コンピュータ装置は、オブジェクトの特徴点のうち、外郭点それぞれと中心点との間の中心値に最も近い特徴点を選択してよい。選択された特徴点を外郭点として再び利用して中心点を求め、外郭点と中心点との間の特徴点を再び選択することにより、内部の線を追加してもよい。例えば、図21では、5つの点で構成される凸包とデブス3の点を連結することで三角形構造のディテクトアニメーションが形成される例を示している。 At step 2950, the computer device may select the feature points of the object that are closest to the center value between each of the outline points and the center point. An internal line may be added by reusing the selected feature point as the outer outline point to obtain the center point and reselecting the feature point between the outer outline point and the center point. For example, FIG. 21 shows an example in which a triangular structure detect animation is formed by connecting a convex package composed of five points and a point of Debs 3.

生成されたディテクトアニメーションは、図28の段階2830のように電子機器に送信されてよく、図27の段階2740のように電子機器でオブジェクトと関連付けて電子機器の画面に表示してよい。このとき、コンピュータ装置は、外郭点、中心点、および最も近い特徴点を含む選択点の座標に関する情報と選択点を線で連結する順序に関する情報を、ディテクトアニメーションとして電子機器に送信してよい。この場合、電子機器では、選択点の座標に関する情報に基づいて線を表示し、前記順序に関する情報に基づいて選択点を線で連結するアニメーションを画面に表示してよい。また、コンピュータ装置は、選択点を前記順序にしたがって連結するアニメーション自体をディテクトアニメーションとして電子機器に送信してもよい。この場合、電子機器は、オブジェクトと関連付けて該当のアニメーションを再生することにより、ディテクトアニメーションを表示してよい。 The generated detect animation may be transmitted to the electronic device as in step 2830 of FIG. 28, and may be associated with the object in the electronic device and displayed on the screen of the electronic device as in step 2740 of FIG. 27. At this time, the computer device may transmit information on the coordinates of the selection point including the outer point, the center point, and the closest feature point and information on the order of connecting the selection points with a line to the electronic device as a detect animation. In this case, the electronic device may display a line based on the information on the coordinates of the selected points and display an animation on the screen connecting the selected points with the line based on the information on the order. Further, the computer device may transmit the animation itself of connecting the selected points in the above order to the electronic device as a detect animation. In this case, the electronic device may display the detect animation by playing the corresponding animation in association with the object.

このようなディテクトアニメーションは、ユーザにイメージ処理結果を提供する過程において、ユーザが検索要求したイメージのオブジェクトに対して分析がなされていることを示すことにより、イメージ検索結果が出るまでの待機時間にユーザの興味を誘発し、検索結果の表示が遅れていないような印象を与えることができる。 In the process of providing the image processing result to the user, such a detect animation indicates that the object of the image requested by the user is being analyzed, so that the waiting time until the image search result is obtained is increased. It can induce the user's interest and give the impression that the display of search results is not delayed.

図30は、本発明の一実施形態における、プレース認識によって追加情報を提供する例を示した図である。図30は、電子機器1(110)の画面例3010および3020を示している。第1画面例3010は、店の看板のように特定のプレース(place)を識別することのできる情報(一例として、商号のようなテキストや特定の商号に対応するイラストなど)がイメージに表示された例を示している。例えば、カメラモジュール310によってキャプチャされたイメージストリームがOCR認識エンジン320に自動的に伝達され、OCR認識エンジン320においてリアルタイムで文字を認識する場合が考えられる。このとき、電子機器1(110)は、アプリケーションの制御にしたがって、認識された文字が特定のプレースを識別するための情報であるかを決定してよい。認識された文字が特定のプレースを識別するための情報であると判断された場合、電子機器1(110)は、認識された文字または第1画面例3010に示されたイメージをサーバ150に送信してよい。このとき、サーバ150は、より正確なプレース識別子を認知し、プレースのメタデータ(一例として、店の場合、商号、業種、説明など)を抽出して電子機器1(110)に送信してよい。このとき、第2画面例3020は、サーバ150から提供されたプレースのメタデータが画面に上端通知バー3021の形態で表示された例を示している。このとき、上端通知バー3021には、該当のプレースと関連のあるURLへのリンクが設定されてよい。一方、電子機器1(110)は、アプリケーションの制御にしたがって第1画面例3010に示されたイメージを分析し、該当のイメージが特定のプレースのイメージであるかを決定してもよい。言い換えれば、電子機器1(110)は、イメージを大略的に分析して特定のプレースに対するイメージであるか否かだけを判断し、より正確なプレースの識別子はサーバ150において抽出されるように、該当のイメージをサーバ150に送信してよい。 FIG. 30 is a diagram showing an example in which additional information is provided by place recognition in one embodiment of the present invention. FIG. 30 shows screen examples 3010 and 3020 of electronic device 1 (110). In the first screen example 3010, information that can identify a specific place (place) like a signboard of a store (for example, a text such as a trade name or an illustration corresponding to a specific trade name) is displayed in an image. An example is shown. For example, the image stream captured by the camera module 310 may be automatically transmitted to the OCR recognition engine 320, and the OCR recognition engine 320 may recognize characters in real time. At this time, the electronic device 1 (110) may determine whether the recognized character is information for identifying a specific place according to the control of the application. When it is determined that the recognized character is information for identifying a specific place, the electronic device 1 (110) transmits the recognized character or the image shown in the first screen example 3010 to the server 150. You can do it. At this time, the server 150 may recognize the more accurate place identifier, extract the place metadata (for example, in the case of a store, trade name, industry, description, etc.) and send it to the electronic device 1 (110). .. At this time, the second screen example 3020 shows an example in which the place metadata provided by the server 150 is displayed on the screen in the form of the upper end notification bar 3021. At this time, a link to a URL related to the corresponding place may be set in the upper end notification bar 3021. On the other hand, the electronic device 1 (110) may analyze the image shown in the first screen example 3010 under the control of the application to determine whether the image is an image of a specific place. In other words, electronic device 1 (110) roughly analyzes the image to determine if it is an image for a particular place, so that a more accurate place identifier is extracted on the server 150. The corresponding image may be transmitted to the server 150.

図31は、本発明の一実施形態における、イメージコードの認識によって追加情報を提供する例を示した図である。図10では、電子機器1(110)におけるQRコードの認識にともない、QRコードボタンが表示され、表示されたQRコードボタンをユーザが選択した場合、該当のQRコードが含むURLのページがランディングされる例について説明した。図31の実施形態において、第1画面例3110は、QRコードが含まれたイメージが表示された例を示している。このとき、第2画面例3120は、QRコード認識エンジン340によるQRコードの認識にともない、認識されたQRコードが含むURLのメタデータをサーバ150から取得して上端通知バー3121の形態で表示する例を示している。このとき、上端通知バー3121には、QRコードが含むURLへのリンクが設定されてよい。QRコードだけでなく、バーコードに対しても、関連する商品のメタデータをサーバ150から取得して上端通知バーの形態で表示してよい。このとき、該当の上端通知バーに設定されるリンクは、関連する商品の購入と関連のあるページであってよい。 FIG. 31 is a diagram showing an example in which additional information is provided by recognizing an image code in one embodiment of the present invention. In FIG. 10, a QR code button is displayed as the electronic device 1 (110) recognizes the QR code, and when the user selects the displayed QR code button, the page of the URL including the corresponding QR code is landed. An example was explained. In the embodiment of FIG. 31, the first screen example 3110 shows an example in which an image including a QR code is displayed. At this time, the second screen example 3120 acquires the metadata of the URL included in the recognized QR code from the server 150 along with the recognition of the QR code by the QR code recognition engine 340 and displays it in the form of the upper end notification bar 3121. An example is shown. At this time, a link to the URL included in the QR code may be set in the upper end notification bar 3121. Not only the QR code but also the barcode may be displayed in the form of the upper end notification bar by acquiring the metadata of the related product from the server 150. At this time, the link set in the corresponding upper end notification bar may be a page related to the purchase of the related product.

一方、上端通知バーに表示されるメタデータは、イメージコードに含まれたURLによって提供されるページに含まれる情報であり、URL、動画、イメージ、説明などのような多様な情報を含んでよい。 On the other hand, the metadata displayed in the top notification bar is information included in the page provided by the URL included in the image code, and may include various information such as URL, video, image, description, and the like. ..

このように、本発明の実施形態によると、カメラによって連続的にキャプチャされる映像ストリームの少なくとも1つのフレームと関連する有意義な情報、および/または有意義な情報と関連のあるユーザインタフェースを提供することが可能となる。 Thus, according to embodiments of the present invention, providing meaningful information associated with at least one frame of a video stream continuously captured by a camera and / or a user interface associated with the meaningful information. Is possible.

上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者であれば、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The system or device described above may be implemented by a hardware component, a software component, or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an ALU (arithmetic logic unit), a digital signal processor, a microcomputer, an FPGA (field program gate array), a PLU (programmable log unit), and a micro. It may be implemented using one or more general purpose computers or special purpose computers, such as a processor or various devices capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the OS. The processing device may also respond to the execution of the software, access the data, and record, manipulate, process, and generate the data. For convenience of understanding, it may be described that one processing device is used, but those skilled in the art may include a plurality of processing elements and / or a plurality of types of processing elements. You can understand that. For example, a processor may include multiple processors or one processor and one controller. Other processing configurations, such as parallel processors, are also possible.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記憶媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記憶媒体に記録されてよい。 The software may include computer programs, code, instructions, or a combination of one or more of these, configuring the processing equipment to operate at will, or instructing the processing equipment independently or collectively. You may do it. Software and / or data is embodied in any type of machine, component, physical device, virtual device, computer storage medium or device to be interpreted based on the processing device or to provide instructions or data to the processing device. May be converted. The software is distributed on a computer system connected by a network and may be recorded or executed in a distributed state. The software and data may be recorded on one or more computer-readable storage media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例は、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記憶媒体または格納媒体が挙げられる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。 The method according to the embodiment may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The medium may be a continuous recording of a computer-executable program or a temporary recording for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a combination of single or multiple hardware, and is not limited to a medium directly connected to a computer system, but is distributed over a network. It may exist. Examples of media include hard disks, floppy (registered trademark) disks, magnetic media such as magnetic tape, magneto-optical media such as CD-ROMs and DVDs, magneto-optical media such as Floptic disks, and It may include a ROM, a RAM, a flash memory, and the like, and may be configured to record program instructions. In addition, other examples of media include storage media or storage media managed by application stores that distribute applications, sites that supply or distribute various other software, servers, and the like. Examples of program instructions include not only machine language code, such as those generated by a compiler, but also high-level language code, which is executed by a computer using an interpreter or the like.

以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。 As described above, the embodiments have been described based on the limited embodiments and drawings, but those skilled in the art will be able to make various modifications and modifications from the above description. For example, the techniques described may be performed in a different order than the methods described, and / or components such as the systems, structures, devices, circuits described may be in a form different from the methods described. Appropriate results can be achieved even if they are combined or combined, or confronted or replaced by other components or equivalents.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Therefore, even different embodiments belong to the attached claims as long as they are equivalent to the claims.

Claims (20)

イメージ処理方法であって、
イメージ処理モードに入ることに応答してカメラモジュールを実行させる段階、
前記実行されたカメラモジュールにおいて連続的にイメージのストリームの入力を受けて画面に順に表示する段階、
前記入力されたイメージのストリームを認識エンジンに伝達する段階、および、
前記入力されたイメージのストリームに対して前記認識エンジンによって認識された認識結果が存在する場合、前記入力されたイメージのストリームが表示中の画面上に前記認識結果をさらに順に表示する段階、
を含む、ことを特徴とする、
イメージ処理方法。
It is an image processing method
The stage of running the camera module in response to entering image processing mode,
The stage in which the executed camera module continuously receives input of a stream of images and displays them on the screen in order.
The stage of transmitting the input image stream to the recognition engine, and
When there is a recognition result recognized by the recognition engine for the input image stream, the step of displaying the recognition result in order on the screen while the input image stream is being displayed.
Characterized by, including
Image processing method.
前記認識エンジンは、前記認識結果として前記入力されたイメージが含むテキストを認識するテキスト認識エンジンを含み、
前記さらに順に表示する段階は、
前記入力されたイメージから認識されたテキスト領域の位置に基づき、前記認識されたテキストの表示位置を動的に調節する、
ことを特徴とする、請求項1に記載のイメージ処理方法。
The recognition engine includes a text recognition engine that recognizes the text included in the input image as the recognition result.
The steps of displaying in order are
Dynamically adjusts the display position of the recognized text based on the position of the text area recognized from the input image.
The image processing method according to claim 1, wherein the image processing method is characterized by the above.
前記認識エンジンは、前記認識結果として前記入力されたイメージが含むテキストを認識するテキスト認識エンジンを含み、
前記さらに順に表示する段階は、
前記入力されたイメージのストリームが表示中の画面上に前記認識されたテキストを順に表示し、前記入力されたイメージのうちでテキストが認識されたイメージにおけるテキスト領域の位置に基づいて、前記認識されたテキストの表示位置を決定する、
ことを特徴とする、請求項1に記載のイメージ処理方法。
The recognition engine includes a text recognition engine that recognizes the text included in the input image as the recognition result.
The steps of displaying in order are
The recognized text is displayed in order on the screen on which the stream of the input image is displayed, and the recognized text is recognized based on the position of the text area in the image in which the text is recognized in the input image. Determine the display position of the text
The image processing method according to claim 1, wherein the image processing method is characterized by the above.
前記認識エンジンは、前記認識結果として前記入力されたイメージが含むテキストを認識するテキスト認識エンジンを含み、
前記イメージ処理方法は、さらに、
前記入力されたイメージのストリームに対して認識されたテキストに対するユーザ確認のためのユーザインタフェースを、前記入力されたイメージのストリームが表示中の画面上にさらに順に表示する段階、
を含む、
ことを特徴とする、請求項1に記載のイメージ処理方法。
The recognition engine includes a text recognition engine that recognizes the text included in the input image as the recognition result.
The image processing method further
The stage of displaying the user interface for user confirmation for the recognized text for the input image stream in order on the screen while the input image stream is being displayed.
including,
The image processing method according to claim 1, wherein the image processing method is characterized by the above.
前記イメージ処理方法は、さらに、
前記ユーザインタフェースにおけるユーザ確認が発生した場合、前記入力されたイメージのうちでテキストが認識されたイメージを画面に表示する段階、および、
前記画面に表示されたイメージ上に、前記認識されたテキストのコピーのためのユーザインタフェースおよび前記認識されたテキストの翻訳のためのユーザインタフェースのうちの少なくとも1つをさらに表示する段階、
を含む、
ことを特徴とする、請求項4に記載のイメージ処理方法。
The image processing method further
When user confirmation occurs in the user interface, the stage of displaying the image in which the text is recognized among the input images on the screen, and
A step of further displaying at least one of a user interface for copying the recognized text and a user interface for translating the recognized text on the image displayed on the screen.
including,
The image processing method according to claim 4, wherein the image processing method is characterized in that.
前記認識エンジンは、前記認識結果として前記入力されたイメージが含むテキストを認識するテキスト認識エンジンを含み、
前記さらに順に表示する段階は、
前記認識されたテキストの文字数によって前記認識されたテキストのサイズを動的に変更して前記画面に表示する、
ことを特徴とする、請求項1に記載のイメージ処理方法。
The recognition engine includes a text recognition engine that recognizes the text included in the input image as the recognition result.
The steps of displaying in order are
The size of the recognized text is dynamically changed according to the number of characters of the recognized text and displayed on the screen.
The image processing method according to claim 1, wherein the image processing method is characterized by the above.
前記認識エンジンは、前記入力されたイメージが含むイメージコードを認識するためのイメージコード認識エンジンを含み、
前記さらに順に表示する段階は、
前記画面に順に表示されるイメージから認識されたイメージコードに対応するページへのリンクを前記認識結果とし、前記入力されたイメージのストリームを表示中の画面上にさらに順に表示する、
ことを特徴とする、請求項1に記載のイメージ処理方法。
The recognition engine includes an image code recognition engine for recognizing an image code included in the input image.
The steps of displaying in order are
The link to the page corresponding to the recognized image code from the images displayed in order on the screen is used as the recognition result, and the stream of the input images is displayed in order on the displayed screen.
The image processing method according to claim 1, wherein the image processing method is characterized by the above.
前記イメージ処理方法は、さらに、
前記入力されたイメージのストリームを順に表示している最中に撮影入力が発生した場合、前記撮影入力の発生時点と関連するイメージをキャプチャして前記画面に表示する段階、
前記キャプチャされたイメージをサーバに送信する段階、および、
前記送信されたイメージのイメージ分析結果を前記サーバから受信し、前記画面に表示されたイメージと関連付けて表示する段階、
を含む、
ことを特徴とする、請求項1に記載のイメージ処理方法。
The image processing method further
If a shooting input occurs while the streams of the input images are being displayed in order, the stage of capturing the image related to the time when the shooting input occurs and displaying it on the screen.
The stage of sending the captured image to the server, and
The stage of receiving the image analysis result of the transmitted image from the server and displaying it in association with the image displayed on the screen.
including,
The image processing method according to claim 1, wherein the image processing method is characterized by the above.
前記イメージ処理方法は、さらに、
前記送信されたイメージが含むオブジェクトのディテクトアニメーションを前記サーバから受信する段階、および、
前記ディテクトアニメーションを前記オブジェクトと関連付けて前記画面に表示する段階、
を含む、
ことを特徴とする、請求項8に記載のイメージ処理方法。
The image processing method further
The stage of receiving the detect animation of the object included in the transmitted image from the server, and
The stage of displaying the detect animation on the screen in association with the object,
including,
The image processing method according to claim 8, wherein the image processing method is characterized by the above.
前記ディテクトアニメーションは、前記オブジェクトの輪郭線のうちから抽出された複数の特徴点を前記複数の特徴点が抽出された前記イメージ上の位置に表示し、前記表示された特徴点のうちの少なくとも一部の特徴点を線で連結するアニメーションを含む、
ことを特徴とする、請求項9に記載のイメージ処理方法。
The detect animation displays a plurality of feature points extracted from the contour line of the object at positions on the image from which the plurality of feature points are extracted, and at least one of the displayed feature points. Includes an animation that connects the feature points of the part with a line,
The image processing method according to claim 9, wherein the image processing method is characterized in that.
イメージ処理方法であって、
電子機器のカメラモジュールによってキャプチャされたイメージを、ネットワークを介して受信する段階、
前記受信されたイメージが含むオブジェクトのディテクトアニメーションを生成する段階、
前記生成されたディテクトアニメーションを前記電子機器に送信する段階、
前記受信されたイメージのイメージ検索結果を生成する段階、および、
前記生成されたイメージ検索結果を前記電子機器に送信する段階、
を含む、ことを特徴とする、
イメージ処理方法。
It is an image processing method
The stage of receiving the image captured by the camera module of the electronic device via the network,
The stage of generating a detect animation of the object contained in the received image,
The stage of transmitting the generated detect animation to the electronic device,
The stage of generating image search results for the received image, and
The stage of transmitting the generated image search result to the electronic device,
Characterized by, including
Image processing method.
前記ディテクトアニメーションは、前記オブジェクトの輪郭線のうちから抽出された複数の特徴点を前記複数の特徴点が抽出された前記イメージ上の位置に表示し、前記表示された特徴点のうちの少なくとも一部の特徴点を線で連結するアニメーションを含む、
ことを特徴とする、請求項11に記載のイメージ処理方法。
The detect animation displays a plurality of feature points extracted from the contour line of the object at positions on the image from which the plurality of feature points are extracted, and at least one of the displayed feature points. Includes an animation that connects the feature points of the part with a line,
The image processing method according to claim 11, characterized in that.
前記ディテクトアニメーションを生成する段階は、
前記受信されたイメージが含むオブジェクトを探索する段階、
前記オブジェクトの輪郭線から複数の特徴点を抽出する段階、
前記抽出された特徴点の凸包(convex hull)を生成する段階、
前記抽出された特徴点のうち、前記凸包を構成する予め定められた数の外郭点の中心座標に基づいて中心点を計算する段階、および、
前記オブジェクトの特徴点のうち、前記外郭点それぞれと前記中心点との間の中間値に最も近い特徴点を選択する段階、
を含む、
ことを特徴とする、請求項11に記載のイメージ処理方法。
The stage of generating the detect animation is
The stage of searching for the objects contained in the received image,
The stage of extracting a plurality of feature points from the contour line of the object,
The step of generating a convex hull of the extracted feature points,
Among the extracted feature points, a step of calculating the center point based on the center coordinates of a predetermined number of outer points constituting the convex hull, and
A step of selecting a feature point closest to an intermediate value between each of the outer outline points and the center point among the feature points of the object.
including,
The image processing method according to claim 11, wherein the image processing method is characterized in that.
前記生成されたディテクトアニメーションを前記電子機器に送信する段階は、
前記外郭点、前記中心点、および前記最も近い特徴点を含む選択点の座標に関する情報と、前記選択点を線で連結する順序に関する情報とを前記ディテクトアニメーションとして前記電子機器に送信するか、または、前記選択点を前記順序にしたがって連結するアニメーションを前記ディテクトアニメーションとして前記電子機器に送信する、
ことを特徴とする、請求項13に記載のイメージ処理方法。
The step of transmitting the generated detect animation to the electronic device is
Information about the coordinates of the selection points including the outer point, the center point, and the closest feature point, and information about the order in which the selection points are connected by a line are transmitted to the electronic device as the detect animation, or , An animation connecting the selected points in the order is transmitted to the electronic device as the detect animation.
The image processing method according to claim 13, characterized in that.
前記イメージ検索結果は、前記オブジェクトの種類および名称のうちの少なくとも1つを含み、前記オブジェクトと関連して検索されたイメージ、文書、テキストのうちの少なくとも1つをさらに含む、
ことを特徴とする、請求項11に記載のイメージ処理方法。
The image search result includes at least one of the object types and names, and further includes at least one of the images, documents, and texts searched in connection with the object.
The image processing method according to claim 11, wherein the image processing method is characterized in that.
前記オブジェクトの種類および名称のうちの少なくとも1つを前記電子機器のカメラモジュールに入力されたイメージとオーバーラップさせて前記電子機器の画面に表示し、
前記検索されたイメージ、文書、テキストのうちの少なくとも1つが対応するページへのリンクを含み、前記電子機器のカメラモジュールに入力されたイメージと関連付けて前記電子機器の画面にさらに表示する、
ことを特徴とする、請求項15に記載のイメージ処理方法。
At least one of the object types and names is displayed on the screen of the electronic device so as to overlap with the image input to the camera module of the electronic device.
At least one of the searched images, documents, and texts contains a link to the corresponding page and is further displayed on the screen of the electronic device in association with the image input to the camera module of the electronic device.
The image processing method according to claim 15, characterized in that.
前記イメージ処理方法は、さらに、
前記電子機器の画面に表示された前記オブジェクトの種類または名称が前記電子機器のユーザによって選択されることによって発生する信号を、ネットワークを介して受信する段階、
前記信号の受信に応答し、前記オブジェクトの種類または名称をキーワードとして利用してテキスト検索結果を生成する段階、および、
前記生成されたテキスト検索結果を前記電子機器に提供する段階、
を含む、
ことを特徴とする、請求項16に記載のイメージ処理方法。
The image processing method further
A step of receiving a signal generated by selecting the type or name of the object displayed on the screen of the electronic device by the user of the electronic device via a network.
In response to the reception of the signal, the stage of generating a text search result using the type or name of the object as a keyword, and
The stage of providing the generated text search result to the electronic device,
including,
The image processing method according to claim 16, wherein the image processing method is characterized in that.
前記受信されたイメージのイメージ検索結果を生成する段階は、
前記受信されたイメージが含むオブジェクトと関連して検索された情報の類型によって類型別に予めデザインされたテンプレートとして検索された情報をカードの形態で実現する、
ことを特徴とする、請求項11に記載のイメージ処理方法。
The stage of generating the image search result of the received image is
The information searched as a template pre-designed for each type according to the type of information searched in relation to the object included in the received image is realized in the form of a card.
The image processing method according to claim 11, wherein the image processing method is characterized in that.
コンピュータ読み取り可能な記憶媒体に記録されたコンピュータプログラムであって、実行されると、コンピュータと結合して、請求項1〜18のうちのいずれか一項に記載の方法を前記コンピュータに実行させる、
コンピュータプログラム。
A computer program recorded on a computer-readable storage medium that, when executed, combines with the computer to cause the computer to perform the method according to any one of claims 1-18.
Computer program.
コンピュータプログラムが記録されたコンピュータ読み取り可能な記憶媒体であって、コンピュータによって実行されると、請求項1〜18のうちのいずれか一項に記載の方法を前記コンピュータに実行させる、
コンピュータ読み取り可能な記憶媒体。
A computer-readable storage medium on which a computer program is recorded, which, when executed by the computer, causes the computer to perform the method according to any one of claims 1-18.
Computer-readable storage medium.
JP2020509490A 2017-08-20 2018-08-17 Processing of visual input Active JP7027524B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20170105156 2017-08-20
KR10-2017-0105156 2017-08-20
KR10-2018-0035734 2018-03-28
KR1020180035734A KR102026475B1 (en) 2017-08-20 2018-03-28 Processing visual input
PCT/KR2018/009470 WO2019039799A1 (en) 2017-08-20 2018-08-17 Processing of visual input

Publications (2)

Publication Number Publication Date
JP2020534590A true JP2020534590A (en) 2020-11-26
JP7027524B2 JP7027524B2 (en) 2022-03-01

Family

ID=65584456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020509490A Active JP7027524B2 (en) 2017-08-20 2018-08-17 Processing of visual input

Country Status (2)

Country Link
JP (1) JP7027524B2 (en)
KR (1) KR102026475B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022373A1 (en) * 2021-08-19 2023-02-23 Samsung Electronics Co., Ltd. Method and system for generating an animation from a static image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295781A (en) * 2003-03-28 2004-10-21 Ocean Network Entertainment:Kk Image recognition method and image recognition apparatus
JP2009282876A (en) * 2008-05-26 2009-12-03 Sanpoen:Kk Event rendition system
JP2010103694A (en) * 2008-10-22 2010-05-06 Seiko Precision Inc Camera with translation function, and method of displaying text
JP2012524343A (en) * 2009-04-14 2012-10-11 クアルコム,インコーポレイテッド System and method for image recognition using a mobile device
JP2013161277A (en) * 2012-02-06 2013-08-19 Omron Corp Program for reading character and character reading device
JP2016170790A (en) * 2016-04-14 2016-09-23 株式会社リコー Imaging device
JP2017084289A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Display controller, display control method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6195893B2 (en) * 2013-02-19 2017-09-13 ミラマ サービス インク Shape recognition device, shape recognition program, and shape recognition method
KR101784287B1 (en) * 2016-12-20 2017-10-11 에스케이플래닛 주식회사 Integrative image searching system and service method of the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295781A (en) * 2003-03-28 2004-10-21 Ocean Network Entertainment:Kk Image recognition method and image recognition apparatus
JP2009282876A (en) * 2008-05-26 2009-12-03 Sanpoen:Kk Event rendition system
JP2010103694A (en) * 2008-10-22 2010-05-06 Seiko Precision Inc Camera with translation function, and method of displaying text
JP2012524343A (en) * 2009-04-14 2012-10-11 クアルコム,インコーポレイテッド System and method for image recognition using a mobile device
JP2013161277A (en) * 2012-02-06 2013-08-19 Omron Corp Program for reading character and character reading device
JP2017084289A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Display controller, display control method and program
JP2016170790A (en) * 2016-04-14 2016-09-23 株式会社リコー Imaging device

Also Published As

Publication number Publication date
KR102026475B1 (en) 2019-09-30
KR20190020281A (en) 2019-02-28
JP7027524B2 (en) 2022-03-01

Similar Documents

Publication Publication Date Title
US10726304B2 (en) Refining synthetic data with a generative adversarial network using auxiliary inputs
US10032072B1 (en) Text recognition and localization with deep learning
US10891671B2 (en) Image recognition result culling
CN108959586B (en) Identifying textual terms in response to a visual query
CA2771094C (en) Architecture for responding to a visual query
US11704357B2 (en) Shape-based graphics search
US20110128288A1 (en) Region of Interest Selector for Visual Queries
JP2019075124A (en) Method and system for providing camera effect
CN104036476A (en) Method for providing augmented reality, and portable terminal
CN110263746A (en) Visual search based on posture
US20210126806A1 (en) Method for recognizing and utilizing user face based on profile picture in chatroom created using group album
US11568631B2 (en) Method, system, and non-transitory computer readable record medium for extracting and providing text color and background color in image
US10621237B1 (en) Contextual overlay for documents
KR20230003388A (en) Digital supplement association and retrieval for visual search
CN113867875A (en) Method, device, equipment and storage medium for editing and displaying marked object
US20170034586A1 (en) System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof
JP7027524B2 (en) Processing of visual input
KR20210120203A (en) Method for generating metadata based on web page
US11699174B2 (en) Media processing techniques for enhancing content
EP4244830A1 (en) Semantic segmentation for stroke classification in inking application
KR102167588B1 (en) Video producing service device based on contents received from a plurality of user equipments, video producing method based on contents received from a plurality of user equipments and computer readable medium having computer program recorded therefor
KR102619706B1 (en) Metaverse virtual space implementation system and method
WO2019039799A1 (en) Processing of visual input
Henze Camera-based Mobile Interaction with Physical Objects
KR20150101109A (en) Sketch retrieval system with filtering function, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150