JP2013077075A - Image display system, learning system, image display method and control program - Google Patents

Image display system, learning system, image display method and control program Download PDF

Info

Publication number
JP2013077075A
JP2013077075A JP2011215496A JP2011215496A JP2013077075A JP 2013077075 A JP2013077075 A JP 2013077075A JP 2011215496 A JP2011215496 A JP 2011215496A JP 2011215496 A JP2011215496 A JP 2011215496A JP 2013077075 A JP2013077075 A JP 2013077075A
Authority
JP
Japan
Prior art keywords
character string
image
display
character
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011215496A
Other languages
Japanese (ja)
Other versions
JP5708419B2 (en
Inventor
Takeshi Yoshizawa
健 吉澤
Atsushi Nakajima
敦 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2011215496A priority Critical patent/JP5708419B2/en
Publication of JP2013077075A publication Critical patent/JP2013077075A/en
Application granted granted Critical
Publication of JP5708419B2 publication Critical patent/JP5708419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display system performing presentation that interests a user, when displaying a character string along with an image.SOLUTION: A server 2 comprises a character area setting part 6 which sets a character area and a character string arrangement part 7 which arranges a first character string in the character area. A user terminal 3 comprises a display control part 12 and an operation part 11. The display control part 12 switches display/non-display of the first character string in a photographic image according to an operation amount by a user.

Description

本発明は、サーバおよび/またはユーザ端末を含む画像表示システムに関する。   The present invention relates to an image display system including a server and / or a user terminal.

近年、携帯端末において、画像の所定位置にメッセージ等の画像を合成し、グリーティングメールとして送信するものがある。また、撮影画像にデータベースから取り出した台詞を合成する撮像装置がある(特許文献1)。   In recent years, some portable terminals synthesize an image such as a message at a predetermined position of the image and send it as a greeting mail. In addition, there is an imaging device that synthesizes dialogue taken out from a database with a captured image (Patent Document 1).

また、ゲームのヒントを表示する際に、キーとなる単語(ヒント文字列)に遮蔽オブジェクトを重畳させて表示し、ユーザがタッチした位置のヒント文字列を表示させるプログラムがある(特許文献2)。   Moreover, when displaying the hint of a game, there is a program that displays a hint character string at a position touched by a user by superimposing a shielding object on a key word (hint character string) (Patent Document 2). .

特開2009−88749号公報(2009年4月23日公開)JP 2009-88749 A (published April 23, 2009) 特開2010−233959号公報(2010年10月21日公開)JP 2010-233959 A (released on October 21, 2010)

特許文献1の構成では、吹き出しに台詞を表示するだけのものであり、表示/非表示を切り替えて学習用途に使用することはできない。また、特許文献2の構成では、ヒント文字列を表示/非表示させるものであり、文字列が撮影されたものであるかのように文字列を表示することはできない。   In the configuration of Patent Document 1, a line is simply displayed in a balloon, and cannot be used for learning purposes by switching between display and non-display. In the configuration of Patent Document 2, the hint character string is displayed / hidden, and the character string cannot be displayed as if the character string was taken.

本発明の目的は、画像と共に文字列を表示する際に、ユーザの興味を惹くような演出を行う画像表示システムを実現することにある。   An object of the present invention is to realize an image display system that produces an effect that attracts the user's interest when displaying a character string together with an image.

本発明に係る画像表示システムは、撮影画像に応じて第1文字列が対応付けられており、上記撮影画像において対応する上記第1文字列を表示する文字領域を、上記撮影画像毎に設定する設定手段と、上記文字領域に収まるように対応する上記第1文字列の大きさを調節し、上記第1文字列を上記文字領域に配置する文字列配置手段と、上記第1文字列および上記撮影画像の表示を制御する表示制御手段と、ユーザによる操作を受け付ける操作入力手段とを含み、上記表示制御手段は、上記第1文字列を非表示状態にして上記撮影画像を表示した後、上記操作入力手段が受け付けたユーザによる操作量に応じて、上記撮影画像の中の上記第1文字列を非表示状態から表示状態に変化させる制御を行うことを特徴としている。   In the image display system according to the present invention, a first character string is associated with a captured image, and a character region for displaying the corresponding first character string in the captured image is set for each captured image. A setting means, a character string arranging means for adjusting the size of the first character string corresponding to the character area so as to fit in the character area, and arranging the first character string in the character area; the first character string; A display control unit that controls display of a captured image; and an operation input unit that receives an operation by a user. The display control unit displays the captured image after displaying the captured image with the first character string hidden. Control is performed to change the first character string in the captured image from a non-display state to a display state in accordance with an operation amount by the user received by the operation input means.

本発明に係る画像表示方法は、撮影画像に応じて第1文字列が対応付けられており、上記撮影画像において対応する上記第1文字列を表示する文字領域を、上記撮影画像毎に設定する設定ステップと、上記文字領域に収まるように対応する上記第1文字列の大きさを調節し、上記第1文字列を上記文字領域に配置する文字列配置ステップと、上記第1文字列を非表示状態にして上記撮影画像を表示させる第1表示ステップと、ユーザによる操作を受け付ける操作入力ステップと、上記操作入力手段が受け付けたユーザによる操作量に応じて、上記撮影画像の中の上記第1文字列を非表示状態から表示状態に変化させる第2表示ステップとを含むことを特徴としている。   In the image display method according to the present invention, a first character string is associated with a photographed image, and a character region for displaying the first character string corresponding to the photographed image is set for each photographed image. Adjusting a size of the corresponding first character string so as to fit in the character area, placing the first character string in the character area, and non-setting the first character string. A first display step for displaying the photographed image in a display state, an operation input step for accepting an operation by a user, and the first of the photographed images according to an operation amount by a user accepted by the operation input means. And a second display step for changing the character string from the non-display state to the display state.

上記の構成によれば、撮影画像の中の第1文字列を非表示状態にして撮影画像を表示し、ユーザの操作量に応じて撮影画像の中の文字領域において第1文字列を非表示状態から表示状態に変化させる。このような表示の演出により、撮影画像および第1文字列に対するユーザの興味を惹くことができる。また、あらかじめ撮影した撮影画像に、後から文字列を重ねることができるので、撮影画像と文字列との組み合わせの種類を容易に増やすことができる。よって、ユーザの画像および文字列への興味を惹く画像表示を行うことができる。   According to said structure, a 1st character string in a picked-up image is hidden, a picked-up image is displayed, and a 1st character string is hidden in the character area in a picked-up image according to a user's operation amount Change from state to display state. Such display effects can attract the user's interest in the captured image and the first character string. In addition, since a character string can be superimposed on a captured image captured in advance, the number of combinations of captured images and character strings can be easily increased. Therefore, it is possible to perform image display that attracts the user's interest in images and character strings.

また、上記表示制御手段は、ユーザによる特定の操作の繰り返しに応じた分の上記第1文字列の一部を、上記撮影画像上に表示させる制御を行う構成であってもよい。   The display control means may be configured to control to display a part of the first character string corresponding to the repetition of a specific operation by the user on the captured image.

また、上記操作入力手段は、表示画面上をタッチ操作可能なタッチパネルを備え、上記表示制御手段は、タッチされた位置の上記第1文字列の一部を上記撮影画像上に表示させる制御を行う構成であってもよい。   The operation input means includes a touch panel that can be touch-operated on the display screen, and the display control means performs control to display a part of the first character string at the touched position on the captured image. It may be a configuration.

また、上記文字領域は矩形の領域であり、上記文字領域が傾いている場合、上記文字列配置手段は、上記文字領域の傾きに合わせて上記第1文字列を傾けて上記文字領域に配置する構成であってもよい。   Further, the character area is a rectangular area, and when the character area is inclined, the character string arranging means arranges the first character string in the character area in accordance with the inclination of the character area. It may be a configuration.

また、上記文字列配置手段は、上記撮影画像上に上記第1文字列を合成した合成画像を生成し、上記表示制御手段は、上記合成画像の上記文字領域に遮蔽画像を重ねて表示させる制御を行うことにより、上記第1文字列を非表示状態にする構成であってもよい。   Further, the character string arrangement unit generates a composite image obtained by combining the first character string on the photographed image, and the display control unit controls the display of the shielding image so as to overlap the character region of the composite image. By performing the above, the first character string may be hidden.

また、上記表示制御手段は、上記操作入力手段が受け付けたユーザによる操作に応じて上記遮蔽画像の透明度を上昇させることにより、上記撮影画像上に上記第1文字列を徐々に表示させる構成であってもよい。   Further, the display control means is configured to gradually display the first character string on the photographed image by increasing the transparency of the shielding image in accordance with an operation by the user received by the operation input means. May be.

また、上記表示制御手段は、上記撮影画像を含むレイヤに上記第1文字列を含むレイヤを重ねて表示する制御を行い、上記第1文字列を透明にすることにより、上記第1文字列を非表示状態にする構成であってもよい。   In addition, the display control unit performs control to display the layer including the first character string on the layer including the captured image, and makes the first character string transparent by making the first character string transparent. It may be configured to be in a non-display state.

また、上記表示制御手段は、上記操作入力手段が受け付けたユーザによる操作に応じて上記第1文字列の透明度を低下させることにより、上記撮影画像上に上記第1文字列を徐々に表示させる構成であってもよい。   Further, the display control means gradually displays the first character string on the photographed image by reducing the transparency of the first character string in accordance with a user operation received by the operation input means. It may be.

また、上記設定手段は、上記撮影画像の中の所定の記号の位置およびサイズに基づき、上記文字領域を設定する構成であってもよい。   The setting means may be configured to set the character area based on the position and size of a predetermined symbol in the captured image.

また、上記設定手段は、上記撮影画像の中の無地の矩形の領域を上記文字領域として設定する構成であってもよい。   The setting unit may be configured to set a plain rectangular area in the captured image as the character area.

また、上記画像表示システムは、サーバとユーザ端末とを含み、上記サーバは、上記設定手段と上記文字列配置手段とを備え、上記ユーザ端末は、上記表示制御手段と上記操作入力手段とを備える構成であってもよい。   The image display system includes a server and a user terminal. The server includes the setting unit and the character string arrangement unit. The user terminal includes the display control unit and the operation input unit. It may be a configuration.

本発明に係る学習システムは、上記画像表示システムを含み、上記表示制御手段が上記第1文字列を非表示状態にして上記撮影画像を表示させている間またはその前に、上記第1文字列に対応する第2文字列を表示または音声によってユーザに提示する制御を行う提示制御手段を含む構成であってもよい。   The learning system according to the present invention includes the image display system, and the display control means is configured to display the first character string while or before the first character string is displayed in the non-display state. It may be configured to include a presentation control means for performing control to display the second character string corresponding to the above to the user by display or voice.

また、上記第2文字列は、上記第1文字列の意味を示す文字列であってもよい。   The second character string may be a character string indicating the meaning of the first character string.

なお、上記画像表示システムは、一部をコンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記画像表示システムをコンピュータにて実現させる制御プログラム、および上記制御プログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The image display system may be partially realized by a computer. In this case, a control program for causing the image display system to be realized by a computer by causing the computer to operate as each of the means, and the control A computer-readable recording medium in which the program is recorded also falls within the scope of the present invention.

以上のように本発明によれば、撮影画像の中の第1文字列を非表示状態にして撮影画像を表示し、ユーザの操作量に応じて撮影画像の中の文字領域において第1文字列を非表示状態から表示状態に変化させる。このような表示の演出により、撮影画像および第1文字列に対するユーザの興味を惹くことができる。また、あらかじめ撮影した撮影画像に、後から文字列を重ねることができるので、撮影画像と文字列との組み合わせの種類を容易に増やすことができる。よって、ユーザの画像および文字列への興味を惹く画像表示を行うことができる。   As described above, according to the present invention, the first character string in the captured image is displayed in a non-display state, and the first character string is displayed in the character area in the captured image according to the operation amount of the user. Is changed from the non-display state to the display state. Such display effects can attract the user's interest in the captured image and the first character string. In addition, since a character string can be superimposed on a captured image captured in advance, the number of combinations of captured images and character strings can be easily increased. Therefore, it is possible to perform image display that attracts the user's interest in images and character strings.

本発明に係る一実施形態の学習システムの構成を示す概略的なブロック図である。It is a schematic block diagram which shows the structure of the learning system of one Embodiment which concerns on this invention. 英単語学習アプリの画面の一例を示す図である。It is a figure which shows an example of the screen of an English word learning application. 英単語学習アプリの単語帳モードの画面の一例を示す図である。It is a figure which shows an example of the screen of the word book mode of an English word learning application. 英単語学習アプリの単語帳モードの画面の一例を示す図である。It is a figure which shows an example of the screen of the word book mode of an English word learning application. 英単語学習アプリの学習モードの画面の一例を示す図である。It is a figure which shows an example of the screen of the learning mode of an English word learning application. 英単語学習アプリの学習モードの画面の一例を示す図である。It is a figure which shows an example of the screen of the learning mode of an English word learning application. 英単語学習アプリの学習モードの画面の一例を示す図である。It is a figure which shows an example of the screen of the learning mode of an English word learning application. 撮影画像における文字領域を示す図である。It is a figure which shows the character area in a picked-up image. 二次元バーコードを含むボードを撮影した撮影画像を示す図である。It is a figure which shows the picked-up image which image | photographed the board containing a two-dimensional barcode. サーバによる英単語画像の生成処理フローを示すフローチャートである。It is a flowchart which shows the production | generation processing flow of the English word image by a server. ユーザ端末による学習モードにおける処理フローを示すフローチャートである。It is a flowchart which shows the processing flow in the learning mode by a user terminal. サーバによる処理フローを示すフローチャートである。It is a flowchart which shows the processing flow by a server. ユーザ端末による学習モードにおける処理フローを示すフローチャートである。It is a flowchart which shows the processing flow in the learning mode by a user terminal. 本発明に係る他の実施形態の学習システムの構成を示す概略的なブロック図である。It is a schematic block diagram which shows the structure of the learning system of other embodiment which concerns on this invention. ユーザ端末における処理フローを示すフローチャートである。It is a flowchart which shows the processing flow in a user terminal. 本発明に係るさらに他の実施形態の学習システムの構成を示す概略的なブロック図である。It is a schematic block diagram which shows the structure of the learning system of further another embodiment which concerns on this invention. サーバによる処理フローを示すフローチャートである。It is a flowchart which shows the processing flow by a server.

以下、本発明の実施形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[実施形態1]
本実施形態では、本発明を英単語学習アプリ(アプリケーション)に適用した学習システムについて説明する。ユーザは、英単語学習アプリをサーバからユーザ端末にダウンロードして、ユーザ端末にインストールして利用する。インストールされた英単語学習アプリは、ユーザ端末を制御して各種の動作および画面表示を行う。ここでは、ユーザ端末は、タッチパネルを備えるスマートフォン(高機能携帯電話)である。
[Embodiment 1]
In this embodiment, a learning system in which the present invention is applied to an English word learning application (application) will be described. The user downloads the English word learning application from the server to the user terminal, installs it on the user terminal, and uses it. The installed English word learning application controls the user terminal to perform various operations and screen displays. Here, the user terminal is a smartphone (high function mobile phone) provided with a touch panel.

<英単語学習アプリの概略>
本実施形態の英単語学習アプリは、撮影された画像の中に英単語を表示する。
<Outline of English word learning app>
The English word learning application of this embodiment displays English words in the photographed image.

図2は、本実施形態の英単語学習アプリの画面の一例を示す図である。図2に示す画面では、ユーザ端末の表示画面20に、人物が持つ黒板(ボード)に英単語「delicious」が描かれた画像21が表示されている。画像21では、英単語は、人物が持つ黒板に書かれていたように撮影画像に合成されている。また、画像21の下側の訳語表示領域22には、該英単語の意味を示す日本語「おいしい」が表示される。英単語学習アプリは、1つの英単語を1つの撮影画像(人物画像)に対応付けて、英単語毎に異なる撮影画像を表示する。そのため、ユーザは、画像を楽しみながら英単語を学習することができる。   FIG. 2 is a diagram illustrating an example of a screen of the English word learning application of the present embodiment. In the screen shown in FIG. 2, an image 21 in which the English word “delicious” is drawn on a blackboard (board) held by a person is displayed on the display screen 20 of the user terminal. In the image 21, the English word is synthesized with the photographed image as if written on the blackboard held by the person. In the translated word display area 22 below the image 21, Japanese “delicious” indicating the meaning of the English word is displayed. The English word learning application associates one English word with one captured image (person image) and displays a different captured image for each English word. Therefore, the user can learn English words while enjoying images.

訳語表示領域22の下側には、複数のメニューボタン23〜27が表示される。例えば、ユーザがタッチパネル上でメニューボタン23を選択(タッチ)すると、英単語学習アプリは、新着単語モードに移行する。ユーザがメニューボタン24を選択すると、英単語学習アプリは、単語帳モードに移行する。ユーザがメニューボタン25を選択すると、英単語学習アプリは、お気に入りモードに移行する。ユーザがメニューボタン26を選択すると、英単語学習アプリは、学習モードに移行する。ユーザがメニューボタン27を選択すると、英単語学習アプリは、復習モードに移行する。   A plurality of menu buttons 23 to 27 are displayed below the translated word display area 22. For example, when the user selects (touches) the menu button 23 on the touch panel, the English word learning application shifts to the new word mode. When the user selects the menu button 24, the English word learning application shifts to the word book mode. When the user selects the menu button 25, the English word learning application shifts to the favorite mode. When the user selects the menu button 26, the English word learning application shifts to a learning mode. When the user selects the menu button 27, the English word learning application shifts to the review mode.

図2に示す画面は、新着単語モードの画面の一例である。英単語学習アプリは、所定の期間毎に、サーバに追加される英単語(英単語に対応する画像)をダウンロードすることができる。例えば、英単語学習アプリは、英単語学習アプリの起動時にサーバに新着の英単語があるか否かを確認し、新着の英単語があればその画像をユーザ端末にダウンロードする。英単語学習アプリは、ダウンロードした新着の英単語の画像21をユーザ端末の表示画面20に表示させる。なお、新着の英単語の画像が複数ある場合、ユーザは画像上で左または右にフリック操作(スライド操作)することで、別の英単語の画像を表示画面20に表示させることができる。   The screen shown in FIG. 2 is an example of a new arrival word mode screen. The English word learning application can download English words (images corresponding to English words) to be added to the server every predetermined period. For example, the English word learning application checks whether there is a new English word on the server when the English word learning application is activated, and if there is a new English word, downloads the image to the user terminal. The English word learning application displays the downloaded new English word image 21 on the display screen 20 of the user terminal. In addition, when there are a plurality of new English words, the user can display another English image on the display screen 20 by flicking (sliding) left or right on the image.

画像21上の左側には投稿ボタン28と、お気に入り登録ボタン29とが表示される。ユーザが投稿ボタン28を選択すると、英単語学習アプリは、例えばブログやSNS(ソーシャルネットワークサービス)に投稿するためのモードに移行する。ユーザがお気に入り登録ボタン29を選択すると、英単語学習アプリは、現在表示されている英単語の画像21をお気に入りとして登録する。例えば、お気に入りとして登録された画像21および英単語は、お気に入りモードで一覧表示される。   On the left side of the image 21, a post button 28 and a favorite registration button 29 are displayed. When the user selects the posting button 28, the English word learning application shifts to a mode for posting to, for example, a blog or SNS (social network service). When the user selects the favorite registration button 29, the English word learning application registers the currently displayed English word image 21 as a favorite. For example, the images 21 and English words registered as favorites are displayed in a list in the favorites mode.

図3は、本実施形態の英単語学習アプリの単語帳モードの画面の一例を示す図である。単語帳モードでは、英単語学習アプリは、既にダウンロードされた英単語およびその訳語のリストを表示する。なお、リストの下側には、各メニューボタン23〜27が表示される。ユーザはリスト上で、上または下にフリック操作することで、リストをスクロールさせることができる。また、ユーザがリストから1つの英単語を選択すると、その英単語の画像を表示する。   FIG. 3 is a diagram showing an example of a screen in the word book mode of the English word learning application of the present embodiment. In the word book mode, the English word learning application displays a list of already downloaded English words and their translations. Note that menu buttons 23 to 27 are displayed below the list. The user can scroll the list by flicking up or down on the list. When the user selects one English word from the list, an image of the English word is displayed.

図4は、本実施形態の英単語学習アプリの単語帳モードの画面の一例を示す図である。図4では、ユーザが選択した英単語「link」の画像31が表示画面20に表示されている。英単語「link」の画像31は、英単語「delicious」の画像21とは異なる人物の撮影画像を使用したものである。単語帳モードの画像表示画面においても、図2に示す新着単語モードと同様に、訳語表示領域22、各メニューボタン23〜27、投稿ボタン28、およびお気に入り登録ボタン29が表示される。単語帳モードの画像表示画面では、画像31上の左側に、リスト表示ボタン32が表示される。ユーザがリスト表示ボタン32を選択すると、図3に示す単語帳のリスト表示の画面に遷移する。また、ユーザは画像上で左または右にフリック操作することで、ダウンロード済みの別の英単語の画像を表示画面20に表示させることができる。   FIG. 4 is a diagram illustrating an example of a screen in the word book mode of the English word learning application of the present embodiment. In FIG. 4, an image 31 of the English word “link” selected by the user is displayed on the display screen 20. The image 31 of the English word “link” is a photographed image of a person different from the image 21 of the English word “delicious”. On the image display screen in the word book mode, the translated word display area 22, the menu buttons 23 to 27, the posting button 28, and the favorite registration button 29 are displayed as in the new arrival word mode shown in FIG. A list display button 32 is displayed on the left side of the image 31 on the image display screen in the word book mode. When the user selects the list display button 32, the screen shifts to a list display screen of the word book shown in FIG. In addition, the user can display an image of another downloaded English word on the display screen 20 by flicking left or right on the image.

図5は、本実施形態の英単語学習アプリの学習モードの画面の一例を示す図である。英単語学習アプリは、学習モードに移行すると、いずれかの英単語に対応する画像41を表示する。学習モードには、英単語と日本語の訳語のうち、日本語の訳語だけを表示する日本語表示モードと、英単語だけを表示する英語表示モードとがある。図5は、訳語表示領域22に日本語の訳語だけを表示する日本語表示モードの画面を示す。学習モードの画像表示画面においても、図2に示す新着単語モードと同様に、各メニューボタン23〜27、投稿ボタン28、およびお気に入り登録ボタン29が表示される。学習モードの画像表示画面では、画像41の上側に、英語ボタン42、日本語ボタン43、および復習登録ボタン44が表示される。ユーザが英語ボタン42を選択すると、日本語の訳語を表示せずに英単語だけを表示する英語表示モードに移行する。逆に、英語表示モードの時に、ユーザが日本語ボタン43を選択すると、英単語を表示せずに日本語の訳語だけを表示する日本語表示モードに移行する。ユーザが復習登録ボタン44を選択すると、現在表示されている画像41の英単語を、復習対象の英単語として登録する。復習モードでは、復習対象として登録された英単語の画像を表示する。   FIG. 5 is a diagram illustrating an example of a learning mode screen of the English word learning application of the present embodiment. When the English word learning application shifts to the learning mode, the image 41 corresponding to any English word is displayed. The learning mode includes a Japanese display mode that displays only Japanese translations of English words and Japanese translations, and an English display mode that displays only English words. FIG. 5 shows a screen in Japanese display mode in which only Japanese translations are displayed in the translation display area 22. On the image display screen in the learning mode, the menu buttons 23 to 27, the posting button 28, and the favorite registration button 29 are displayed as in the new word mode shown in FIG. On the image display screen in the learning mode, an English button 42, a Japanese button 43, and a review registration button 44 are displayed above the image 41. When the user selects the English button 42, the mode is shifted to an English display mode in which only English words are displayed without displaying Japanese translations. Conversely, when the user selects the Japanese button 43 in the English display mode, the mode shifts to the Japanese display mode in which only Japanese translations are displayed without displaying English words. When the user selects the review registration button 44, the English word of the image 41 currently displayed is registered as the review target English word. In the review mode, an image of English words registered as review targets is displayed.

図5に示す学習モードの画面では、撮影画像の中の人物が持つ黒板に対応する矩形領域45に別の画像(遮蔽画像)が重ねられて表示されており、黒板に描かれている英単語が隠されている。遮蔽画像は、背景の領域(黒板)と同じ色の画像であってもよいし、異なる色の画像であってもよい。ユーザが矩形領域45をタッチするとタッチした位置の遮蔽画像が消え、その箇所の英単語の文字が表示される。例えば、ユーザが図5に示すライン46に沿って画面をなぞった場合、図6に示すように、なぞった位置の付近に対応する英単語の一部「deli」が表示される。英単語の他の箇所についても、同様の操作によって表示させることができる。ユーザは、当初の英単語が非表示の状態で、訳語表示領域22の訳語「おいしい」から対応する英単語を類推し、その後、画像中の黒板をなぞって英単語を表示状態にすることにより答え合わせをすることができる。   In the learning mode screen shown in FIG. 5, another image (shielded image) is displayed superimposed on a rectangular area 45 corresponding to the blackboard held by the person in the captured image, and the English words drawn on the blackboard Is hidden. The occlusion image may be an image of the same color as the background area (blackboard) or an image of a different color. When the user touches the rectangular area 45, the shield image at the touched position disappears, and the English word character at that location is displayed. For example, when the user traces the screen along the line 46 shown in FIG. 5, as shown in FIG. 6, a part of the English word “deli” corresponding to the vicinity of the traced position is displayed. Other parts of English words can be displayed by the same operation. The user analogizes the corresponding English word from the translated word “delicious” in the translated word display area 22 while the original English word is not displayed, and then traces the blackboard in the image to display the English word. Can answer.

図7は、本実施形態の英単語学習アプリの学習モードの画面の一例を示す図である。図7に示す画面では、英語表示モードになっており、英単語は表示されているが、その日本語の訳語が非表示状態になっている。この場合、ユーザが訳語表示領域22をタッチすると、日本語の訳語が表示状態になる。   FIG. 7 is a diagram illustrating an example of a learning mode screen of the English word learning application of the present embodiment. In the screen shown in FIG. 7, the English display mode is set and English words are displayed, but the Japanese translation is not displayed. In this case, when the user touches the translated word display area 22, the Japanese translated word is displayed.

<学習システムの構成>
図1は、本実施形態の学習システム1の構成を示す概略的なブロック図である。学習システム(画像表示システム)1は、サーバ2とユーザ端末3とを含んで構成される。サーバ2およびユーザ端末3は、ネットワーク4に接続可能であり、ネットワーク4を介して互いに通信可能である。ここでは、1つのサーバとして説明するが、各機能が複数のサーバによって実現されていてもよい。ユーザ端末3は、携帯電話端末およびPC(パーソナルコンピュータ)端末およびPDA(Personal Digital Assistant)等の端末を含む。
<Learning system configuration>
FIG. 1 is a schematic block diagram showing the configuration of the learning system 1 of the present embodiment. A learning system (image display system) 1 includes a server 2 and a user terminal 3. The server 2 and the user terminal 3 can be connected to the network 4 and can communicate with each other via the network 4. Here, although described as one server, each function may be realized by a plurality of servers. The user terminal 3 includes terminals such as a mobile phone terminal, a PC (personal computer) terminal, and a PDA (Personal Digital Assistant).

サーバ2は、データベース5、文字領域設定部(設定手段)6、文字列配置部(文字列配置手段)7、および通信部8を備える。   The server 2 includes a database 5, a character area setting unit (setting unit) 6, a character string arrangement unit (character string arrangement unit) 7, and a communication unit 8.

データベース5は、主として複数の撮影画像と、各画像に1対1で対応付けられた英単語と、各画像または英単語に関する情報(英単語の訳語等)とを対応付けて記憶する。   The database 5 mainly stores a plurality of photographed images, English words associated with each image on a one-to-one basis, and information about each image or English word (translation of English words, etc.) in association with each other.

文字領域設定部6は、データベース5から撮影画像を取得し、撮影画像において英単語を表示するための文字領域を設定する。具体的には、文字領域設定部6は、撮影画像から無地(色がほぼ一定)の矩形領域を検出し、検出した矩形領域を文字領域として設定する。図8は、撮影画像50における文字領域45を示す図である。例えば、文字領域設定部6は、無地の領域を抽出し、抽出した領域のうち、条件に合致するものを文字領域45として設定する。条件としては、例えば、矩形の領域であること、所定の範囲の大きさであること、または所定の範囲の色であること等がある。なお、抽出した無地の領域に対して文字領域45を大きく設定したり、または、小さく設定したりしてもよい。文字領域設定部6は、撮影画像50と文字領域45の情報とを対応付けてデータベース5に記憶させる。   The character area setting unit 6 acquires a photographed image from the database 5 and sets a character area for displaying English words in the photographed image. Specifically, the character area setting unit 6 detects a plain (color is almost constant) rectangular area from the photographed image, and sets the detected rectangular area as the character area. FIG. 8 is a diagram illustrating the character region 45 in the captured image 50. For example, the character area setting unit 6 extracts a plain area, and sets the extracted area that matches the condition as the character area 45. The conditions include, for example, a rectangular area, a predetermined range size, or a predetermined range color. Note that the character area 45 may be set larger or smaller than the extracted plain area. The character area setting unit 6 stores the captured image 50 and the information on the character area 45 in the database 5 in association with each other.

なお、文字領域設定部6は、撮影画像の中の所定の記号の位置およびサイズに応じて、文字領域を設定してもよい。例えば、二次元バーコードを印字したボードを持たせた被写体を撮影する。図9は、二次元バーコード47を含むボードを撮影した撮影画像50を示す図である。文字領域設定部6は、撮影画像の中の二次元バーコード47を検出し、二次元バーコードを中心として、例えば二次元バーコードの大きさの高さ方向に2倍かつ幅方向に3倍の領域を文字領域として設定してもよい。また、倍率の情報またはボードの色等の情報を二次元バーコードに含ませることもできる。なお、文字領域設定部6は、撮影画像中の二次元バーコードをその周囲の色で上書きして、図8のように文字領域を無地にする。また、二次元バーコードに限らず、傾き(方向)と大きさとを判別可能な所定の記号をボードに付しておき、該記号に基づいて文字領域を設定することもできる。   The character area setting unit 6 may set the character area according to the position and size of a predetermined symbol in the captured image. For example, a subject having a board on which a two-dimensional barcode is printed is photographed. FIG. 9 is a diagram illustrating a captured image 50 obtained by capturing a board including the two-dimensional barcode 47. The character area setting unit 6 detects the two-dimensional barcode 47 in the photographed image and, for example, doubles in the height direction of the two-dimensional barcode and triples in the width direction with the two-dimensional barcode as the center. May be set as a character area. Further, information such as magnification or information such as board color can be included in the two-dimensional barcode. Note that the character area setting unit 6 overwrites the two-dimensional barcode in the captured image with the surrounding color to make the character area plain as shown in FIG. In addition to the two-dimensional barcode, a predetermined symbol that can discriminate the inclination (direction) and size is attached to the board, and a character region can be set based on the symbol.

また、文字領域を手動で設定してもよい。例えば、文字領域設定部6は、英単語学習アプリの提供者の指示を受け付け、その指示に基づいて矩形の文字領域を設定してもよい。   Also, the character area may be set manually. For example, the character area setting unit 6 may receive an instruction from the provider of the English word learning application and set a rectangular character area based on the instruction.

文字列配置部7は、データベース5から、撮影画像と、該撮影画像に対応する、文字領域の情報および英単語とを取得する。文字列配置部7は、文字領域に収まるように、英単語を配置する。例えば、文字列配置部7は、英単語「delicious」を示す文字列画像(背景は透明)を、文字領域の高さおよび幅に合うように(収まるように)拡大縮小する。文字列配置部7は、英単語の文字列画像を、矩形の文字領域の傾きに合わせて傾けて、撮影画像に合成し、ボード(文字領域)の位置に英単語の文字が合成された合成画像を生成する。文字列配置部7は、英単語の文字が合成された合成画像(英単語画像)を、英単語および文字領域の情報と対応付けてデータベース5に記憶させる。なお、文字列配置部7は、撮影画像の文字領域の色に応じて合成する文字列の色を決定してもよい。   The character string arrangement unit 7 acquires a captured image, character area information and English words corresponding to the captured image from the database 5. The character string arrangement unit 7 arranges English words so as to fit in the character area. For example, the character string arrangement unit 7 enlarges / reduces the character string image (background is transparent) indicating the English word “delicious” so as to match (contain) the height and width of the character area. The character string arrangement unit 7 synthesizes the character string image of the English word according to the inclination of the rectangular character region, combines it with the photographed image, and combines the English word character at the position of the board (character region). Generate an image. The character string arrangement unit 7 stores a synthesized image (English word image) obtained by synthesizing English word characters in the database 5 in association with English word and character area information. The character string arrangement unit 7 may determine the color of the character string to be synthesized according to the color of the character area of the captured image.

通信部8は、ユーザ端末3の要求に応じて、英単語画像を、対応付けられた情報(英単語、その訳語、および文字領域の情報等)と共にユーザ端末3に送信する。通信部8は、英単語学習アプリ自体をユーザ端末3に送信してもよい。   In response to a request from the user terminal 3, the communication unit 8 transmits an English word image to the user terminal 3 together with associated information (such as English words, their translations, and character area information). The communication unit 8 may transmit the English word learning application itself to the user terminal 3.

ユーザ端末3は、記憶部9、送受信部10、操作部(操作入力手段)11、表示制御部(表示制御手段)12、および表示部13を備える。送受信部10、操作部11、および表示制御部12は、ユーザ端末3が備えるメモリおよび演算装置と英単語学習アプリとが協働して機能するものである。   The user terminal 3 includes a storage unit 9, a transmission / reception unit 10, an operation unit (operation input unit) 11, a display control unit (display control unit) 12, and a display unit 13. The transmission / reception unit 10, the operation unit 11, and the display control unit 12 function in cooperation with the memory and arithmetic device provided in the user terminal 3 and the English word learning application.

記憶部9は、主として複数の英単語画像を、対応付けられた情報(英単語、その訳語、および文字領域の情報等)と共に対応付けて記憶する。また、記憶部9は、英単語の文字列を隠すための遮蔽画像を記憶する。   The storage unit 9 mainly stores a plurality of English word images in association with associated information (such as English words, their translations, and character area information). In addition, the storage unit 9 stores a shielding image for hiding a character string of English words.

送受信部10は、サーバ2に新たな英単語画像(新着単語)があるか否かを問い合わせ、あれば新たな英単語画像をサーバ2からダウンロードする。送受信部10は、サーバ2から取得した英単語画像および対応付けられた情報(英単語、その訳語、および文字領域の情報等)を、記憶部9に記憶させる。   The transmission / reception unit 10 inquires of the server 2 whether there is a new English word image (new word), and if there is, downloads a new English word image from the server 2. The transmission / reception unit 10 causes the storage unit 9 to store the English word image acquired from the server 2 and the associated information (such as English words, their translations, and character area information).

操作部11は、ユーザ端末3の表示画面に重ねて設けられたタッチパネル(図示せず)を有する。操作部11は、タッチパネルからの入力を受け付け、ユーザによる操作の情報を表示制御部12に出力する。   The operation unit 11 has a touch panel (not shown) provided so as to overlap the display screen of the user terminal 3. The operation unit 11 receives an input from the touch panel and outputs information on an operation by the user to the display control unit 12.

表示制御部12は、表示画面を備える表示部13を制御して、表示部13の表示画面に図2〜図7に示すような画像を表示させる。表示制御部12の詳細な動作は後述する。   The display control unit 12 controls the display unit 13 having a display screen to display images as shown in FIGS. 2 to 7 on the display screen of the display unit 13. Detailed operation of the display control unit 12 will be described later.

(英単語画像の生成)
図10は、サーバ2による英単語画像の生成処理フローを示すフローチャートである。
(English word image generation)
FIG. 10 is a flowchart showing a processing flow for generating English word images by the server 2.

例えば、英単語学習アプリの提供者(サービス提供者)は、英単語を合成するための人物画像を撮影し、撮影画像を英単語等の情報に対応付けてデータベース5に登録する。なお、撮影の際、例えば無地の黒板等のボードを人物に持たせて撮影する。   For example, a provider (service provider) of an English word learning application captures a person image for synthesizing English words, and registers the captured image in the database 5 in association with information such as English words. When shooting, for example, a person holds a board such as a plain blackboard.

文字領域設定部6は、データベース5から撮影画像を取得し、無地の矩形領域を検出し、検出した矩形領域を文字領域として設定する(S1)。   The character area setting unit 6 acquires a captured image from the database 5, detects a plain rectangular area, and sets the detected rectangular area as a character area (S1).

文字列配置部7は、設定された文字領域に収まるように英単語の文字列画像の大きさを調整し、撮影画像に英単語の文字列画像を合成する(S2)。   The character string arrangement unit 7 adjusts the size of the character string image of the English word so as to fit in the set character region, and synthesizes the character string image of the English word with the photographed image (S2).

合成された画像(英単語画像)は、ユーザ端末3の要求に応じてユーザ端末3に送信される。   The synthesized image (English word image) is transmitted to the user terminal 3 in response to a request from the user terminal 3.

(学習モードにおける処理)
図11は、ユーザ端末3による学習モードにおける処理フローを示すフローチャートである。
(Processing in learning mode)
FIG. 11 is a flowchart showing a processing flow in the learning mode by the user terminal 3.

ここでは、ユーザ端末3の記憶部9が記憶する英単語画像は、英単語の文字列が撮影画像に既に合成されたものである。   Here, the English word image stored in the storage unit 9 of the user terminal 3 is a character string of an English word already synthesized with the photographed image.

学習モードにおいて、図5に示すような画面表示を行う場合、表示制御部12は、英単語画像のレイヤの文字領域に遮蔽画像のレイヤを重ねることにより、英単語の文字列を隠して(非表示状態にして)英単語画像を表示画面に表示させる(S11)。なお、表示制御部12は、遮蔽画像の大きさを、文字領域の大きさに合わせて調節して、文字領域に重ねる。   When the screen display as shown in FIG. 5 is performed in the learning mode, the display control unit 12 hides the character string of the English word by overlaying the shielding image layer on the character area of the English word image layer (non-display). An English word image is displayed on the display screen (in a display state) (S11). Note that the display control unit 12 adjusts the size of the occlusion image in accordance with the size of the character region and overlays the character region.

操作部11は、ユーザによる操作を受け付ける(S12)。操作部11は、ユーザがタッチパネルをタッチした場合、タッチした位置の情報を表示制御部12に出力する。   The operation unit 11 receives an operation by the user (S12). When the user touches the touch panel, the operation unit 11 outputs information on the touched position to the display control unit 12.

ユーザが表示画面上の画像の遮蔽画像の部分(文字領域の部分)をタッチした場合、表示制御部12は、遮蔽画像のレイヤにおいて、ユーザがタッチした位置に対応した部分の遮蔽画像の透明度を上昇させる(S13)。これにより、図6に示すように英単語画像のレイヤの英単語の文字列の少なくとも一部が表示状態になるようにする。表示制御部12は、ユーザの操作量に応じて透明度を徐々に上げていってもよい。例えば、ユーザが繰り返し遮蔽画像の部分をなぞった場合、その部分の透明度をさらに上げてもよい。また、表示制御部12は、ユーザの操作量に応じて透明にする箇所(面積)を徐々に増加させてもよい。   When the user touches the occlusion image part (character area part) of the image on the display screen, the display control unit 12 sets the transparency of the occlusion image corresponding to the position touched by the user in the occlusion image layer. Increase (S13). Thereby, as shown in FIG. 6, at least a part of the character string of the English words in the English word image layer is displayed. The display control unit 12 may gradually increase the transparency according to the operation amount of the user. For example, when the user repeatedly traces a portion of the occlusion image, the transparency of that portion may be further increased. Further, the display control unit 12 may gradually increase the portion (area) to be transparent according to the operation amount of the user.

本実施形態の学習システム1では、撮影画像の中の英単語を非表示にしておき、ユーザの操作量に応じて徐々に(段階的に)英単語を表示させることができる。このような表示の演出により、学習効果を高めることができる。また、学習システム1は、英単語が被写体と共に撮影されているかのように、設定された文字領域に英単語を表示することができる。そのため、ユーザの画像(英単語画像)への興味を惹き、ひいてはユーザの学習意欲を高めることができる。また、学習システム1は、撮影画像と文字列とを合成した画像を用いるので、既に撮影した撮影画像に別の文字列を合成して別の英単語画像を作成することもできる。そのため、新たに別の文字列と共に被写体を撮影することなく、英単語画像のバリエーションを増やすことができる。   In the learning system 1 of the present embodiment, the English words in the captured image are hidden, and the English words can be displayed gradually (stepwise) according to the operation amount of the user. Such a display effect can enhance the learning effect. Moreover, the learning system 1 can display the English words in the set character area as if the English words were photographed together with the subject. Therefore, it is possible to attract the user's interest in the image (English word image), and to increase the user's willingness to learn. Moreover, since the learning system 1 uses an image obtained by combining a captured image and a character string, it can also generate another English word image by combining another character string with the captured image that has already been captured. Therefore, it is possible to increase variations of English word images without photographing a subject with another character string.

<変形例>
なお、矩形の文字領域を設定する場合について説明したが、矩形に限らず、文字領域は、任意の形状の領域、例えば台形領域、扇形領域、多角形の領域、または円形(楕円)領域とすることもできる。また例えば、半径が異なる同心の2つの円弧と、その円の中心を通る2つの直線とで規定される扇状の領域を文字領域とすることもできる。
<Modification>
In addition, although the case where the rectangular character area was set was described, the character area is not limited to a rectangle, and the character area may be an arbitrary shape area, for example, a trapezoid area, a sector area, a polygon area, or a circular (elliptical) area. You can also. Further, for example, a fan-shaped area defined by two concentric arcs having different radii and two straight lines passing through the center of the circle can be used as the character area.

なお、表示制御部(提示制御手段)12は、図5に示すように、英単語の訳語を英単語画像と共に表示してもよいし、英単語の訳語を表示した後で、英単語画像のみを表示してもよい。また、ユーザ端末3は、英単語の訳語を、音声等によってユーザに提示する提示制御部を備えていてもよい。   As shown in FIG. 5, the display control unit (presentation control means) 12 may display the English word translation together with the English word image, or after displaying the English word translation, only the English word image is displayed. May be displayed. In addition, the user terminal 3 may include a presentation control unit that presents translated words of English words to the user by voice or the like.

なお、学習モードにおいて、英単語を非表示にした状態で、ユーザに解答(提示された訳語に対する英単語)を入力させる、または解答の選択肢を選択させ、表示制御部は、その結果(正否)を判定し、ユーザが学習できたか否かを判定してもよい。そして、例えば正答した場合に特典を付与してもよい。特典は、例えば、英単語画像とは別の画像を閲覧可能にしたり、解像度が高い英単語画像を閲覧可能にしたり、あるいは、次回以降、学習モードでその英単語画像の遮蔽領域をなくしてもよい。または、正答した場合に初めて、その英単語(英単語またはその訳語)が単語帳の単語リストに現れるようにしてもよい。ここで、特典として解像度が高い英単語画像(撮影画像)を閲覧可能にする場合、低解像度の英単語画像と、それに対応する高解像度の英単語画像(撮影画像)とをサーバから取得して記憶部9に記憶させておき、表示制御部は、学習モードではあらかじめ低解像度の英単語画像を表示する制御を行い、正答した場合に高解像度の英単語画像(撮影画像)を閲覧可能にしてもよい。   In the learning mode, with the English word hidden, the user inputs an answer (English word for the presented translated word) or selects an answer option, and the display control unit determines the result (correct or incorrect). It may be determined whether or not the user has learned. For example, when a correct answer is given, a privilege may be given. For example, it is possible to view an image different from the English word image, to enable a high resolution English word image to be browsed, or to eliminate the shielding area of the English word image in the learning mode after the next time. Good. Alternatively, the English word (English word or its translation) may appear in the word list of the word book only when the answer is correct. Here, when it is possible to browse English word images (photographed images) with high resolution as a privilege, a low-resolution English word image and a corresponding high-resolution English word image (photographed image) are acquired from the server. In the learning mode, the display control unit controls the display of the low-resolution English word image in advance, and when the answer is correct, the high-resolution English word image (captured image) can be viewed. Also good.

また、上記ではユーザのタッチ位置に応じて非表示状態の英単語の一部を表示状態に変更したが、他の操作に応じて非表示状態の英単語の一部を表示状態にしてもよい。例えば、表示制御部は、ユーザ端末3を振る回数、またはユーザ端末3の所定のボタンの連打(選択)回数に応じて英単語を徐々に表示状態にするよう表示制御してもよい。   Further, in the above, a part of the non-displayed English word is changed to the display state according to the touch position of the user, but a part of the non-displayed English word may be displayed according to other operations. . For example, the display control unit may perform display control so that English words are gradually displayed according to the number of times the user terminal 3 is shaken or the number of times the user terminal 3 is repeatedly pressed (selected).

なお、上記では、英単語の学習システムを例に挙げて説明しているが、これに限らず、撮影画像と任意の文字列とを組合わせることができる。   In the above description, the learning system for English words is described as an example. However, the present invention is not limited to this, and a photographed image and an arbitrary character string can be combined.

[実施形態2]
本実施形態では、英単語画像の他の生成方法について説明する。なお、説明の便宜上、実施形態1にて説明した図面と同じ機能を有する部材・構成については、同じ符号を付記し、その詳細な説明を省略する。以下、本実施形態について、図面を参照して詳細に説明する。
[Embodiment 2]
In the present embodiment, another method for generating English word images will be described. For convenience of explanation, members / configurations having the same functions as those in the drawings described in the first embodiment are given the same reference numerals, and detailed descriptions thereof are omitted. Hereinafter, the present embodiment will be described in detail with reference to the drawings.

学習システム1の構成は、図1に示す実施形態1のものと同様である。本実施形態では、特に文字列配置部7および表示制御部12における処理が異なる。   The configuration of the learning system 1 is the same as that of the first embodiment shown in FIG. In the present embodiment, the processes in the character string arrangement unit 7 and the display control unit 12 are particularly different.

(サーバにおける処理)
図12は、サーバ2による処理フローを示すフローチャートである。
(Processing on the server)
FIG. 12 is a flowchart showing a processing flow by the server 2.

文字領域設定部6は、実施形態1と同様に、データベース5から撮影画像を取得し、無地の矩形領域を検出し、検出した矩形領域を文字領域として設定する(S21)。   As in the first embodiment, the character area setting unit 6 acquires a captured image from the database 5, detects a plain rectangular area, and sets the detected rectangular area as a character area (S21).

文字列配置部7は、設定された文字領域に収まるように英単語の文字列の大きさ、位置、および傾きを調整した文字列画像を生成する(S22)。ここで、文字列画像の背景は透明である。この時点では、英単語を示す文字列画像と、文字領域が設定された撮影画像とは合成されていない。   The character string arrangement unit 7 generates a character string image in which the size, position, and inclination of the character string of the English word are adjusted so as to fit in the set character area (S22). Here, the background of the character string image is transparent. At this time, the character string image indicating the English word and the captured image in which the character area is set are not synthesized.

通信部8は、ユーザ端末3の要求に応じて、撮影画像と、それに対応する文字列画像とをユーザ端末3に送信する。   The communication unit 8 transmits the captured image and the corresponding character string image to the user terminal 3 in response to a request from the user terminal 3.

(ユーザ端末における処理)
図13は、ユーザ端末3による学習モードにおける処理フローを示すフローチャートである。
(Processing at user terminal)
FIG. 13 is a flowchart illustrating a processing flow in the learning mode by the user terminal 3.

ここでは、ユーザ端末3の記憶部9は、撮影画像と、それに対応する英単語の文字列画像とを記憶している。   Here, the memory | storage part 9 of the user terminal 3 has memorize | stored the picked-up image and the character string image of the English word corresponding to it.

本実施形態では、表示制御部12は、撮影画像のレイヤに英単語の文字列画像のレイヤを重ね、文字列画像の文字列を透明にすることにより、英単語の文字列を非表示状態にして撮影画像を表示画面に表示させる(S31)。   In the present embodiment, the display control unit 12 puts the character string of the English word into a non-display state by overlaying the layer of the character string image of the English word on the layer of the captured image and making the character string of the character string image transparent. The photographed image is displayed on the display screen (S31).

操作部11は、ユーザによる操作を受け付ける(S32)。操作部11は、ユーザがタッチパネルをタッチした場合、タッチした位置の情報を表示制御部12に出力する。   The operation unit 11 receives an operation by the user (S32). When the user touches the touch panel, the operation unit 11 outputs information on the touched position to the display control unit 12.

ユーザが表示画面上の画像の非表示状態の文字列の部分(または文字領域の部分)をタッチした場合、表示制御部12は、文字列画像のレイヤにおいて、ユーザがタッチした位置に対応した部分の文字列の透明度を低下させる(S33)。これにより、英単語の文字列の少なくとも一部が表示状態になるようにする。   When the user touches a non-displayed character string portion (or character region portion) of the image on the display screen, the display control unit 12 corresponds to the position touched by the user in the character string image layer. The transparency of the character string is reduced (S33). Thereby, at least a part of the character string of the English words is displayed.

このように、文字列のレイヤの透明度を変更することにより、文字列の表示/非表示を切り替えてもよい。   In this manner, the display / non-display of the character string may be switched by changing the transparency of the character string layer.

[実施形態3]
本実施形態では、ユーザ自身がユーザ端末を用いて単語帳を作成する形態について説明する。なお、説明の便宜上、実施形態1にて説明した図面と同じ機能を有する部材・構成については、同じ符号を付記し、その詳細な説明を省略する。以下、本実施形態について、図面を参照して詳細に説明する。
[Embodiment 3]
In this embodiment, a mode in which a user himself creates a word book using a user terminal will be described. For convenience of explanation, members / configurations having the same functions as those in the drawings described in the first embodiment are given the same reference numerals, and detailed descriptions thereof are omitted. Hereinafter, the present embodiment will be described in detail with reference to the drawings.

図14は、本実施形態の学習システムの構成を示す概略的なブロック図である。学習システムは、ユーザ端末14によって構成される。ユーザ端末14は、文字領域設定部6、文字列配置部7、記憶部9、操作部11、表示制御部12、および表示部13を備える。文字領域設定部6、文字列配置部7、操作部11、および表示制御部12は、ユーザ端末14が備えるメモリおよび演算装置と英単語学習アプリとが協働して機能するものである。   FIG. 14 is a schematic block diagram showing the configuration of the learning system of the present embodiment. The learning system is configured by the user terminal 14. The user terminal 14 includes a character area setting unit 6, a character string arrangement unit 7, a storage unit 9, an operation unit 11, a display control unit 12, and a display unit 13. The character area setting unit 6, the character string arrangement unit 7, the operation unit 11, and the display control unit 12 function in cooperation with the memory and arithmetic device provided in the user terminal 14 and the English word learning application.

(ユーザ端末における処理)
図15は、ユーザ端末14における処理フローを示すフローチャートである。
(Processing at user terminal)
FIG. 15 is a flowchart showing a processing flow in the user terminal 14.

例えば、ユーザは、ユーザ端末14が備えるカメラを用いる等して、英単語を合成するための撮影画像を準備する。   For example, the user prepares a captured image for synthesizing English words by using a camera included in the user terminal 14.

文字領域設定部6は、撮影画像を取得し、ユーザに文字領域の指定をさせ、撮影画像に対して文字領域を設定する(S41)。例えば、矩形領域の3隅または4隅の点をユーザに入力させることにより、文字領域設定部6は、矩形領域を特定し、該矩形領域を文字領域として設定することができる。また、例えば、あらかじめ位置および大きさが決められた複数の矩形領域から、撮影画像に合う矩形領域をユーザに選択させることにより、選択された矩形領域を文字領域として設定することができる。なお、実施形態1のように、文字領域設定部6が、無地の矩形領域を検出して文字領域を設定してもよい。   The character area setting unit 6 acquires a captured image, causes the user to specify a character area, and sets a character area for the captured image (S41). For example, the character area setting unit 6 can specify a rectangular area and set the rectangular area as a character area by allowing the user to input points at three or four corners of the rectangular area. Further, for example, the user can select a rectangular area that matches the captured image from a plurality of rectangular areas whose positions and sizes are determined in advance, so that the selected rectangular area can be set as a character area. Note that, as in the first embodiment, the character area setting unit 6 may detect a plain rectangular area and set the character area.

文字列配置部7は、ユーザから撮影画像に対応する英単語の指定を受け付け、設定された文字領域に収まるように指定された英単語の文字列画像の大きさを調整し、撮影画像に英単語の文字列画像を合成する(S42)。合成された画像は、英単語画像の1つとして記憶部9に記憶される。なお、英単語画像に対応する日本語の訳語もユーザの入力に応じて設定すればよい。学習モードにおける処理は、実施形態1と同様である。   The character string arrangement unit 7 receives designation of an English word corresponding to the photographed image from the user, adjusts the size of the character string image of the designated English word so as to fit in the set character region, and A character string image of words is synthesized (S42). The synthesized image is stored in the storage unit 9 as one of English word images. A Japanese translation corresponding to an English word image may be set according to the user's input. The processing in the learning mode is the same as that in the first embodiment.

ユーザはこのようにして、ユーザ端末14上において、単語帳に英単語画像を追加することができる。これにより、ユーザは、撮影した人物画像に限らず、ユーザの好みの画像(例えば、料理の写真、または好きなアイドルの写真等)を英単語と組合わせて、ユーザの好みの英単語帳を作成することができる。   In this way, the user can add an English word image to the word book on the user terminal 14. In this way, the user combines not only the photographed person image but also the user's favorite image (for example, a dish photo or a favorite idol photo) with the English word, and the user's favorite English word book Can be created.

なお、このようにユーザが作成した単語帳または英単語画像を、通信によってユーザ端末14間で他のユーザに送信できるようにすることもできる。また、サーバに単語帳または英単語画像を投稿させ、サーバ上で特定ユーザに配信するようにすることもできる。   It is also possible to transmit the word book or English word image created by the user in this way to other users between the user terminals 14 by communication. In addition, a word book or English word image can be posted on the server and distributed to a specific user on the server.

[実施形態4]
本実施形態では、ユーザから画像の投稿を受け付けたサーバが単語帳を作成する形態について説明する。なお、説明の便宜上、実施形態1にて説明した図面と同じ機能を有する部材・構成については、同じ符号を付記し、その詳細な説明を省略する。以下、本実施形態について、図面を参照して詳細に説明する。
[Embodiment 4]
In the present embodiment, a mode in which a server that accepts an image posting from a user creates a word book will be described. For convenience of explanation, members / configurations having the same functions as those in the drawings described in the first embodiment are given the same reference numerals, and detailed descriptions thereof are omitted. Hereinafter, the present embodiment will be described in detail with reference to the drawings.

図16は、本実施形態の学習システム15の構成を示す概略的なブロック図である。学習システム15は、サーバ16とユーザ端末17とを含んで構成される。サーバ16は、データベース5、文字領域設定部6、文字列配置部7、通信部8、表示制御部12、および操作入力部18を備える。ユーザ端末17は、記憶部9、送受信部10、操作部11、および表示部13を備える。   FIG. 16 is a schematic block diagram showing the configuration of the learning system 15 of the present embodiment. The learning system 15 includes a server 16 and a user terminal 17. The server 16 includes a database 5, a character area setting unit 6, a character string arrangement unit 7, a communication unit 8, a display control unit 12, and an operation input unit 18. The user terminal 17 includes a storage unit 9, a transmission / reception unit 10, an operation unit 11, and a display unit 13.

(学習システムにおける処理)
図17は、サーバ16による処理フローを示すフローチャートである。
(Processing in the learning system)
FIG. 17 is a flowchart showing a processing flow by the server 16.

サーバ16は、ユーザから、撮影画像の投稿を受け付ける(S51)。具体的には、ユーザ端末17の送受信部10は、記憶部9から撮影画像を取得し、サーバ16に送信する。サーバ16の通信部8は、撮影画像を受信し、文字領域設定部6に受信した撮影画像を出力する。   The server 16 accepts a posted image from the user (S51). Specifically, the transmission / reception unit 10 of the user terminal 17 acquires a captured image from the storage unit 9 and transmits it to the server 16. The communication unit 8 of the server 16 receives the captured image and outputs the received captured image to the character area setting unit 6.

文字領域設定部6は、通信部8を介して、文字領域の指定をユーザ端末17から受け付ける(S52)。例えば、文字領域設定部6は、あらかじめ位置および大きさが決められた複数の矩形領域から、撮影画像に合う矩形領域をユーザに選択させることにより、選択された矩形領域を文字領域として設定することができる。また、例えば、文字領域設定部6は、撮影画像をwebページとしてユーザ端末17に提供し、webページ上で矩形領域を指定させることにより、文字領域の指定を受け付けてもよい。文字領域設定部6は、撮影画像に対して文字領域を設定し、データベース5に登録する(S53)。   The character area setting unit 6 receives the designation of the character area from the user terminal 17 via the communication unit 8 (S52). For example, the character area setting unit 6 sets the selected rectangular area as the character area by causing the user to select a rectangular area that matches the captured image from a plurality of rectangular areas whose positions and sizes are determined in advance. Can do. In addition, for example, the character area setting unit 6 may accept the designation of the character area by providing the captured image as a web page to the user terminal 17 and designating a rectangular area on the web page. The character area setting unit 6 sets a character area for the photographed image and registers it in the database 5 (S53).

文字列配置部7は、設定された文字領域に収まるように英単語の文字列画像の大きさを調整し、撮影画像に英単語の文字列画像を合成する(S54)。なお、撮影画像に対応付ける英単語は、ユーザによって指定されたものでもよいし、文字列配置部7がデータベース5の中から任意に選んでもよい。文字列配置部7は、合成した画像(英単語画像)を、データベース5に記憶させる。このようにして、ユーザによる画像の投稿を受け付けて、サーバ16に単語帳が作成される。   The character string arrangement unit 7 adjusts the size of the character string image of the English word so as to fit in the set character region, and synthesizes the character string image of the English word with the photographed image (S54). Note that the English word associated with the captured image may be designated by the user, or the character string arrangement unit 7 may arbitrarily select from the database 5. The character string arrangement unit 7 stores the synthesized image (English word image) in the database 5. In this way, the posting of the image by the user is accepted and a word book is created in the server 16.

サーバ16は、英単語画像をwebページとして特定の(認証された)ユーザに提供する。   The server 16 provides the English word image to a specific (authenticated) user as a web page.

表示制御部12は、通信部8を介して、ユーザ端末17の表示部13に英単語画像を表示させる。例えば、英単語の文字列を非表示状態にして英単語画像をユーザ端末17の表示部13に表示させるために、表示制御部12は、文字領域に遮蔽画像を重ねて合成した英単語画像を、通信部8を介してユーザ端末17に送信する(S55)。   The display control unit 12 displays an English word image on the display unit 13 of the user terminal 17 via the communication unit 8. For example, in order to display the English word image on the display unit 13 of the user terminal 17 with the character string of the English word hidden, the display control unit 12 displays the English word image synthesized by overlaying the shielding image on the character region. Then, the data is transmitted to the user terminal 17 via the communication unit 8 (S55).

ユーザ端末17の操作部11は、ユーザによる操作を受け付ける。操作部11は、ユーザがタッチパネルをタッチした場合、タッチした位置の情報を、送受信部10を介してサーバ16に送信する。   The operation unit 11 of the user terminal 17 receives a user operation. When the user touches the touch panel, the operation unit 11 transmits information on the touched position to the server 16 via the transmission / reception unit 10.

サーバ16の操作入力部18は、通信部8を介して、ユーザ端末17からユーザによる操作の情報を受け付ける(S56)。操作入力部18は、ユーザによる操作の情報を表示制御部12に出力する。   The operation input unit 18 of the server 16 receives information on an operation by the user from the user terminal 17 via the communication unit 8 (S56). The operation input unit 18 outputs operation information by the user to the display control unit 12.

ユーザが表示画面上の画像の遮蔽画像の部分(文字領域の部分)をタッチした場合、表示制御部12は、遮蔽画像のレイヤにおいて、ユーザがタッチした位置に対応した部分の遮蔽画像の透明度を上昇させた画像を、通信部8を介してユーザ端末17に送信する(S57)。これにより、表示制御部12は、ユーザ端末17の表示部13に、英単語の文字列の少なくとも一部が表示状態になった英単語画像を表示させる。   When the user touches the occlusion image part (character area part) of the image on the display screen, the display control unit 12 sets the transparency of the occlusion image corresponding to the position touched by the user in the occlusion image layer. The raised image is transmitted to the user terminal 17 via the communication unit 8 (S57). Thereby, the display control unit 12 causes the display unit 13 of the user terminal 17 to display the English word image in which at least a part of the character string of the English word is in the display state.

本実施形態では、ユーザの投稿した撮影画像を元に、英単語画像を作成することができる。そのため、バラエティに富んだ英単語画像をユーザに提供することができる。ユーザに文字領域を指定させるので、ユーザは撮影画像として任意の物体が写った画像を用いることができる。   In the present embodiment, an English word image can be created based on a photographed image posted by the user. Therefore, a variety of English word images can be provided to the user. Since the user designates a character area, the user can use an image in which an arbitrary object is captured as a captured image.

[プログラムおよび記録媒体]
最後に、サーバ2、16、ユーザ端末3、14、17の各ブロック、特に文字領域設定部6、文字列配置部7、操作部11、表示制御部12、および操作入力部18は、ハードウェアロジックによって構成してもよいし、次のようにCPU(central processing unit)を用いてソフトウェアによって実現してもよい。
[Program and recording medium]
Finally, each block of the servers 2 and 16 and the user terminals 3, 14, and 17, particularly the character area setting unit 6, the character string arrangement unit 7, the operation unit 11, the display control unit 12, and the operation input unit 18 You may comprise by a logic and may implement | achieve by software using CPU (central processing unit) as follows.

すなわち、サーバ2、16、およびユーザ端末3、14、17は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるサーバ2、16、およびユーザ端末3、14、17の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記サーバ2、16、およびユーザ端末3、14、17に供給し、そのコンピュータ(またはCPUやMPU(microprocessor unit))が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the servers 2 and 16 and the user terminals 3, 14, and 17 include a CPU that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, and a RAM ( random access memory), a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is to program the program codes (execution format program, intermediate code program, source program) of the control programs of the servers 2 and 16 and the user terminals 3, 14, and 17 that are software that realize the above-described functions. Is supplied to the servers 2 and 16 and the user terminals 3, 14, and 17, and the computer (or CPU or MPU (microprocessor unit)) is recorded on the recording medium. This can also be achieved by reading out and executing.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(compact disc read-only memory)/MO(magneto-optical)/MD(Mini Disc)/DVD(digital versatile disk)/CD−R(CD Recordable)等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM(erasable programmable read-only memory)/EEPROM(electrically erasable and programmable read-only memory)/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, a CD-ROM (compact disc read-only memory) / MO (magneto-optical) / Disk systems including optical disks such as MD (Mini Disc) / DVD (digital versatile disk) / CD-R (CD Recordable), card systems such as IC cards (including memory cards) / optical cards, or mask ROM / EPROM ( An erasable programmable read-only memory) / EEPROM (electrically erasable and programmable read-only memory) / semiconductor memory system such as a flash ROM can be used.

また、サーバ2、16、およびユーザ端末3、14、17を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN(local area network)、ISDN(integrated services digital network)、VAN(value-added network)、CATV(community antenna television)通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE(institute of electrical and electronic engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(asynchronous digital subscriber loop)回線等の有線でも、IrDA(infrared data association)やリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR(high data rate)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。   Further, the servers 2 and 16 and the user terminals 3, 14 and 17 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN (local area network), ISDN (integrated services digital network), VAN (value-added network), CATV (community antenna television) communication. A network, a virtual private network, a telephone line network, a mobile communication network, a satellite communication network, etc. can be used. In addition, the transmission medium constituting the communication network is not particularly limited. For example, IEEE (institute of electrical and electronic engineers) 1394, USB, power line carrier, cable TV line, telephone line, ADSL (asynchronous digital subscriber loop) line Wireless such as IrDA (infrared data association) and remote control such as remote control, Bluetooth (registered trademark), 802.11 wireless, HDR (high data rate), mobile phone network, satellite line, terrestrial digital network, etc. But it is available.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、サーバおよびユーザ端末を含む学習システムに利用することができる。   The present invention can be used for a learning system including a server and a user terminal.

1、15 学習システム(画像表示システム)
2、16 サーバ(画像表示システム)
3、14、17 ユーザ端末(画像表示システム)
4 ネットワーク
5 データベース
6 文字領域設定部(設定手段)
7 文字列配置部(文字列配置手段)
8 通信部
9 記憶部
10 送受信部
11 操作部(操作入力手段)
12 表示制御部(表示制御手段、提示制御手段)
13 表示部
18 操作入力部(操作入力手段)
20 表示画面
1,15 Learning system (image display system)
2,16 server (image display system)
3, 14, 17 User terminal (image display system)
4 Network 5 Database 6 Character area setting part (setting means)
7 Character string arrangement part (character string arrangement means)
8 Communication unit 9 Storage unit 10 Transmission / reception unit 11 Operation unit (operation input means)
12 Display control unit (display control means, presentation control means)
13 Display unit 18 Operation input unit (operation input means)
20 Display screen

Claims (15)

撮影画像に応じて第1文字列が対応付けられており、
上記撮影画像において対応する上記第1文字列を表示する文字領域を、上記撮影画像毎に設定する設定手段と、
上記文字領域に収まるように対応する上記第1文字列の大きさを調節し、上記第1文字列を上記文字領域に配置する文字列配置手段と、
上記第1文字列および上記撮影画像の表示を制御する表示制御手段と、
ユーザによる操作を受け付ける操作入力手段とを含み、
上記表示制御手段は、上記第1文字列を非表示状態にして上記撮影画像を表示した後、上記操作入力手段が受け付けたユーザによる操作量に応じて、上記撮影画像の中の上記第1文字列を非表示状態から表示状態に変化させる制御を行うことを特徴とする画像表示システム。
The first character string is associated with the captured image,
Setting means for setting, for each of the captured images, a character area for displaying the corresponding first character string in the captured image;
Adjusting the size of the corresponding first character string so as to fit in the character area, and placing the first character string in the character area;
Display control means for controlling display of the first character string and the captured image;
An operation input means for receiving an operation by a user,
The display control means displays the photographed image with the first character string in a non-display state, and then displays the first character in the photographed image according to the operation amount by the user received by the operation input means. An image display system that performs control to change a column from a non-display state to a display state.
上記表示制御手段は、ユーザによる特定の操作の繰り返しに応じた分の上記第1文字列の一部を、上記撮影画像上に表示させる制御を行うことを特徴とする請求項1に記載の画像表示システム。   The image according to claim 1, wherein the display control unit performs control to display a part of the first character string corresponding to repetition of a specific operation by a user on the captured image. Display system. 上記操作入力手段は、表示画面上をタッチ操作可能なタッチパネルを備え、
上記表示制御手段は、タッチされた位置の上記第1文字列の一部を上記撮影画像上に表示させる制御を行うことを特徴とする請求項1または2に記載の画像表示システム。
The operation input means includes a touch panel capable of touch operation on the display screen,
The image display system according to claim 1, wherein the display control unit performs control to display a part of the first character string at the touched position on the photographed image.
上記文字領域は矩形の領域であり、
上記文字領域が傾いている場合、上記文字列配置手段は、上記文字領域の傾きに合わせて上記第1文字列を傾けて上記文字領域に配置することを特徴とする請求項1から3のいずれか一項に記載の画像表示システム。
The character area is a rectangular area,
4. When the character area is inclined, the character string arrangement means arranges the first character string in the character area in accordance with the inclination of the character area. The image display system according to claim 1.
上記文字列配置手段は、上記撮影画像上に上記第1文字列を合成した合成画像を生成し、
上記表示制御手段は、上記合成画像の上記文字領域に遮蔽画像を重ねて表示させる制御を行うことにより、上記第1文字列を非表示状態にすることを特徴とする請求項1から4のいずれか一項に記載の画像表示システム。
The character string arrangement means generates a composite image obtained by combining the first character string on the photographed image,
5. The display control unit according to claim 1, wherein the display control unit makes the first character string in a non-display state by performing a control to display a shielding image superimposed on the character region of the composite image. The image display system according to claim 1.
上記表示制御手段は、上記操作入力手段が受け付けたユーザによる操作に応じて上記遮蔽画像の透明度を上昇させることにより、上記撮影画像上に上記第1文字列を徐々に表示させることを特徴とする請求項5に記載の画像表示システム。   The display control means gradually displays the first character string on the captured image by increasing the transparency of the shielding image in accordance with an operation by the user received by the operation input means. The image display system according to claim 5. 上記表示制御手段は、上記撮影画像を含むレイヤに上記第1文字列を含むレイヤを重ねて表示する制御を行い、上記第1文字列を透明にすることにより、上記第1文字列を非表示状態にすることを特徴とする請求項1から4のいずれか一項に記載の画像表示システム。   The display control means controls to display the layer including the first character string on the layer including the captured image, and hides the first character string by making the first character string transparent. The image display system according to claim 1, wherein the image display system is in a state. 上記表示制御手段は、上記操作入力手段が受け付けたユーザによる操作に応じて上記第1文字列の透明度を低下させることにより、上記撮影画像上に上記第1文字列を徐々に表示させることを特徴とする請求項7に記載の画像表示システム。   The display control means gradually displays the first character string on the photographed image by reducing the transparency of the first character string in response to an operation by the user accepted by the operation input means. The image display system according to claim 7. 上記設定手段は、上記撮影画像の中の所定の記号の位置およびサイズに基づき、上記文字領域を設定することを特徴とする請求項1から8のいずれか一項に記載の画像表示システム。   The image display system according to any one of claims 1 to 8, wherein the setting unit sets the character region based on a position and a size of a predetermined symbol in the photographed image. 上記設定手段は、上記撮影画像の中の無地の矩形の領域を上記文字領域として設定することを特徴とする請求項1から8のいずれか一項に記載の画像表示システム。   The image display system according to any one of claims 1 to 8, wherein the setting unit sets a plain rectangular area in the photographed image as the character area. サーバとユーザ端末とを含み、
上記サーバは、上記設定手段と上記文字列配置手段とを備え、
上記ユーザ端末は、上記表示制御手段と上記操作入力手段とを備えることを特徴とする請求項1から10のいずれか一項に記載の画像表示システム。
Including a server and a user terminal,
The server includes the setting unit and the character string arrangement unit.
The image display system according to any one of claims 1 to 10, wherein the user terminal includes the display control unit and the operation input unit.
請求項1から11のいずれか一項に記載の画像表示システムを含む学習システムであって、
上記表示制御手段が上記第1文字列を非表示状態にして上記撮影画像を表示させている間またはその前に、上記第1文字列に対応する第2文字列を表示または音声によってユーザに提示する制御を行う提示制御手段を含むことを特徴とする学習システム。
A learning system including the image display system according to any one of claims 1 to 11,
During or before the display control means displays the captured image with the first character string hidden, the second character string corresponding to the first character string is displayed or presented to the user by voice. A learning system comprising presentation control means for performing control.
上記第2文字列は、上記第1文字列の意味を示す文字列であることを特徴とする請求項12に記載の学習システム。   The learning system according to claim 12, wherein the second character string is a character string indicating the meaning of the first character string. 撮影画像に応じて第1文字列が対応付けられており、
上記撮影画像において対応する上記第1文字列を表示する文字領域を、上記撮影画像毎に設定する設定ステップと、
上記文字領域に収まるように対応する上記第1文字列の大きさを調節し、上記第1文字列を上記文字領域に配置する文字列配置ステップと、
上記第1文字列を非表示状態にして上記撮影画像を表示させる第1表示ステップと、
ユーザによる操作を受け付ける操作入力ステップと、
上記操作入力ステップにおけるユーザによる操作量に応じて、上記撮影画像の中の上記第1文字列を非表示状態から表示状態に変化させる第2表示ステップとを含むことを特徴とする画像表示方法。
The first character string is associated with the captured image,
A setting step for setting, for each captured image, a character region for displaying the first character string corresponding to the captured image;
Adjusting the size of the corresponding first character string so that it fits in the character region, and placing the first character string in the character region;
A first display step of displaying the photographed image in a non-display state of the first character string;
An operation input step for accepting an operation by the user;
An image display method comprising: a second display step of changing the first character string in the captured image from a non-display state to a display state according to an operation amount by a user in the operation input step.
撮影画像に応じて第1文字列が対応付けられており、
上記撮影画像において対応する上記第1文字列を表示する文字領域を、上記撮影画像毎に設定する設定ステップと、
上記文字領域に収まるように対応する上記第1文字列の大きさを調節し、上記第1文字列を上記文字領域に配置する文字列配置ステップと、
上記第1文字列を非表示状態にして上記撮影画像を表示させる第1表示ステップと、
ユーザによる操作を受け付ける操作入力ステップと、
上記操作入力ステップにおけるユーザによる操作量に応じて、上記撮影画像の中の上記第1文字列を非表示状態から表示状態に変化させる第2表示ステップとを、コンピュータに実行させる制御プログラム。
The first character string is associated with the captured image,
A setting step for setting, for each captured image, a character region for displaying the first character string corresponding to the captured image;
Adjusting the size of the corresponding first character string so that it fits in the character region, and placing the first character string in the character region;
A first display step of displaying the photographed image in a non-display state of the first character string;
An operation input step for accepting an operation by the user;
A control program for causing a computer to execute a second display step of changing the first character string in the photographed image from a non-display state to a display state according to an operation amount by a user in the operation input step.
JP2011215496A 2011-09-29 2011-09-29 Image display system, learning system, image display method, and control program Active JP5708419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011215496A JP5708419B2 (en) 2011-09-29 2011-09-29 Image display system, learning system, image display method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011215496A JP5708419B2 (en) 2011-09-29 2011-09-29 Image display system, learning system, image display method, and control program

Publications (2)

Publication Number Publication Date
JP2013077075A true JP2013077075A (en) 2013-04-25
JP5708419B2 JP5708419B2 (en) 2015-04-30

Family

ID=48480512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011215496A Active JP5708419B2 (en) 2011-09-29 2011-09-29 Image display system, learning system, image display method, and control program

Country Status (1)

Country Link
JP (1) JP5708419B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045723A (en) * 2014-08-22 2016-04-04 株式会社ニコン Electronic apparatus
JP6059315B1 (en) * 2015-09-18 2017-01-11 ヤフー株式会社 Information display program, information display method, information display device, and distribution device
JP2017009875A (en) * 2015-06-24 2017-01-12 カシオ計算機株式会社 Learning support device and program
WO2020203428A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Medical image transmission system, medical image processing apparatus, and medical image transmission method
KR20210128187A (en) * 2020-04-16 2021-10-26 (주)트루엔 Method and electronic device for displaying video information
US11409849B2 (en) 2017-01-31 2022-08-09 Lima Security Lab Co., Ltd. System, method and program for preventing unauthorized copies of webcomics and tracking replicated webcomics

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01212175A (en) * 1988-02-19 1989-08-25 Ricoh Co Ltd Digital picture forming device
JPH0210474A (en) * 1988-06-29 1990-01-16 Hitachi Ltd Image processor
JP2002062792A (en) * 2000-08-21 2002-02-28 Akio Toshima Memory study system
JP2003179888A (en) * 2001-12-11 2003-06-27 Nec Corp Contents distribution system, distribution server and display terminal for the contents distribution system, and contents distribution program
JP2005004064A (en) * 2003-06-13 2005-01-06 Yamaha Corp Supporting device for acquiring typing skill, language acquisition supporting device, server terminal, and program
JP2006139423A (en) * 2004-11-10 2006-06-01 Nyuuton:Kk Character input determining device and program, and cell phone with this device or program
US20080117448A1 (en) * 2006-11-17 2008-05-22 Money Mailer, Llc Template-based art creation and information management system for advertising
JP2009230431A (en) * 2008-03-21 2009-10-08 Fujifilm Corp Method, device and program for outputting image
JP2010217997A (en) * 2009-03-13 2010-09-30 Omron Corp Device, program, and method for recognizing character
JP2010233959A (en) * 2009-03-31 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and electronic device
JP4658236B1 (en) * 2010-06-25 2011-03-23 楽天株式会社 Machine translation system and machine translation method
JP2011100356A (en) * 2009-11-06 2011-05-19 Sharp Corp Apparatus, method and computer program for creating document image
JP2011257453A (en) * 2010-06-04 2011-12-22 Sharp Corp Learning support device, learning support method using the same, learning support program and recording medium

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01212175A (en) * 1988-02-19 1989-08-25 Ricoh Co Ltd Digital picture forming device
JPH0210474A (en) * 1988-06-29 1990-01-16 Hitachi Ltd Image processor
JP2002062792A (en) * 2000-08-21 2002-02-28 Akio Toshima Memory study system
JP2003179888A (en) * 2001-12-11 2003-06-27 Nec Corp Contents distribution system, distribution server and display terminal for the contents distribution system, and contents distribution program
JP2005004064A (en) * 2003-06-13 2005-01-06 Yamaha Corp Supporting device for acquiring typing skill, language acquisition supporting device, server terminal, and program
JP2006139423A (en) * 2004-11-10 2006-06-01 Nyuuton:Kk Character input determining device and program, and cell phone with this device or program
US20080117448A1 (en) * 2006-11-17 2008-05-22 Money Mailer, Llc Template-based art creation and information management system for advertising
JP2009230431A (en) * 2008-03-21 2009-10-08 Fujifilm Corp Method, device and program for outputting image
JP2010217997A (en) * 2009-03-13 2010-09-30 Omron Corp Device, program, and method for recognizing character
JP2010233959A (en) * 2009-03-31 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and electronic device
JP2011100356A (en) * 2009-11-06 2011-05-19 Sharp Corp Apparatus, method and computer program for creating document image
JP2011257453A (en) * 2010-06-04 2011-12-22 Sharp Corp Learning support device, learning support method using the same, learning support program and recording medium
JP4658236B1 (en) * 2010-06-25 2011-03-23 楽天株式会社 Machine translation system and machine translation method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045723A (en) * 2014-08-22 2016-04-04 株式会社ニコン Electronic apparatus
JP2017009875A (en) * 2015-06-24 2017-01-12 カシオ計算機株式会社 Learning support device and program
JP6059315B1 (en) * 2015-09-18 2017-01-11 ヤフー株式会社 Information display program, information display method, information display device, and distribution device
JP2017059129A (en) * 2015-09-18 2017-03-23 ヤフー株式会社 Information display program, information display method, information display device, and distribution device
US11409849B2 (en) 2017-01-31 2022-08-09 Lima Security Lab Co., Ltd. System, method and program for preventing unauthorized copies of webcomics and tracking replicated webcomics
WO2020203428A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Medical image transmission system, medical image processing apparatus, and medical image transmission method
CN113632460A (en) * 2019-03-29 2021-11-09 索尼集团公司 Medical image transmission system, medical image processing apparatus, and medical image transmission method
US11818464B2 (en) 2019-03-29 2023-11-14 Sony Group Corporation Medical image transmission system, medical image processing apparatus, and medical image transmission method
KR20210128187A (en) * 2020-04-16 2021-10-26 (주)트루엔 Method and electronic device for displaying video information
KR102339710B1 (en) * 2020-04-16 2021-12-17 (주)트루엔 Method and electronic device for displaying video information

Also Published As

Publication number Publication date
JP5708419B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
KR102606075B1 (en) Electronic device comprising multiple displays and method for controlling thereof
AU2020267151B8 (en) User interfaces for capturing and managing visual media
KR102480462B1 (en) Electronic device comprising multiple displays and method for controlling thereof
US9329777B2 (en) Method and system for providing background contents of virtual key input device
JP5708419B2 (en) Image display system, learning system, image display method, and control program
US10386918B2 (en) Method for generating an augmented reality content and terminal using the same
US11770600B2 (en) Wide angle video conference
US20110096997A1 (en) Graphical image authentication
US20130227409A1 (en) Integrating sensation functionalities into social networking services and applications
KR20140128210A (en) user terminal device for providing animation effect and display method thereof
US11604535B2 (en) Device and method for processing user input
CN116055610B (en) Method for displaying graphical user interface and mobile terminal
CN112230909B (en) Method, device, equipment and storage medium for binding data of applet
AU2012249266A1 (en) Systems, methods and apparatuses for creating, editing, distributing and viewing electronic greeting cards
CN108984707B (en) Method, device, terminal equipment and storage medium for sharing personal information
US20200264695A1 (en) A cloud-based system and method for creating a virtual tour
KR20210020987A (en) User interfaces for capturing and managing visual media
US11902651B2 (en) User interfaces for managing visual content in media
RU2603278C2 (en) Transmitting device, display control device, method of transmitting content and recording medium
KR20230010759A (en) User interfaces for viewing and refining the current location of an electronic device
US20200257396A1 (en) Electronic device and control method therefor
WO2013164351A1 (en) Device and method for processing user input
US20190288972A1 (en) Reveal posts in a content sharing platform
JP7472681B2 (en) Information processing device, program, and information processing method
JP7396326B2 (en) Information processing system, information processing device, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150216

R150 Certificate of patent or registration of utility model

Ref document number: 5708419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250