JP7431903B2 - Photography system, photography method, photography program, and stuffed animal - Google Patents

Photography system, photography method, photography program, and stuffed animal Download PDF

Info

Publication number
JP7431903B2
JP7431903B2 JP2022130612A JP2022130612A JP7431903B2 JP 7431903 B2 JP7431903 B2 JP 7431903B2 JP 2022130612 A JP2022130612 A JP 2022130612A JP 2022130612 A JP2022130612 A JP 2022130612A JP 7431903 B2 JP7431903 B2 JP 7431903B2
Authority
JP
Japan
Prior art keywords
information
imaging area
stuffed
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022130612A
Other languages
Japanese (ja)
Other versions
JP2022171671A (en
Inventor
智寿 磯部
竜也 一条
信之 太田
貴広 大西
翠 新海
智 竹中
雅美 田中
諒介 塙
亜実 谷口
佐瑛子 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pokemon Co
Original Assignee
Pokemon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pokemon Co filed Critical Pokemon Co
Priority to JP2022130612A priority Critical patent/JP7431903B2/en
Publication of JP2022171671A publication Critical patent/JP2022171671A/en
Priority to JP2024014619A priority patent/JP2024050757A/en
Application granted granted Critical
Publication of JP7431903B2 publication Critical patent/JP7431903B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Accessories Of Cameras (AREA)

Description

本発明は、撮影システム、撮影方法、撮影プログラム、及びぬいぐるみに関する。特に、本発明は、ぬい撮りに適した撮影システム、撮影方法、撮影プログラム、及びぬいぐるみに関する。 The present invention relates to a photographing system, a photographing method, a photographing program, and a stuffed toy. In particular, the present invention relates to a photographing system, a photographing method, a photographing program, and a stuffed animal suitable for photographing stuffed animals.

従来、ユーザに対してコミュニケーション行動を行うコミュニケーション装置であって、複数の構成部位から構成され、顔を構成する部位に対応する構成部位を少なくとも1つ備える顔部を有する構造体と、構成部位の動作を制御することによって、コミュニケーション行動を表現するジェスチャを構造体に行わせる制御手段と、構造体の周囲の物体の、構造体に対する相対的な位置を検出する検出手段とを有し、検出手段は、ユーザの顔の位置を検出し、制御手段は、顔部が向く方向と顔部から見たユーザの顔の方向とのなす角度に応じて異なるジェスチャを構造体に行わせるように構成部位の動作を制御するコミュニケーション装置が知られている(例えば、特許文献1参照)。特許文献1に記載のコミュニケーション装置によれば、構造体の顔部に対するユーザの向きを考慮した自然なコミュニケーション行動ができる。 Conventionally, there has been a communication device that performs a communication action for a user, and includes a structure including a facial part, which is composed of a plurality of constituent parts, and includes at least one constituent part corresponding to a part that makes up a face; a control means for causing the structure to perform a gesture expressing a communication behavior by controlling the motion; and a detection means for detecting the relative position of an object around the structure with respect to the structure; detects the position of the user's face, and the control means controls the structure to make the structure perform different gestures depending on the angle between the direction the face part faces and the direction of the user's face seen from the face part. A communication device that controls the operation of a computer is known (for example, see Patent Document 1). According to the communication device described in Patent Document 1, natural communication behavior can be performed in consideration of the user's orientation with respect to the face of the structure.

特開2018-051701号公報Japanese Patent Application Publication No. 2018-051701

近年、室内や外出先・旅行先等の様々な場所でぬいぐるみや人形等の玩具(以下、これらを単に「ぬいぐるみ」と称する。)を主人公にした画像を撮像する「ぬい撮り」文化が広まっている。「ぬい撮り」では、ぬいぐるみを主人公にして撮像された画像がソーシャルネットワークサービス(SNS)等にアップされ、多くの人々に楽しまれている。ここで、「ぬい撮り」では、ぬいぐるみが存在する場所等の状況を適切に把握し、当該状況に応じた画像が撮像されることが多い。 In recent years, the ``nui-tori'' culture has become widespread, in which images of toys such as stuffed animals and dolls (hereinafter simply referred to as ``stuffed animals'') are taken in various places such as indoors, on the go, or while traveling. There is. In ``nui-tori,'' images of stuffed animals as the main character are uploaded to social networking services (SNS) and are enjoyed by many people. Here, in "stuffed photography", the situation, such as the location where the stuffed animal is present, is appropriately grasped, and an image corresponding to the situation is often captured.

そして、「ぬい撮り」では周囲の状況にぬいぐるみの状態を合わせることが好まれるところ、駆動部等がないぬいぐるみでは、周囲の状況に合わせたポーズをぬいぐるみに取らせることが困難であった。また、特許文献1に記載のコミュニケーション装置では「ぬい撮り」において重要となるぬいぐるみの周囲の状況について考慮できない。つまり、特許文献1に記載のコミュニケーション装置はユーザとコミュニケーション装置との間で自然なコミュニケーション行動をとることに焦点を当てているものの、ぬいぐるみが置かれた状況を考慮できない。また、特許文献1に記載のコミュニケーション装置は、ぬいぐるみを「ぬい撮り」に適合させてぬいぐるみ自体の愛玩性を高めることや、ユーザにとって愛着がわくようにぬいぐるみのポーズ等を変化させ、当該ぬいぐるみを含む撮像画像を撮ることはできない。 In "stuffed photography," it is preferable to adjust the state of the stuffed animal to its surroundings, but with stuffed animals that do not have a driving part, it is difficult to make the stuffed animal take a pose that matches its surroundings. Further, the communication device described in Patent Document 1 cannot take into account the surrounding situation of the stuffed animal, which is important in "stuffing". In other words, although the communication device described in Patent Document 1 focuses on natural communication behavior between the user and the communication device, it cannot take into account the situation in which the stuffed animal is placed. In addition, the communication device described in Patent Document 1 makes the stuffed toy suitable for "stuffing" to enhance the lovability of the stuffed toy itself, and changes the pose of the stuffed toy so that the user becomes attached to it. It is not possible to take images that include

したがって、本発明の目的は、ぬい撮りに適し、付加価値の高い画像を撮像できる撮影システム、撮影方法、撮影プログラム、及びぬいぐるみを提供することにある。 Therefore, an object of the present invention is to provide a photographing system, a photographing method, a photographing program, and a stuffed toy that are suitable for photographing stuffed animals and are capable of photographing images with high added value.

本発明は、上記目的を達成するため、情報端末と情報端末から供給される所定の情報に基づいて動作可能なぬいぐるみとを備える撮影システムであって、情報端末が、ぬいぐるみが含まれる撮像領域を撮像する撮像部と、撮像領域に関する情報である撮像領域情報を取得する撮像領域情報取得部とを有し、ぬいぐるみが、少なくとも1つの構成部材と、構成部材を動作させる駆動部と、撮像領域情報に基づいて駆動部の動作を制御する駆動制御部とを有する撮影システムが提供される。 In order to achieve the above object, the present invention provides a photographing system comprising an information terminal and a stuffed toy that can operate based on predetermined information supplied from the information terminal, wherein the information terminal captures an imaging area in which the stuffed toy is included. The stuffed toy includes an imaging unit that captures an image, and an imaging area information acquisition unit that acquires imaging area information that is information regarding the imaging area, and the stuffed toy includes at least one component, a drive unit that operates the component, and the imaging area information. An imaging system is provided that includes a drive control section that controls the operation of the drive section based on the following.

本発明に係る撮影システム、撮影方法、撮影プログラム、及びぬいぐるみによれば、ぬい撮りに適し、付加価値の高い画像を撮像できる撮影システム、撮影方法、撮影プログラム、及びぬいぐるみを提供できる。 According to the photographing system, photographing method, photographing program, and stuffed toy according to the present invention, it is possible to provide a photographing system, a photographing method, a photographing program, and a stuffed toy that are suitable for photographing stuffed animals and can capture images with high added value.

本実施形態に係る撮影システムの概要図である。FIG. 1 is a schematic diagram of a photographing system according to the present embodiment. 本実施形態に係る情報端末の機能構成ブロック図である。1 is a functional configuration block diagram of an information terminal according to the present embodiment. FIG. 本実施形態に係るぬいぐるみの機能構成ブロック図である。FIG. 2 is a functional configuration block diagram of the stuffed toy according to the present embodiment. 本実施形態に係るぬいぐるみの概要図である。FIG. 1 is a schematic diagram of a stuffed toy according to the present embodiment. 本実施形態に係る各格納部のデータ構成図である。FIG. 3 is a data configuration diagram of each storage unit according to the present embodiment. 本実施形態に係る撮影システムにおける処理のフロー図である。FIG. 3 is a flow diagram of processing in the imaging system according to the present embodiment. 本実施形態に係る画像処理部による画像処理の図である。FIG. 3 is a diagram of image processing by an image processing unit according to the present embodiment. 本実施形態に係る撮影システムにおける処理のフロー図の変形例である。It is a modification of the flowchart of processing in the imaging system according to the present embodiment. 本実施形態に係る付加情報の作成例の図である。It is a figure of the example of creation of additional information concerning this embodiment. 他の実施の形態に係る撮影システムの処理のフロー図である。It is a flowchart of the processing of the imaging system concerning other embodiments.

[実施の形態]
<撮影システム5の概要>
本実施形態に係る撮影システム5は、カメラを有する情報端末と、バッテリーで駆動する駆動部を有するぬいぐるみや人形等の玩具(以下、本実施形態においては「ぬいぐるみ」と称する。)とを備え、駆動部は情報端末と連携して動作する。つまり、ぬいぐるみの駆動部はカメラの撮像領域に関する情報に基づいて動作し、情報端末は撮像領域内のぬいぐるみが主人公のように振る舞う画像を撮像できる。すなわち、撮影システム5では、情報端末がぬいぐるみを含む撮像領域の状況を把握し、情報端末により把握された当該状況に基づいてぬいぐるみの駆動部が動作する。そして、このぬいぐるみ(動作中、若しくは所定の動作後のぬいぐるみ)を含む画像が情報端末により撮像される。これにより、撮影システム5は、ぬい撮りに適した付加価値の高い画像を撮像でき、愛玩性の高いぬいぐるみを提供できる。
[Embodiment]
<Overview of shooting system 5>
The photographing system 5 according to the present embodiment includes an information terminal having a camera, and a toy such as a stuffed animal or doll (hereinafter referred to as a "stuffed toy" in the present embodiment) having a drive unit driven by a battery. The drive unit operates in cooperation with the information terminal. In other words, the stuffed animal drive unit operates based on information regarding the imaging area of the camera, and the information terminal can capture an image in which the stuffed animal within the imaging area behaves like the main character. That is, in the photographing system 5, the information terminal grasps the situation of the imaging area including the stuffed toy, and the drive section of the stuffed toy operates based on the situation grasped by the information terminal. Then, an image including the stuffed animal (the stuffed animal in action or after a predetermined action) is captured by the information terminal. Thereby, the photographing system 5 can take a high-value-added image suitable for sewing pictures, and can provide a stuffed animal with high pettiness.

図1は、本発明の実施の形態に係る撮影システムの概要を示す。 FIG. 1 shows an overview of a photographing system according to an embodiment of the present invention.

具体的に、撮影システム5は、情報端末10と、情報端末10から供給される所定の情報に基づいて動作可能な駆動部を有するぬいぐるみ20とを備える。情報端末10はカメラ(撮像部)を有しており、カメラは撮像領域の画像を撮像する。そして、所定の情報とは、撮像領域に関する情報であって、例えば、撮像領域に含まれるオブジェクト1(例えば、人物)、風景・背景、ぬいぐるみ20、他のぬいぐるみ、撮像場所、及び/又は撮像の日時等に関する情報(以下、「撮像領域情報」と称する。)である。一例として情報端末10は、画像の撮像をカメラに指示する撮像指示を受け付け可能な状態であって、撮像指示を待機する撮影準備状態において撮像領域の撮像領域情報を取得する。 Specifically, the photographing system 5 includes an information terminal 10 and a stuffed animal 20 having a drive unit that can operate based on predetermined information supplied from the information terminal 10. The information terminal 10 has a camera (imaging unit), and the camera takes an image of an imaging area. The predetermined information is information regarding the imaging area, and includes, for example, the object 1 (for example, a person) included in the imaging area, the scenery/background, the stuffed animal 20, other stuffed animals, the imaging location, and/or the location of the imaging area. This is information regarding date and time (hereinafter referred to as "imaging area information"). As an example, the information terminal 10 acquires imaging area information of an imaging area in a shooting preparation state in which the information terminal 10 is in a state where it can accept an imaging instruction that instructs the camera to capture an image and waits for an imaging instruction.

例えば、図1(a)に示すように、情報端末10の撮像領域にオブジェクト1(人物)及びぬいぐるみ20が含まれている場合を説明する。この場合、情報端末10は、ぬいぐるみ20と共にオブジェクト1である人物が撮像領域に含まれていることを示す情報や当該人物の動きを示す情報を、撮像領域の画像解析により撮像領域情報として取得する。情報端末10は、撮像領域情報をリアルタイム及び/又は連続して取得できる。そして、情報端末10は、取得した撮像領域情報をぬいぐるみ20に無線通信で供給する。 For example, as shown in FIG. 1A, a case will be described in which an object 1 (person) and a stuffed animal 20 are included in the imaging area of the information terminal 10. In this case, the information terminal 10 acquires information indicating that the person who is the object 1 along with the stuffed animal 20 is included in the image capturing area and information indicating the movement of the person as image capturing area information by analyzing the image of the image capturing area. . The information terminal 10 can acquire imaging area information in real time and/or continuously. The information terminal 10 then supplies the acquired imaging area information to the stuffed animal 20 via wireless communication.

ぬいぐるみ20は、少なくとも1つの構成部材を有して構成される。一例として、ぬいぐるみ20は、頭部、胴体、四肢、耳等の構成部材を有し、頭部と胴体との接続領域のように一の構成部材と一の構成部材に隣接する他の構成部材との接続領域に駆動部を有して構成される。また、ぬいぐるみ20は、撮像領域情報に基づいて駆動部の動作を制御する駆動制御部を有する。 The stuffed animal 20 includes at least one component. As an example, the stuffed toy 20 has constituent members such as a head, a body, four limbs, and ears, and includes one constituent member and another constituent member adjacent to the first constituent member, such as a connection area between the head and the body. The drive unit is configured to have a drive unit in the connection area with the drive unit. The stuffed animal 20 also includes a drive control section that controls the operation of the drive section based on the imaging area information.

ぬいぐるみ20の駆動制御部は、情報端末10から撮像領域情報を取得した場合、撮像領域情報に基づいて駆動部を動作させて構成部材を動作させる。例えば、駆動制御部は、撮像領域に含まれる人物の動きに追随するようにぬいぐるみ20が有する各駆動部を動作させ、ぬいぐるみ20を構成する各構成部材を動作させる。図1(b)の例では、撮像領域情報にはオブジェクト1である人物が右腕を上げている状態を示す情報が含まれる。そこで、駆動制御部は、情報端末10から受け取った撮像領域情報に基づいて、ぬいぐるみ20の右腕を上げることができる駆動部を動作させ、ぬいぐるみ20の右腕を上げた状態にする。この状態で情報端末10は、ぬいぐるみ20の画像を撮像できる。 When the drive control unit of the stuffed toy 20 acquires the imaging area information from the information terminal 10, it operates the drive unit based on the imaging area information to operate the constituent members. For example, the drive control unit operates each drive unit included in the stuffed toy 20 so as to follow the movement of the person included in the imaging area, and operates each component that constitutes the stuffed toy 20. In the example of FIG. 1B, the imaging area information includes information indicating that the person who is the object 1 is raising his right arm. Therefore, the drive control unit operates the drive unit that can raise the right arm of the stuffed toy 20 based on the imaging area information received from the information terminal 10, thereby bringing the right arm of the stuffed toy 20 into the raised state. In this state, the information terminal 10 can capture an image of the stuffed animal 20.

これにより、撮影システム5によれば、撮像領域に含まれるぬいぐるみ20が、共に写っている人物(オブジェクト1)と共に主体的に喜怒哀楽を表現しているような撮像画像や主体的に動作しているような撮像画像を撮像できる。 As a result, according to the photographing system 5, the stuffed toy 20 included in the photographing area is displayed in a photographed image in which the stuffed toy 20 included in the photographed area is independently expressing joy, anger, sorrow, and happiness together with the person (object 1) in the photograph. It is possible to capture images that look like

なお、情報端末10は、カメラ機能を有する携帯電話やスマートフォン、カメラ機能を有するかWebカメラを接続可能なノートパソコン、タブレット型PC、カメラ機能を有するかWebカメラを接続可能なPC、カメラ機能を有するかWebカメラを接続可能な携帯用ゲーム機、及び/又はカメラ機能を有するかWebカメラを接続可能な家庭用ゲーム機等の撮像機能を有する情報端末である。そして、以下において本実施形態に係る撮影システム5の詳細を説明するが、上記説明及び下記説明における名称や数値等はあくまで例示であり、これらの名称や数値等に限定されることはないことを付言する。 The information terminal 10 may include a mobile phone or smartphone with a camera function, a laptop computer with a camera function or to which a web camera can be connected, a tablet PC, a PC with a camera function or to which a web camera can be connected, or a PC with a camera function or to which a web camera can be connected. The information terminal has an imaging function, such as a portable game machine that has a camera function or can connect a web camera, and/or a home game machine that has a camera function or can connect a web camera. The details of the photographing system 5 according to the present embodiment will be explained below, but the names, numerical values, etc. in the above explanation and the following explanation are merely examples, and it should be noted that the invention is not limited to these names, numerical values, etc. I would like to add.

<撮影システム5の詳細>
図2は、本実施形態に係る情報端末の機能構成の一例を示し、図3は、本実施形態に係るぬいぐるみの機能構成の一例を示す。また、図4は、本実施形態に係るぬいぐるみの一例の概要を示す。更に、図5は、本実施形態に係る各格納部のデータ構成の一例を示す。
<Details of shooting system 5>
FIG. 2 shows an example of the functional configuration of the information terminal according to the present embodiment, and FIG. 3 shows an example of the functional configuration of the stuffed toy according to the present embodiment. Moreover, FIG. 4 shows an outline of an example of a stuffed toy according to this embodiment. Furthermore, FIG. 5 shows an example of the data structure of each storage unit according to this embodiment.

[撮影システム5の構成の概要]
本実施形態に係る撮影システム5は、情報端末10と、情報端末10が取得した撮像領域情報に基づいて動作するぬいぐるみ20とを備える。そして、図2に示すように、情報端末10は、撮像部100と、撮像部100の動作を制御する撮像制御部102と、撮像領域の情報を取得する撮像領域情報取得部104と、撮像領域の画像を解析する画像解析部106と、撮像領域情報を格納する撮像領域情報格納部108と、所定の情報を送受信する情報端末側送受信部110と、外部からの指示を受け付ける指示受付部112と、画像を格納する画像格納部114と、画像処理を実行する画像処理部118と、付加情報を生成する付加情報生成部120と、所定の画像及び/又は付加情報を所定のサーバに供給する供給部122と、ぬいぐるみに関する情報を格納するぬいぐるみ情報格納部124と、ぬいぐるみに関する情報を更新するぬいぐるみ情報更新部126と、ぬいぐるみの友達に関する情報を格納する友達情報格納部128と、撮像領域の画像等を表示する表示部130とを有する。
[Overview of configuration of imaging system 5]
The photographing system 5 according to the present embodiment includes an information terminal 10 and a stuffed toy 20 that operates based on imaging area information acquired by the information terminal 10. As shown in FIG. 2, the information terminal 10 includes an imaging unit 100, an imaging control unit 102 that controls the operation of the imaging unit 100, an imaging area information acquisition unit 104 that acquires information about the imaging area, and an imaging area information acquisition unit 104 that acquires information about the imaging area. an image analysis unit 106 that analyzes an image of the image, an imaging area information storage unit 108 that stores imaging area information, an information terminal side transmitting/receiving unit 110 that transmits and receives predetermined information, and an instruction receiving unit 112 that receives instructions from the outside. , an image storage unit 114 that stores images, an image processing unit 118 that executes image processing, an additional information generation unit 120 that generates additional information, and a supply unit that supplies predetermined images and/or additional information to a predetermined server. 122, a stuffed animal information storage section 124 that stores information about stuffed animals, a stuffed animal information update section 126 that updates information about stuffed animals, a friend information storage section 128 that stores information about stuffed animal friends, and images of the imaging area, etc. It has a display section 130 that displays.

また、図3に示すように、ぬいぐるみ20は、ぬいぐるみ20を構成する1つ以上の構成部材200と、所定の情報を送受信するぬいぐるみ側送受信部202と、ぬいぐるみ20の動作のシナリオ等を格納する動作情報格納部204と、構成部材200を動作させる1つ以上の駆動部208と、駆動部208の動作を制御する駆動制御部206と、加速度等を測定するセンサ210と、マイク212と、スピーカー214と、バッテリー220と、バッテリー220の残量を確認するバッテリー残量確認部222と、バッテリーの充放電を制御する充放電制御部224とを有する。 Further, as shown in FIG. 3, the stuffed toy 20 stores one or more constituent members 200 that make up the stuffed toy 20, a stuffed toy-side transmitting/receiving unit 202 that transmits and receives predetermined information, and a scenario of the operation of the stuffed toy 20. An operation information storage section 204, one or more drive sections 208 that operate the component 200, a drive control section 206 that controls the operation of the drive section 208, a sensor 210 that measures acceleration, etc., a microphone 212, and a speaker. 214, a battery 220, a battery remaining amount checking section 222 that checks the remaining amount of the battery 220, and a charging/discharging control section 224 that controls charging/discharging of the battery.

なお、情報端末10が有する各構成要素それぞれの機能の全て若しくは一部を、他の構成要素が有するか、別途、独立の構成にしてもよい。また、情報端末10が有する各構成要素の一部若しくは各構成要素の機能の一部を、ぬいぐるみ20が有していてもよい。更に、ぬいぐるみ20が有する各構成要素の一部若しくは各構成要素の機能の一部を、情報端末10が有していてもよい。例えば、動作情報格納部204と駆動制御部206の機能の一部とを情報端末10が有していてもよい。 Note that all or part of the functions of each component included in the information terminal 10 may be provided by other components, or may be configured separately. Further, the stuffed toy 20 may have a part of each component included in the information terminal 10 or a part of the function of each component. Furthermore, the information terminal 10 may have a part of each component included in the stuffed animal 20 or a part of the function of each component. For example, the information terminal 10 may have some of the functions of the operation information storage section 204 and the drive control section 206.

また、本実施形態の変形例においては、情報端末10の機能の一部をサーバが有し(例えば、画像解析部106をサーバが有し)、情報端末10が取得した情報(例えば、撮像領域の画像情報)をサーバにおいて画像解析し、サーバにおける画像解析結果に基づいてぬいぐるみ20の駆動制御部206が駆動部208を動作させてもよい。ただし、以下においては、サーバが存在しない形態について説明する。 In a modification of the present embodiment, the server has some of the functions of the information terminal 10 (for example, the server has the image analysis unit 106), and the information acquired by the information terminal 10 (for example, the imaging area (image information) may be analyzed in the server, and the drive control unit 206 of the stuffed toy 20 may operate the drive unit 208 based on the image analysis result in the server. However, in the following, a configuration in which no server exists will be described.

[撮影システム5の構成の詳細:情報端末10の構成]
(撮像部100、撮像制御部102)
撮像部100は、撮像領域の画像を撮像する。また、撮像制御部102は、撮像部100の動作を制御する。例えば、撮像部100は撮像制御部102に制御され、ぬいぐるみ20が含まれる撮像領域の画像(撮像画像)を撮像する。ここで、撮像制御部102は、例えば、ユーザからの撮像指示による撮像の実行が可能になった状態であって撮像指示を受け付ける前の撮像指示を待機する状態(つまり、撮影準備状態)の画像も撮像部100に撮像させることができる。撮像制御部102は、撮影準備状態の画像を撮像部100にリアルタイム、及び/又は連続して撮像させることもできる。撮像部100は、撮影準備状態中に撮像した画像を撮像領域情報取得部104、画像解析部106、及び/又は表示部130に供給すると共に、画像格納部114に供給すること、及び/又は所定のメモリに一時的に記憶することができる。そして、撮像制御部102は、例えばユーザからの撮像指示を受け付けた場合に撮像部100に画像の撮像を実行させ、撮像指示の時点、及び/又は当該時点の前後の予め定められた期間における撮像領域の撮像画像を画像格納部114に格納させ、及び/又は表示部130に表示させる。
[Details of the configuration of the photographing system 5: Configuration of the information terminal 10]
(Imaging unit 100, imaging control unit 102)
The imaging unit 100 captures an image of an imaging area. Further, the imaging control unit 102 controls the operation of the imaging unit 100. For example, the imaging unit 100 is controlled by the imaging control unit 102 and captures an image (captured image) of an imaging area that includes the stuffed animal 20. Here, the imaging control unit 102 may, for example, capture an image in a state in which it is possible to perform imaging according to an imaging instruction from a user and in a state in which it is waiting for an imaging instruction (that is, in a shooting preparation state) before accepting an imaging instruction. The image capturing unit 100 can also capture an image. The imaging control unit 102 can also cause the imaging unit 100 to capture images in a ready state in real time and/or continuously. The imaging unit 100 supplies the image captured during the imaging preparation state to the imaging area information acquisition unit 104, the image analysis unit 106, and/or the display unit 130, and also supplies the image to the image storage unit 114, and/or provides a predetermined image. can be temporarily stored in memory. Then, the imaging control unit 102 causes the imaging unit 100 to capture an image when receiving an imaging instruction from the user, and performs imaging at the time of the imaging instruction and/or during a predetermined period before and after the time. The captured image of the area is stored in the image storage unit 114 and/or displayed on the display unit 130.

(撮像領域情報取得部104)
撮像領域情報取得部104は、撮像領域に関する情報である撮像領域情報を取得する。撮像領域情報取得部104は、撮影準備状態において撮像領域情報を取得することができる。また、撮像領域情報取得部104は、撮像部100が撮影準備状態で継続して撮像している画像をリアルタイムに、若しくは時系列に沿って所定の時点毎に、又は予め定められた時間間隔で撮像領域情報を取得してもよい。撮像領域情報取得部104は、取得した撮像領域情報を撮像領域情報格納部108に供給する。
(Imaging area information acquisition unit 104)
The imaging area information acquisition unit 104 acquires imaging area information that is information regarding the imaging area. The imaging area information acquisition unit 104 can acquire imaging area information in a shooting preparation state. In addition, the imaging area information acquisition unit 104 acquires images continuously captured by the imaging unit 100 in a shooting preparation state in real time, at each predetermined point in time, or at predetermined time intervals. Imaging area information may also be acquired. The imaging area information acquisition unit 104 supplies the acquired imaging area information to the imaging area information storage unit 108.

ここで、撮像領域情報は、撮像領域に含まれるオブジェクトに関する情報、撮像領域の背景に関する情報、撮像領域の位置情報(撮像位置の位置情報)、撮像領域の撮影準備状態や撮像時の日時情報、気温や湿度情報、及び天気情報等からなる群から選択される少なくとも1つの情報である。オブジェクトとしては、人物、ぬいぐるみ20、撮像画像の主題になるぬいぐるみ20とは異なるぬいぐるみ、撮像領域に含まれる様々な物品等が挙げられる。また、オブジェクトに関する情報としては、オブジェクトの種類(オブジェクトがぬいぐるみである場合はぬいぐるみの種類等)、オブジェクトの状態(オブジェクトの動き、オブジェクトが人物である場合は当該人物の動作や姿勢、表情等に関する情報)等が挙げられる。 Here, the imaging area information includes information regarding objects included in the imaging area, information regarding the background of the imaging area, positional information of the imaging area (location information of the imaging position), information on the imaging preparation state of the imaging area and date and time at the time of imaging, This is at least one piece of information selected from the group consisting of temperature, humidity information, weather information, and the like. Examples of the object include a person, a stuffed toy 20, a stuffed toy different from the stuffed toy 20 that is the subject of the captured image, and various articles included in the imaging area. In addition, information regarding the object includes the type of the object (if the object is a stuffed animal, the type of stuffed animal, etc.), the state of the object (the movement of the object, and if the object is a person, information about the person's movements, posture, facial expressions, etc.) information), etc.

なお、撮像領域情報取得部104は、ぬいぐるみ20が含まれている撮像領域には含まれていないものの、情報端末10の近傍(例えば、情報端末10から所定距離内。所定距離は、例えば、情報端末側送受信部110の無線通信が可能な距離である。)に他のぬいぐるみが存在するか否かを示す情報を撮像領域情報として取得してもよい。例えば、撮像領域情報取得部104は、情報端末10と他のぬいぐるみとで通信可能であるか否かを判断し、通信可能であると判断した場合に他のぬいぐるみが情報端末10の近傍に存在することを示す情報を撮像領域情報として取得する。 Note that the imaging area information acquisition unit 104 is located near the information terminal 10 (for example, within a predetermined distance from the information terminal 10; the predetermined distance is, for example, Information indicating whether or not there is another stuffed animal within the range (distance at which wireless communication of the terminal-side transmitting/receiving unit 110 is possible) may be acquired as the imaging area information. For example, the imaging area information acquisition unit 104 determines whether communication is possible between the information terminal 10 and another stuffed animal, and if it is determined that communication is possible, the other stuffed animal exists near the information terminal 10. Information indicating that the image is to be captured is acquired as imaging area information.

また、複数のぬいぐるみそれぞれに固有のぬいぐるみIDを予め付与するか、撮影準備状態になる毎に撮像領域情報取得部104が、情報端末10の近傍であって情報端末10と通信可能なぬいぐるみにぬいぐるみ20とは異なるぬいぐるみIDを付与してもよい(複数のぬいぐるみが存在する場合は、複数のぬいぐるみそれぞれに互いに異なるIDを付与してよい。)。そして、撮像領域情報取得部104は、各ぬいぐるみIDに対応するぬいぐるみの駆動制御部206それぞれに向け、互いに異なる動作をする指令を供給する。続いて撮像領域情報取得部104は、撮像領域に含まれるぬいぐるみの動作と当該動作に対応する指令を供給したぬいぐるみのぬいぐるみIDとに基づいて、撮像領域に含まれるぬいぐるみと撮像領域に含まれず情報端末10の近傍に存在するぬいぐるみとを識別する。撮像領域情報取得部104は、この識別結果を撮像領域情報として取得してもよい。 Alternatively, the imaging area information acquisition unit 104 assigns a unique stuffed toy ID to each of the plurality of stuffed animals in advance, or assigns a stuffed toy to a stuffed toy that is near the information terminal 10 and can communicate with the information terminal 10 each time the shooting preparation state is set. 20 may be assigned to the stuffed animal (if there are multiple stuffed animals, a different ID may be assigned to each of the multiple stuffed animals). Then, the imaging area information acquisition unit 104 supplies commands to each of the stuffed toy drive control units 206 corresponding to each stuffed toy ID to perform different operations. Next, the imaging area information acquisition unit 104 obtains information about the stuffed animals included in the imaging area and the stuffed animals not included in the imaging area, based on the movement of the stuffed animal included in the imaging area and the stuffed toy ID of the stuffed animal that supplied the command corresponding to the movement. A stuffed animal existing near the terminal 10 is identified. The imaging area information acquisition unit 104 may acquire this identification result as imaging area information.

撮像領域情報取得部104は、撮像領域の位置情報、日時情報、及び天気情報等は情報端末10が有するGPS機能、時計機能、及び外部サーバから情報を取得する機能等を用いて取得する。また、撮像領域情報取得部104は、撮像領域に含まれるオブジェクトに関する情報、及び撮像領域の背景等に関する情報を撮像部100から受け取った撮像画像の画像解析により取得する。 The imaging area information acquisition unit 104 acquires position information, date and time information, weather information, etc. of the imaging area using the GPS function, clock function, and function of acquiring information from an external server of the information terminal 10. Further, the imaging area information acquisition unit 104 acquires information regarding objects included in the imaging area, information regarding the background of the imaging area, etc. by image analysis of the captured image received from the imaging unit 100.

(画像解析部106)
すなわち、情報端末10は、画像解析する画像解析部106を有する。画像解析部106は、撮像部100が取得した撮影準備状態における撮像領域の画像、及び/又は撮像部100が撮像指示に応じて取得した撮像領域の撮像画像を解析し、解析結果を撮像領域情報として生成する。撮像領域情報取得部104は、生成された撮像領域情報を取得する。画像解析部106は、従来公知の画像処理やパターンマッチング手法等を用いて画像解析できる。
(Image analysis unit 106)
That is, the information terminal 10 includes an image analysis unit 106 that analyzes images. The image analysis unit 106 analyzes the image of the imaging area in the imaging preparation state acquired by the imaging unit 100 and/or the captured image of the imaging area acquired by the imaging unit 100 in response to an imaging instruction, and uses the analysis result as imaging area information. Generate as. The imaging area information acquisition unit 104 acquires the generated imaging area information. The image analysis unit 106 can perform image analysis using conventionally known image processing, pattern matching techniques, and the like.

また、画像解析部106は、撮像対象となるオブジェクトや背景等の撮像画像を画像格納部114若しくは外部のサーバから読み込んで学習することもできる。この場合、画像解析部106は、学習結果と撮像領域の画像の特徴量とを比較し、撮像領域に含まれるオブジェクトや背景が何であるかを特定できる。更に、画像解析部106は、撮像領域に含まれるオブジェクトの動作及び/又は状態をリアルタイムに解析することもできる。一例として、画像解析部106は、所定のオブジェクトの予め定められたモデルと撮像領域に含まれるオブジェクトの特徴量とを比較し、当該オブジェクトがどのような動作をしているか、及び/又はどのような状態であるかを解析することもできる。なお、画像解析部106は、例えば、Regional Convolutional Neural Network(R-CNN)、高速RCNN、セマンティックセグメンテーション、インスタンスセグメンテーション等を用いて画像に含まれるオブジェクトを認識してもよい。 The image analysis unit 106 can also learn by reading captured images of objects, backgrounds, etc. to be imaged from the image storage unit 114 or an external server. In this case, the image analysis unit 106 can identify the object or background included in the imaging region by comparing the learning result with the feature amount of the image in the imaging region. Furthermore, the image analysis unit 106 can also analyze the motion and/or state of an object included in the imaging area in real time. As an example, the image analysis unit 106 compares a predetermined model of a predetermined object with the feature amount of the object included in the imaging area, and determines how the object is moving and/or how the object is moving. It is also possible to analyze whether the state is Note that the image analysis unit 106 may recognize objects included in the image using, for example, Regional Convolutional Neural Network (R-CNN), high-speed RCNN, semantic segmentation, instance segmentation, or the like.

例えば、画像解析部106は、撮像領域の画像を解析し、撮像領域に含まれるオブジェクトが人物であるか否かを特定し、オブジェクトが人物であると特定した場合は当該人物の動作及び/又は表情を特定できる。また、画像解析部106は、撮像領域に含まれるオブジェクトがぬいぐるみであるか否かを特定し、オブジェクトがぬいぐるみであると特定した場合は当該ぬいぐるみの特徴(例えば、種類、属性等)を特定できる。更に、画像解析部106は、撮像領域に含まれるオブジェクトが人物ではない物品(例えば、飲食物、商品、身の回り品、乗用車等の乗り物等)である場合、当該物品が何であるかを特定できる(例えば、商品名等を特定できる。)。更に、画像解析部106は、撮像領域の背景や風景がどのような背景や風景であるかを特定することもできる。 For example, the image analysis unit 106 analyzes the image in the imaging area, identifies whether or not the object included in the imaging area is a person, and if the object is identified as a person, determines the movement of the person and/or Can identify facial expressions. The image analysis unit 106 also identifies whether or not the object included in the imaging area is a stuffed toy, and if the object is determined to be a stuffed toy, the image analysis unit 106 can identify the characteristics (for example, type, attributes, etc.) of the stuffed toy. . Furthermore, when the object included in the imaging area is an item that is not a person (for example, food and drinks, merchandise, personal effects, vehicles such as cars, etc.), the image analysis unit 106 can identify the object ( For example, it is possible to specify the product name, etc.). Furthermore, the image analysis unit 106 can also specify what kind of background or scenery the image capturing area is.

(撮像領域情報格納部108)
撮像領域情報格納部108は、撮像領域情報を格納する。撮像領域情報格納部108は、撮像領域情報を識別する撮像領域IDに対応付けて、撮像領域情報取得部104が取得した撮像領域情報を格納する。撮像領域情報格納部108は、撮像領域情報が取得された日時(取得日時)を更に対応付けて撮像領域情報を格納することもできる。つまり、撮像領域情報格納部108は、過去の撮像領域情報も格納できる。
(Imaging area information storage unit 108)
The imaging area information storage unit 108 stores imaging area information. The imaging area information storage unit 108 stores the imaging area information acquired by the imaging area information acquisition unit 104 in association with an imaging area ID that identifies the imaging area information. The imaging area information storage unit 108 can also store the imaging area information in association with the date and time when the imaging area information was acquired (acquisition date and time). That is, the imaging area information storage unit 108 can also store past imaging area information.

この場合、画像解析部106は、撮像部100が撮影準備状態における撮像領域の画像を撮像した時点における当該撮像領域の画像、及び/又は当該時点より前の時点における撮像領域の画像を解析できる。これにより、例えば、画像解析部106は、撮像部100が撮像指示に応じて撮像画像を取得するより前の時点で撮像領域に何が写っているかを示す情報(例えば、風景や背景及びそれらの変化に関する情報、撮像領域に含まれる人物の動作や表情及びそれらの変化に関する情報、及び/又は撮像領域に含まれる主題となるぬいぐるみ20とは異なるぬいぐるみの種類等に関する情報)を撮像領域情報として生成できる。撮像領域情報格納部108は、情報端末10の他の構成部材からの要求に応じ、格納している情報を所定の構成部材に供給する。 In this case, the image analysis unit 106 can analyze the image of the imaging region at the time when the imaging unit 100 captures the image of the imaging region in the imaging preparation state, and/or the image of the imaging region at a time before that time. As a result, for example, the image analysis unit 106 acquires information indicating what is captured in the imaging area (for example, landscapes, backgrounds, and information regarding changes, information regarding the movements and facial expressions of the person included in the imaging area, and their changes, and/or information regarding the type of stuffed toy that is different from the subject stuffed animal 20 included in the imaging area) as imaging area information. can. The imaging area information storage unit 108 supplies stored information to predetermined components in response to requests from other components of the information terminal 10 .

(情報端末側送受信部110)
情報端末側送受信部110は、情報端末10の所定の構成部材からの所定の情報をぬいぐるみ20に供給する。また、情報端末側送受信部110は、ぬいぐるみ20の所定の構成部材から所定の情報を受け取る。更に、情報端末側送受信部110は、外部のサーバ等に情報端末10の所定の構成部材からの所定の情報を供給すること、外部のサーバ等から所定の情報を受け取ることもできる。なお、通信形式としては無線通信であれば特に限定はない。例えば、情報端末側送受信部110は、Bluetooth(登録商標)等の近距離無線通信を利用できる。これは、ぬいぐるみ側送受信部202も同様である。これにより、情報端末10とぬいぐるみ20とは互いに無線通信が可能になる。
(Information terminal side transmitter/receiver 110)
The information terminal side transmitting/receiving unit 110 supplies predetermined information from a predetermined component of the information terminal 10 to the stuffed animal 20. Further, the information terminal side transmitting/receiving section 110 receives predetermined information from a predetermined component of the stuffed animal 20. Further, the information terminal side transmitting/receiving unit 110 can supply predetermined information from predetermined components of the information terminal 10 to an external server or the like, and can also receive predetermined information from an external server or the like. Note that the communication format is not particularly limited as long as it is wireless communication. For example, the information terminal side transmitting/receiving unit 110 can utilize short-range wireless communication such as Bluetooth (registered trademark). This also applies to the stuffed animal side transmitting/receiving section 202. This allows the information terminal 10 and the stuffed animal 20 to communicate wirelessly with each other.

(指示受付部112)
指示受付部112は、ユーザからの各種指示を受け付ける。各種指示としては、例えば、撮影準備状態における撮像領域の画像の撮像の実行等の指示である。指示受付部112は、受け付けた指示に応じ、当該指示を実行する情報端末10の構成部材に当該指示を供給し、当該指示を受け取った構成部材は当該指示に応じた動作を実行する。
(Instruction reception unit 112)
The instruction receiving unit 112 receives various instructions from the user. The various instructions include, for example, an instruction to capture an image of the imaging area in the imaging preparation state. In response to the received instruction, the instruction receiving unit 112 supplies the instruction to a component of the information terminal 10 that executes the instruction, and the component that receives the instruction executes an operation according to the instruction.

(画像格納部114)
画像格納部114は、画像を識別する画像IDに対応付けて画像情報を格納する。画像情報としては、撮影準備状態における撮像領域の画像、撮像指示に応じて撮像部100が撮像した撮像画像、及び/又は撮像画像に含まれるぬいぐるみ20へ合成する合成用画像(画像の合成に用いられる画像部材を含む)等の情報が挙げられる。なお、本実施形態において「画像」や「撮像画像」、「合成用画像」には、静止画及び動画の双方が含まれる。また、静止画及び動画には、付帯する音声情報が含まれていてもよい。画像格納部114は、情報端末10の他の構成部材からの要求に応じ、格納している画像情報を所定の構成部材に供給する。
(Image storage unit 114)
The image storage unit 114 stores image information in association with an image ID that identifies the image. The image information includes an image of the imaging area in a shooting preparation state, a captured image captured by the imaging unit 100 in response to an imaging instruction, and/or a compositing image to be combined with the stuffed animal 20 included in the captured image (used for image compositing). (including the image member that will be displayed). Note that in this embodiment, "image", "captured image", and "composition image" include both still images and moving images. Furthermore, the still images and moving images may include accompanying audio information. The image storage unit 114 supplies stored image information to predetermined components in response to requests from other components of the information terminal 10 .

(ぬいぐるみ情報格納部124)
ぬいぐるみ情報格納部124は、ぬいぐるみを識別するぬいぐるみIDに対応付けて、ぬいぐるみに関する情報であるぬいぐるみ情報を格納する。ぬいぐるみ情報は、ぬいぐるみの種類、名称、性別、属性、性格等の情報である。ぬいぐるみ情報格納部124は、ユーザが所持するぬいぐるみ20のぬいぐるみ情報、及び/又はユーザが所持していないぬいぐるみのぬいぐるみ情報を格納できる。ぬいぐるみ情報格納部124は、情報端末10の他の構成部材からの働きかけに応じ、所定の構成部材に所定の情報を供給する。
(Stuffed animal information storage section 124)
The stuffed toy information storage unit 124 stores stuffed toy information that is information about the stuffed toy in association with a stuffed toy ID that identifies the stuffed toy. The stuffed animal information includes information such as the type, name, gender, attributes, and personality of the stuffed animal. The stuffed animal information storage section 124 can store stuffed animal information about the stuffed animal 20 that the user owns and/or stuffed animal information about the stuffed animal that the user does not own. The stuffed animal information storage section 124 supplies predetermined information to predetermined components in response to actions from other components of the information terminal 10 .

(ぬいぐるみ情報更新部126)
ぬいぐるみ情報更新部126は、ぬいぐるみ情報格納部124に格納されているぬいぐるみ情報を更新する。例えば、指示受付部112がユーザからの所定の指示を受け付けた場合に、ぬいぐるみ情報更新部126はぬいぐるみ情報を更新することができる。
(Stuffed toy information update unit 126)
The stuffed toy information update unit 126 updates the stuffed toy information stored in the stuffed toy information storage unit 124. For example, when the instruction receiving unit 112 receives a predetermined instruction from the user, the stuffed toy information updating unit 126 can update the stuffed toy information.

(友達情報格納部128)
友達情報格納部128は、ぬいぐるみIDに対応付けて当該ぬいぐるみIDで識別されるぬいぐるみ(第1のぬいぐるみ)の友達としての他のぬいぐるみ(第2のぬいぐるみ)を識別する友達ぬいぐるみIDと、第1のぬいぐるみと第2のぬいぐるみとの関係性を示す情報(例えば、これまでに同一の撮像画像に共に写った回数等を示す情報、及び回数等を示す情報に基づいて算出される親密度の情報)である友達関連情報を格納する。友達情報格納部128は、情報端末10の他の構成部材からの働きかけに応じ、所定の構成部材に友達関連情報を供給する。
(Friend information storage unit 128)
The friend information storage unit 128 stores a friend stuffed toy ID that identifies another stuffed toy (second stuffed toy) as a friend of the stuffed toy (first stuffed toy) identified by the stuffed toy ID in association with the stuffed toy ID, and a first stuffed toy ID. Information indicating the relationship between the stuffed animal and the second stuffed animal (for example, information indicating the number of times they have been photographed together in the same captured image, and information on the degree of intimacy calculated based on the information indicating the number of times, etc.) ) is stored. The friend information storage unit 128 supplies friend-related information to predetermined components in response to actions from other components of the information terminal 10.

(画像処理制御部116、画像処理部118)
画像処理制御部116は、画像処理部118の動作を制御する。画像処理制御部116は、撮像領域情報、及び/又はぬいぐるみ20のバッテリー残量等の情報に基づいて、表示部130に表示されるぬいぐるみ20の表示位置に所定の画像を合成するか否か判断する。そして、画像処理制御部116は、画像の合成をすると判断した場合、画像処理部118に画像の合成を実行させる。なお、画像処理部118は、画像の合成処理の他に、撮像画像の画像変換や変形、撮像画像からの特徴量等の情報抽出等の処理も実行できる。
(Image processing control unit 116, image processing unit 118)
The image processing control section 116 controls the operation of the image processing section 118. The image processing control unit 116 determines whether to synthesize a predetermined image at the display position of the stuffed animal 20 displayed on the display unit 130 based on information such as the imaging area information and/or the remaining battery level of the stuffed animal 20. do. If the image processing control unit 116 determines that the images should be combined, it causes the image processing unit 118 to perform the image combination. In addition to image compositing processing, the image processing unit 118 can also perform processing such as image conversion and transformation of captured images, and information extraction such as feature amounts from captured images.

画像処理部118は、画像処理制御部116に制御され、撮像領域に含まれるぬいぐるみ20の表示部130の表示位置に所定の画像を合成して合成画像を生成する。そして、画像処理部118は、合成画像を表示部130に表示させる。画像処理部118は、合成画像を合成画像を識別する合成画像IDに対応付けて画像格納部114に格納することもできる。なお、画像処理部118は、画像格納部114に格納されている合成用画像を用い、合成画像を生成できる。 The image processing unit 118 is controlled by the image processing control unit 116 and generates a composite image by combining a predetermined image at a display position of the display unit 130 of the stuffed animal 20 included in the imaging area. The image processing unit 118 then displays the composite image on the display unit 130. The image processing unit 118 can also store the composite image in the image storage unit 114 in association with a composite image ID that identifies the composite image. Note that the image processing unit 118 can generate a composite image using the composite images stored in the image storage unit 114.

(付加情報生成部120)
付加情報生成部120は、撮像部100が撮像する撮像画像に対応する付加情報、すなわち、撮像画像に含まれるオブジェクト及び/又はぬいぐるみ20がどのような行動をしているか、若しくはどのような状態であるか等を示す付加情報を、撮像領域情報に基づいて生成する。付加情報生成部120は、撮像領域情報取得部104が取得した撮像領域情報、撮像領域情報格納部108が格納している撮像領域情報、及び/又は画像格納部114が格納している撮像画像が撮像された時点の撮像領域情報に基づいて付加情報を生成する。付加情報とは、撮像領域に含まれるオブジェクト及び/又はぬいぐるみ20がどのような行動や動作をしているか、若しくはどのような状態であるか等を示すテキスト情報や図形情報等である。例えば、付加情報は、撮像領域に含まれるオブジェクトとぬいぐるみ20との関係性やオブジェクトとぬいぐるみ20との組み合わせ等に基づいて生成されるセリフ、説明文等のテキスト情報である。
(Additional information generation unit 120)
The additional information generation unit 120 generates additional information corresponding to the captured image captured by the imaging unit 100, that is, what kind of behavior the object and/or the stuffed animal 20 included in the captured image are doing, or what state they are in. Additional information indicating whether or not there is an image is generated based on the imaging area information. The additional information generation unit 120 generates the imaging area information acquired by the imaging area information acquisition unit 104, the imaging area information stored in the imaging area information storage unit 108, and/or the captured image stored in the image storage unit 114. Additional information is generated based on the imaging area information at the time the image was captured. The additional information is text information, graphic information, etc. that indicates what kind of behavior or motion the object and/or stuffed toy 20 included in the imaging area is doing, or what kind of state it is in. For example, the additional information is text information such as dialogue, explanatory text, etc. that is generated based on the relationship between the object included in the imaging area and the stuffed animal 20, the combination of the object and the stuffed animal 20, and the like.

付加情報生成部120は、例えば、オブジェクトやぬいぐるみの種類毎に予め定められた説明文やセリフ等のテキスト情報を撮像領域情報に対応付けて格納するテキスト情報格納部、及び/又は外部のサーバからテキスト情報を取得するテキスト情報取得部を有することができる。そして、付加情報生成部120は、撮像領域情報に基づいて、撮像領域に含まれるオブジェクトの種類や動作、ぬいぐるみ20の種類、及び/又はぬいぐるみ20とは異なるぬいぐるみが撮像領域に含まれる場合は当該ぬいぐるみの種類等に応じたテキスト情報をテキスト情報格納部から取得するか、外部のサーバから取得し、取得したテキスト情報を用いるか、若しくは取得したテキスト情報を撮像領域情報に基づいて加工した加工テキスト情報を用いて付加情報を生成することができる。 The additional information generation unit 120 may be configured to generate information from, for example, a text information storage unit that stores text information such as a predetermined explanatory text or lines for each type of object or stuffed animal in association with imaging area information, and/or an external server. It can include a text information acquisition unit that acquires text information. Based on the imaging area information, the additional information generating unit 120 determines the type and motion of the object included in the imaging area, the type of the stuffed toy 20, and/or if a stuffed toy different from the stuffed animal 20 is included in the imaging area, the corresponding Text information corresponding to the type of stuffed animal, etc. is obtained from the text information storage unit, or obtained from an external server, and the obtained text information is used, or processed text is obtained by processing the obtained text information based on the imaging area information. The information can be used to generate additional information.

また、付加情報生成部120は、Conditional Variational Auto-encoder(CVAE)を用いることで付加情報を生成してもよい。更に、付加情報生成部120は、画像認識を実行するConvolutional Neural Network(CNN)とリカレントニューラルネットワークとを組み合わせたニューラル画像脚注付けを用いて付加情報としてのテキスト情報を生成してもよい。 Additionally, the additional information generation unit 120 may generate additional information by using a Conditional Variational Auto-encoder (CVAE). Furthermore, the additional information generation unit 120 may generate text information as additional information using neural image footnotation, which is a combination of a Convolutional Neural Network (CNN) that performs image recognition and a recurrent neural network.

また、付加情報は、撮像領域情報に含まれる撮像領域の位置を示す情報、すなわち、画像が撮像された地域、場所に適したテキスト情報であってもよい。更に、付加情報は、ぬいぐるみ20と共に写っているオブジェクト(人物、情報端末10と通信可能な他のぬいぐるみ、情報端末10と通信不能なぬいぐるみ、商品等)や背景(観光地や景勝地等の風景、映画のスクリーン等)等に応じ、当該オブジェクトや背景等に適したテキスト情報であってもよい。例えば、撮像領域情報に画像が撮像された位置を示す情報が含まれている場合、付加情報は当該位置に来たことを示すテキスト情報(例えば、「○○に来た!」(ただし、○○は場所の名称やランドマークの名称)等のテキスト情報)であってよく、撮像領域情報に撮像領域に所定の商品の名称を示す情報が含まれている場合、付加情報は当該商品に関するテキスト情報(例えば、「○○を手に入れた!」(ただし、○○は商品名)等のテキスト情報)であってよい。 Further, the additional information may be information indicating the position of the imaging area included in the imaging area information, that is, text information suitable for the region or place where the image was taken. Furthermore, the additional information includes objects that appear together with the stuffed animal 20 (persons, other stuffed animals that can communicate with the information terminal 10, stuffed animals that cannot communicate with the information terminal 10, products, etc.) and backgrounds (scenery of tourist spots, scenic spots, etc.). , movie screen, etc.), text information suitable for the object, background, etc. may be used. For example, if the imaging area information includes information indicating the location where the image was captured, the additional information may include text information indicating that the image has been reached (for example, "I've come to ○○!") ○ may be text information such as the name of a place or the name of a landmark), and if the imaging area information includes information indicating the name of a predetermined product in the imaging area, the additional information may be text related to the product. The information may be information (for example, text information such as "I got XXX!" (where XXX is the product name)).

また、付加情報は、撮像領域の天気、温度、及び/又は湿度に応じたテキスト情報であってもよい。そして、付加情報は、撮像領域に含まれるぬいぐるみ20が、撮像領域に訪れた回数、撮像領域に他のオブジェクトと共に写った回数、及び/又は他のぬいぐるみと共に写った回数等に応じたテキスト情報(第1のテキスト情報)であってもよい。例えば、ある撮像領域の場所にぬいぐるみ20が訪れた回数が増加するに従い、ぬいぐるみ20による当該場所に対する認知度が向上したとして、特別な表現のテキスト情報を付加情報生成部120は生成してよい(つまり、ぬいぐるみ20を擬人化して捉えている。)。また、ぬいぐるみ20と共に他のぬいぐるみが写った回数が増加するに従い、ぬいぐるみ20の当該他のぬいぐるみに対する友好度が向上したとして、特別な表現のテキスト情報(第2のテキスト情報)を付加情報生成部120は生成してよい。なお、付加情報生成部120は、撮像領域情報格納部108に格納されている過去の撮像領域情報、及び/又は画像格納部114に格納されている過去の撮像画像に基づいて、第1のテキスト情報及び第2のテキスト情報を生成できる。 Further, the additional information may be text information corresponding to the weather, temperature, and/or humidity of the imaging area. The additional information includes text information ( (first text information). For example, the additional information generation unit 120 may generate text information with a special expression on the assumption that as the number of times the stuffed animal 20 visits a location in a certain imaging area increases, the awareness of the location by the stuffed animal 20 improves ( In other words, he sees stuffed animal 20 as anthropomorphic.) Further, as the number of times that other stuffed animals are photographed together with the stuffed animal 20 increases, the friendliness of the stuffed animal 20 with respect to the other stuffed animal has improved, and the additional information generation unit generates text information with a special expression (second text information). 120 may be generated. Note that the additional information generation unit 120 generates the first text based on the past imaging area information stored in the imaging area information storage unit 108 and/or the past captured image stored in the image storage unit 114. information and second textual information can be generated.

また、撮像領域情報が撮像領域に複数のぬいぐるみが含まれていることを示す場合、付加情報生成部120は、ぬいぐるみの組合せに応じたテキスト情報を生成できる。この場合、撮像領域情報取得部104は、画像解析部106の画像解析結果、及びぬいぐるみ情報格納部124に格納されているぬいぐるみ情報に基づいて、撮像領域に含まれる複数のぬいぐるみの種類等を特定し、ぬいぐるみの組合せを特定する。そして、付加情報生成部120は、特定されたぬいぐるみの組合せに基づいてテキスト情報を生成する。また、付加情報生成部120は、撮像領域にぬいぐるみ20が含まれる一方で、撮像領域に含まれないものの情報端末10の近傍に他のぬいぐるみが存在することを示す情報が撮像領域情報に含まれている場合、特別なテキスト情報(例えば、「この他のぬいぐるみと次は一緒に写りたい」等のテキスト情報)を生成することもできる。 Further, when the imaging area information indicates that the imaging area includes a plurality of stuffed animals, the additional information generation unit 120 can generate text information according to the combination of stuffed animals. In this case, the imaging area information acquisition unit 104 identifies the types of the plurality of stuffed animals included in the imaging area based on the image analysis result of the image analysis unit 106 and the stuffed animal information stored in the stuffed animal information storage unit 124. and identify the combination of stuffed animals. The additional information generation unit 120 then generates text information based on the specified combination of stuffed animals. Further, the additional information generation unit 120 determines that while the stuffed toy 20 is included in the imaging area, the imaging area information includes information indicating that there is another stuffed animal near the information terminal 10 that is not included in the imaging area. If so, special text information (for example, text information such as "I want to take a picture with this other stuffed animal next time") can also be generated.

更に、ぬいぐるみ20や他のぬいぐるみにはそれぞれ、固有の特性(性別や性格等)が対応付けられていてもよい(この固有の特性は、ぬいぐるみ情報格納部124にぬいぐるみ情報として格納されている。)。付加情報生成部120は、撮像領域情報に含まれるぬいぐるみ20の固有の特性を示す情報をぬいぐるみ情報格納部124から取得し、取得した情報に基づいてテキスト情報を生成してもよい。例えば、付加情報生成部120は、ぬいぐるみ20の性格が「大人しい」場合や「やんちゃ」な場合等で、生成するテキストの語尾等を変化させたテキスト情報を生成する。また、撮像領域に複数のぬいぐるみが含まれている場合、及び/又は撮像領域と情報端末10近傍のそれぞれにぬいぐるみが含まれている場合、ぬいぐるみ同士の親密度に応じたテキスト情報を、付加情報生成部120は生成してもよい。ぬいぐるみ同士の親密度は、例えば、友達情報格納部128に友達関連情報として格納されている。 Furthermore, each of the stuffed animal 20 and other stuffed animals may be associated with unique characteristics (such as gender and personality) (this unique characteristic is stored as stuffed animal information in the stuffed animal information storage section 124). ). The additional information generation unit 120 may acquire information indicating the unique characteristics of the stuffed animal 20 included in the imaging area information from the stuffed animal information storage unit 124, and generate text information based on the acquired information. For example, the additional information generating unit 120 generates text information by changing the ending of the text to be generated, depending on whether the stuffed animal 20 has a "docile" or "mischievous" personality. In addition, if the imaging area includes multiple stuffed animals, and/or if the imaging area and the vicinity of the information terminal 10 each contain stuffed animals, text information corresponding to the degree of intimacy between the stuffed animals is added to the additional information. The generation unit 120 may generate the information. The degree of intimacy between the stuffed animals is stored, for example, in the friend information storage unit 128 as friend-related information.

また、付加情報生成部120は、撮像領域に含まれるぬいぐるみ20の固有の特性を示す情報に基づいて、複数のテキスト情報を生成することもできる。そして、付加情報生成部120は、ユーザからの選択指示を指示受付部112が受け付けた場合、ユーザによって選択されたテキスト情報を付加情報として決定する。また、この場合において付加情報生成部120は、ぬいぐるみ情報更新部126に働きかけて、ユーザが選択したテキスト情報に対応する特性を、新たな特性としてぬいぐるみ20に対応付けるように、ぬいぐるみ情報格納部124に格納されているぬいぐるみ情報を更新させてもよい。例えば、付加情報生成部120は、撮像領域に含まれるぬいぐるみ20の固有の特性を示す情報に基づいて、当該特性に対応するテキスト情報の他に、他の特性に対応するテキスト情報を1つ以上生成する。そして、複数のテキスト情報からユーザが選択したテキスト情報が当該特性に対応するテキスト情報とは異なる他の特性に対応するテキスト情報である場合、付加情報生成部120は、ぬいぐるみ情報更新部126に、ぬいぐるみ情報格納部124に格納されているぬいぐるみ情報に含まれるぬいぐるみの特性をこの他の特性に更新させる。これにより、ぬいぐるみ20の特性をユーザの好みの特性に変更することができる。 Further, the additional information generation unit 120 can also generate a plurality of pieces of text information based on information indicating the unique characteristics of the stuffed animal 20 included in the imaging area. Then, when the instruction receiving unit 112 receives a selection instruction from the user, the additional information generating unit 120 determines the text information selected by the user as additional information. Additionally, in this case, the additional information generation unit 120 acts on the stuffed toy information updating unit 126 to cause the stuffed toy information storage unit 124 to associate the characteristic corresponding to the text information selected by the user with the stuffed toy 20 as a new characteristic. The stored stuffed animal information may also be updated. For example, based on information indicating a unique characteristic of the stuffed animal 20 included in the imaging area, the additional information generation unit 120 generates one or more pieces of text information corresponding to other characteristics in addition to text information corresponding to the characteristic. generate. Then, if the text information selected by the user from the plurality of text information is text information corresponding to another characteristic different from the text information corresponding to the characteristic, the additional information generation unit 120 causes the stuffed toy information update unit 126 to The characteristics of the stuffed toy included in the stuffed toy information stored in the stuffed toy information storage section 124 are updated to other characteristics. Thereby, the characteristics of the stuffed toy 20 can be changed to those desired by the user.

(供給部122)
供給部122は、撮像画像と、撮像画像に対応する付加情報とを所定のサーバ(例えば、ソーシャルネットワークサービス(SNS)のサーバ)に供給する。供給部122は、指示受付部112がユーザからのSNSへの投稿指示を受け付けた場合、所定のサーバに撮像部100が撮像した撮像画像及び付加情報を供給する。これにより、ぬいぐるみ20が主人公である撮像画像が付加情報と共に所定のサーバにアップされる。
(Supply section 122)
The supply unit 122 supplies the captured image and additional information corresponding to the captured image to a predetermined server (for example, a server of a social network service (SNS)). The supply unit 122 supplies the captured image captured by the imaging unit 100 and additional information to a predetermined server when the instruction receiving unit 112 receives an instruction to post to SNS from the user. As a result, a captured image in which the stuffed animal 20 is the main character is uploaded to a predetermined server along with additional information.

[撮影システム5の構成の詳細:ぬいぐるみ20の構成]
(構成部材200)
ぬいぐるみ20は、少なくとも1つの構成部材200を有して構成される。一例として、ぬいぐるみ20は、図4に示すように、頭部の構成部材200a、頭部に接続する胴体の構成部材200b、頭部に設けられる耳の構成部材200c及び構成部材200d、胴体に設けられる腕部の構成部材200e及び構成部材200f、及び胴体の頭部との接続側と反対側付近に設けられる脚部の構成部材200g及び構成部材200hとを有して構成される。なお、ぬいぐるみ20の各構成部材は、内部に1つ以上の駆動部を有していてもよい。例えば、所定の長さを有して構成されるぬいぐるみ20の腕部に対応する構成部材や耳に対応する構成部材の長手方向に沿って所定間隔で複数の駆動部及び各駆動部を連結する連結部材を設け、腕部や耳が折れ曲がるように構成することもできる。また、ぬいぐるみ20の形状、及びぬいぐるみ20を構成する構成部材は図4の例に限られない。ぬいぐるみ20の形状としては、様々な動物の形状、様々なキャラクターの形状等を採用できる。そして、ぬいぐるみ20を構成する構成部材の形状及び数も、ぬいぐるみ20全体の形状及び/又は機能に応じて適宜決定できる。ただし、ぬいぐるみ20は、カメラ等の撮像部を有さずに構成される。
[Details of the configuration of the photographing system 5: Configuration of the stuffed animal 20]
(Component member 200)
The stuffed toy 20 includes at least one component 200. As an example, the stuffed toy 20 includes a head component 200a, a body component 200b connected to the head, an ear component 200c and a component 200d provided on the head, and a body component 200c and a component 200d provided on the body, as shown in FIG. The body includes arm component members 200e and 200f, and leg component members 200g and 200h, which are provided near the side opposite to the connection side of the body to the head. Note that each component of the stuffed animal 20 may have one or more drive parts inside. For example, a plurality of drive parts and each drive part are connected at predetermined intervals along the longitudinal direction of the component corresponding to the arm part and the component corresponding to the ear of the stuffed toy 20 having a predetermined length. It is also possible to provide a connecting member so that the arms and ears can be bent. Further, the shape of the stuffed toy 20 and the constituent members constituting the stuffed toy 20 are not limited to the example shown in FIG. 4 . As the shape of the stuffed toy 20, various animal shapes, various character shapes, etc. can be adopted. The shape and number of the constituent members constituting the stuffed toy 20 can also be determined as appropriate depending on the shape and/or function of the stuffed toy 20 as a whole. However, the stuffed animal 20 is configured without an imaging unit such as a camera.

一の構成部材と当該一の構成部材に隣接する他の構成部材とは駆動部を介して接続できる。例えば、図4の例においては、駆動部208aを介して構成部材200aと構成部材200bとが接続され、胴体の構成部材200bに対して頭部の構成部材200aが動くように構成される。また、駆動部208bを介して構成部材200bと右腕の構成部材200eとが接続され、駆動部208cを介して構成部材200bと左腕の構成部材200fとが接続され、駆動部208dを介して構成部材200aと右耳の構成部材200cとが接続され、駆動部208eを介して構成部材200aと左耳の構成部材200dとが接続され、駆動部208iを介して構成部材200bと右脚の構成部材200gとが接続され、駆動部208jを介して構成部材200bと左脚の構成部材200hとが接続される。ぬいぐるみ20の四肢及び両耳も、胴体に対する頭部と同様に動くように構成される。 One component and another component adjacent to the one component can be connected via a drive section. For example, in the example of FIG. 4, the component 200a and the component 200b are connected via the drive unit 208a, and the head component 200a is configured to move relative to the body component 200b. Further, the component 200b and the component 200e of the right arm are connected via the drive section 208b, the component 200b and the component 200f of the left arm are connected via the drive section 208c, and the component 200f is connected via the drive section 208d. 200a and the right ear component 200c are connected, the component 200a and the left ear component 200d are connected via the drive section 208e, and the component 200b and the right leg component 200g are connected via the drive section 208i. The component 200b and the left leg component 200h are connected via the drive unit 208j. The limbs and both ears of the stuffed animal 20 are also configured to move in the same manner as the head relative to the body.

また、ぬいぐるみ20の一方の目に駆動部208fが接続され、他方の目に駆動部208gが接続される。駆動部208f及び/又は駆動部208gは、目が開閉する動作や瞬きする動作をするように構成される。更に、ぬいぐるみ20の口部分に設けられる駆動部208hは、口の形状が変化する動作をするように構成される。 Further, a driving unit 208f is connected to one eye of the stuffed animal 20, and a driving unit 208g is connected to the other eye. The drive unit 208f and/or the drive unit 208g are configured to open and close the eyes or blink. Furthermore, the drive unit 208h provided at the mouth portion of the stuffed toy 20 is configured to operate to change the shape of the mouth.

(ぬいぐるみ側送受信部202)
ぬいぐるみ側送受信部202は、情報端末10から撮像領域情報等の所定の情報を受け取り、受け取った所定の情報をぬいぐるみ20の所定の構成部材に供給する。また、ぬいぐるみ側送受信部202は、バッテリー残量に関する情報等、ぬいぐるみ20の所定の構成部材からの所定の情報を情報端末10の所定の構成部材に供給する。
(Stuffed toy side transmitter/receiver 202)
The stuffed toy side transmitting/receiving unit 202 receives predetermined information such as imaging area information from the information terminal 10 and supplies the received predetermined information to a predetermined component of the stuffed toy 20 . Further, the stuffed toy side transmitting/receiving unit 202 supplies predetermined information from a predetermined component of the stuffed toy 20, such as information regarding the remaining battery level, to a predetermined component of the information terminal 10.

(動作情報格納部204)
動作情報格納部204は、バッテリー220の残量情報、撮像領域情報、及び/又は動作情報を格納する。動作情報格納部204は、ぬいぐるみ20を識別するぬいぐるみIDに対応付けてこれらの情報を格納してもよい。動作情報とは、ぬいぐるみ20が有する1つ以上の駆動部208、及び/又はスピーカー214等の構成部材の動作を規定する情報であって、当該動作のシナリオ情報、音声情報等の情報である。動作情報格納部204は、駆動制御部206の働きかけに応じ、所定の動作情報を駆動制御部206に供給する。なお、情報端末10が動作情報格納部204を有していてもよい。この場合、情報端末10が駆動制御部206に動作情報を供給する。または、情報端末10は、撮像領域情報に基づいて動作情報を生成する動作情報生成部を有していてもよい。動作情報生成部は、生成した動作情報を動作情報格納部204に供給する(この場合、動作情報格納部204は、情報端末10若しくはぬいぐるみ20が有する。)。
(Operation information storage unit 204)
The operation information storage unit 204 stores remaining amount information of the battery 220, imaging area information, and/or operation information. The motion information storage unit 204 may store this information in association with a stuffed toy ID that identifies the stuffed toy 20. The operation information is information that defines the operation of one or more drive units 208 and/or constituent members such as the speaker 214 of the stuffed toy 20, and is information such as scenario information and audio information of the operation. The motion information storage section 204 supplies predetermined motion information to the drive control section 206 in response to the action of the drive control section 206 . Note that the information terminal 10 may include the operation information storage section 204. In this case, the information terminal 10 supplies operation information to the drive control unit 206. Alternatively, the information terminal 10 may include a motion information generation unit that generates motion information based on the imaging area information. The motion information generation section supplies the generated motion information to the motion information storage section 204 (in this case, the motion information storage section 204 is included in the information terminal 10 or the stuffed toy 20).

(駆動制御部206、駆動部208)
駆動部208は、構成部材を動作させる。駆動部208は、例えば、RCサーボモーターやDCモータ、及び/又はポテンショメータ等で構成される。そして、駆動制御部206は、撮像領域情報に基づいて駆動部208の動作を制御する。例えば、駆動制御部206は、情報端末10から受け取った撮像領域情報に対応付けて動作情報格納部204に格納されている動作情報を用い、駆動部208を動作させる。なお、駆動制御部206は、撮像領域情報に含まれる撮像領域の位置、撮像領域にぬいぐるみ20と共に含まれるオブジェクトや他のぬいぐるみ、撮像領域の背景、撮像領域の撮像時の天気や湿度、撮像領域にぬいぐるみ20と共に写っている他のぬいぐるみとぬいぐるみ20との関係性(例えば、親密度等)等に応じ、動作情報に所定の変化を加えてもよい。
(Drive control section 206, drive section 208)
The drive unit 208 operates the components. The drive unit 208 is composed of, for example, an RC servo motor, a DC motor, and/or a potentiometer. The drive control unit 206 then controls the operation of the drive unit 208 based on the imaging area information. For example, the drive control unit 206 operates the drive unit 208 using the operation information stored in the operation information storage unit 204 in association with the imaging area information received from the information terminal 10. Note that the drive control unit 206 controls the position of the imaging area included in the imaging area information, objects and other stuffed animals included in the imaging area together with the stuffed animal 20, the background of the imaging area, the weather and humidity at the time of imaging the imaging area, and the imaging area. Predetermined changes may be made to the motion information depending on the relationship between the stuffed animal 20 and other stuffed animals that are photographed together with the stuffed animal 20 (for example, degree of familiarity, etc.).

(センサ210、マイク212、スピーカー214)
センサ210は、ぬいぐるみ20に対するユーザの接触やぬいぐるみ20の動作等を検出する。例えば、センサ210は、加速度センサ、静電容量タッチセンサ等である。また、マイク212は、ぬいぐるみ20の周囲の音声を取得する。更に、スピーカー214は、ぬいぐるみ20から各種の音声を出力する。例えば、駆動制御部206は、センサ210が検出したユーザによるぬいぐるみ20への接触を示す情報等、及び/又はマイク212が検出した音声等の情報に基づいて駆動部208の動作を制御してもよい。この場合、動作情報格納部204は、接触を示す情報や音声等の情報に対応付けて、動作情報を格納し、駆動制御部206は、接触を示す情報や音声の情報に対応する動作情報に基づいて駆動部208を動作させてよい。
(sensor 210, microphone 212, speaker 214)
The sensor 210 detects the user's contact with the stuffed animal 20, the movement of the stuffed animal 20, and the like. For example, sensor 210 is an acceleration sensor, a capacitive touch sensor, or the like. Furthermore, the microphone 212 acquires sounds around the stuffed animal 20. Furthermore, the speaker 214 outputs various sounds from the stuffed animal 20. For example, the drive control unit 206 may control the operation of the drive unit 208 based on information such as information indicating that the user has touched the stuffed animal 20 detected by the sensor 210 and/or information such as voice detected by the microphone 212. good. In this case, the motion information storage unit 204 stores motion information in association with information indicating contact and information such as sound, and the drive control unit 206 stores motion information in association with information indicating contact and sound information. The driving unit 208 may be operated based on the above.

(バッテリー220、バッテリー残量確認部222、充放電制御部224)
バッテリー220は、少なくとも駆動部208を動作させる電力を駆動部208に供給する。バッテリー220は、ぬいぐるみ20を構成する各構成部材のうち、電力を要する構成部材に電力を供給する。そして、バッテリー残量確認部222は、バッテリー220をモニタリングして、バッテリー220の残量を確認する。バッテリー残量確認部222は、バッテリー残量を示す情報を情報端末10及び/又は駆動制御部206に供給する。また、充放電制御部224は、バッテリー220の充電及び放電を制御する。
(Battery 220, remaining battery level confirmation unit 222, charge/discharge control unit 224)
The battery 220 supplies the drive unit 208 with at least power to operate the drive unit 208. The battery 220 supplies power to components that require power among the components that make up the stuffed animal 20. Then, the battery remaining amount confirmation unit 222 monitors the battery 220 and confirms the remaining amount of the battery 220. The battery remaining amount confirmation unit 222 supplies information indicating the remaining battery amount to the information terminal 10 and/or the drive control unit 206. Further, the charge/discharge control unit 224 controls charging and discharging of the battery 220.

駆動制御部206は、バッテリー残量確認部222からバッテリー残量に関する情報を受け取った場合、バッテリー残量に基づいて駆動部208の動作を制御する。例えば、バッテリー残量が所定値以下であり、予め定められた閾値を超える場合、駆動制御部206は、ぬいぐるみ20があたかも眠気を催していたり、お腹がすいたような印象を与えるような動作をぬいぐるみ20がするように駆動部208を制御する。例えば、駆動制御部206は、ぬいぐるみ20の目の部分の駆動部を動作させ、ぬいぐるみ20が目を閉じている状態を実現させることや、耳部分の駆動部を動作させ、バッテリー残量に応じて段階的に耳が下がる動作を実行させることができる。 When the drive control unit 206 receives information regarding the remaining battery level from the remaining battery level confirmation unit 222, it controls the operation of the drive unit 208 based on the remaining battery level. For example, if the remaining battery level is below a predetermined value and exceeds a predetermined threshold, the drive control unit 206 causes the stuffed animal 20 to perform an operation that gives the impression that it is sleepy or hungry. Control the drive unit 208 as the stuffed animal 20 does. For example, the drive control unit 206 operates the drive unit for the eyes of the stuffed toy 20 to make the stuffed toy 20 close its eyes, or operates the drive unit for the ears, depending on the remaining battery level. It is possible to perform the action of lowering the ears in stages.

また、駆動制御部206は、バッテリー残量確認部222からバッテリー残量に関する情報を受け取り、バッテリー残量が予め定められた閾値以下である場合、駆動部208を予め定められた状態に設定し、その状態で駆動部208を停止させる。すなわち、バッテリー残量が駆動部208を十分に動作させることができない場合、ぬいぐるみ20の姿勢や表情がぬい撮りには適さない場合がある。そこで、バッテリー残量が予め定められた閾値以下になった場合、ぬい撮りにおいて不適切ではない撮像画像を撮像できるように、駆動制御部206は駆動部208の動作を制御し、ぬいぐるみ20の姿勢や表情をぬい撮りに適切な姿勢や表情にした上で、ぬいぐるみ20の動作(つまり、駆動部208の動作)を停止させる。これにより、バッテリー残量が駆動部208を動作させるには少なくなった場合であっても、ぬい撮りに適したぬいぐるみ20の姿勢や表情を維持できる。なお、バッテリー220が再び充電され、バッテリー残量が予め定められた閾値を超えるか、若しくは所定値を超えた場合、駆動制御部206は、駆動部208の動作を再開させることができる。 Further, the drive control unit 206 receives information regarding the remaining battery level from the remaining battery level confirmation unit 222, and when the remaining battery capacity is below a predetermined threshold, sets the drive unit 208 to a predetermined state, In this state, the drive unit 208 is stopped. That is, if the remaining battery power is insufficient to operate the drive unit 208 sufficiently, the posture and expression of the stuffed animal 20 may not be suitable for sewing. Therefore, when the remaining battery level falls below a predetermined threshold, the drive control unit 206 controls the operation of the drive unit 208 to change the posture of the stuffed toy 20 so that an image that is not inappropriate for sewing can be captured. After the stuffed animal 20 is set in a posture and expression appropriate for sewing, the operation of the stuffed animal 20 (that is, the operation of the drive unit 208) is stopped. As a result, even if the remaining battery power is too low to operate the drive unit 208, the posture and expression of the stuffed toy 20 suitable for sewing can be maintained. Note that when the battery 220 is charged again and the remaining battery power exceeds a predetermined threshold or exceeds a predetermined value, the drive control unit 206 can restart the operation of the drive unit 208.

[撮影システム5の処理の流れ]
図6は、本実施形態に係る撮影システムにおける処理の流れの一例を示す。
[Processing flow of photographing system 5]
FIG. 6 shows an example of the flow of processing in the imaging system according to this embodiment.

まず、撮像部100の撮像領域にぬいぐるみ20が入った状態において、指示受付部112が受け付けたユーザからの指示に応じるか若しくは自動的に、撮像制御部102は撮像部100を撮影準備状態にする(ステップ10。以下、ステップを「S」と表す。)。そして、撮像領域情報取得部104は、撮像部100が撮像している画像、若しくは撮像した撮像画像に基づいて撮像領域の撮像領域情報を取得する(S12)。撮像領域情報取得部104は、GPS機能や時計機能等の活用、撮像領域の画像認識、及び/又は画像解析により、撮像領域内のオブジェクトの有無、オブジェクトが含まれる場合は当該オブジェクトの種類(例えば、人物であるか物品であるか等を示す種類)、オブジェクトの動作や状態、撮像領域の背景、撮像領域の場所、撮影準備状態が開始された日時、及び/又は撮像領域の気温や天気等の情報を撮像領域情報として取得する。 First, with the stuffed toy 20 in the imaging area of the imaging unit 100, the imaging control unit 102 sets the imaging unit 100 in a shooting preparation state, either in response to an instruction from the user accepted by the instruction receiving unit 112 or automatically. (Step 10. Hereinafter, step will be referred to as "S"). Then, the imaging area information acquisition unit 104 acquires imaging area information of the imaging area based on the image being captured by the imaging unit 100 or the captured image that has been captured (S12). The imaging area information acquisition unit 104 uses the GPS function, clock function, etc., image recognition of the imaging area, and/or image analysis to determine whether or not there is an object in the imaging area, and if an object is included, the type of the object (e.g. , type indicating whether it is a person or an article, etc.), the movement or state of the object, the background of the imaging area, the location of the imaging area, the date and time when the shooting preparation state started, and/or the temperature or weather of the imaging area, etc. information is acquired as imaging area information.

そして、情報端末側送受信部110は、撮像領域情報取得部104が取得した撮像領域情報をぬいぐるみ側送受信部202に送信する(S14)。なお、情報端末側送受信部110は、過去の撮像領域情報を送信してもよい。ぬいぐるみ側送受信部202が撮像領域情報を受信した場合、ぬいぐるみ側送受信部202は、撮像領域情報を駆動制御部206に供給すると共に、バッテリー残量確認部222にバッテリー220の残量を確認させる。そして、バッテリー残量確認部222は、バッテリー220の残量を確認する(S16)。バッテリー残量確認部222が、バッテリー220の残量が所定値を超えていることを確認した場合(S16の「所定値超え」)、駆動制御部206は撮像領域情報に基づいて所定の駆動部208の動作を制御する(S18)。具体的に、駆動制御部206は、撮像領域情報に対応付けて動作情報格納部204に格納されている動作情報を取得し、取得した動作情報に基づいて駆動部208を動作させる。 Then, the information terminal side transmitting/receiving unit 110 transmits the imaging area information acquired by the imaging area information acquiring unit 104 to the stuffed animal side transmitting/receiving unit 202 (S14). Note that the information terminal side transmitting/receiving unit 110 may transmit past imaging area information. When the stuffed toy side transmitting/receiving unit 202 receives the imaging area information, the stuffed toy side transmitting/receiving unit 202 supplies the imaging area information to the drive control unit 206 and causes the battery remaining amount checking unit 222 to check the remaining amount of the battery 220. Then, the battery remaining amount checking unit 222 checks the remaining amount of the battery 220 (S16). When the battery remaining amount confirmation unit 222 confirms that the remaining amount of the battery 220 exceeds a predetermined value (“exceeds the predetermined value” in S16), the drive control unit 206 controls the predetermined drive unit based on the imaging area information. 208 is controlled (S18). Specifically, the drive control section 206 acquires the motion information stored in the motion information storage section 204 in association with the imaging area information, and operates the drive section 208 based on the acquired motion information.

例えば動作情報格納部204には、撮像領域に人物が含まれており、この人物が所定の動作をしたことを示す撮像領域情報に対応付けて、ぬいぐるみ20に当該所定の動作を追随させることを示す動作情報を格納できる。一例として、駆動制御部206は、受け取った撮像領域情報に、ぬいぐるみ20と共に人物が撮像領域に含まれ、この人物が右手を上げる動作をしていることを示す情報が含まれている場合、この撮像領域情報に対応付けて動作情報格納部204に格納されている動作情報に基づいて、ぬいぐるみ20の胴体と右手とを繋ぐ駆動部208を動作させ、ぬいぐるみ20に右手を上げる動作を実行させる。 For example, in the motion information storage unit 204, a person is included in the imaging area, and the stuffed toy 20 is associated with imaging area information indicating that the person has performed a predetermined action. It is possible to store the operation information shown. As an example, if the received imaging area information includes information indicating that a person is included in the imaging area together with the stuffed animal 20 and that the person is raising his or her right hand, the drive control unit 206 may Based on the motion information stored in the motion information storage section 204 in association with the imaging area information, a drive section 208 connecting the body of the stuffed toy 20 and the right hand is operated to cause the stuffed toy 20 to perform a motion of raising its right hand.

なお、情報端末10が動作情報格納部204を有するか、撮像領域情報に基づいて動作情報を生成する動作情報生成部を有していてもよく、この場合、情報端末10から動作情報がぬいぐるみ20の駆動制御部206に供給され、駆動制御部206は受け取った動作情報に応じて駆動部208を動作させることができる。ただし、本実施形態においてはぬいぐるみ20が動作情報格納部204を有する例を説明する。 Note that the information terminal 10 may have a motion information storage section 204 or a motion information generation section that generates motion information based on the imaging area information, and in this case, the motion information from the information terminal 10 may be transferred to the The drive control unit 206 can operate the drive unit 208 according to the received operation information. However, in this embodiment, an example in which the stuffed animal 20 includes the motion information storage section 204 will be described.

また、バッテリー残量確認部222が、バッテリー残量が所定の閾値を超え、所定値以下であることを確認した場合(S16の「閾値を超え所定値以下」)、駆動制御部206は駆動部208に予め定められた動作を実行させる(S20)。すなわち、駆動制御部206は、バッテリー残量が減少してきていることをユーザが把握できる動作をぬいぐるみ20に実行させる。例えば、バッテリー残量確認部222は、バッテリー残量が所定の閾値を超えている場合、当該閾値から所定値までの間を複数のゾーンに区切り(所定値>閾値)、バッテリー残量がいずれのゾーンに属するかを確認する。そして、駆動制御部206は、バッテリー残量が減少し、バッテリー残量が多いゾーンから少ないゾーンに移る毎に所定の駆動部208に所定の動作を実行させる。一例として、駆動制御部206は、ぬいぐるみ20の頭部に接続されている耳の構成部材200c及び構成部材200dの駆動部208d及び駆動部208eを動作させ、バッテリー残量が多いゾーンから少ないゾーンに移る毎に耳が下がる動作を実行させる。また、駆動制御部206は、ぬいぐるみ20の目の部分の駆動部208f及び駆動部208gを動作させ、バッテリー残量が多いゾーンから少ないゾーンに移る毎に徐々に目を閉じる動作をさせてもよい。この場合に、駆動制御部206は、例えば、頭部と胴体との間に設けられる駆動部208aを動作させ、ぬいぐるみ20が眠っているような動作(例えば、舟をこぐような動作)をさせてもよい。 Further, when the remaining battery level confirmation unit 222 confirms that the remaining battery capacity exceeds a predetermined threshold value and is below a predetermined value (“exceeds a threshold value and below a predetermined value” in S16), the drive control unit 206 controls the drive unit 208 to execute a predetermined operation (S20). That is, the drive control unit 206 causes the stuffed animal 20 to perform an operation that allows the user to understand that the remaining battery power is decreasing. For example, when the remaining battery level exceeds a predetermined threshold, the remaining battery level confirmation unit 222 divides the range from the threshold to the predetermined value into multiple zones (predetermined value>threshold), and Check if it belongs to a zone. Then, the drive control unit 206 causes a predetermined drive unit 208 to perform a predetermined operation each time the remaining battery power decreases and the zone moves from a zone with a high remaining battery power to a zone with a low remaining battery power. As an example, the drive control unit 206 operates the drive units 208d and 208e of the ear component 200c and the component 200d connected to the head of the stuffed toy 20, and moves from a zone with a high battery level to a zone with a low battery level. Have the ears lower each time the child moves. Further, the drive control unit 206 may operate the drive unit 208f and the drive unit 208g of the eyes of the stuffed animal 20 so that the eyes gradually close each time the remaining battery power moves from a zone with a high level to a zone with a low battery level. . In this case, the drive control unit 206 operates, for example, a drive unit 208a provided between the head and the body to cause the stuffed animal 20 to behave as if it were sleeping (for example, to row a boat). It's okay.

また、駆動制御部206は、バッテリー残量に応じて駆動部208の動作スピードを変更してもよい。例えば、駆動制御部206は、バッテリー残量が多いほど(バッテリー残量に比例して)、駆動部208の動作スピードを速めてもよい。若しくは、駆動制御部206は、バッテリー残量が少ないほど(バッテリー残量に反比例して)、駆動部208の動作スピードを速めてもよい。これにより、バッテリー残量によってぬいぐるみ20の挙動を変化させることができる。 Further, the drive control unit 206 may change the operating speed of the drive unit 208 depending on the remaining battery level. For example, the drive control unit 206 may increase the operating speed of the drive unit 208 as the remaining battery level increases (in proportion to the remaining battery level). Alternatively, the drive control unit 206 may increase the operating speed of the drive unit 208 as the remaining battery level decreases (in inverse proportion to the remaining battery level). Thereby, the behavior of the stuffed animal 20 can be changed depending on the remaining battery level.

更に、バッテリー残量確認部222が、バッテリー残量が所定の閾値以下であることを確認した場合(S16の「閾値以下」)、駆動制御部206は駆動部208を特定の状態にした上で駆動部208の動作を停止させる(S22)。すなわち、駆動制御部206は、バッテリー残量が駆動部208を動作させることができなくなる前に、ぬいぐるみ20の姿勢や表情を所定の姿勢や表情にした上で駆動部208の動作を停止させることで、この姿勢や表情を維持させる。駆動制御部206は、バッテリー残量が残存していたとしても当該残量が所定の閾値以下である場合、充電によりバッテリー残量が回復するまでは駆動部208の動作を停止させる。これにより、バッテリー切れ時にしか取らない姿勢や見せない表情をぬいぐるみ20にさせることができる。すなわち、バッテリー残量が駆動部208の動作に不十分な場合に上記プロセスを実行することで、ぬい撮りにおいて写真を撮ってもかわいいとユーザが思うぬいぐるみ20の姿勢や表情を維持できる(つまり、撮像に不適な姿勢や表情でぬいぐるみ20の動作が停止しないように、駆動部を駆動させることができないバッテリー残量になる前に、駆動部の動作を停止できる。)。なお、情報端末10とぬいぐるみ20との間で通信可能な程度の電力をバッテリー220に残存させる観点や、ぬいぐるみ20の姿勢や表情を所定の姿勢や表情にするために駆動部208を動作させる程度の電力を残存させる観点から、バッテリー残量の上記閾値は決定される。 Furthermore, when the remaining battery level confirmation unit 222 confirms that the remaining battery level is below a predetermined threshold (“below the threshold” in S16), the drive control unit 206 puts the drive unit 208 in a specific state and then The operation of the drive unit 208 is stopped (S22). That is, the drive control unit 206 stops the operation of the drive unit 208 after changing the attitude and expression of the stuffed toy 20 to a predetermined attitude and expression before the remaining battery level makes it impossible to operate the drive unit 208. And maintain this posture and expression. Even if the remaining battery power remains, if the remaining battery power is below a predetermined threshold, the drive control unit 206 stops the operation of the drive unit 208 until the remaining battery power is recovered by charging. Thereby, the stuffed animal 20 can be made to take a posture that is only taken when the battery runs out or an expression that is not shown. That is, by executing the above process when the remaining battery power is insufficient for the operation of the drive unit 208, it is possible to maintain the posture and expression of the stuffed animal 20 that the user thinks is cute even when taking a picture during sewing (that is, In order to prevent the operation of the stuffed animal 20 from stopping due to a posture or facial expression unsuitable for imaging, the operation of the drive unit can be stopped before the remaining battery level reaches a point where the drive unit cannot be driven. It should be noted that from the viewpoint of ensuring that enough power remains in the battery 220 to enable communication between the information terminal 10 and the stuffed animal 20, and the extent to which the driving unit 208 is operated to make the posture and expression of the stuffed animal 20 a predetermined posture and expression. The above-mentioned threshold value of the remaining battery power is determined from the viewpoint of keeping the power remaining.

続いて、ユーザからの撮像指示を指示受付部112が受け付けた場合に、撮像制御部102は撮像部100に撮像を実行させる(S24)。撮像部100が撮像した撮像画像は、画像格納部114及び/又は表示部130に供給される。 Subsequently, when the instruction receiving unit 112 receives an imaging instruction from the user, the imaging control unit 102 causes the imaging unit 100 to perform imaging (S24). The captured image captured by the imaging unit 100 is supplied to the image storage unit 114 and/or the display unit 130.

そして、画像処理制御部116は、撮像領域情報及び/又はバッテリー残量を示す情報に基づいて、撮像部100が撮像した撮像画像に画像処理を施すか否かを判断する(S26)。具体的に、画像処理制御部116は、撮像領域情報を参照し、撮像領域情報に対応付けて動作情報格納部204に動作情報が格納されていない場合や、動作情報が格納されていたとしても当該動作情報によってはぬいぐるみ20が動作を完遂できない場合(例えば、撮像領域情報に撮像領域に含まれる人物の動作や姿勢を示す情報が含まれるものの、当該動作や姿勢をぬいぐるみ20が追随できない場合)等において、画像処理を画像に施すと判断する(S26のYes)。 Then, the image processing control unit 116 determines whether to perform image processing on the captured image captured by the imaging unit 100, based on the imaging area information and/or the information indicating the remaining battery power (S26). Specifically, the image processing control unit 116 refers to the imaging area information, and determines whether the operational information is not stored in the operational information storage unit 204 in association with the imaging area information or even if the operational information is stored. When the stuffed animal 20 is unable to complete the action depending on the action information (for example, when the imaging area information includes information indicating the action or posture of the person included in the imaging area, but the stuffed animal 20 is unable to follow the action or attitude) etc., it is determined that image processing is to be performed on the image (Yes in S26).

画像処理制御部116が画像処理を画像に施すと判断した場合、画像処理部118は撮像部100が撮像した撮像画像に画像処理を施す(S28)。例えば、撮像領域情報に撮像領域に含まれる人物の姿勢を示す情報が含まれ、動作情報が当該姿勢を追随することを駆動部に指令する内容である場合において、ぬいぐるみ20の構造上、当該姿勢をぬいぐるみ20に取らせることができない場合(一例として、人物が正座をしており、ぬいぐるみ20が正座の姿勢をとることができない場合)、画像処理部118は、撮像部100が撮像した撮像画像のぬいぐるみ20が表示される位置(つまり、表示部130に表示されるぬいぐるみ20の位置)に、正座した状態のぬいぐるみの画像を合成する。この場合、正座した状態のぬいぐるみ20の画像(合成用の画像)は画像格納部114に格納されており、画像処理部118は画像格納部114の当該画像を用いて画像処理(例えば、画像合成処理)を実行する。そして、画像処理が施された撮像画像は、表示部130に表示される。なお、画像処理が施された撮像画像を画像格納部114に格納することもできる。 When the image processing control unit 116 determines to perform image processing on the image, the image processing unit 118 performs image processing on the captured image captured by the imaging unit 100 (S28). For example, in a case where the imaging area information includes information indicating the posture of a person included in the imaging area, and the motion information is content that instructs the drive unit to follow the posture, the structure of the stuffed toy 20 If the stuffed toy 20 cannot take the position (for example, if the person is sitting straight and the stuffed toy 20 cannot take the sitting position), the image processing unit 118 uses the captured image captured by the imaging unit 100. An image of the stuffed animal in a sitting position is synthesized at the position where the stuffed animal 20 is displayed (that is, the position of the stuffed animal 20 displayed on the display unit 130). In this case, an image of the stuffed animal 20 in a sitting position (an image for synthesis) is stored in the image storage unit 114, and the image processing unit 118 uses the image in the image storage unit 114 to perform image processing (for example, image synthesis). process). The captured image subjected to image processing is then displayed on the display unit 130. Note that a captured image that has been subjected to image processing can also be stored in the image storage unit 114.

また、画像処理制御部116は、撮像領域情報を参照し、撮像領域の状況に応じて画像処理の実行有無を判断してもよい。撮像領域の状況とは、例えば、撮像領域の日時、場所、天気等である。一例として、撮像領域の場所が所定の場所(例えば、観光地や行楽地、景勝地等)である場合、画像処理制御部116は、撮像画像の一部若しくは全てに対して画像処理の実行を決定してよい。 Further, the image processing control unit 116 may refer to the imaging area information and determine whether or not to perform image processing depending on the situation of the imaging area. The situation of the imaging area is, for example, the date and time of the imaging area, the location, the weather, etc. For example, if the location of the imaging area is a predetermined location (for example, a tourist spot, recreational area, scenic spot, etc.), the image processing control unit 116 may execute image processing on part or all of the captured image. You may decide.

図7は、本実施形態に係る画像処理部による画像処理の一例を示す。 FIG. 7 shows an example of image processing by the image processing unit according to this embodiment.

例えば、日本の古都等の五重塔を背景にぬいぐるみ20を撮像する場合を説明する。この場合、撮像領域情報取得部104は、撮像領域情報として撮像領域の場所が日本の所定の場所であり、背景に日本伝統の建造物が含まれている情報を取得する。そして、画像処理制御部116は、この情報に基づいて撮像画像の一部に対して画像処理の実行を決定する。例えば、画像処理制御部116は、画像処理部118に、撮像領域に含まれるぬいぐるみ20の表示部130における表示位置に撮像領域の場所に適した画像を合成させる。一例として、ぬいぐるみ20が着物を着用し、正座している画像を合成する。これにより、図7に示すように、五重塔等を背景にし、ぬいぐるみ20が着物を着用して正座している状態を示す合成画像22が表示部130に表示される。このように、画像処理部118による画像処理により、撮像領域の場所に応じてぬいぐるみ20の姿勢を変化させた状態の合成画像や、着せ替えをしたぬいぐるみ20の合成画像を表示部130に表示できる。 For example, a case will be described in which the stuffed toy 20 is imaged with a five-storied pagoda in the ancient capital of Japan as a background. In this case, the imaging area information acquisition unit 104 acquires information indicating that the location of the imaging area is a predetermined location in Japan and that a traditional Japanese building is included in the background. Then, the image processing control unit 116 decides to perform image processing on a part of the captured image based on this information. For example, the image processing control unit 116 causes the image processing unit 118 to combine an image suitable for the location of the imaging area with the display position of the stuffed animal 20 included in the imaging area on the display unit 130. As an example, an image of the stuffed animal 20 wearing a kimono and sitting straight is synthesized. As a result, as shown in FIG. 7, a composite image 22 showing the stuffed animal 20 wearing a kimono and sitting upright is displayed on the display unit 130 with a five-storied pagoda or the like in the background. In this way, through the image processing by the image processing unit 118, a composite image of the stuffed toy 20 with its posture changed depending on the location of the imaging area, or a composite image of the stuffed toy 20 dressed up can be displayed on the display unit 130. .

なお、画像処理部118は、ぬいぐるみ20の表示部130における表示位置に、ぬいぐるみ20の撮像画像を表示すると共に、当該撮像画像の一部に対して画像を合成してもよい。例えば、ぬいぐるみ20の頭部については撮像画像を表示すると共に、頭部を除く他の部分に合成用画像を合成してもよい。これにより、撮像領域情報にぬいぐるみ20が追随できない姿勢や動作を示す情報が含まれていたとしても(つまり、ぬいぐるみ20の各駆動部を動作させても実現できない姿勢や動作を示す情報が含まれていたとしても)、当該姿勢や動作を示す合成用画像を撮像画像に合成することができる。 Note that the image processing unit 118 may display the captured image of the stuffed animal 20 at the display position of the stuffed animal 20 on the display unit 130, and may also combine an image with a part of the captured image. For example, a captured image of the head of the stuffed toy 20 may be displayed, and a composition image may be combined with other parts other than the head. As a result, even if the imaging area information includes information indicating a posture or motion that the stuffed toy 20 cannot follow (in other words, information indicating a posture or motion that cannot be achieved even by operating each drive unit of the stuffed toy 20), (even if the user is using the camera), a composition image showing the posture or motion can be composited with the captured image.

なお、画像処理部118は、撮像領域情報に含まれる撮像領域の位置、撮像領域にぬいぐるみ20と共に含まれるオブジェクトや他のぬいぐるみ、撮像領域の背景、撮像領域の撮像時の天気や温度・湿度、撮像領域にぬいぐるみ20と共に写っている他のぬいぐるみとぬいぐるみ20との関係性(例えば、親密度等)等に応じ、合成する画像に所定の変化を加えてもよい。 Note that the image processing unit 118 processes the position of the imaging area included in the imaging area information, objects and other stuffed animals included in the imaging area together with the stuffed animal 20, the background of the imaging area, the weather, temperature, and humidity at the time of imaging the imaging area, A predetermined change may be made to the image to be synthesized depending on the relationship (for example, intimacy, etc.) between the stuffed animal 20 and other stuffed animals that are photographed together with the stuffed animal 20 in the imaging area.

また、画像処理制御部116は、バッテリー残量確認部222の確認結果を参照し、バッテリー残量が所定の閾値以下の場合、画像処理を画像に施すべきと判断することもできる(S26のYes)。例えば、画像処理制御部116は、バッテリー残量が所定の閾値以下の場合、画像処理部118に、撮像領域に含まれるぬいぐるみ20の表示部130における表示位置にぬいぐるみ20が眠っている画像、ぬいぐるみ20の目の表示位置に目が回っている画像、ぬいぐるみ20の周囲に所定の図形や記号を表示する画像(例えば、ぬいぐるみ20の顔周辺にビックリマーク等の図形を表示する画像)、又はぬいぐるみ20が所定のオブジェクトの裏に隠れるような画像等を合成させる。 The image processing control unit 116 can also refer to the confirmation result of the remaining battery capacity confirmation unit 222 and determine that image processing should be performed on the image if the remaining battery capacity is less than or equal to a predetermined threshold (Yes in S26). ). For example, when the remaining battery level is less than or equal to a predetermined threshold, the image processing control unit 116 sends the image processing unit 118 an image of the stuffed toy 20 sleeping at the display position of the stuffed toy 20 included in the imaging area on the display unit 130; An image in which the eyes of eye 20 are rolling, an image in which a predetermined figure or symbol is displayed around the stuffed toy 20 (for example, an image in which a figure such as an exclamation mark is displayed around the face of the stuffed toy 20), or a stuffed toy. An image, etc. in which 20 is hidden behind a predetermined object is synthesized.

このように、情報端末10による撮像時に、ぬいぐるみ20のバッテリー残量が少なくなっていることを示す合成画像や、ぬいぐるみ20に所定の動作をさせることができるので、撮像時にぬいぐるみ20のバッテリー残量をユーザに意識させることができる。これにより、ぬいぐるみ20を含む撮像領域を実際に撮像する場合に、ぬいぐるみ20のバッテリー残量がないことにより適切な画像を撮像できなくなることを抑制できる。 In this way, when the information terminal 10 takes an image, it is possible to create a composite image indicating that the battery level of the stuffed animal 20 is low, or to make the stuffed animal 20 perform a predetermined action, so that the remaining battery level of the stuffed animal 20 can be displayed at the time of image capturing. It is possible to make the user aware of this. As a result, when actually capturing an image of an imaging area including the stuffed animal 20, it is possible to suppress the inability to capture an appropriate image due to the lack of remaining battery power of the stuffed animal 20.

なお、画像処理部118が画像の合成に用いる合成用画像は、画像格納部114に格納されていてもよく、外部のサーバから取得した合成用画像であってもよい。また、合成用画像は、画像が撮像される場所において、当該場所に特有の合成用画像を格納する所定のサーバから取得可能な合成用画像であってもよい。 Note that the image for synthesis used by the image processing unit 118 to synthesize images may be stored in the image storage unit 114, or may be an image for synthesis obtained from an external server. Furthermore, the composition image may be a composition image that can be obtained from a predetermined server that stores composition images specific to the location where the images are captured.

一方、画像処理制御部116が、画像処理を実行しないと判断した場合(S26のNo)、撮像画像が表示部130に表示される。なお、撮像画像を画像格納部114に格納することもできる。 On the other hand, if the image processing control unit 116 determines not to perform image processing (No in S26), the captured image is displayed on the display unit 130. Note that the captured image can also be stored in the image storage unit 114.

[撮影システム5の処理の流れの変形例]
図8は、本実施形態に係る撮影システムにおける処理の流れの変形例の一例を示す。また、図9は、本実施形態に係る付加情報の作成例を示す。なお、図8の例においては、S24とS30との間においてS32の工程が実行される点を除き、図6の例と略同一の処理が実行される。したがって、相違点を除き詳細な説明は省略する。
[Modified example of processing flow of imaging system 5]
FIG. 8 shows an example of a modification of the processing flow in the imaging system according to the present embodiment. Moreover, FIG. 9 shows an example of creation of additional information according to this embodiment. In the example of FIG. 8, substantially the same processing as the example of FIG. 6 is executed, except that the step of S32 is executed between S24 and S30. Therefore, detailed explanation will be omitted except for the differences.

図8の例では、撮像画像に対し、付加情報が生成される(S32)。すなわち、まず、撮像領域情報取得部104が取得した撮像領域情報(画像解析部106が撮像画像を解析した結果を示す情報を含む)に基づいて、撮像画像に含まれるぬいぐるみ20、オブジェクト、背景等が特定される。そして、付加情報生成部120は、特定結果に基づいて撮像画像に適した付加情報を生成する。 In the example of FIG. 8, additional information is generated for the captured image (S32). That is, first, based on the imaging area information (including information indicating the result of analysis of the captured image by the image analysis unit 106) acquired by the imaging area information acquisition unit 104, the stuffed toy 20, object, background, etc. included in the captured image are is specified. Then, the additional information generation unit 120 generates additional information suitable for the captured image based on the identification result.

一例として、図9に示すような撮像領域の画像を撮像部100が撮像した場合を説明する。なお、当該画像は撮像部100が撮像指示に応じて撮影した撮像画像、若しくは撮影準備状態において撮像部100が撮像した画像のいずれであってもよい。この場合に付加情報生成部120は、撮像領域の画像について撮像領域情報取得部104が取得した撮像領域情報に基づいて付加情報を生成する。例えば、図9においては、撮像領域にぬいぐるみ20と他のぬいぐるみ24(小鳥のぬいぐるみ)とが含まれ、ぬいぐるみ20及びぬいぐるみ24の手前にアイスクリームが含まれ、アイスクリームの大きさがぬいぐるみ20及びぬいぐるみ24の口部に比して大きいことを示す撮像領域情報が生成される。 As an example, a case where the imaging unit 100 captures an image of an imaging area as shown in FIG. 9 will be described. Note that the image may be either a captured image captured by the imaging unit 100 in response to an imaging instruction, or an image captured by the imaging unit 100 in a state of preparation for capturing. In this case, the additional information generation unit 120 generates additional information based on the imaging area information acquired by the imaging area information acquisition unit 104 regarding the image of the imaging area. For example, in FIG. 9, the imaging area includes the stuffed animal 20 and another stuffed animal 24 (a stuffed bird), ice cream is included in front of the stuffed animal 20 and the stuffed animal 24, and the size of the ice cream is the same as that of the stuffed animal 20 and the stuffed animal 24. Imaging area information indicating that the area is larger than the mouth of the stuffed animal 24 is generated.

この場合において付加情報生成部120は、撮像領域の状況に応じたテキスト情報を生成する。図9の例では、一例として、「アイスクリームおいしそう!」「僕らには大きすぎ?!」のような付加情報としてのテキスト情報26を、付加情報生成部120は生成する。なお、付加情報生成部120は、撮像領域の状況に応じた音声情報や記号情報等を付加情報として生成してもよい。そして、付加情報生成部120は、撮像画像に生成した付加情報を対応付ける。この場合において、画像格納部114は、格納している撮像画像に対応付けて付加情報生成部120が生成した付加情報も格納してよい。 In this case, the additional information generation unit 120 generates text information according to the situation of the imaging area. In the example of FIG. 9, the additional information generation unit 120 generates text information 26 as additional information such as "Ice cream looks delicious!" and "Is it too big for us?!". Note that the additional information generation unit 120 may generate audio information, symbol information, etc. as additional information depending on the situation of the imaging area. Then, the additional information generation unit 120 associates the generated additional information with the captured image. In this case, the image storage unit 114 may also store additional information generated by the additional information generation unit 120 in association with the stored captured image.

そして、付加情報生成部120は、生成した付加情報を撮像画像と共に表示部130に表示する(S30)。また、この場合において、指示受付部112は、撮像画像及び付加情報を所定のSNSに投稿するユーザからの指示を受け付けることができる。指示受付部112が当該指示を受け付けた場合、供給部122は、撮像画像及び付加情報を所定のサーバに投稿する(投稿処理:S34)。なお、指示受付部112は、表示部130の所定の位置に「投稿ボタン」を表示させ、ユーザがこの投稿ボタンをタップした場合に投稿処理を実行してもよい。これによりユーザは、ぬいぐるみ20を含む画像を撮像した場合に、撮像状況に応じた付加情報と共に撮像画像をSNSに手軽に素早く投稿できる。 Then, the additional information generating section 120 displays the generated additional information together with the captured image on the display section 130 (S30). Further, in this case, the instruction receiving unit 112 can receive an instruction from a user to post the captured image and additional information on a predetermined SNS. When the instruction receiving unit 112 receives the instruction, the supply unit 122 posts the captured image and additional information to a predetermined server (posting process: S34). Note that the instruction receiving unit 112 may display a “posting button” at a predetermined position on the display unit 130, and execute the posting process when the user taps this posting button. Thereby, when a user captures an image including the stuffed toy 20, the user can easily and quickly post the captured image to SNS along with additional information according to the capturing situation.

[実施の形態の効果]
本実施形態に係る撮影システム5は、ぬいぐるみ20のポーズや表情を撮影状況に応じて変化させることができるので、付加価値の高い撮像画像を撮像できる。すなわち、ぬいぐるみ20の周囲の状況に応じてぬいぐるみ20のポーズや表情を変化させることができることから、ぬいぐるみ20の愛玩性を高めること、及び/又はユーザ等にとって愛着がわくぬいぐるみ20が主人公になっている構図の撮像画像を撮ることができる。
[Effects of embodiment]
The photographing system 5 according to the present embodiment can change the pose and expression of the stuffed toy 20 according to the photographing situation, so it is possible to capture a captured image with high added value. That is, since the pose and expression of the stuffed toy 20 can be changed according to the surrounding situation of the stuffed toy 20, it is possible to increase the lovability of the stuffed toy 20 and/or to make the stuffed toy 20, which the user becomes attached to, become the main character. You can take images with the same composition.

また、撮影システム5は、画像の撮像時に、撮影準備状態での撮像領域の撮像領域情報を取得し、この撮像領域情報に基づいてぬいぐるみ20の各駆動部を動作させることで撮像時の状況に応じて動作するぬいぐるみ20の撮像画像を取得できる。これにより、従来より付加価値の高いぬい撮り用の撮像画像を提供できると共に、愛玩性の高いぬいぐるみ20を提供できる。更に、撮影システム5は、外出時に一緒に連れていくぬいぐるみ20に発生するバッテリー残量の変化に応じ、ぬいぐるみ20に所定の動作を実行させること、及び/又は所定の動作後の更なる動作を停止させることができるので、バッテリー残量に対して適切な画像を撮像することができる。 Furthermore, when capturing an image, the imaging system 5 acquires imaging area information of the imaging area in the imaging preparation state, and operates each drive unit of the stuffed animal 20 based on this imaging area information to adjust the situation at the time of imaging. A captured image of the stuffed animal 20 that moves accordingly can be obtained. As a result, it is possible to provide a captured image for stuffing photography with higher added value than in the past, and also to provide a stuffed animal 20 with high pettiness. Furthermore, the photographing system 5 causes the stuffed animal 20 to perform a predetermined action and/or performs a further action after the predetermined action in response to a change in the remaining battery power of the stuffed animal 20 that is taken with the person when going out. Since it can be stopped, it is possible to capture an image appropriate for the remaining battery level.

また、撮影システム5は、撮像画像自体の付加価値が高くない場合であっても、付加情報を撮像画像に対応付けることができるので、例えばSNSで撮像画像を共有する場合に撮像画像と付加情報とで付加価値を向上させることができる。また、撮像画像に付加情報を紐づけできるので、両情報のSNSへのアップロードを容易かつ手軽にできる。 Furthermore, even if the added value of the captured image itself is not high, the imaging system 5 can associate additional information with the captured image, so for example, when sharing the captured image on SNS, the captured image and the additional information can be can improve added value. Additionally, since additional information can be linked to the captured image, both types of information can be easily and conveniently uploaded to SNS.

[他の実施の形態]
図10は、他の実施形態に係る撮影システムの処理の流れの一例を示す。なお、図10においてS40、S42、S44、及びS46のステップはそれぞれ、図6のS10、S12、S24、及びS32のステップと略同様の工程であるので相違点を除き詳細な説明は省略する。
[Other embodiments]
FIG. 10 shows an example of a processing flow of a photographing system according to another embodiment. Note that steps S40, S42, S44, and S46 in FIG. 10 are substantially the same as steps S10, S12, S24, and S32 in FIG. 6, respectively, so detailed explanation will be omitted except for the differences.

まず、撮像部100の撮像領域にぬいぐるみ20が入った状態において、撮像制御部102は撮像部100を撮影準備状態にする(S40)。そして、撮像領域情報取得部104は、撮像領域の撮像領域情報を取得する(S42)。続いて、ユーザからの撮像指示を指示受付部112が受け付けた場合に、撮像制御部102は撮像部100に撮像を実行させる(S44)。更に、付加情報生成部120は、撮像領域情報取得部104が取得した撮像領域情報に基づいて付加情報を生成する(S46)。付加情報生成部120は、撮像画像と共に当該撮像画像に対応する付加情報を画像格納部114に格納する。続いて、指示受付部112がユーザから所定のサーバへの撮像画像及び付加情報の投稿指示を受け付けた場合、供給部122は、撮像画像と当該撮像画像に対応する付加情報とを所定のサーバに送信する(S48)。所定のサーバは、例えば、SNSのサーバであり、供給部122が撮像画像と付加情報とを当該サーバに送信することにより、SNSに撮像画像と付加情報とが投稿される。なお、S46の工程後、表示部130は、撮像画像と共に付加情報を表示することができる。 First, with the stuffed toy 20 in the imaging area of the imaging unit 100, the imaging control unit 102 puts the imaging unit 100 into a shooting preparation state (S40). Then, the imaging area information acquisition unit 104 acquires imaging area information of the imaging area (S42). Subsequently, when the instruction receiving unit 112 receives an imaging instruction from the user, the imaging control unit 102 causes the imaging unit 100 to perform imaging (S44). Furthermore, the additional information generation unit 120 generates additional information based on the imaging area information acquired by the imaging area information acquisition unit 104 (S46). The additional information generation unit 120 stores the captured image and additional information corresponding to the captured image in the image storage unit 114. Subsequently, when the instruction receiving unit 112 receives an instruction from the user to post the captured image and additional information to a predetermined server, the supply unit 122 sends the captured image and additional information corresponding to the captured image to the predetermined server. Send (S48). The predetermined server is, for example, an SNS server, and when the supply unit 122 transmits the captured image and additional information to the server, the captured image and additional information are posted on the SNS. Note that after the process of S46, the display unit 130 can display additional information together with the captured image.

[撮影プログラム]
図1~図10に示した本実施形態に係る撮影システム5が備える各構成要素は、中央演算処理装置(Central Processing Unit:CPU)等の演算処理装置にプログラム(すなわち、撮影プログラム)を実行させること、つまり、ソフトウェアによる処理により実現できる。また、集積回路(Integrated Circuit:IC)等の電子部品としてのハードウェアにプログラムを予め書き込むことで実現することもできる。なお、ソフトウェアとハードウェアとを併用することもできる。
[Shooting program]
Each component included in the photographing system 5 according to the present embodiment shown in FIGS. 1 to 10 causes a processing unit such as a central processing unit (CPU) to execute a program (that is, a photographing program). In other words, it can be realized through software processing. Further, it can also be realized by writing a program in advance to hardware as an electronic component such as an integrated circuit (IC). Note that software and hardware can also be used together.

本実施形態に係る撮影プログラムは、例えば、ICやROM等に予め組み込むことができる。また、撮影プログラムは、インストール可能な形式、又は実行可能な形式のファイルで、磁気記録媒体、光学記録媒体、半導体記録媒体等のコンピュータで読み取り可能な記録媒体に記録し、コンピュータプログラムとして提供することもできる。プログラムを格納している記録媒体は、CD-ROMやDVD等の非一過性の記録媒体であってよい。更に、撮影プログラムを、インターネット等の通信ネットワークに接続されたコンピュータに予め格納させ、通信ネットワークを介してダウンロードによる提供ができるようにすることもできる。 The photographing program according to this embodiment can be pre-installed in, for example, an IC or a ROM. Furthermore, the photography program must be an installable or executable file, recorded on a computer-readable recording medium such as a magnetic recording medium, an optical recording medium, or a semiconductor recording medium, and provided as a computer program. You can also do it. The recording medium storing the program may be a non-transitory recording medium such as a CD-ROM or a DVD. Furthermore, the photographing program can be stored in advance in a computer connected to a communication network such as the Internet, so that it can be provided by downloading via the communication network.

本実施形態に係る撮影プログラムは、CPU等に働きかけて、撮影プログラムを、図1~図10にかけて説明した撮像部100、撮像制御部102、撮像領域情報取得部104、画像解析部106、撮像領域情報格納部108、情報端末側送受信部110、指示受付部112、画像格納部114、画像処理制御部116、画像処理部118、付加情報生成部120、供給部122、ぬいぐるみ情報格納部124、ぬいぐるみ情報更新部126、友達情報格納部128、表示部130、ぬいぐるみ側送受信部202、動作情報格納部204、駆動制御部206、バッテリー残量確認部222、及び充放電制御部224として機能させる。 The photographing program according to the present embodiment operates on the CPU and the like, and executes the photographing program using the imaging unit 100, the imaging control unit 102, the imaging area information acquisition unit 104, the image analysis unit 106, and the imaging area described in FIGS. 1 to 10. Information storage unit 108, information terminal side transmission/reception unit 110, instruction reception unit 112, image storage unit 114, image processing control unit 116, image processing unit 118, additional information generation unit 120, supply unit 122, stuffed toy information storage unit 124, stuffed toy It functions as an information update section 126, a friend information storage section 128, a display section 130, a stuffed toy side transmission/reception section 202, an operation information storage section 204, a drive control section 206, a remaining battery level confirmation section 222, and a charge/discharge control section 224.

以上、本発明の実施形態を説明したが、上記に記載した実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない点に留意すべきである。更に、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品とのような複数の部分に分割されて適用されるようにすることもできる。 Although the embodiments of the present invention have been described above, the embodiments described above do not limit the invention according to the claims. Furthermore, it should be noted that not all combinations of features described in the embodiments are essential for solving the problems of the invention. Further, the technical elements of the embodiments described above may be applied singly or may be divided into a plurality of parts such as program parts and hardware parts.

なお、本実施形態に係る撮影システムは、特許請求の範囲と混同されるべきでない以下の付記項でも言及できる。
(付記項1)
情報端末と前記情報端末から供給される所定の情報に基づいて動作可能なぬいぐるみとを備える撮影システムであって、
前記情報端末が、
前記ぬいぐるみが含まれる撮像領域を撮像する撮像部と、
前記撮像領域に関する情報である撮像領域情報を取得する撮像領域情報取得部と、
前記撮像部が撮像する撮像画像に対応する付加情報を、前記撮像領域情報に基づいて生成する付加情報生成部と
を有する撮影システム。
Note that the photographing system according to the present embodiment can also be referred to in the following additional notes that should not be confused with the claims.
(Additional note 1)
A photographing system comprising an information terminal and a stuffed animal that can operate based on predetermined information supplied from the information terminal,
The information terminal is
an imaging unit that images an imaging area that includes the stuffed animal;
an imaging area information acquisition unit that acquires imaging area information that is information regarding the imaging area;
An imaging system comprising: an additional information generating section that generates additional information corresponding to a captured image captured by the imaging section based on the imaging area information.

1 オブジェクト
5 撮影システム
10 情報端末
20、24 ぬいぐるみ
22 合成画像
26 テキスト情報
100 撮像部
102 撮像制御部
104 撮像領域情報取得部
106 画像解析部
108 撮像領域情報格納部
110 情報端末側送受信部
112 指示受付部
114 画像格納部
116 画像処理制御部
118 画像処理部
120 付加情報生成部
122 供給部
124 ぬいぐるみ情報格納部
126 ぬいぐるみ情報更新部
128 友達情報格納部
130 表示部
200 構成部材
200a、200b、200c、200d、200e、200f、200g、200h 構成部材
202 ぬいぐるみ側送受信部
204 動作情報格納部
206 駆動制御部
208 駆動部
208a、208b、208c、208d、208e、208f、208g、208h、208i、208j 駆動部
210 センサ
212 マイク
214 スピーカー
220 バッテリー
222 バッテリー残量確認部
224 充放電制御部
1 Object 5 Photographing system 10 Information terminal 20, 24 Stuffed animal 22 Composite image 26 Text information 100 Imaging unit 102 Imaging control unit 104 Imaging area information acquisition unit 106 Image analysis unit 108 Imaging area information storage unit 110 Information terminal side transmission/reception unit 112 Instruction reception Section 114 Image storage section 116 Image processing control section 118 Image processing section 120 Additional information generation section 122 Supply section 124 Stuffed toy information storage section 126 Stuffed toy information update section 128 Friend information storage section 130 Display section 200 Components 200a, 200b, 200c, 200d , 200e, 200f, 200g, 200h Components 202 Stuffed toy side transmission/reception section 204 Operation information storage section 206 Drive control section 208 Drive section 208a, 208b, 208c, 208d, 208e, 208f, 208g, 208h, 208i, 208j Drive section 210 Sensor 212 Microphone 214 Speaker 220 Battery 222 Remaining battery level confirmation section 224 Charge/discharge control section

Claims (13)

格納部を有する情報端末を備える撮影システムであって、
前記情報端末が、
ぬいぐるみIDが付与されているぬいぐるみが含まれる撮像領域を撮像する撮像部と、
前記撮像領域を表示する表示部と、
前記撮像領域に関する情報であり、前記ぬいぐるみに関する情報であって前記格納部に格納される前記ぬいぐるみIDを含む撮像領域情報を無線通信で取得する撮像領域情報取得部と、
前記撮像領域に含まれる前記ぬいぐるみの前記表示部の表示位置に、前記撮像領域情報に基づいて所定の画像を合成して合成画像を生成する画像処理部と
を備える撮影システム。
A photographing system comprising an information terminal having a storage section,
The information terminal is
an imaging unit that images an imaging area that includes a stuffed animal to which a stuffed animal ID has been assigned;
a display unit that displays the imaging area;
an imaging area information acquisition unit that acquires, by wireless communication, imaging area information that is information about the imaging area and includes the stuffed toy ID that is information about the stuffed toy and is stored in the storage unit;
A photographing system comprising: an image processing section that synthesizes predetermined images based on the imaging region information to generate a composite image at a display position of the display section of the stuffed toy included in the imaging region.
前記画像処理部が、前記撮像領域情報に基づいて前記ぬいぐるみの状態を変化させた合成画像を生成する請求項1に記載の撮影システム。 The imaging system according to claim 1, wherein the image processing unit generates a composite image in which the state of the stuffed animal is changed based on the imaging area information. 前記画像処理部が、前記撮像部が撮像する撮像画像に含まれる前記ぬいぐるみへ合成する合成用画像を用いて前記合成画像を生成する請求項1又は2に記載の撮影システム。 The photographing system according to claim 1 or 2, wherein the image processing section generates the composite image using a composition image to be composited with the stuffed animal included in the captured image captured by the imaging section. 前記画像処理部が、前記撮像領域に前記ぬいぐるみと他のぬいぐるみとが含まれている場合、ぬいぐるみそれぞれに対応付けられているぬいぐるみIDで識別される前記ぬいぐるみと前記他のぬいぐるみとの関係性に基づいて前記合成画像を生成する請求項1に記載の撮影システム。 When the image capturing area includes the stuffed animal and another stuffed animal, the image processing unit determines the relationship between the stuffed animal and the other stuffed animal identified by the stuffed animal ID associated with each stuffed animal. The photographing system according to claim 1, wherein the composite image is generated based on the above. 前記関係性が、前記ぬいぐるみと前記他のぬいぐるみとの親密度である請求項4に記載の撮影システム。 The photographing system according to claim 4, wherein the relationship is a degree of intimacy between the stuffed animal and the other stuffed animal. 前記撮像領域情報が、前記ぬいぐるみに対応付けられている当該ぬいぐるみのぬいぐるみ情報を含む請求項1に記載の撮影システム。 The imaging system according to claim 1, wherein the imaging area information includes stuffed toy information of the stuffed toy associated with the stuffed toy. 前記撮像領域情報が、前記撮像領域の位置、前記撮像領域の背景、前記撮像領域の撮像時の天気、前記撮像時の温度、及び前記撮像時の湿度からなる群から選択される少なくとも1つに基づいて、前記合成画像を生成する請求項1に記載の撮影システム。 The imaging area information is at least one selected from the group consisting of a position of the imaging area, a background of the imaging area, weather at the time of imaging the imaging area, temperature at the time of the imaging, and humidity at the time of the imaging. The photographing system according to claim 1, wherein the composite image is generated based on the composite image. 前記撮像領域情報取得部が、前記撮像領域情報をリアルタイムで取得する請求項1に記載の撮影システム。 The imaging system according to claim 1, wherein the imaging area information acquisition unit acquires the imaging area information in real time. 前記撮像領域情報取得部が、前記撮像領域の画像解析により前記撮像領域情報を取得する請求項1に記載の撮影システム。 The imaging system according to claim 1, wherein the imaging area information acquisition unit acquires the imaging area information by image analysis of the imaging area. 格納部を有する情報端末によりぬいぐるみを撮影する撮影方法であって、
ぬいぐるみIDが付与されているぬいぐるみが含まれる撮像領域を撮像する撮像工程と、
前記撮像領域に関する情報であり、前記ぬいぐるみに関する情報であって前記格納部に格納される前記ぬいぐるみIDを含む撮像領域情報を無線通信で取得する撮像領域情報取得工程と、
前記撮像領域に含まれる前記ぬいぐるみの前記情報端末の表示部の表示位置に、前記撮像領域情報に基づいて所定の画像を合成して合成画像を生成する画像処理工程と
を備える撮影方法。
A photographing method for photographing a stuffed toy using an information terminal having a storage section, the method comprising:
an imaging step of imaging an imaging area that includes a stuffed toy to which a stuffed toy ID has been assigned;
an imaging area information acquisition step of acquiring imaging area information that is information about the imaging area and includes the stuffed toy ID that is information about the stuffed toy and is stored in the storage section, by wireless communication;
An image processing step of synthesizing a predetermined image based on the imaging area information to generate a composite image at a display position of the display unit of the information terminal of the stuffed toy included in the imaging area.
格納部を有する情報端末を備える撮影システム用の撮影プログラムであって、
コンピュータに、
ぬいぐるみIDが付与されているぬいぐるみが含まれる撮像領域に関する情報であり、前記ぬいぐるみに関する情報であって前記格納部に格納される前記ぬいぐるみIDを含む撮像領域情報を無線通信で取得する撮像領域情報取得機能と、
前記撮像領域に含まれる前記ぬいぐるみの前記情報端末の表示部の表示位置に、前記撮像領域情報に基づいて所定の画像を合成して合成画像を生成する画像処理機能と
を実現させる撮影プログラム。
A photographing program for a photographing system comprising an information terminal having a storage section,
to the computer,
Imaging area information acquisition that is information about an imaging area that includes a stuffed toy to which a stuffed toy ID has been assigned, and that is information about the stuffed toy that includes the stuffed toy ID that is stored in the storage section. function and
and an image processing function for synthesizing a predetermined image based on the imaging area information to generate a composite image at a display position of the display unit of the information terminal of the stuffed toy included in the imaging area.
格納部を備える撮影システムであって、
ぬいぐるみIDが付与されているぬいぐるみが含まれる撮像領域を撮像する撮像部と、
前記撮像領域を表示する表示部と、
前記撮像領域に関する情報であり、前記格納部に格納される前記ぬいぐるみIDを含む撮像領域情報を無線通信で取得する撮像領域情報取得部と、
前記撮像領域に含まれる前記ぬいぐるみの前記表示部の表示位置に、前記ぬいぐるみIDに基づいて所定の画像を合成する画像処理部と
を備える撮影システム。
A photographing system comprising a storage section,
an imaging unit that images an imaging area that includes a stuffed animal to which a stuffed animal ID has been assigned;
a display unit that displays the imaging area;
an imaging area information acquisition unit that acquires imaging area information, which is information regarding the imaging area and includes the stuffed toy ID stored in the storage unit, through wireless communication;
A photographing system comprising: an image processing unit that synthesizes a predetermined image based on the stuffed toy ID at a display position of the display unit of the stuffed toy included in the imaging area.
格納部を備える撮影システムであって、
ぬいぐるみIDが付与されているぬいぐるみが含まれる撮像領域を撮像する撮像部と、
前記撮像領域を表示する表示部と、
前記撮像領域に関する情報であり、前記格納部に格納される前記ぬいぐるみIDを含む撮像領域情報を無線通信で取得する撮像領域情報取得部と、
前記撮像領域に含まれる前記ぬいぐるみの前記表示部の表示位置に、前記ぬいぐるみIDに対応付けられているぬいぐるみ情報に基づいて所定の画像を合成する画像処理部と
を備える撮影システム。
A photographing system comprising a storage section,
an imaging unit that images an imaging area that includes a stuffed animal to which a stuffed animal ID has been assigned;
a display unit that displays the imaging area;
an imaging area information acquisition unit that acquires imaging area information, which is information regarding the imaging area and includes the stuffed toy ID stored in the storage unit, through wireless communication;
A photographing system comprising: an image processing section that synthesizes a predetermined image at a display position of the display section of the stuffed toy included in the imaging area based on stuffed toy information associated with the stuffed toy ID.
JP2022130612A 2019-11-12 2022-08-18 Photography system, photography method, photography program, and stuffed animal Active JP7431903B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022130612A JP7431903B2 (en) 2019-11-12 2022-08-18 Photography system, photography method, photography program, and stuffed animal
JP2024014619A JP2024050757A (en) 2019-11-12 2024-02-02 Photographing system, photographing method, photographing program, and stuffed toy

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019204415A JP7128591B2 (en) 2019-11-12 2019-11-12 Shooting system, shooting method, shooting program, and stuffed animal
JP2022130612A JP7431903B2 (en) 2019-11-12 2022-08-18 Photography system, photography method, photography program, and stuffed animal

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019204415A Division JP7128591B2 (en) 2019-11-12 2019-11-12 Shooting system, shooting method, shooting program, and stuffed animal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024014619A Division JP2024050757A (en) 2019-11-12 2024-02-02 Photographing system, photographing method, photographing program, and stuffed toy

Publications (2)

Publication Number Publication Date
JP2022171671A JP2022171671A (en) 2022-11-11
JP7431903B2 true JP7431903B2 (en) 2024-02-15

Family

ID=75897743

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019204415A Active JP7128591B2 (en) 2019-11-12 2019-11-12 Shooting system, shooting method, shooting program, and stuffed animal
JP2022130612A Active JP7431903B2 (en) 2019-11-12 2022-08-18 Photography system, photography method, photography program, and stuffed animal
JP2024014619A Pending JP2024050757A (en) 2019-11-12 2024-02-02 Photographing system, photographing method, photographing program, and stuffed toy

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019204415A Active JP7128591B2 (en) 2019-11-12 2019-11-12 Shooting system, shooting method, shooting program, and stuffed animal

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024014619A Pending JP2024050757A (en) 2019-11-12 2024-02-02 Photographing system, photographing method, photographing program, and stuffed toy

Country Status (1)

Country Link
JP (3) JP7128591B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7450692B1 (en) 2022-11-21 2024-03-15 株式会社ポケモン Program, method, information processing device, system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040045A (en) 2004-07-28 2006-02-09 Sony Corp Information processor, cubic object, information processing system and information processing method
JP2012254217A (en) 2011-06-09 2012-12-27 Taito Corp Game system capable of operatively connecting real prize with virtual prize
JP2014110034A (en) 2012-12-04 2014-06-12 Bandai Co Ltd Portable terminal, terminal program and toy
JP2018036869A (en) 2016-08-31 2018-03-08 カシオ計算機株式会社 Object display system, user terminal equipment, object display method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002059389A (en) * 2000-08-16 2002-02-26 Sony Corp Autonomous walking robot device
JP2004355567A (en) * 2003-05-30 2004-12-16 Casio Comput Co Ltd Image output device, image output method, image output processing program, image distribution server and image distribution processing program
JP2005039510A (en) * 2003-07-14 2005-02-10 Sony Corp Imaging system and imaging method
JP2007098555A (en) * 2005-10-07 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> Position indicating method, indicator and program for achieving the method
JP2009134333A (en) * 2007-11-28 2009-06-18 Nec Corp Digital photograph sharing system device
JP2011166589A (en) * 2010-02-12 2011-08-25 Aplix Corp Portable terminal and information presentation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040045A (en) 2004-07-28 2006-02-09 Sony Corp Information processor, cubic object, information processing system and information processing method
JP2012254217A (en) 2011-06-09 2012-12-27 Taito Corp Game system capable of operatively connecting real prize with virtual prize
JP2014110034A (en) 2012-12-04 2014-06-12 Bandai Co Ltd Portable terminal, terminal program and toy
JP2018036869A (en) 2016-08-31 2018-03-08 カシオ計算機株式会社 Object display system, user terminal equipment, object display method, and program

Also Published As

Publication number Publication date
JP2021074361A (en) 2021-05-20
JP7128591B2 (en) 2022-08-31
JP2022171671A (en) 2022-11-11
JP2024050757A (en) 2024-04-10

Similar Documents

Publication Publication Date Title
US11024294B2 (en) System and method for dialogue management
EP3381175B1 (en) Apparatus and method for operating personal agent
JP7400923B2 (en) Information processing device and information processing method
KR101907136B1 (en) System and method for avatar service through cable and wireless web
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
KR101951761B1 (en) System and method for providing avatar in service provided in mobile environment
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US20180322681A1 (en) Information processing method, program, virtual space delivering system and apparatus therefor
WO2005014242A1 (en) Communication robot control system
JP2012519333A (en) Image conversion system and method
JP2024050757A (en) Photographing system, photographing method, photographing program, and stuffed toy
US11360733B2 (en) Colocated shared augmented reality without shared backend
US20230173683A1 (en) Behavior control device, behavior control method, and program
US20230315382A1 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
JP7278307B2 (en) Computer program, server device, terminal device and display method
CN110196632A (en) Information processing unit, information processing method and program
WO2019123744A1 (en) Information processing device, information processing method, and program
CN111275158A (en) Method and apparatus for generating and displaying electronic avatar
KR102079321B1 (en) System and method for avatar service through cable and wireless web
Lee et al. Semi-autonomous robot avatar as a medium for family communication and education
CN205252533U (en) Interactive image of intelligence and system
JP6461322B2 (en) Control device and display device
CN114712862A (en) Virtual pet interaction method, electronic device and computer-readable storage medium
JP7156300B2 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R150 Certificate of patent or registration of utility model

Ref document number: 7431903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150