JP2011166430A - Terminal apparatus and program - Google Patents

Terminal apparatus and program Download PDF

Info

Publication number
JP2011166430A
JP2011166430A JP2010026602A JP2010026602A JP2011166430A JP 2011166430 A JP2011166430 A JP 2011166430A JP 2010026602 A JP2010026602 A JP 2010026602A JP 2010026602 A JP2010026602 A JP 2010026602A JP 2011166430 A JP2011166430 A JP 2011166430A
Authority
JP
Japan
Prior art keywords
scene
image
output
depth
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010026602A
Other languages
Japanese (ja)
Other versions
JP5421144B2 (en
Inventor
Yuko Nakazawa
優子 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010026602A priority Critical patent/JP5421144B2/en
Publication of JP2011166430A publication Critical patent/JP2011166430A/en
Application granted granted Critical
Publication of JP5421144B2 publication Critical patent/JP5421144B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To properly control reproduction output when a scene is reproduced and output based on scene reproduction information for reproducing a scene related to an image displayed on a display. <P>SOLUTION: The output intensity when scene reproduction information (smell information, temperature information) is reproduced and output is decided, based on 3D depth when displaying an image (Step C18). In addition, whether the decided scene output intensity is "level 0" is determined (Step C19). When the output intensity is "level 0" (YES at the step C19), a fragrance part and a heating and cooling part are not driven (the scene is not reproduced and output). Meanwhile, when the output strength is not "level 0" (NO at the step C19), the fragrance part and the heating and cooling part are driven (Step C20) to control a generation amount of fragrance depending on the decided scene output intensity and control the heating and cooling range, and thereby, the scene (the fragrance and the temperature) is reproduced and output (Step C21). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像を表示部に3D表示する端末装置及びプログラムに関する。   The present invention relates to a terminal device and a program for displaying an image in 3D on a display unit.

従来、携帯電話機などの端末装置においては、画像を撮影する際に、匂いなどの周囲の情景を検出し、この検出結果をその情景を再現するための情景再現情報として、撮影された画像に対応付けて記憶しておき、この撮影画像を再生表示させる際に、その撮影画像に対応付けて記憶されている情景再現情報に基づいて撮影時の情景を再現出力するようにした技術が知られている。例えば、情景再現情報として匂い情報を記録可能なデジタルカメラにおいて、撮影に用いる撮影モードと匂いを再現させるための匂い情報との対応付けを予め設定しておき、撮影時に選択された撮影モードに基づいて、匂い情報を画像に対応付けて記録媒体に記録するようにした技術が開示されている(特許文献1参照)。   Conventionally, in a terminal device such as a mobile phone, when shooting an image, a surrounding scene such as an odor is detected, and the detection result corresponds to the shot image as scene reproduction information for reproducing the scene. In addition, a technique is known in which when a captured image is reproduced and displayed, the scene at the time of shooting is reproduced and output based on the scene reproduction information stored in association with the captured image. Yes. For example, in a digital camera capable of recording odor information as scene reproduction information, an association between a shooting mode used for shooting and odor information for reproducing the odor is set in advance, and based on the shooting mode selected at the time of shooting. Thus, a technique is disclosed in which odor information is recorded on a recording medium in association with an image (see Patent Document 1).

特開2003−264730号公報JP 2003-264730 A

上述した先行技術にあっては、撮影画像の再生時、それに対応付けられている匂い情報(情景再現情報)に基づいて撮影時の情景を再現することができるために大きな臨場感を得ることができるが、画像を表示させる度に匂いを再現出力させることは、周囲にとって迷惑になるなど、必ずしも得策とは言えない。そこで、ユーザ操作により匂いを再現出力させることも考えられるが、ユーザにとっては匂いが再現されることを知った上で画像を見る結果となり、画像との連帯感や迫力感などが不十分で、大きな再現効果までも期待できるとは言えない。   In the above-described prior art, when a captured image is reproduced, the scene at the time of shooting can be reproduced based on the scent information (scene reproduction information) associated therewith, so that a great sense of realism can be obtained. However, it is not always a good idea to reproduce and output odors every time an image is displayed. Therefore, it is conceivable to reproduce and output the scent by user operation, but for the user it becomes the result of seeing the image after knowing that the scent is reproduced, and the sense of solidarity and power with the image is insufficient, It cannot be said that even a large reproduction effect can be expected.

本発明の課題は、表示部に表示される画像に関する情景を再現させるための情景再現情報に基づいて情景を再現出力する場合に、その再現出力を適切に制御できるようにすることである。   An object of the present invention is to appropriately control a reproduction output when a scene is reproduced and output based on scene reproduction information for reproducing a scene related to an image displayed on a display unit.

上述した課題を解決するために請求項1記載の発明は、画像を表示部に3D表示する端末装置であって、前記表示部に表示される画像に関する情景を再現させるための情景再現情報に基づいて前記情景を再現出力する出力手段と、前記表示部に表示される画像の3Dの奥行きあるいは飛び出しの程度を示す3D深度を指定する指定手段と、この指定手段により指定された3D深度で前記表示部に画像を3D表示させる表示制御手段と、前記指定手段により指定された3D深度に基づいて、前記出力手段により情景を再現出力する際の出力強度を決定する決定手段と、この決定手段により決定された出力強度で前記出力手段から情景を再現出力させる出力制御手段と、を備えることを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is a terminal device that displays an image in 3D on a display unit, and is based on scene reproduction information for reproducing a scene related to the image displayed on the display unit. Output means for reproducing and outputting the scene, designation means for designating 3D depth indicating the degree of 3D depth or pop-out of the image displayed on the display unit, and display at the 3D depth designated by the designation means A display control means for displaying an image in 3D on the screen, a determination means for determining an output intensity when the scene is reproduced and output by the output means based on the 3D depth specified by the specification means, and a determination by the determination means Output control means for reproducing and outputting a scene from the output means with the output intensity set.

請求項1に従属する発明として、前記情景再現情報は、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識される情景を再現させるための情報であり、前記出力手段は、前記情景再現情報に基づいて、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識させるための刺激を、前記情景として生成して再現出力する、ようにしたことを特徴とする請求項2記載の発明であってもよい。   As an invention dependent on claim 1, the scene reproduction information is information for reproducing a scene recognized by at least one of olfactory sense, touch sense, auditory sense, and taste sense which is a human sense other than vision. And the output means, based on the scene reproduction information, provides a stimulus for recognizing at least one of olfactory sense, touch sense, hearing sense, and taste sense that is a human sense other than vision. According to the second aspect of the present invention, the data may be generated and reproduced and output.

請求項2に従属する発明として、前記情景再現情報は、匂いに関する情報で、前記出力手段により情景を出力する際の出力強度は、匂いの強さである、ことを特徴とする請求項3記載の発明であってもよい。   The invention according to claim 2 is characterized in that the scene reproduction information is information relating to an odor, and an output intensity when the scene is output by the output means is an odor intensity. It may be the invention of this.

請求項2に従属する発明として、前記情景再現情報は、温度に関する情報で、前記出力手段により情景を出力する際の出力強度は、該端末装置を構成する筐体を加熱あるいは冷却する範囲である、ことを特徴とする請求項4記載の発明であってもよい。   According to a second aspect of the present invention, the scene reproduction information is information relating to temperature, and the output intensity when the scene is output by the output means is a range in which the casing constituting the terminal device is heated or cooled. The invention according to claim 4 may be provided.

請求項1に従属する発明として、画像を撮影する撮影手段と、この撮影手段により画像の撮影時における周囲の情景を検出して前記情景再現情報として取得する情景検出手段と、前記撮影手段により撮影された画像と前記情景検出手段により検出された情景再現情報とを対応付けて記憶部に記憶させる記憶制御手段と、を備え、前記出力制御手段は、前記表示部に表示されている画像に対応付けられている情景再現情報を前記記憶部から読み出して前記出力手段から情景を再現出力させる、ようにしたことを特徴とする請求項5記載の発明であってもよい。   According to a first aspect of the present invention, a photographing means for photographing an image, a scene detecting means for detecting a surrounding scene at the time of photographing an image by the photographing means and obtaining the scene reproduction information, and photographing by the photographing means Storage control means for associating and storing the reproduced image and the scene reproduction information detected by the scene detection means in the storage unit, and the output control means corresponds to the image displayed on the display unit The invention according to claim 5, wherein the attached scene reproduction information is read from the storage unit and the scene is reproduced and output from the output means.

請求項1に従属する発明として、前記決定手段は、前記指定手段により指定された3D深度が所定の3D深度よりも大きい場合に、所定の強度よりも大きい強度に決定する、ようにしたことを特徴とする請求項6記載の発明であってもよい。   As an invention dependent on claim 1, when the 3D depth specified by the specifying means is larger than a predetermined 3D depth, the determining means determines an intensity greater than a predetermined intensity. The invention according to claim 6 may be used.

請求項1に従属する発明として、前記決定手段は、前記指定手段により指定された指定された3D深度が所定の3D深度よりも小さい場合に、情景を再現出力する際の出力強度を所定の強度よりも小さく決定する、ようにしたことを特徴とする請求項7記載の発明であってもよい。   According to a first aspect of the present invention, the determining means determines the output intensity when reproducing and outputting the scene when the specified 3D depth specified by the specifying means is smaller than the predetermined 3D depth. The invention according to claim 7 is characterized in that it is determined to be smaller than that.

請求項7に従属する発明として、前記決定手段は、前記指定手段により指定された3D深度が所定の3D深度よりも小さい場合に、情景を再現出力する際の出力強度をゼロに決定する、ようにしたことを特徴とする請求項8記載の発明であってもよい。   As an invention dependent on claim 7, when the 3D depth specified by the specifying means is smaller than a predetermined 3D depth, the determining means determines that the output intensity when reproducing and outputting the scene is zero. The invention according to claim 8 may be provided.

請求項7に従属する発明として、前記決定手段は、前記指定手段により指定された3D深度がゼロの場合に、情景を再現出力する際の出力強度をゼロに決定する、ようにしたことを特徴とする請求項9記載の発明であってもよい。   The invention according to claim 7 is characterized in that, when the 3D depth specified by the specifying means is zero, the determining means determines the output intensity when reproducing and outputting the scene to zero. The invention according to claim 9 may be used.

請求項1に従属する発明として、前記表示部に表示される画像の3D深度が変更されたことを検出する変更検出手段を更に備え、前記決定手段は、前記変更検出手段により3D深度が変更されたことが検出された場合に、変更後における3D深度に基づいて、情景を再現出力する際の出力強度を新たに決定し、前記出力制御手段は、前記出力手段から再現出力されている情景の出力強度を、前記決定手段により新たに決定された出力強度に切り替えて該情景を再現出力する、ようにしたことを特徴とする請求項10記載の発明であってもよい。   As an invention dependent on claim 1, it further comprises a change detection means for detecting that the 3D depth of the image displayed on the display unit has been changed, and the determination means has the 3D depth changed by the change detection means. Is detected based on the 3D depth after the change, and the output control means newly determines the output intensity when the scene is reproduced and output, and the output control means outputs the scene reproduced and output from the output means. The invention according to claim 10, wherein the scene is reproduced and output by switching the output intensity to the output intensity newly determined by the determining means.

また、上述した課題を解決するために請求項11記載の発明は、画像を表示部に2D表示及び3D表示する端末装置であって、前記表示部に表示される画像に関する情景を再現させるための情景再現情報が該画像に対応付けられて記憶部に記憶されている状態において、この記憶部に記憶されている情景再現情報に基づいて情景を再現出力する出力手段と、前記画像を前記表示部に2D表示させるか3D表示させるかを指定する指定手段と、この指定手段により3D表示が指定されたか否かを判別する判別手段と、この判別手段により3D表示が指定されたと判別された場合に、前記画像を前記表示部に3D表示させる表示制御手段と、前記表示部に3D表示されている画像に対応して前記記憶部に記憶されている情景再現情報に基づいて、前記出力手段から情景を再現出力させる出力制御手段と、を備えることを特徴とする。   In order to solve the above-described problem, an invention according to claim 11 is a terminal device that displays an image in 2D and 3D on a display unit, and reproduces a scene related to the image displayed on the display unit. In a state where the scene reproduction information is associated with the image and stored in the storage unit, output means for reproducing and outputting the scene based on the scene reproduction information stored in the storage unit, and the image displayed on the display unit A designation means for designating whether 2D display or 3D display is performed, a discrimination means for discriminating whether or not 3D display has been designated by the designation means, and a case in which 3D display is designated by the discrimination means A display control means for displaying the image in 3D on the display unit, and scene reproduction information stored in the storage unit corresponding to the image displayed in 3D on the display unit, An output control means for serial reproduced output scene from the output means, characterized in that it comprises a.

請求項11に従属する発明として、前記表示制御手段は、前記判別手段により2D表示が指定されたと判別された場合に、前記画像を前記表示部に2D表示させる、ようにしたことを特徴とする請求項12記載の発明であってもよい。   The invention according to claim 11 is characterized in that the display control means displays the image in 2D on the display unit when it is determined that the 2D display is designated by the determination means. The invention described in claim 12 may be provided.

請求項11に従属する発明として、前記情景再現情報は、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識される情景を再現するための情報であり、前記出力手段は、前記情景再現情報に基づいて、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識させるための刺激を、前記情景として生成して再現出力する、ようにしたことを特徴とする請求項13記載の発明であってもよい。   As an invention dependent on claim 11, the scene reproduction information is information for reproducing a scene recognized by at least one of olfactory sense, tactile sense, auditory sense, and taste sense which is a human sense other than vision. And the output means, based on the scene reproduction information, provides a stimulus for recognizing at least one of olfactory sense, touch sense, hearing sense, and taste sense that is a human sense other than vision. According to the thirteenth aspect of the present invention, the data may be generated and reproduced for output.

請求項11に従属する発明として、画像を撮影する撮影手段と、この撮影手段により画像の撮影時における周囲の情景を前記情景再現情報として検出する情景検出手段と、前記撮影手段により撮影された画像と前記情景検出手段により検出された情景再現情報とを対応付けて記憶部に記憶させる記憶制御手段と、を備える、ようにしたことを特徴とする請求項14記載の発明であってもよい。   The invention dependent on claim 11 is a photographing means for photographing an image, a scene detecting means for detecting a surrounding scene at the time of photographing an image as the scene reproduction information by the photographing means, and an image photographed by the photographing means. And storage control means for associating and storing the scene reproduction information detected by the scene detection means in a storage unit.

また、上述した課題を解決するために請求項15記載の発明は、コンピュータに対して、表示部に表示される画像に関する情景を再現させるための情景再現情報に基づいて情景を再現出力する機能と、前記表示部に表示される画像の3Dの奥行きあるいは飛び出しの程度を示す3D深度を指定する機能と、前記指定された3D深度で前記表示部に画像を3D表示させる機能と、前記指定された3D深度に基づいて、前記情景を再現出力する際の出力強度を決定する機能と、前記決定された出力強度で情景を再現出力させる機能と、を実現させるためのプログラムであることを特徴とする。   In order to solve the above-described problem, the invention described in claim 15 has a function of reproducing and outputting a scene based on scene reproduction information for reproducing a scene related to an image displayed on a display unit. A function for designating a 3D depth indicating a 3D depth of the image displayed on the display unit or a degree of popping, a function for displaying a 3D image on the display unit at the designated 3D depth, and the designated A program for realizing a function of determining an output intensity when reproducing and outputting the scene based on a 3D depth and a function of reproducing and outputting a scene with the determined output intensity .

また、上述した課題を解決するために請求項16記載の発明は、コンピュータに対して、表示部に表示される画像に関する情景を再現させるための情景再現情報が該画像に対応付けられて記憶部に記憶されている状態において、この記憶部に記憶されている情景再現情報に基づいて情景を再現出力する機能と、前記画像を前記表示部に2D表示させるか3D表示させるかを指定する機能と、前記3D表示が指定されたか否かを判別する機能と、前記3D表示が指定されたと判別された場合に、前記画像を前記表示部に3D表示させる機能と、前記表示部に3D表示されている画像に対応して前記記憶部に記憶されている情景再現情報に基づいて、前記出力手段から情景を再現出力させる機能と、を実現させるためのプログラムであることを特徴とする。   According to a sixteenth aspect of the present invention, in order to solve the above-mentioned problem, a scene reproduction information for reproducing a scene relating to an image displayed on the display unit is associated with the image and stored in the computer. A function for reproducing and outputting a scene based on the scene reproduction information stored in the storage unit, and a function for designating whether the image is displayed in 2D or 3D on the display unit. A function for determining whether or not the 3D display is specified; a function for displaying the image in 3D on the display unit when it is determined that the 3D display is specified; and a 3D display on the display unit. And a function for reproducing and outputting the scene from the output means based on the scene reproduction information stored in the storage unit corresponding to the existing image. To.

本発明によれば、表示部に表示される画像に関する情景を再現させるための情景再現情報に基づいて情景を再現出力する場合に、その再現出力を適切に制御することができ、画像との連帯感や迫力感により臨場感や演出効果を更に高めることが可能となる。   According to the present invention, when the scene is reproduced and output based on the scene reproduction information for reproducing the scene related to the image displayed on the display unit, the reproduction output can be appropriately controlled, and solidarity with the image is achieved. It is possible to further enhance the sense of presence and the production effect by feeling and powerful feeling.

端末装置として適用した携帯電話機が利用可能な通信ネットワークシステムを示したブロック図。The block diagram which showed the communication network system which can use the mobile telephone applied as a terminal device. 携帯電話機1の基本的な構成要素を示したブロック図。FIG. 2 is a block diagram showing basic components of the mobile phone 1. 携帯電話機1の外観図。FIG. 画像記憶部M3を説明するための図。The figure for demonstrating the image memory | storage part M3. 3D深度設定情報記憶部M4を説明するための図。The figure for demonstrating 3D depth setting information storage part M4. 出力条件記憶部M5を説明するための図。The figure for demonstrating the output condition memory | storage part M5. 電源投入に伴って実行開始される携帯電話機1側の全体動作の概要を示したフローチャート。The flowchart which showed the outline | summary of the whole operation | movement by the side of the mobile telephone 1 by which execution is started with power activation. 画像取得処理(図7のステップA6)を詳述するためのフローチャート。The flowchart for explaining an image acquisition process (step A6 of FIG. 7) in detail. 画像表示処理(図7のステップA8)を詳述するためのフローチャート。The flowchart for explaining an image display process (step A8 of FIG. 7) in detail. 図9の動作に続くフローチャート。10 is a flowchart following the operation of FIG.

以下、図1〜図10を参照して本発明の実施形態を説明する。
この実施形態は、端末装置として携帯電話機に適用した場合を例示したもので、図1は、この携帯電話機が利用可能な通信ネットワークシステムを示したブロック図である。
携帯電話機1には、通話機能、電子メール機能、インターネット接続機能(Webアクセス機能)のほか、デジタルテレビ放送(地上デジタルテレビ放送)を受信可能なテレビ放送受信機能、カメラ機能、3D表示機能などが備えられている。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a mobile phone as a terminal device, and FIG. 1 is a block diagram showing a communication network system in which the mobile phone can be used.
The mobile phone 1 has a call function, an e-mail function, an Internet connection function (Web access function), a TV broadcast reception function capable of receiving digital TV broadcast (terrestrial digital TV broadcast), a camera function, a 3D display function, and the like. Is provided.

3D表示機能は、左右の目の視差を利用した視差バリア方式によって画像(動画、静止画、テレビ番組など)を3D表示の奥行きあるいは飛び出しの程度を示す3D深度で表示させる機能である。すなわち、互いに少しずらした右目用の画像と左目用の画像を用意し、それら2つの画像を同時に表示させるが、その際、右目用の画像は右目で見えて左目では見えないように、左目用の画像は左目で見えて右目では見えないようにするために光の経路を遮断する視差バリアを適切な位置に配置することによって画像を立体に見せるようにしている。   The 3D display function is a function for displaying an image (moving image, still image, television program, etc.) at a 3D depth indicating the depth of 3D display or the degree of popping out by a parallax barrier method using the parallax of the left and right eyes. That is, a right-eye image and a left-eye image that are slightly shifted from each other are prepared, and the two images are displayed simultaneously. At this time, the right-eye image is visible to the right eye and not to the left eye. The parallax barrier that blocks the light path is arranged at an appropriate position so that the image can be seen with the left eye but not with the right eye, so that the image can be seen in three dimensions.

携帯電話機1は、最寄りの基地局2A、交換機2Bから無線通信網(移動体通信網)2に接続されると、この無線通信網2を介して他の携帯電話機(図示省略)との間で通話可能な状態となる。また、携帯電話機1は、無線通信網2を介してインターネット3に接続されると、Webサイトをアクセスして閲覧可能となり、また、画像配信装置4から画像(動画や静止画)などをインターネット3、無線通信網2を介してダウンロード可能となる。また、携帯電話機1は、テレビ局5から送信アンテナ6を介して発信された地上波デジタル放送を受信するようにしているが、インターネットラジオのように無線通信網2、インターネット3を介して画像配信装置4からデジタル放送をダウンロード受信することもできる。   When the cellular phone 1 is connected to the wireless communication network (mobile communication network) 2 from the nearest base station 2A and exchange 2B, the cellular phone 1 is connected to other cellular phones (not shown) via the wireless communication network 2. The phone is ready to talk. In addition, when the mobile phone 1 is connected to the Internet 3 via the wireless communication network 2, the mobile phone 1 can access and browse a Web site, and images (moving images and still images) from the image distribution device 4 can be viewed on the Internet 3. It can be downloaded via the wireless communication network 2. The cellular phone 1 receives digital terrestrial broadcasts transmitted from the television station 5 via the transmission antenna 6, but the image distribution apparatus via the wireless communication network 2 and the Internet 3 like an Internet radio. 4 can also download and receive digital broadcasts.

図2は、携帯電話機1の基本的な構成要素を示したブロック図である。
中央制御部11は、二次電池を備えた電池部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する中央演算処理装置やメモリ(図示省略)などを有している。この記憶部13には、プログラム記憶部M1、各種情報一時記憶部M2、画像記憶部M3、3D深度設定情報記憶部M4、出力条件記憶部M5などが設けられている。
FIG. 2 is a block diagram showing basic components of the mobile phone 1.
The central control unit 11 operates by supplying power from the battery unit 12 including a secondary battery, and controls the overall operation of the mobile phone 1 according to various programs in the storage unit 13 and a memory. (Not shown). The storage unit 13 includes a program storage unit M1, various information temporary storage units M2, an image storage unit M3, a 3D depth setting information storage unit M4, an output condition storage unit M5, and the like.

プログラム記憶部M1は、図7〜図10に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。なお、記憶部13は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しない所定の外部サーバ上にあってもよい。各種情報一時記憶部M2は、フラグ情報、画面情報など、携帯電話機1が動作するために必要な各種の情報を一時的に記憶するワーク領域である。なお、画像記憶部M3、3D深度設定情報記憶部M4、出力条件記憶部M5については後で詳述するものとする。   The program storage unit M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIGS. 7 to 10, and stores information necessary for the program. Yes. Note that the storage unit 13 may include a removable portable memory (recording medium) such as an SD card or an IC card, or may be on a predetermined external server (not shown). The various information temporary storage unit M2 is a work area for temporarily storing various information necessary for the operation of the mobile phone 1, such as flag information and screen information. The image storage unit M3, 3D depth setting information storage unit M4, and output condition storage unit M5 will be described in detail later.

無線通信部14は、無線部、ベースバンド部、多重分離部などを備え、例えば、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局2Aとの間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調して中央制御部11に対して出力すると、中央制御部11は、音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部15から取り込み、送信ベースバンド信号に符号化した後、ベースバンド部の送信側に与えてアンテナAN1から発信出力させる。   The wireless communication unit 14 includes a wireless unit, a baseband unit, a demultiplexing unit, and the like. When the call function is in operation, when the signal is received from the receiving side of the baseband unit, demodulated into a received baseband signal and output to the central control unit 11, the central control unit 11 causes the audio signal processing unit 15 to Via the voice speaker SP, and the voice data input from the voice microphone MC is fetched from the voice signal processing unit 15, encoded into a transmission baseband signal, and then sent to the transmission side of the baseband unit. Transmission is output from the antenna AN1.

テレビ放送受信部16は、例えば、通信端末装置向けのワンセグ地上波デジタルテレビ放送を受信するもので、放送信号を抽出する受信部(アナログ回路部)と、受信した放送信号をOFDM(直交周波数分割多重)復調したり、多重化されている放送信号から映像、音声、データ(文字データ)に分離して復号化したり、圧縮データの解凍などを行うデジタル回路部を有している。撮像部17は、カメラ機能を構成する構成要素で、撮像素子(例えば、CCDあるいはCMOS)を有し、静止画撮影のほかに動画撮影も可能となっている。そして、撮像部17は、撮影レンズ、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路などを備え、光学ズームを調整制御したり、オートフォーカス時の駆動制御、シャッター駆動制御、露出、ホワイトバランスなどを制御したりする。   The TV broadcast receiving unit 16 receives, for example, a one-segment terrestrial digital TV broadcast for a communication terminal device. The TV broadcast receiving unit 16 extracts a broadcast signal (analog circuit unit), and the received broadcast signal is OFDM (orthogonal frequency division). A digital circuit unit that performs demodulation, demultiplexes the decoded broadcast signal into video, audio, and data (character data), decompresses the compressed data, and the like. The imaging unit 17 is a component that constitutes a camera function, has an imaging element (for example, a CCD or a CMOS), and can capture moving images in addition to still image shooting. The imaging unit 17 includes a photographic lens, a distance measuring sensor, a light amount sensor, an analog processing circuit, a signal processing circuit, a compression / decompression circuit, and the like, and adjusts and controls the optical zoom, driving control during autofocus, and shutter driving control. , Control exposure, white balance, etc.

表示部18は、高精細液晶を使用し、例えば、文字情報、待受画像、テレビ映像などを表示させるもので、この表示部18の表面には、視差バリアを生成するための液晶の層が設けられている。3D変換処理部19は、3D表示時に3D深度に応じた右目用の画像と左目用の画像を生成するもので、視差バリア制御部20は、3D表示時に3D変換処理部19により生成された右目用の画像と左目用の画像が表示部18に同時に表示されている状態において、正しく3D表示が見えるように視差バリアを表示部18の表層に生成する。   The display unit 18 uses high-definition liquid crystal and displays, for example, character information, a standby image, a television image, and the like. A liquid crystal layer for generating a parallax barrier is formed on the surface of the display unit 18. Is provided. The 3D conversion processing unit 19 generates a right-eye image and a left-eye image according to the 3D depth during 3D display. The parallax barrier control unit 20 generates the right eye generated by the 3D conversion processing unit 19 during 3D display. The parallax barrier is generated on the surface layer of the display unit 18 so that the 3D display can be correctly seen in the state where the image for left and the image for the left eye are displayed on the display unit 18 at the same time.

操作部21は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部11は、この操作部21からの入力操作信号に応じた処理を実行する。例えば、電源オンオフ操作に応じて電源オン/オフ処理を行ったり、画像のダウンロードを指示するダウンロード操作や撮影を指示する撮影操作などの画像取得操作に応じて画像取得処理を行ったりする。RTC(リアルタイムクロックモジュール)22は、時計部を構成するもので、中央制御部11は、RTC22から現在日時を取得する。報知部23は、サウンドスピーカ23A、LED(発光ダイオード)23B、振動モータ23Cを備え、着信時に駆動されて着信報知を行うほか、アラーム報知時などでも駆動される。   The operation unit 21 inputs dial input, character input, command input, and the like. The central control unit 11 executes processing according to an input operation signal from the operation unit 21. For example, power on / off processing is performed in response to a power on / off operation, or image acquisition processing is performed in response to an image acquisition operation such as a download operation instructing image download or a shooting operation instructing shooting. The RTC (real-time clock module) 22 constitutes a clock unit, and the central control unit 11 acquires the current date and time from the RTC 22. The notification unit 23 includes a sound speaker 23A, an LED (light emitting diode) 23B, and a vibration motor 23C. The notification unit 23 is driven at the time of an incoming call to notify an incoming call, and is also driven at the time of an alarm notification.

匂い検出部24及び温度検出部25は、撮像部17により画像を撮影する際に、その周囲に漂う匂い(種類)や温度を撮影時の情景として検出するもので、中央制御部11は、匂い検出部24及び温度検出部25の検出結果を、撮影された画像に関する情景を再現させるための情景再現情報として取得する。この情景再現情報は、視覚以外の人の感覚である嗅覚、触覚で認識される情景を再現させるための匂い情報、温度情報である。匂い検出部24は、撮像部17により画像を撮影する際に、その周囲に漂う匂い(種類)を感知するもので、匂い物質が感応膜に付着することで電圧変化を検出する複数のセンサを有し、この複数のセンサからの検出信号に基づいて匂いの種類を識別して匂いを特定するようにしている。   The odor detection unit 24 and the temperature detection unit 25 detect an odor (type) and temperature drifting around the image when the imaging unit 17 captures an image, and the central control unit 11 The detection results of the detection unit 24 and the temperature detection unit 25 are acquired as scene reproduction information for reproducing a scene related to the captured image. This scene reproduction information is odor information and temperature information for reproducing a scene recognized by a sense of smell or touch that is a human sense other than vision. The odor detection unit 24 senses the odor (type) drifting around the image pickup unit 17 when an image is taken. The odor detection unit 24 includes a plurality of sensors that detect a voltage change due to the odor substance adhering to the sensitive film. And identifying the odor type based on detection signals from the plurality of sensors to identify the odor.

そして、匂い検出部24は、不快な悪臭などを除き、例えば、匂いの種類として10種類の匂いを識別可能となっているが、その種類や数は任意であるほか、その構成も任意である。また、温度検出部25は、撮像部17により画像を撮影する際に、その周囲の温度(気温など)を感知するもので、温度に応答して起電力や抵抗変化を検出するサーミスタなどの温度センサを有し、例えば、5℃単位で温度変化を検出するようにしているが、その単位は任意であるほか、その構成も任意である。   The odor detection unit 24 can identify, for example, 10 types of odors except for an unpleasant bad odor, and the type and number are arbitrary and the configuration is also arbitrary. . The temperature detection unit 25 senses the ambient temperature (such as air temperature) when an image is captured by the imaging unit 17, and the temperature of a thermistor or the like that detects an electromotive force or resistance change in response to the temperature. Although it has a sensor and detects temperature change in units of 5 ° C., for example, the unit is arbitrary and the configuration is also arbitrary.

芳香部26及び加熱/冷却部27は、表示部18に表示される画像(撮影画像、ダウンロード画像など)に関する情景を再現させるための情景再現情報に基づいて情景を再現出力するもので、視覚以外の人の感覚である嗅覚、触覚で認識させるための刺激(匂いや温度)を、画像に関する情景として生成して再現出力する。すなわち、芳香部26は、ハッカ、レモンなどの各種芳香(例えば、10種類)の中から指定された種類の芳香を選択的に発生するもので、例えば、芳香剤を浸み込ませた炭火綿を通電することにより芳香を発生するようにしている。この場合、芳香の発生量(匂いの出力強度)は、上述した炭火綿への通電量で制御するようにしている。また、加熱/冷却部27は、携帯電話機1を構成する筐体を加熱したり、冷却したりするもので、ユーザが携帯電話機1を手に持っている状態において、手に接触する筐体の部分(例えば、側面部、背面部)に亘って配設されたもので、加熱/冷却の出力強度は、加熱/冷却する範囲で制御するようにしている。   The fragrance unit 26 and the heating / cooling unit 27 reproduce and output a scene based on scene reproduction information for reproducing a scene related to an image (photographed image, download image, etc.) displayed on the display unit 18. Stimulus (smell and temperature) that is recognized by human senses of smell and touch is generated and reproduced as a scene related to the image. That is, the fragrance portion 26 selectively generates a specified type of fragrance from among various fragrances such as mint and lemon (for example, 10 types), for example, charcoal cotton soaked with a fragrance. A fragrance is generated by energizing. In this case, the amount of fragrance generated (smell output intensity) is controlled by the amount of current supplied to the charcoal cotton. The heating / cooling unit 27 heats or cools the casing that constitutes the mobile phone 1. The heating / cooling unit 27 is a casing that contacts the hand when the user holds the mobile phone 1 in the hand. The heating / cooling output intensity is controlled within the heating / cooling range.

図3は、携帯電話機1の外観図である。
携帯電話機1は、その機器本体(装置本体)を構成する複数の筐体の連結状態に応じて複数のスタイルに変更可能な2軸ヒンジタイプで、操作部筐体1Aと表示部筐体1Bとは、折り畳み開閉自在及び回動自在にヒンジ部1Cを介して連結されている。このような2軸ヒンジタイプの携帯電話機1は、操作部筐体1Aと表示部筐体1Bとが、どのように連結されているかの携帯電話機1の使用状態に応じて、この携帯電話機1の形態を複数のスタイルに変更可能なもので、図示の例は、操作部筐体1Aと表示部筐体1Bとの折り畳みを開いた状態のオープンスタイルを示している。
FIG. 3 is an external view of the mobile phone 1.
The mobile phone 1 is a two-axis hinge type that can be changed into a plurality of styles according to the connection state of a plurality of casings constituting the device main body (device main body), and includes an operation unit casing 1A and a display unit casing 1B. Are connected via a hinge 1C so as to be foldable and openable and rotatable. Such a two-axis hinge type mobile phone 1 has a configuration of the mobile phone 1 according to how the mobile phone 1 is connected to the operation unit housing 1A and the display unit housing 1B. The form can be changed to a plurality of styles, and the illustrated example shows an open style in which the operation unit housing 1A and the display unit housing 1B are not folded.

操作部筐体1Aの内面には、操作部21が配置され、また、表示部筐体1Bの内面には、表示部18が配置されている。また、操作部筐体1Aの内面側には、通話用マイクMCが配置され、表示部筐体1Bの内面には、通話用スピーカSPが配置されている。そして、操作部筐体1Aの側面部や背面部には、図3では図示しないが、加熱/冷却部27が所定の範囲内に亘って埋め込まれている。例えば、この実施形態では、操作部筐体1Aの側面部及び背面部に所定の範囲に亘って加熱/冷却部27を埋め込むようにしているが、操作部筐体1Aの両側面部又は一側面部に所定の範囲に亘って加熱/冷却部27を埋め込むようにしてもよい。また、この実施形態では、通話用マイクMCの音孔から芳香部26により発生された匂いを放出させるようにしているが、操作部筐体1Aの上面部に多数の専用孔を設け、その専用孔から芳香を放出させるようにしてもよい。   An operation unit 21 is disposed on the inner surface of the operation unit housing 1A, and a display unit 18 is disposed on the inner surface of the display unit housing 1B. Further, a call microphone MC is disposed on the inner surface side of the operation unit casing 1A, and a call speaker SP is disposed on the inner surface of the display unit casing 1B. In addition, although not shown in FIG. 3, the heating / cooling unit 27 is embedded in a predetermined range on the side surface and the back surface of the operation unit housing 1 </ b> A. For example, in this embodiment, the heating / cooling unit 27 is embedded in the side surface and the back surface of the operation unit housing 1A over a predetermined range, but both side surfaces or one side surface of the operation unit housing 1A. Alternatively, the heating / cooling unit 27 may be embedded over a predetermined range. In this embodiment, the odor generated by the fragrance portion 26 is emitted from the sound hole of the call microphone MC. However, a large number of dedicated holes are provided on the upper surface of the operation unit casing 1A. You may make it discharge | release a fragrance from a hole.

図4は、画像記憶部M3を説明するための図である。
画像記憶部M3は、各種の画像を記憶するもので、「画像」、「情景再現情報」などを対応付けて記憶する構成となっている。「画像」は、撮像部17により撮影された画像や画像配信装置4からダウンロード受信した画像などであり、「画像ID」、「タイトル」、「種別」、「3D深度」、「実データ」を有している。「画像ID」は、画像を識別する情報を示し、「タイトル」は、画像名を示し、「種別」は、画像の種類として動画か静止画かを示している。また、「3D深度」は、3D表示の奥行きあるいは飛び出しの程度(レベル“0”〜“2”)を示すもので、3D深度の強い順に、レベル2>レベル1>レベル0の関係となっている。なお、“レベル0”は、3D深度が“0(ゼロ)”で、2D(平面)であることを示し、「3D深度」が“レベル0”の画像は、2D表示される。「実データ」は、各3D深度毎のダウンロード画像や撮影画像などの実際の画像データを示している。
FIG. 4 is a diagram for explaining the image storage unit M3.
The image storage unit M3 stores various images, and is configured to store “image”, “scene reproduction information”, and the like in association with each other. The “image” is an image photographed by the imaging unit 17 or an image downloaded and received from the image distribution device 4, and includes “image ID”, “title”, “type”, “3D depth”, and “actual data”. Have. “Image ID” indicates information for identifying an image, “Title” indicates an image name, and “Type” indicates whether the image is a moving image or a still image. “3D depth” indicates the depth of 3D display or the degree of pop-up (levels “0” to “2”). In order of increasing 3D depth, the relationship of level 2> level 1> level 0 is established. Yes. “Level 0” indicates that the 3D depth is “0 (zero)” and 2D (planar), and an image with “3D depth” being “level 0” is displayed in 2D. “Actual data” indicates actual image data such as a downloaded image and a captured image for each 3D depth.

「情景再現情報」は、例えば、対応する画像が撮影された画像であれば、上述したように撮像部17により画像を撮影する際に、匂い検出部24、温度検出部25により検出されてコード化された匂い情報や温度情報であるが、対応する画像がダウンロード画像であれば、その画像と共にダウンロード受信した匂い情報や温度情報である。なお、「種別」が動画の場合、それに対応する「情景再現情報」は、経時的に変化する匂い情報や温度情報であってもよい。なお、図中「−」は、画像に対応して「情景再現情報」が存在していないことを示している。   For example, if the corresponding image is a captured image, the “scene reproduction information” is detected by the odor detection unit 24 and the temperature detection unit 25 when the image is captured by the imaging unit 17 as described above. If the corresponding image is a download image, it is the odor information and temperature information downloaded and received together with the image. When the “type” is a moving image, the “scene reproduction information” corresponding thereto may be odor information or temperature information that changes over time. In the figure, “-” indicates that “scene reproduction information” does not exist corresponding to the image.

図5は、3D深度設定情報記憶部M4を説明するための図である。
3D深度設定情報記憶部M4は、画像を最初に表示する際の3D深度が任意に設定されるメモリで、「3D深度」、「設定フラグ」を有している。「設定フラグ」は、「3D深度」の“レベル0”、“レベル1”、“レベル2”のうち、どのレベルを使用して表示するかを示すもので、その値が“1”のときには、使用する有効なレベルであることを示し、“0”のときには、使用しない無効なレベルであることを示している。なお、図示の例は、「設定フラグ」の“1”を「3D深度」の“レベル0”に対応して設定した場合であり、画像を最初に表示する際には2D表示で行うことを示す設定内容となっている。
FIG. 5 is a diagram for explaining the 3D depth setting information storage unit M4.
The 3D depth setting information storage unit M4 is a memory in which the 3D depth when an image is first displayed is arbitrarily set, and includes “3D depth” and “setting flag”. The “setting flag” indicates which level of “3D depth” “level 0”, “level 1”, “level 2” is used for display, and when the value is “1” Indicates an effective level to be used, and “0” indicates an invalid level not to be used. In the illustrated example, “1” of the “setting flag” is set corresponding to “level 0” of “3D depth”, and when the image is displayed for the first time, 2D display is performed. The setting contents are as follows.

図6は、出力条件記憶部M5を説明するための図である。
出力条件記憶部M5は、画像を表示する際の「3D深度」のレベル毎に、匂いや温度の出力強度が任意に設定されるメモリで、「3D深度」、「出力強度(匂い、温度)」、「設定フラグ」を有している。すなわち、出力条件記憶部M5は、芳香部26、加熱/冷却部27から匂いや温度を再現出力する際の出力強度を決定するためのテーブルであり、中央制御部11は、出力条件記憶部M5を参照し、画像を表示する際の「3D深度」に応じて、匂いや温度の出力強度を決定するようにしている。
FIG. 6 is a diagram for explaining the output condition storage unit M5.
The output condition storage unit M5 is a memory in which the output intensity of odor or temperature is arbitrarily set for each level of “3D depth” when displaying an image. “3D depth”, “output intensity (odor, temperature)” ”And“ setting flag ”. That is, the output condition storage unit M5 is a table for determining the output intensity when reproducing the odor and temperature from the fragrance unit 26 and the heating / cooling unit 27, and the central control unit 11 includes the output condition storage unit M5. , The output intensity of odor and temperature is determined according to the “3D depth” when displaying the image.

すなわち、図示の例では、「3D深度」の“レベル0”に対応する「出力強度」として“レベル0”、“レベル1”を有し、また、「3D深度」の“レベル1”に対応する「出力強度」として“レベル0”、“レベル1”、“レベル2”を有し、更に、「3D深度」の“レベル3”に対応する「出力強度」として“レベル0”、“レベル1”、“レベル2”を有している。「出力強度」の大きさは、“レベル2”>“レベル1”>“レベル0”の関係となっている。なお、「出力強度」の“レベル0”は、匂いや温度を再現出力しないことを示している。   That is, in the illustrated example, “level 0” and “level 1” are provided as “output intensity” corresponding to “level 0” of “3D depth”, and “level 1” of “3D depth” is supported. “Level 0”, “Level 1” and “Level 2” as “Output Intensity”, and “Level 0” and “Level” as “Output Intensity” corresponding to “Level 3” of “3D Depth” 1 "and" level 2 ". The magnitude of “output intensity” has a relationship of “level 2”> “level 1”> “level 0”. Note that “level 0” of “output intensity” indicates that no odor or temperature is reproduced and output.

「設定フラグ」は、「出力強度」の各レベル毎に設定されるもので、どのレベルの「出力強度」を使用して匂いや温度を再現させるかを示すもので、その値が“1”のときには、使用する有効なレベルであることを示し、“0”のときには、使用しない無効なレベルであることを示している。図示の例において、「3D深度」の“レベル0”には、「出力強度」の“レベル0”に対応する「設定フラグ」に“1”が設定され、また、「3D深度」の“レベル1”には、「出力強度」の“レベル1”に対応する「設定フラグ」に“1”が設定され、更に、「3D深度」の“レベル2”には、「出力強度」の“レベル2”に対応する「設定フラグ」に“1”が設定されている場合である。   The “setting flag” is set for each level of “output intensity” and indicates which level of “output intensity” is used to reproduce the odor and temperature, and its value is “1”. When it is, it indicates that it is an effective level to be used, and when it is “0”, it indicates that it is an invalid level that is not used. In the illustrated example, “level 0” of “3D depth” is set to “1” in “setting flag” corresponding to “level 0” of “output intensity”, and “level” of “3D depth”. “1” is set to “1” in the “setting flag” corresponding to “level 1” of “output intensity”, and “level 2” of “3D depth” is set to “level” of “output intensity” This is a case where “1” is set in the “setting flag” corresponding to “2”.

上述のように「3D深度」のレベル毎に記憶されている複数の「出力強度」の中から所望する「出力強度」をユーザ操作により任意に指定可能としているが、匂いや温度の「出力強度」を設定する場合には、次の条件で行うようにしてもよい。すなわち、表示される画像の「3D深度」が所定の3D深度よりも大きい場合には、所定の強度よりも大きい値となるように匂いや温度の「出力強度」を設定するようにしてもよい。例えば、「3D深度」が所定の3D深度“レベル0”よりも大きい“レベル1”であれば、「出力強度」は、所定の出力強度“レベル0”よりも大きい“レベル1”以上となるように設定するようにしてもよい。   As described above, a desired “output intensity” can be arbitrarily specified by a user operation from among a plurality of “output intensity” stored for each “3D depth” level. "May be set under the following conditions. That is, when the “3D depth” of the displayed image is larger than the predetermined 3D depth, the “output intensity” of the odor or temperature may be set to be a value larger than the predetermined intensity. . For example, if “3D depth” is “level 1” greater than the predetermined 3D depth “level 0”, “output intensity” is equal to or greater than “level 1” greater than the predetermined output intensity “level 0”. You may make it set as follows.

逆に、表示される画像の「3D深度」が所定の3D深度よりも小さい場合には、所定の強度よりも小さな値となるように匂いや温度の「出力強度」を設定するようにしてもよい。例えば、「3D深度」が所定の3D深度“レベル2”よりも小さい“レベル1”であれば、「出力強度」は、所定の出力強度“レベル1”よりも小さい“レベル1”以下となるように設定するようにしてもよい。また、「3D深度」が所定の3D深度、例えば、“レベル1”よりも小さい場合には、「出力強度」を“0(ゼロ)”に設定するようにしてもよい。また、「3D深度」が“レベル0”の場合には、「出力強度」を“0(ゼロ)”に設定するようにしてもよい。また、図示の例は、匂いの「出力強度」と温度の「出力強度」とを同一とした場合を示しているが、匂いの「出力強度」と温度の「出力強度」とを別々に設定可能な構成であってもよい。   On the contrary, when the “3D depth” of the displayed image is smaller than the predetermined 3D depth, the “output intensity” of the odor or temperature may be set to be a value smaller than the predetermined intensity. Good. For example, if “3D depth” is “level 1” smaller than the predetermined 3D depth “level 2”, the “output intensity” is equal to or lower than “level 1” smaller than the predetermined output intensity “level 1”. You may make it set as follows. Further, when “3D depth” is smaller than a predetermined 3D depth, for example, “level 1”, “output intensity” may be set to “0 (zero)”. Further, when “3D depth” is “level 0”, “output intensity” may be set to “0 (zero)”. In the example shown, the odor “output intensity” and the temperature “output intensity” are the same, but the odor “output intensity” and the temperature “output intensity” are set separately. A possible configuration may be used.

次に、この実施形態における携帯電話機1の動作概念を図7〜図10に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。   Next, the operation concept of the mobile phone 1 in this embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. In other words, in addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium.

図7は、電源投入に伴って実行開始される携帯電話機1側の全体動作の概要を示したフローチャートである。
先ず、携帯電話機1の中央制御部11は、電源を投入する電源オン操作が行われると(ステップA1でYES)、電源供給を開始させて所定のメモリなどを初期化する電源オン処理を実行したのち、所定の待受画像を読み出して表示させたり、基地局2Aとの間で通信を行って位置登録をしたりする待受処理を行う(ステップA2)。ここで、設定操作が行われたか(ステップA3)、画像取得操作が行われたか(ステップA5)、画像表示指示の発生を検出したか(ステップA7)、3D深度変更指示の発生を検出したか(ステップA9)、着信を検出したか(ステップA11)、電源オフ操作が行われたか(ステップA13)、その他の操作が行われたかを調べる(ステップA15)。
FIG. 7 is a flowchart showing an outline of the overall operation on the mobile phone 1 side which is started to be executed when the power is turned on.
First, when a power-on operation for turning on the power is performed (YES in step A1), the central control unit 11 of the mobile phone 1 executes a power-on process for starting power supply and initializing a predetermined memory or the like. After that, a standby process is performed in which a predetermined standby image is read and displayed, or communication is performed with the base station 2A to register a position (step A2). Whether a setting operation has been performed (step A3), an image acquisition operation has been performed (step A5), an occurrence of an image display instruction has been detected (step A7), or an occurrence of a 3D depth change instruction has been detected. (Step A9), whether an incoming call has been detected (Step A11), whether a power-off operation has been performed (Step A13), or other operations have been performed (Step A15).

いま、任意の情報を設定するための設定操作が行われたときには(ステップA3でYES)、その操作に対応する設定処理として、例えば、3D深度設定情報記憶部M4、出力条件記憶部M5に対する設定が行われる(ステップA4)。すなわち、3D深度設定情報記憶部M4、出力条件記憶部M5に対しては「設定フラグ」の内容を任意に書き替え可能な設定処理を行う。このような設定処理が終わると、上述のステップA3に戻る。また、画像取得操作が行われたときには、つまり、画像のダウンロードを指示するダウンロード操作や撮影を指示する撮影操作などの画像取得操作が行われたときには(ステップA2でYES)、画像取得処理を行った後(ステップA6)、上述のステップA3に戻る。この画像取得処理は、画像を取得してその情景再現情報と共に画像記憶部M3に対応付けて記憶させる処理である。   When a setting operation for setting arbitrary information is performed (YES in step A3), for example, settings for the 3D depth setting information storage unit M4 and the output condition storage unit M5 are set as the setting process corresponding to the operation. Is performed (step A4). That is, the 3D depth setting information storage unit M4 and the output condition storage unit M5 are set so that the contents of the “setting flag” can be arbitrarily rewritten. When such setting processing ends, the process returns to step A3 described above. Further, when an image acquisition operation is performed, that is, when an image acquisition operation such as a download operation instructing image download or a shooting operation instructing shooting is performed (YES in step A2), an image acquisition process is performed. After that (step A6), the process returns to step A3 described above. This image acquisition process is a process of acquiring an image and storing it in association with the scene reproduction information in the image storage unit M3.

図8は、画像取得処理(図7のステップA6)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像取得処理の開始を指示する画像取得操作がダウンロード操作によるものなのか(ステップB1)、撮影操作によるものなのかその他の操作によるものなのかを調べる(ステップB4)。いま、画像取得操作がダウンロード操作によるものであれば(ステップB1でYES)、画像配信装置4から画像(動画や静止画)と共にその画像に関する情景を再現させるための情景再現情報(匂い情報や温度情報)をダウンロード受信する(ステップB2)。そして、ダウンロード受信した画像とその情景再現情報とを対応付けて画像記憶部M3に記憶させる(ステップB3)。
FIG. 8 is a flowchart for explaining in detail the image acquisition process (step A6 in FIG. 7).
First, the central control unit 11 checks whether the image acquisition operation instructing the start of the image acquisition process is a download operation (step B1), a shooting operation, or another operation (step B4). . If the image acquisition operation is a download operation (YES in step B1), scene reproduction information (scent information and temperature) for reproducing a scene related to the image from the image distribution device 4 together with the image (moving image or still image). Information) is downloaded and received (step B2). Then, the downloaded image and the scene reproduction information are associated with each other and stored in the image storage unit M3 (step B3).

また、画像取得操作が撮影操作によるものであれば(ステップB4でYES)、撮像部17を駆動させて撮影画像を取得すると共に(ステップB5)、その撮影時に匂い検出部24、温度検出部25の検出結果を取得することにより(ステップB6)、情景再現情報を生成する(ステップB7)。そして、取得した撮影画像とその情景再現情報とを対応付けて画像記憶部M3に記憶させる(ステップB3)。また、画像取得操作がダウンロード操作、撮影操作以外のその他の操作によるものであれば(ステップB4でNO)、その他の操作に応じて画像と共にその情景再現情報を取得した後(ステップB8)、取得した撮影画像とその情景再現情報とを対応付けて画像記憶部M3に記憶させる(ステップB3)。例えば、その他の操作が外部記憶媒体から画像をコピーするコピー操作であれば、外部記憶媒体から画像と共にその情景再現情報を取得した後(ステップB8)、取得した撮影画像とその情景再現情報とを対応付けて画像記憶部M3に記憶させる(ステップB3)。このような画像取得処理が終わると、図7のステップA3に戻る。   If the image acquisition operation is a shooting operation (YES in step B4), the imaging unit 17 is driven to acquire a captured image (step B5), and the odor detection unit 24 and the temperature detection unit 25 are used during the shooting. Is acquired (step B6), and scene reproduction information is generated (step B7). Then, the acquired captured image and the scene reproduction information are associated with each other and stored in the image storage unit M3 (step B3). If the image acquisition operation is performed by other operations other than the download operation and the shooting operation (NO in step B4), the scene reproduction information is acquired together with the image according to the other operations (step B8), and then acquired. The captured image and its scene reproduction information are associated with each other and stored in the image storage unit M3 (step B3). For example, if the other operation is a copy operation for copying an image from an external storage medium, after acquiring the scene reproduction information together with the image from the external storage medium (step B8), the acquired captured image and the scene reproduction information are obtained. The image is stored in the image storage unit M3 (step B3). When such an image acquisition process is completed, the process returns to step A3 in FIG.

また、画像表示指示の発生を検出したときには(図7のステップA7でYES)、つまり、ユーザ操作により画像表示が指示されたとき又はスライドショーのように複数の画像を所定時間毎に次々に切り替え表示させるための切り替えるタイミングを検出したときには、画像表示処理を行った後(ステップA8)、上述のステップA3に戻る。この画像表示処理は、画像を2D/3D表示させる表示処理であるが、この表示処理に連動して3D表示時にはその3D深度に応じた出力強度で情景再現情報(匂い情報、温度情報)を再現出力させる処理である。   Further, when the generation of an image display instruction is detected (YES in step A7 in FIG. 7), that is, when an image display is instructed by a user operation or as in a slide show, a plurality of images are switched and displayed one after another at a predetermined time. When the timing for switching is detected, the image display process is performed (step A8), and the process returns to step A3 described above. This image display process is a display process for displaying an image in 2D / 3D, and scene reproduction information (scent information, temperature information) is reproduced with output intensity corresponding to the 3D depth in 3D display in conjunction with this display process. This is a process to output.

図9及び図10は、画像表示処理(図7のステップA8)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像の表示指示の発生がテレビ番組の視聴操作によるものなのか(ステップC1)、動画ストリーミング視聴操作によるものなのかその他の要因として、例えば、画像記憶部M3に記憶されている画像の表示操作によるものなのか、次の画像への切り替え表示(自動表示)によるものなのかを調べる(ステップC2)。いま、テレビ番組の視聴操作によるものであれば(ステップC1でYES)、テレビ機能を起動させて、テレビ放送受信部16から画像(テレビ番組)とその画像に関する情景再現情報を受信する受信動作を開始させた後(ステップC3)、この受信画像(テレビ番組)とその情景再現情報とを各種情報一時記憶部M2に対応付けて一時記憶させる(ステップC6)。
9 and 10 are flowcharts for explaining the image display process (step A8 in FIG. 7) in detail.
First, the central control unit 11 stores, for example, in the image storage unit M3 as other factors as to whether an image display instruction is generated by a television program viewing operation (step C1) or a moving image streaming viewing operation. It is checked whether it is due to the display operation of the displayed image or the switching display (automatic display) to the next image (step C2). Now, if the operation is based on a TV program viewing operation (YES in step C1), the TV function is activated and a receiving operation for receiving an image (TV program) and scene reproduction information related to the image from the TV broadcast receiving unit 16 is performed. After starting (step C3), the received image (television program) and the scene reproduction information are temporarily stored in association with various information temporary storage units M2 (step C6).

また、画像の表示指示の発生が動画ストリーミング視聴操作によるものであれば(ステップC2でYES)、画像配信装置4から画像(動画)と共にその画像に関する情景を再現させるための情景再現情報(匂い情報、温度情報)を受信する受信動作を開始させた後(ステップC4)、この受信画像(動画)とその情景再現情報とを対応付けて各種情報一時記憶部M2に一時記憶させる(ステップC6)。また、画像の表示指示の発生が、その他の要因によるものであれば(ステップC2でNO)、その他の要因に応じて表示対象の画像とその情景再現情報を画像記憶部M3から読み出した後(ステップC5)、この表示対象の画像とその情景再現情報とを各種情報一時記憶部M2に対応付けて一時記憶させる(ステップC6)。   Further, if the image display instruction is generated by a video streaming viewing operation (YES in step C2), scene reproduction information (scent information) for reproducing a scene related to the image together with the image (video) from the image distribution apparatus 4 , Temperature information) is started (step C4), and the received image (moving image) and the scene reproduction information are associated with each other and temporarily stored in the various information temporary storage unit M2 (step C6). Further, if the image display instruction is generated due to other factors (NO in step C2), after the display target image and its scene reproduction information are read from the image storage unit M3 according to the other factors ( In step C5), the display target image and the scene reproduction information are temporarily stored in association with the various information temporary storage unit M2 (step C6).

そして、3D深度設定情報記憶部M4から「設定フラグ」が“1”の3D深度を読み出すと共に(ステップC7)、その3D深度を表示制御用の情報として指定して(ステップC8)、この指定した3D深度(指定深度)を各種情報一時記憶部M2に一時記憶させる(ステップC9)。そして、上述のように指定した3D深度(指定深度)は、“レベル0”であるか否かを調べ(ステップC10)、この指定深度が“レベル0”であれば(ステップC10でYES)、2D表示処理に移る(ステップC11、C12)。この場合、表示部18に視差バリアが生成されていれば、この視差バリアを視差バリア制御部20により消去させた後(ステップC11)、各種情報一時記憶部M2に一時記憶されている画像を読み出して表示部18に2D表示させる(ステップC12)。   Then, the 3D depth whose “setting flag” is “1” is read from the 3D depth setting information storage unit M4 (step C7), and the 3D depth is designated as display control information (step C8). The 3D depth (specified depth) is temporarily stored in the various information temporary storage unit M2 (step C9). Then, it is checked whether or not the 3D depth (specified depth) specified as described above is “level 0” (step C10). If the specified depth is “level 0” (YES in step C10), The process proceeds to 2D display processing (steps C11 and C12). In this case, if a parallax barrier is generated on the display unit 18, the parallax barrier is erased by the parallax barrier control unit 20 (step C11), and then an image temporarily stored in the various information temporary storage unit M2 is read. Then, 2D display is performed on the display unit 18 (step C12).

また、指定深度が“レベル0”でなければ(ステップC10でNO)、すなわち、“レベル1”又は“レベル2”であれば、3D表示処理に移る(ステップC14〜C16)。この場合、指定深度の画像は、各種情報一時記憶部M2に一時記憶されているか、つまり、一時記憶されている画像は、指定深度の画像であるかを調べる(ステップC13)。ここで、指定深度の画像でなければ(ステップC13でNO)、例えば、テレビ放送を受信番組(画像)や動画ストリーミングの受信画像などが指定深度の画像でない場合や指定深度の「実データ」が画像記憶部M3に記憶されていない場合など、一時記憶されている画像が指定深度の画像でなければ、3D変換処理部19を動作させて、一時記憶されている画像(指定深度とは異なる別の3D深度の画像)を、指定深度の画像に3D変換させる(ステップC14)。この場合、3D変換処理部19は、指定深度に応じて右目用の画像と左目用の画像を生成する。そして、表示部18に視差バリアが生成されていなければ、この視差バリアを視差バリア制御部20により生成させた後(ステップC15)、一時記憶されている画像を指定深度で表示部18に3D表示させたり、3D変換された画像を表示部18に3D表示させたりする(ステップC16)。   If the designated depth is not “level 0” (NO in step C10), that is, if it is “level 1” or “level 2”, the process proceeds to 3D display processing (steps C14 to C16). In this case, it is checked whether the image with the specified depth is temporarily stored in the various information temporary storage unit M2, that is, whether the temporarily stored image is the image with the specified depth (step C13). Here, if the image is not an image of the specified depth (NO in step C13), for example, if the received program (image) for television broadcasting or the received image of the video streaming is not an image of the specified depth, or “actual data” of the specified depth is If the temporarily stored image is not an image of the specified depth, such as when not stored in the image storage unit M3, the 3D conversion processing unit 19 is operated to store the temporarily stored image (different from the specified depth). (3D depth image) is converted into an image with a specified depth (step C14). In this case, the 3D conversion processing unit 19 generates a right-eye image and a left-eye image according to the specified depth. If no parallax barrier is generated on the display unit 18, the parallax barrier is generated by the parallax barrier control unit 20 (step C15), and then the temporarily stored image is displayed in 3D on the display unit 18 at a specified depth. Or 3D display of the 3D converted image (step C16).

そして、図10のステップC17に移り、上述の指定深度に基づいて出力条件記憶部M5を参照し、この指定深度に対応する「3D深度」の各「出力強度」のうち、「設定フラグ」が“1”の「出力強度」を読み出す。例えば、指定深度が“レベル0”であれば、“レベル0”の「出力強度」、また、指定深度が“レベル1”であれば、“レベル1”の「出力強度」、更に、指定深度が“レベル2”であれば、“レベル2”の「出力強度」を読み出す。これにより出力条件記憶部M5から読み出した「出力強度」を、情景再現情報(匂い情報、温度情報)を再現出力する際の出力強度として決定する(ステップC18)。   Then, the process proceeds to step C17 in FIG. 10, the output condition storage unit M5 is referred to based on the above-described designated depth, and among the “output strengths” of “3D depth” corresponding to the designated depth, the “setting flag” is Read the “output intensity” of “1”. For example, if the specified depth is “level 0”, “output intensity” of “level 0”, if the specified depth is “level 1,” “output intensity” of “level 1”, and further, the specified depth If “level 2”, “output intensity” of “level 2” is read. Thereby, the “output intensity” read from the output condition storage unit M5 is determined as the output intensity when reproducing and reproducing the scene reproduction information (scent information, temperature information) (step C18).

そして、上述のようにして決定した「出力強度」は“レベル0”であるかを調べ(ステップC19)、「出力強度」が“レベル0”であれば(ステップC19でYES)、芳香部26、加熱/冷却部27を駆動させずに(情景を再現出力させずに)、図7のステップA3に戻るが、「出力強度」が“レベル0”でなければ(ステップC19でNO)、芳香部26、加熱/冷却部27を駆動させる(ステップC20)。この場合、中央制御部11は、各種情報一時記憶部M2に一時記憶されている情景再現情報(匂い情報、温度情報)を読み出して、芳香部26、加熱/冷却部27に与える。   Then, it is checked whether or not the “output intensity” determined as described above is “level 0” (step C19). If the “output intensity” is “level 0” (YES in step C19), the fragrance 26 The process returns to step A3 in FIG. 7 without driving the heating / cooling unit 27 (without reproducing and outputting the scene), but if the “output intensity” is not “level 0” (NO in step C19), the fragrance The unit 26 and the heating / cooling unit 27 are driven (step C20). In this case, the central control unit 11 reads the scene reproduction information (smell information, temperature information) temporarily stored in the various information temporary storage unit M <b> 2 and provides the information to the fragrance unit 26 and the heating / cooling unit 27.

これによって芳香部26、加熱/冷却部27は、この情景再現情報(匂い情報、温度情報)と、上述のようにして決定された「出力強度」に応じて情景を再現出力する(ステップC21)。すなわち、芳香部26は、情景再現情報(匂い情報)に応じた種類の匂いを発生するが、その際、決定された「出力強度」に応じて芳香の発生量を制御する。また、加熱/冷却部27は、情景再現情報(温度情報)に応じた温度で筐体の一部分(例えば、側面部、背面部)を加熱/冷却するが、その際、決定された「出力強度」に応じて加熱/冷却する範囲を制御する。このようにして情景を再現出力させた後(ステップC21)、図7のステップA3に戻るが、上述した一時記憶の画像がテレビ番組や動画などの動画系の画像であれば、画像表示の終了がユーザ操作又は自動的に指示されるまで、図9及び図10の画像表示処理を逐次繰り返す。   Thereby, the fragrance unit 26 and the heating / cooling unit 27 reproduce and output the scene according to the scene reproduction information (scent information, temperature information) and the “output intensity” determined as described above (step C21). . That is, the fragrance unit 26 generates a kind of odor according to the scene reproduction information (scent information), and controls the amount of fragrance generated according to the determined “output intensity”. In addition, the heating / cooling unit 27 heats / cools a part of the casing (for example, the side surface portion and the back surface portion) at a temperature corresponding to the scene reproduction information (temperature information). ”To control the heating / cooling range. After the scene is reproduced and output in this way (step C21), the process returns to step A3 in FIG. 7. However, if the above-described temporarily stored image is a moving image image such as a TV program or a moving image, the image display ends. 9 and 10 are sequentially repeated until a user operation or an automatic instruction is issued.

一方、3D深度変更指示の発生を検出したときには(図7のステップA9でYES)、つまり、ユーザ操作により所望する3D深度に変更すべきことが指示されたとき、又は自動的に3D深度の変更が指示されたときには、変更された3D深度を表示制御用の情報として指定した後(ステップA10)、図9のステップC9に移り、この変更された3D深度(指定深度)を各種情報一時記憶部M2に一時記憶させる。以下、図9及び図10の画像表示処理を行う(ステップC10〜C21)。これにより画像表示と情景の再現出力は、変更後の3D深度(指定深度)に応じたものとなる。   On the other hand, when the occurrence of a 3D depth change instruction is detected (YES in step A9 in FIG. 7), that is, when it is instructed to be changed to a desired 3D depth by a user operation, or the 3D depth is automatically changed. Is designated as the display control information (step A10), the process proceeds to step C9 in FIG. 9, and the changed 3D depth (designated depth) is stored in various information temporary storage units. Temporarily store in M2. Thereafter, the image display processing of FIGS. 9 and 10 is performed (steps C10 to C21). As a result, the image display and the scene reproduction output correspond to the changed 3D depth (designated depth).

その他、着信を検出したときには(図7のステップA11でYES)、その応答操作に応じて通話処理を行った後(ステップA12)、上述のステップA3に戻る。また、電源オフ操作を検出したときには(ステップA13でYES)、電源オフ処理を行った後(ステップA14)、このフローの終了となるが、発信操作など、その他の操作が行われたときには(ステップA15でYES)、操作に応じた処理として発信処理などを行った後(ステップA16)、上述のステップA3に戻る。   In addition, when an incoming call is detected (YES in step A11 in FIG. 7), a call process is performed according to the response operation (step A12), and the process returns to step A3 described above. When a power-off operation is detected (YES in step A13), the power-off process is performed (step A14), and then this flow ends. However, when other operations such as a calling operation are performed (step S14) After a transmission process is performed as a process corresponding to the operation (step A16), the process returns to the above-described step A3.

以上のように、この実施形態においては、画像を3D表示させる際の3D深度に基づいて、その画像に関する情景の出力強度を決定し、この出力強度で情景を再現出力するようにしたので、画像に関する情景の再現出力を適切に制御することができ、画像との連帯感や迫力感により臨場感や演出効果を更に高めることができる。   As described above, in this embodiment, the output intensity of the scene related to the image is determined based on the 3D depth when the image is displayed in 3D, and the scene is reproduced and output with this output intensity. It is possible to appropriately control the reproduction output of the scene related to the image, and it is possible to further enhance the sense of presence and the production effect by the sense of solidarity with the image and the sense of power.

視覚以外の人の感覚である嗅覚、触覚で認識させるための刺激(匂いや温度)を、画像に関する情景として生成して再現出力するようにしたので、情景の再現に視覚以外の感覚(嗅覚、触覚)を利用することができる。   The stimulus (smell and temperature) that is recognized by human senses other than sight and sense of touch is generated and reproduced as a scene related to the image. Tactile) can be used.

画像を3D表示させる際の3D深度に基づいて匂いの強さを制御するようにしたので、3D表示の奥行きあるいは飛び出しに応じて、匂いの強弱をつけることができ、演出効果を有するものとなる。   Since the intensity of the odor is controlled based on the 3D depth when the image is displayed in 3D, the intensity of the odor can be increased or decreased according to the depth or pop-out of the 3D display, which has a production effect. .

画像を3D表示させる際の3D深度に基づいて筐体を加熱あるいは冷却する範囲を制御するようにしたので、3D表示の奥行きあるいは飛び出しに応じて、加熱あるいは冷却の強弱をつけることができ、演出効果を有するものとなる。   Since the range for heating or cooling the housing is controlled based on the 3D depth when displaying the image in 3D, the strength of heating or cooling can be adjusted according to the depth or pop-out of the 3D display. It has an effect.

撮影時における周囲の情景を検出して情景再現情報として撮影画像に対応付けて記憶しておき、この撮影画像に対応付けられている情景再現情報を読み出して再現出力するようにしたので、撮影時の情景をいつでも自由に再現することが可能となる。   The surrounding scene at the time of shooting is detected and stored as scene reproduction information in association with the captured image, and the scene reproduction information associated with this captured image is read out and reproduced and output. It is possible to freely reproduce the scene at any time.

3D深度が所定の3D深度よりも大きい場合に、所定の強度よりも大きい出力強度に決定するようにしたので、ユーザに視覚的な臨場感を与えるだけでなく、それに合わせて視覚以外の感覚を利用した臨場感も与えることができ、その結果、ユーザに総合的な臨場感を与えることが可能となる。   When the 3D depth is larger than the predetermined 3D depth, the output intensity is determined to be larger than the predetermined intensity. This not only gives the user a visual sense of reality, but also adjusts the sense other than the visual sense accordingly. It is possible to give a sense of realism that is used, and as a result, it is possible to give the user a total sense of realism.

3D深度が所定の3D深度よりも小さい場合に、所定の強度よりも小さい出力強度に決定するようにしたので、ユーザに与える視覚的な臨場感を減らすだけでなく、それに合わせて視覚以外の感覚を利用した臨場感も減らすことができ、不必要な処理の負担を軽減したり、周囲への迷惑を防止したりすることができる。   When the 3D depth is smaller than the predetermined 3D depth, the output intensity is determined to be smaller than the predetermined intensity, so that not only the visual sensation given to the user is reduced, but also the sense other than the visual sense is adjusted accordingly. It is possible to reduce the sense of reality using the computer, reduce the burden of unnecessary processing, and prevent inconvenience to the surroundings.

3D深度が所定の3D深度よりも小さい場合や“0(ゼロ)”に、出力強度を“0(ゼロ)”に決定するようにしたので、視覚以外の感覚を利用する情景の再現出力を抑制することができる。   When the 3D depth is smaller than the predetermined 3D depth or when it is set to “0 (zero)”, the output intensity is determined to be “0 (zero)”. can do.

3D深度が変更された場合に、変更後の3D深度に応じた出力強度で情景を再現出力するようにしたので、3D深度が変更されても、それに対応した情景の再現出力が可能となる。   When the 3D depth is changed, the scene is reproduced and output with the output intensity corresponding to the changed 3D depth. Therefore, even if the 3D depth is changed, it is possible to reproduce and output the corresponding scene.

画像を2D表示させるか3D表示させるかを指定することが可能であり、3D表示が指定された場合には、画像を3D表示するほか、その画像に関する情景を再現出力するようにしたので、画像を3D表示させるか否かに基づいて、画像に関する情景の再現出力を適切に制御することができ、3D表示に合わせた情景の再現出力で臨場感や演出効果を高めることが可能となる。   It is possible to specify whether the image is displayed in 2D or 3D. When 3D display is specified, the image is displayed in 3D and the scene related to the image is reproduced and output. Based on whether or not 3D images are displayed, it is possible to appropriately control the reproduction output of the scene related to the image, and it is possible to enhance the sense of reality and the production effect by the reproduction output of the scene according to the 3D display.

2D表示が指定された場合に、画像を2D表示するようにしたので、2D表示時には、その画像に関する情景の再現出力を抑制することができる。   When the 2D display is designated, the image is displayed in 2D, so that at the time of 2D display, the reproduction output of the scene related to the image can be suppressed.

なお、上述した実施形態においては、3D深度及び情景の出力強度として“レベル0”、“レベル1”、“レベル2”までを例示したが、“レベル3”以上であってもよい。また、匂いの出力強度として匂いの発生量を示したが、匂いの濃度であってもよく、また、温度の出力強度として加熱あるいは冷却する範囲を示したが、温度の強さであってもよい。また、触覚として温度を例示したが、振動、湿度、肌触り感などであってもよい。また、上述した実施形態においては、嗅覚、触覚を利用して情景を再現出力するようにしたが、聴覚、味覚を利用するようにしてもよい。この場合、マイクや味覚センサを設ければよい。この場合、音声の出力強度は、音量となり、味覚の出力強度は、味の濃度となる。更に、嗅覚、触覚、聴覚、味覚の組み合わせで、情景を再現出力するようにしてもよい。   In the embodiment described above, “level 0”, “level 1”, and “level 2” are exemplified as the 3D depth and the scene output intensity, but may be “level 3” or higher. Moreover, although the amount of odor generated is shown as the odor output intensity, it may be the odor concentration, and the range of heating or cooling is shown as the temperature output intensity. Good. Moreover, although temperature was illustrated as a tactile sense, vibration, humidity, a touch feeling, etc. may be sufficient. In the embodiment described above, the scene is reproduced and output using the sense of smell and touch, but the sense of hearing and taste may be used. In this case, a microphone or a taste sensor may be provided. In this case, the output intensity of the sound is a volume, and the output intensity of the taste is a taste density. Furthermore, the scene may be reproduced and output by a combination of smell, touch, hearing, and taste.

上述した実施形態においては、画像をダウンロード取得したり、テレビ番組(画像)を受信取得したり、外部記憶媒体から画像をコピー取得したりした場合に、その画像に関する情景再現情報も画像と共に取得するようにしたが、画像を解析することによりその情景再現情報を得るようにしてもよい。すなわち、画像を解析して、その画像に含まれている被写体を特定すると共に、その被写体は、匂いを発生するものか、温度の高いものか低いものかなどを特定して情景再現情報を生成するようにしてもよい。例えば、画像に含まれている被写体がレモンや温泉であれば、レモンの匂い示す情景再現情報、温泉(硫黄)の匂いや温度を示す情景再現情報を生成して記憶するようにしてもよい。このように情景再現情報を生成してその画像に対応付けて記憶しておけば、次回、その画像を再生出力する場合、情景再現情報を読み出して情景を再現出力すればよい。   In the embodiment described above, when an image is downloaded and acquired, a television program (image) is received and acquired, or a copy of an image is acquired from an external storage medium, scene reproduction information regarding the image is also acquired together with the image. However, the scene reproduction information may be obtained by analyzing the image. That is, the image is analyzed to identify the subject included in the image, and the scene reproduction information is generated by identifying whether the subject generates an odor, a high temperature, or a low temperature. You may make it do. For example, if the subject included in the image is lemon or hot spring, scene reproduction information indicating the smell of lemon and scene reproduction information indicating the smell or temperature of hot spring (sulfur) may be generated and stored. If scene reproduction information is generated and stored in association with the image as described above, the scene reproduction information may be read out and the scene reproduced and output when the image is reproduced and output next time.

上述した実施形態においては、テレビ番組(画像)や動画ストリーミング画像などが指定深度の画像でない場合あるいは指定深度の「実データ」が画像記憶部M3に記憶されていない場合など、一時記憶されている画像が指定深度の画像でなければ、3D変換処理部19を動作させて、一時記憶されている画像(指定深度とは異なる別の3D深度の画像)を、指定深度に3D変換するようにしたが、指定深度の画像の送信要求を画像配信装置4に対して行い、それに応答して画像配信装置4から送信されてきた指定深度の画像を受信することにより入手するようにしてもよい。   In the above-described embodiment, when a television program (image), a moving image streaming image, or the like is not an image with a specified depth, or when “actual data” with a specified depth is not stored in the image storage unit M3, it is temporarily stored. If the image is not an image of the specified depth, the 3D conversion processing unit 19 is operated to perform 3D conversion of the temporarily stored image (an image of another 3D depth different from the specified depth) to the specified depth. However, a request to transmit an image with a specified depth may be made to the image distribution device 4 and received by receiving an image with the specified depth transmitted from the image distribution device 4 in response thereto.

また、上述した各実施形態において3Dの画像は、その3D深度に応じた右目用の画像と左目用の画像を同時に表示して、それらが正しく3Dに見えるように3D深度に応じた視差バリアを表示部18の表層に生成して3D表示を行う方法を例示したが、例えば、画像が3Dに見えるような視覚効果を施して3D表示を行う方法など、任意の3D表示方法であってもよい。また、表示部18に表示させる画像は、静止画、動画、テレビ番組、テキストを含む画像など、その種類は、任意である。   In each of the embodiments described above, the 3D image is displayed simultaneously with the right-eye image and the left-eye image corresponding to the 3D depth, and a parallax barrier corresponding to the 3D depth is displayed so that they can be correctly viewed in 3D. Although the method of generating the 3D display on the surface layer of the display unit 18 has been illustrated, for example, any 3D display method such as a method of performing the 3D display by applying a visual effect that makes the image look 3D may be used. . The type of image displayed on the display unit 18 is arbitrary, such as a still image, a moving image, a television program, and an image including text.

その他、表示部18は、外部モニタなど、任意の外部表示装置であってもよい。また、端末装置としては携帯電話機1に限らず、パーソナルコンピュータ、PDA、デジタルカメラ、音楽プレイヤーなど、任意の端末装置であってもよい。更に、折り畳みタイプの端末装置に限らず、ストレートタイプ、スライドタイプ、スピントップタイプなど任意の筐体構造であってもよい。   In addition, the display unit 18 may be an arbitrary external display device such as an external monitor. The terminal device is not limited to the mobile phone 1 and may be any terminal device such as a personal computer, a PDA, a digital camera, or a music player. Furthermore, it is not limited to a folding type terminal device, but may be an arbitrary housing structure such as a straight type, a slide type, or a spin top type.

また、上述した各実施形態において示した“装置”や“機”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。 Further, the “device” and “machine” shown in each of the above-described embodiments may be separated into a plurality of housings by function, and are not limited to a single housing. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

1 携帯電話機
2 無線通信網
4 画像配信装置
11 中央制御部
13 記憶部
16 テレビ放送受信部
17 撮像部
18 表示部
19 3D変換処理部
20 視差バリア制御部
21 操作部
24 匂い検出部
25 温度検出部
26 芳香部
27 加熱/冷却部
M1 プログラム記憶部
M2 各種情報一時記憶
M3 画像記憶部
M4 3D深度設定情報記憶部
M5 出力条件記憶部
DESCRIPTION OF SYMBOLS 1 Mobile phone 2 Wireless communication network 4 Image distribution apparatus 11 Central control part 13 Storage part 16 Television broadcast receiving part 17 Imaging part 18 Display part 19 3D conversion process part 20 Parallax barrier control part 21 Operation part 24 Odor detection part 25 Temperature detection part 26 Fragrance unit 27 Heating / cooling unit M1 Program storage unit M2 Various information temporary storage M3 Image storage unit M4 3D depth setting information storage unit M5 Output condition storage unit

Claims (16)

画像を表示部に3D表示する端末装置であって、
前記表示部に表示される画像に関する情景を再現させるための情景再現情報に基づいて前記情景を再現出力する出力手段と、
前記表示部に表示される画像の3Dの奥行きあるいは飛び出しの程度を示す3D深度を指定する指定手段と、
この指定手段により指定された3D深度で前記表示部に画像を3D表示させる表示制御手段と、
前記指定手段により指定された3D深度に基づいて、前記出力手段により情景を再現出力する際の出力強度を決定する決定手段と、
この決定手段により決定された出力強度で前記出力手段から情景を再現出力させる出力制御手段と、
を備えることを特徴とする端末装置。
A terminal device that displays an image in 3D on a display unit,
Output means for reproducing and outputting the scene based on scene reproduction information for reproducing the scene related to the image displayed on the display unit;
Designating means for designating a 3D depth indicating a 3D depth of the image displayed on the display unit or a degree of popping;
Display control means for 3D displaying an image on the display unit at a 3D depth designated by the designation means;
Determining means for determining an output intensity when reproducing and outputting a scene by the output means based on the 3D depth specified by the specifying means;
Output control means for reproducing and outputting a scene from the output means at the output intensity determined by the determining means;
A terminal device comprising:
前記情景再現情報は、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識される情景を再現させるための情報であり、
前記出力手段は、前記情景再現情報に基づいて、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識させるための刺激を、前記情景として生成して再現出力する、
ようにしたことを特徴とする請求項1記載の端末装置。
The scene reproduction information is information for reproducing a scene recognized by at least one of the senses of smell, touch, hearing, and taste, which are human senses other than vision,
The output means generates, as the scene, a stimulus for recognizing at least one of olfactory sense, touch sense, auditory sense, and taste sense that is a human sense other than vision based on the scene reproduction information. Output
The terminal device according to claim 1, which is configured as described above.
前記情景再現情報は、匂いに関する情報で、前記出力手段により情景を出力する際の出力強度は、匂いの強さである、
ことを特徴とする請求項2記載の端末装置。
The scene reproduction information is information relating to odor, and the output intensity when the scene is output by the output means is the intensity of the odor.
The terminal device according to claim 2.
前記情景再現情報は、温度に関する情報で、前記出力手段により情景を出力する際の出力強度は、該端末装置を構成する筐体を加熱あるいは冷却する範囲である、
ことを特徴とする請求項2記載の端末装置。
The scene reproduction information is information relating to temperature, and the output intensity when the scene is output by the output means is a range in which the casing constituting the terminal device is heated or cooled.
The terminal device according to claim 2.
画像を撮影する撮影手段と、
この撮影手段により画像の撮影時における周囲の情景を検出して前記情景再現情報として取得する情景検出手段と、
前記撮影手段により撮影された画像と前記情景検出手段により検出された情景再現情報とを対応付けて記憶部に記憶させる記憶制御手段と、
を備え、
前記出力制御手段は、前記表示部に表示されている画像に対応付けられている情景再現情報を前記記憶部から読み出して前記出力手段から情景を再現出力させる、
ようにしたことを特徴とする請求項1記載の端末装置。
Photographing means for photographing an image;
A scene detection unit that detects a surrounding scene at the time of shooting an image by the shooting unit and acquires the scene reproduction information;
Storage control means for associating the image photographed by the photographing means with the scene reproduction information detected by the scene detection means and storing them in a storage unit;
With
The output control means reads out scene reproduction information associated with an image displayed on the display unit from the storage unit and reproduces and outputs a scene from the output unit.
The terminal device according to claim 1, which is configured as described above.
前記決定手段は、前記指定手段により指定された3D深度が所定の3D深度よりも大きい場合に、所定の強度よりも大きい強度に決定する、
ようにしたことを特徴とする請求項1記載の端末装置。
The determining means determines the intensity larger than a predetermined intensity when the 3D depth specified by the specifying means is larger than a predetermined 3D depth.
The terminal device according to claim 1, which is configured as described above.
前記決定手段は、前記指定手段により指定された指定された3D深度が所定の3D深度よりも小さい場合に、情景を再現出力する際の出力強度を所定の強度よりも小さく決定する、
ようにしたことを特徴とする請求項1記載の端末装置。
The determining unit determines an output intensity when reproducing and outputting a scene to be smaller than a predetermined intensity when the specified 3D depth specified by the specifying unit is smaller than a predetermined 3D depth;
The terminal device according to claim 1, which is configured as described above.
前記決定手段は、前記指定手段により指定された3D深度が所定の3D深度よりも小さい場合に、情景を再現出力する際の出力強度をゼロに決定する、
ようにしたことを特徴とする請求項7記載の端末装置。
The determining means determines that the output intensity when reproducing and outputting a scene is zero when the 3D depth specified by the specifying means is smaller than a predetermined 3D depth.
The terminal device according to claim 7, which is configured as described above.
前記決定手段は、前記指定手段により指定された3D深度がゼロの場合に、情景を再現出力する際の出力強度をゼロに決定する、
ようにしたことを特徴とする請求項7記載の端末装置。
The determining means determines that the output intensity when reproducing and outputting the scene is zero when the 3D depth specified by the specifying means is zero.
The terminal device according to claim 7, which is configured as described above.
前記表示部に表示される画像の3D深度が変更されたことを検出する変更検出手段を更に備え、
前記決定手段は、前記変更検出手段により3D深度が変更されたことが検出された場合に、変更後における3D深度に基づいて、情景を再現出力する際の出力強度を新たに決定し、
前記出力制御手段は、前記出力手段から再現出力されている情景の出力強度を、前記決定手段により新たに決定された出力強度に切り替えて該情景を再現出力する、
ようにしたことを特徴とする請求項1記載の端末装置。
A change detecting means for detecting that the 3D depth of the image displayed on the display unit has been changed;
When the change detecting unit detects that the 3D depth has been changed, the determining unit newly determines an output intensity for reproducing and outputting a scene based on the 3D depth after the change,
The output control means switches the output intensity of the scene reproduced and output from the output means to the output intensity newly determined by the determination means, and reproduces and outputs the scene.
The terminal device according to claim 1, which is configured as described above.
画像を表示部に2D表示及び3D表示する端末装置であって、
前記表示部に表示される画像に関する情景を再現させるための情景再現情報が該画像に対応付けられて記憶部に記憶されている状態において、この記憶部に記憶されている情景再現情報に基づいて情景を再現出力する出力手段と、
前記画像を前記表示部に2D表示させるか3D表示させるかを指定する指定手段と、
この指定手段により3D表示が指定されたか否かを判別する判別手段と、
この判別手段により3D表示が指定されたと判別された場合に、前記画像を前記表示部に3D表示させる表示制御手段と、
前記表示部に3D表示されている画像に対応して前記記憶部に記憶されている情景再現情報に基づいて、前記出力手段から情景を再現出力させる出力制御手段と、
を備えることを特徴とする端末装置。
A terminal device that displays images in 2D and 3D on a display unit,
Based on the scene reproduction information stored in the storage unit in a state where the scene reproduction information for reproducing the scene related to the image displayed on the display unit is stored in the storage unit in association with the image. An output means for reproducing and outputting a scene;
Designating means for designating whether the image is displayed in 2D or 3D on the display unit;
Discrimination means for discriminating whether or not 3D display is designated by the designation means;
Display control means for displaying the image in 3D on the display unit when it is determined that 3D display is designated by the determination means;
Output control means for reproducing and outputting a scene from the output means based on the scene reproduction information stored in the storage unit corresponding to the image displayed in 3D on the display unit;
A terminal device comprising:
前記表示制御手段は、前記判別手段により2D表示が指定されたと判別された場合に、前記画像を前記表示部に2D表示させる、
ようにしたことを特徴とする請求項11記載の端末装置。
The display control unit displays the image on the display unit in 2D when it is determined that the 2D display is designated by the determination unit.
The terminal device according to claim 11, which is configured as described above.
前記情景再現情報は、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識される情景を再現するための情報であり、
前記出力手段は、前記情景再現情報に基づいて、視覚以外の人の感覚である嗅覚、触覚、聴覚、味覚のうち、少なくともそのいずれかの感覚で認識させるための刺激を、前記情景として生成して再現出力する、
ようにしたことを特徴とする請求項11記載の端末装置。
The scene reproduction information is information for reproducing a scene recognized by at least one of the senses of smell, touch, hearing, and taste, which are human senses other than vision,
The output means generates, as the scene, a stimulus for recognizing at least one of olfactory sense, touch sense, auditory sense, and taste sense that is a human sense other than vision based on the scene reproduction information. Output
The terminal device according to claim 11, which is configured as described above.
画像を撮影する撮影手段と、
この撮影手段により画像の撮影時における周囲の情景を前記情景再現情報として検出する情景検出手段と、
前記撮影手段により撮影された画像と前記情景検出手段により検出された情景再現情報とを対応付けて記憶部に記憶させる記憶制御手段と、
を備える、
ようにしたことを特徴とする請求項11記載の端末装置。
Photographing means for photographing an image;
A scene detection means for detecting a surrounding scene at the time of shooting an image as the scene reproduction information by the shooting means;
Storage control means for associating the image photographed by the photographing means with the scene reproduction information detected by the scene detection means and storing them in a storage unit;
Comprising
The terminal device according to claim 11, which is configured as described above.
コンピュータに対して、
表示部に表示される画像に関する情景を再現させるための情景再現情報に基づいて情景を再現出力する機能と、
前記表示部に表示される画像の3Dの奥行きあるいは飛び出しの程度を示す3D深度を指定する機能と、
前記指定された3D深度で前記表示部に画像を3D表示させる機能と、
前記指定された3D深度に基づいて、前記情景を再現出力する際の出力強度を決定する機能と、
前記決定された出力強度で情景を再現出力させる機能と、
を実現させるためのプログラム。
Against the computer,
A function to reproduce and output the scene based on the scene reproduction information for reproducing the scene related to the image displayed on the display unit;
A function of designating a 3D depth indicating a 3D depth of the image displayed on the display unit or a degree of protrusion;
A function of displaying a 3D image on the display unit at the specified 3D depth;
A function of determining an output intensity when reproducing and outputting the scene based on the specified 3D depth;
A function to reproduce and output a scene at the determined output intensity;
A program to realize
コンピュータに対して、
表示部に表示される画像に関する情景を再現させるための情景再現情報が該画像に対応付けられて記憶部に記憶されている状態において、この記憶部に記憶されている情景再現情報に基づいて情景を再現出力する機能と、
前記画像を前記表示部に2D表示させるか3D表示させるかを指定する機能と、
前記3D表示が指定されたか否かを判別する機能と、
前記3D表示が指定されたと判別された場合に、前記画像を前記表示部に3D表示させる機能と、
前記表示部に3D表示されている画像に対応して前記記憶部に記憶されている情景再現情報に基づいて、前記出力手段から情景を再現出力させる機能と、
を実現させるためのプログラム。
Against the computer,
In a state where scene reproduction information for reproducing a scene related to an image displayed on the display unit is stored in the storage unit in association with the image, the scene is based on the scene reproduction information stored in the storage unit. A function to reproduce and output
A function for designating whether the image is displayed in 2D or 3D on the display unit;
A function of determining whether or not the 3D display is designated;
A function of displaying the image on the display unit in 3D when it is determined that the 3D display is designated;
A function for reproducing and outputting a scene from the output unit based on the scene reproduction information stored in the storage unit corresponding to the image displayed in 3D on the display unit;
A program to realize
JP2010026602A 2010-02-09 2010-02-09 Terminal device and program Expired - Fee Related JP5421144B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010026602A JP5421144B2 (en) 2010-02-09 2010-02-09 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010026602A JP5421144B2 (en) 2010-02-09 2010-02-09 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2011166430A true JP2011166430A (en) 2011-08-25
JP5421144B2 JP5421144B2 (en) 2014-02-19

Family

ID=44596596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010026602A Expired - Fee Related JP5421144B2 (en) 2010-02-09 2010-02-09 Terminal device and program

Country Status (1)

Country Link
JP (1) JP5421144B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150241708A1 (en) * 2013-08-23 2015-08-27 Panasonic Intellectual Property Corporation Of America Head-mounted display
JPWO2018061092A1 (en) * 2016-09-27 2019-07-11 株式会社アロマビット Odor measuring device and odor data management device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10117309A (en) * 1996-10-08 1998-05-06 Yuu:Kk Video display device
JP2003316299A (en) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> Tactile sense display presentation device and configuration information encoding method
JP2005210700A (en) * 2003-12-25 2005-08-04 Brother Ind Ltd Signal processor and image display device
JP2006128818A (en) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd Recording program and reproducing program corresponding to stereoscopic video and 3d audio, recording apparatus, reproducing apparatus and recording medium
JP2007037619A (en) * 2005-08-01 2007-02-15 Seiko Epson Corp Display device and game machine
JP4399677B1 (en) * 2009-01-13 2010-01-20 株式会社カシオ日立モバイルコミュニケーションズ Terminal device and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10117309A (en) * 1996-10-08 1998-05-06 Yuu:Kk Video display device
JP2003316299A (en) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> Tactile sense display presentation device and configuration information encoding method
JP2005210700A (en) * 2003-12-25 2005-08-04 Brother Ind Ltd Signal processor and image display device
JP2006128818A (en) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd Recording program and reproducing program corresponding to stereoscopic video and 3d audio, recording apparatus, reproducing apparatus and recording medium
JP2007037619A (en) * 2005-08-01 2007-02-15 Seiko Epson Corp Display device and game machine
JP4399677B1 (en) * 2009-01-13 2010-01-20 株式会社カシオ日立モバイルコミュニケーションズ Terminal device and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150241708A1 (en) * 2013-08-23 2015-08-27 Panasonic Intellectual Property Corporation Of America Head-mounted display
US9804398B2 (en) * 2013-08-23 2017-10-31 Panasonic Intellectual Property Corporation Of America Head-mounted perfume dispenser apparatus
JPWO2018061092A1 (en) * 2016-09-27 2019-07-11 株式会社アロマビット Odor measuring device and odor data management device

Also Published As

Publication number Publication date
JP5421144B2 (en) 2014-02-19

Similar Documents

Publication Publication Date Title
CN109167950B (en) Video recording method, video playing method, device, equipment and storage medium
JP4576570B1 (en) Terminal device and program
WO2018000227A1 (en) Video broadcast method and device
CN108419113B (en) Subtitle display method and device
US20050083351A1 (en) Image display apparatus, image display controlling method, and image display program
CN105744133B (en) Video light compensation method and device
CN111065001B (en) Video production method, device, equipment and storage medium
JP4609805B2 (en) Terminal device and program
CN103927165A (en) Wallpaper picture processing method and device
CN111355998B (en) Video processing method and device
CN110958465A (en) Video stream pushing method and device and storage medium
CN110267054B (en) Method and device for recommending live broadcast room
JP2011197537A (en) Terminal device and program
US9215003B2 (en) Communication apparatus, communication method, and computer readable recording medium
CN110958464A (en) Live broadcast data processing method and device, server, terminal and storage medium
JP4956843B2 (en) Terminal device and program
JP2008154125A (en) Video output apparatus and program
JP5421144B2 (en) Terminal device and program
JPWO2013187108A1 (en) RECOMMENDATION DEVICE, METHOD, AND PROGRAM
CN112770149B (en) Video processing method, device, terminal and storage medium
CN113473224A (en) Video processing method and device, electronic equipment and computer readable storage medium
JP2006128754A (en) Imaging apparatus and imaging method
JP6108831B2 (en) Mobile device, server, image generation method and program
JP5310833B2 (en) Terminal device and program
JP2015162048A (en) Information display device, information display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131121

R150 Certificate of patent or registration of utility model

Ref document number: 5421144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees