CN107065400A - 电子设备、系统以及保存控制方法 - Google Patents

电子设备、系统以及保存控制方法 Download PDF

Info

Publication number
CN107065400A
CN107065400A CN201610821964.1A CN201610821964A CN107065400A CN 107065400 A CN107065400 A CN 107065400A CN 201610821964 A CN201610821964 A CN 201610821964A CN 107065400 A CN107065400 A CN 107065400A
Authority
CN
China
Prior art keywords
sound
shooting
unit
issue
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610821964.1A
Other languages
English (en)
Other versions
CN107065400B (zh
Inventor
冈田健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN107065400A publication Critical patent/CN107065400A/zh
Application granted granted Critical
Publication of CN107065400B publication Critical patent/CN107065400B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9202Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • Tourism & Hospitality (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computing Systems (AREA)

Abstract

本发明提供电子设备、系统以及保存控制方法。不需要烦杂的作业,就能将拍摄的照片简单上传到合适的场所。拍摄终端(2)具备拍摄控制部(133)、输入检测部(132)、拍摄控制部(133)和通信控制部(134)。拍摄控制部(133)取得图像。输入检测部(132)取得用户发出的给定的声音。拍摄控制部(133)进行控制,基于与由输入检测部(132)取得的给定的声音相同的声音来取得图像。通信控制部(134)进行控制,使图像保存在根据与由输入检测部(132)取得的给定的声音相同的声音的内容而预先设定的存储目的地。

Description

电子设备、系统以及保存控制方法
本申请基于日本专利申请No.2015-185867(2015年9月18日申请)的完整公开的优先权,通过参考而将其说明、权利要求、附图和摘要引入到本说明书中。
技术领域
本发明涉及电子设备、系统以及保存控制方法。
背景技术
过去,例如有如特开2012-100214号、公报特开2009-10987号那样,不是以人工操作而是以声音来进行拍摄控制的摄像机的技术。另外,还有如特开2002-189723号公报那样将拍摄的照片上传到Web上的给定服务器的技术。还有利用其的SNS等的服务
在将照片上传到SNS等的Web上的服务器时,在照片拍摄完成后,在拍摄装置或具有保存照片的存储器的装置中使专用应用起动,从保存的照片中选择目标的照片,选择上传目的地,从而将照片上传到Web上,需要如上那样烦杂的作业。
发明内容
本发明鉴于这样的状况而提出,目的在于,能没有烦杂的作业地拍摄照片,并将该拍摄的照片简单地上传到合适的场所。
本发明的电子设备,具备:图像取得单元,其取得图像;声音取得单元,其取得从用户发出的给定的声音;
图像取得控制单元,其控制所述图像取得单元,使其基于与由所述声音取得单元取得的所述给定的声音相同的声音取得所述图像;和保存控制单元,其进行控制,使所述图像保存在根据与由所述声音取得单元取得的所述给定的声音相同的声音的内容而预先设定的存储目的地。
本发明的系统,由第一装置和第二装置构成,
所述第一装置具备:声音取得单元,其取得从用户发出的给定的声音;第一发送单元,其将基于与由所述声音取得单元取得的所述给定的声音相同的声音来拍摄被摄体的拍摄指示,发送给所述第二装置;
第一接收单元,其从所述第二装置接收基于所述拍摄指示由所述第二装置拍摄的图像数据;和保存控制单元,其进行控制,使所述图像保存在根据与由所述声音取得单元取得的所述给定的声音相同的声音的内容而预先设定的存储目的地,
所述第二装置具备:拍摄单元;第二接收单元,其接收从所述第一装置的所述第一发送单元发送的所述拍摄指示;
拍摄控制单元,其控制所述拍摄单元,使其基于由所述第二接收单元接收到的所述拍摄指示来拍摄被摄体;和第二发送单元,其将所述图像数据发送给所述第一装置。
本发明的保存控制方法,包括:图像取得步骤,取得图像;声音取得步骤,取得从用户发出的给定的声音;
图像取得控制步骤,控制所述图像取得步骤,基于与通过所述声音取得步骤取得的所述给定的声音相同的声音来取得所述图像;和保存控制步骤,进行控制,使所述图像保存在根据与通过所述声音取得步骤取得的所述给定的声音相同的声音的内容而预先设定的存储目的地。
发明的效果
根据本发明,不需要烦杂的作业就能将拍摄的照片简单上传到合适的场所。
附图说明
作为说明书的一部分的附图对本发明的具体实施方式进行了例示,与上面给出的一般描述还有下面给出的具体实施方式的详细描述一起,来说明本发明的原理。
图1是表示本发明的1个实施方式所涉及的发布系统的系统构成的系统构成图。
图2是用于说明在本实施方式的发布系统中执行的声音发布的示意图。
图3是表示本实施方式的声音发布的利用场景的示意图。
图4是表示本实施方式的发布系统的手腕终端的硬件的构成的框图。
图5是表示本实施方式的发布系统的拍摄终端的硬件的构成的框图。
图6是表示本实施方式的发布系统的便携终端的硬件的构成的框图。
图7是表示图4的手腕终端的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。
图8是表示图5的拍摄终端的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。
图9是表示图6的便携终端的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。
图10是说明具有图7到9的功能性构成的图4的手腕终端1、图5的拍摄终端以及图6的便携终端所执行的声音发布处理的流程的流程图。
图11是表示第2实施方式所涉及的发布系统的系统构成的系统图。
图12是用于说明在本实施方式的发布系统中执行的声音发布的示意图。
图13是说明具有图7以及图8的功能性构成的图4的手腕终端1以及图5的拍摄终端所执行的声音发布处理的流程的流程图。
图14是表示本实施方式的拍摄终端的硬件的构成的框图。
图15是表示图14的拍摄终端的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。
图16是说明具有图15的功能性构成的图14的拍摄终端所执行的声音发布处理的流程的流程图。
具体实施方式
以下使用附图来说明本发明的实施方式。
<第1实施方式>
图1是表示本发明的1个实施方式所涉及的发布系统的系统构成的系统构成图。
本实施方式的发布系统S如图1所示那样,包含手腕终端1、拍摄终端2和便携终端3。
在本实施方式的发布系统S中,通过1次声音输入来进行发布指示、发布内容的输入和拍摄指示,将作成的发布内容的文本和拍摄的图像发送到SNS(Social NetworkingService,社交网络服务)服务器来进行发布。
构成发布系统S的手腕终端1装备在用户的手臂来使用,具有声音输入功能、画面显示功能和通信功能。
手腕终端1进行声音输入来对便携终端3进行拍摄指示和输入的声音的声音识别的指示,并进行向与声音识别结果相应的发布目的地的发布指示。另外,发布内容是声音识别结果的字符串和根据拍摄指示取得的图像。
另外,构成发布系统S的拍摄终端2装备在用户的包、衣服、帽子等而使用,具有通信功能和拍摄功能。
拍摄终端2基于来自手腕终端1的拍摄指示进行拍摄,将图像发送给手腕终端1。
另外,构成发布系统S的便携终端3由用户携行,具有通信功能。
在便携终端3中,基于来自手腕终端1的声音识别指示取得从外部的声音识别服务器输入的声音的声音识别结果,并发送给手腕终端1。另外,在便携终端3中,基于来自手腕终端1的发布指示对成为指定的发布目的地的SNS服务器发送发布内容,并进行发布。
用于作成发布内容的图像和字符串的拍摄指示以及声音识别指示、和用于决定发布目的地的声音内容,是紧接任意的内容之后的声音内容整体的末尾的内容。即,声音内容整体由「任意的声音内容」+「末尾:特定的声音内容」构成,决定发布目的地的声音内容是「末尾:特定的声音内容」。不根据输入的声音内容整体进行判断,而是以末尾部分的声音内容进行判断。在本实施方式中,将声音内容作为字符串来处置,在与输入的声音对应的字符串的末尾的字符串是特定的字符串的情况下(输入的声音=「任意的字符串+末尾:特定的字符串」),本功能动作。
末尾的特定的字符串能由用户任意设定,但在本实施方式中,设定使成为存储目的地的发布目的地直接或间接想起的与发布目的地关联的关键词。进而构成为利用在发布目的地惯用或正式使用的词。
具体地,在Twitter(注册商标)的情况下,若最后说出Twitter(注册商标)中惯用的表征现在正在做什么的「なう(意思是“现在”)」的措词地对其和希望发布的内容进行声音输入,则将发布内容的文本、和声音输入时拍摄的图像发布到Twitter(注册商标)的自己的帐号。
即,在输入的声音为「○○○なう」情况下发布到自己的帐号(特定的发布目的地),和声音输入时拍摄的图像一起将「○○○なう」的文本发布到自己的Twitter(注册商标)的帐号。
另外,在Facebook(注册商标)的情况下,若最后说出Facebook(注册商标)正式设定的赞赏对方时按下的按钮的措词即「いいね(意思是“赞”)」的措词地对其和希望发布的内容进行声音输入,则将发布内容的文本、和声音输入时拍摄的图像发布到Facebook(注册商标)的自己的帐号。
即,在输入的声音为「○○○いいね」的情况下发布到自己的帐号(特定的发布目的地),和声音输入时拍摄的图像一起将「○○○いいね」的文本发布到自己的Facebook(注册商标)的帐号。
通过像这样将让声音的末尾联想到发布目的地的关键词设为判断发布、发布目的地的指定等的词,进行声音输入的用户在说出心情或感想等的措词的最后说出特定的词即可,能意识到发布、发布目的地的指定等,并在不妨碍心情、感想等思考的情况下直观地输入声音。
另外,在指定发布目的地并说出指示发布的词之后再说出发布内容的情况下,有时到说出发布内容时已经感到扫兴,相比于该情况,通过首先说出发布内容,不会感到紧张而易于直观地说出,也不会损害实时感。另外,通过使用与发布目的地关联、进而惯用或正式使用的词,不再需要记住特定的措词。
另外,还能仅直观地说出发布内容,之后对应于发布内容说出选择发布目的地的词,来调整发布目的地。
图2是用于说明在本实施方式的发布系统S中执行的声音发布的示意图。
在本实施方式的发布系统S中,如图2的示例所示那样,例如通过将「頂上なう(正在山顶上现在)」这样的声音输入(低声说)到手腕终端1,以该声音为触发,在拍摄终端2进行自拍定时器拍摄,在便携终端3进行输入的声音的声音识别。之后声音(“低语”)被文本化,并与拍摄的图像一起显示在手腕终端1的画面。另外构成为能通过在自拍定时器拍摄时操作(触摸操作)手腕终端1,来使拍摄暂时停止,或使发布中止。另外构成为自拍定时器的时间设定也能任意变更。
最终,显示在手腕终端1的画面的低语和图像被上传到SNS服务器,作为自己的推文而公开。
图3是表示本实施方式的声音发布的利用场景的示意图。
本实施方式的声音发布的利用场景如图3所示那样涉及多方面,在「山(山)」、「キャンプ(营地)」、「サイクリング(骑行)」、「スキ一·スノ一ボ一ド(雪橇/雪板)」等不能对终端等进行输入操作那样的场景和与其他动作相伴那样的场景中,本实施方式更有效果地发挥功能。
例如在正在登山的情况下,输入、拍摄等的终端操作难以进行。通过在到达山顶功能时,进行告知到达了山顶的意思的「頂上着いたなう(意思是“到顶了现在”)」的声音输入,将山顶附近的图像和「頂上着いたなう」的文本发布在Twitter(注册商标)。
另外,在正在营地吃饭的情况下,若进行输入、拍摄等终端操作,就会失去吃饭的感想的实时感。通过在吃完立刻进行告知吃饭的感想的「飯うまなう(意思是“好吃现在”)」的声音输入,将吃饭风景的图像和「飯うまなう」的文本发布到Twitter(注册商标)。
另外,在正在骑行这样的情况下,输入、拍摄等的终端操作难以进行。通过在抵达特定的场所时进行告知当前地点的名称的「しまなみ来たぜイイネ!(意思是“来到了岛并,赞!”)」的声音输入,将周围的风景的图像和「しまなみ来たぜイイネ!」的文本发布到Facebook(注册商标)。
另外,在正在进行雪橇滑雪或雪板滑雪的情况下,输入、拍摄等的终端操作难以进行。通过在摔倒等特定的场景到来时进行告知感想的「転びすぎイイネ!(意思是“摔个不停,赞!”)」的声音输入,将拍摄特定的场景的图像和「転びすぎイイネ!」的文本发布到Facebook(注册商标)。
图4是表示本实施方式的发布系统S的手腕终端1的硬件的构成的框图。
手腕终端1例如构成为智能手表。
手腕终端1具备:CPU(Central Processing Unit,中央处理器)11-1、ROM(ReadOnly Memory,只读存储器)12-1、RAM(Random Access Memory,随机存取存储器)13-1、总线14-1、输入输出接口15-1、输入部16-1、输出部17-1、存储部18-1、通信部19-1和驱动器20-1。
CPU11-1遵循记录于ROM12-1的程序或从存储部18-1载入到RAM13-1的程序来执行各种处理。
在RAM13-1中还适宜存储CPU11-1执行各种处理所需要的数据等。
CPU11-1、ROM12-1以及RAM13-1经由总线14-1相互连接。在该总线14-1另外还连接输入输出接口15-1。在输入输出接口15-1连接输入部16-1、输出部17-1、存储部18-1、通信部19-1以及驱动器20-1。
输入部16-1由触控面板构成,对应于用户的指示操作输入各种信息。
另外,输入部16-1由麦克风构成,输入用户所发出的声音。
输出部17-1由显示器或扬声器等构成,输出图像或声音。
存储部18-1由硬盘或DRAM(Dynamic Random Access Memory,动态随机存取存储器)等构成,存储各种图像的数据。
通信部19-1控制经由包含互联网的网络而与其他装置(未图示)之间进行的通信。另外,通信部19-1构成为能与终端进行Bluetooth通信(Bluetooth Legacy通信)、Wi-Fi通信。另外,通信部19-1构成为能用便携电话的通信标准即LTE(Long Term Evolution,长期演进)、3G(第3代移动通信系统)的方式经由互联网与各种服务器通信。
在驱动器20-1适宜装备由磁盘、光盘、光磁盘或半导体存储器等构成的可移动介质31-1。由驱动器20-1从可移动介质31-1读出的程序根据需要安装在存储部18-1。另外,可移动介质31-1能与存储部18-1同样地存储被存储于存储部18-1的图像的数据等各种数据。
图5是表示本实施方式的发布系统S的拍摄终端2的硬件的构成的框图。
拍摄终端2例如构成为数码相机。
拍摄终端2如图5所示那样具备CPU11-2到摄像部21-2。拍摄终端2在不具备相当于手腕终端1的输出部17-1的硬件构成而是具备摄像部21-2的硬件构成这一点上不同于手腕终端1。省略与手腕终端1同样的硬件构成的CPU11-2到驱动器20-2的说明。
虽未图示,但摄像部21-2具备光学镜头部和图像传感器。
光学镜头部为了拍摄被摄体而由汇聚光的透镜、例如聚焦透镜、变焦透镜等构成。
聚焦透镜是使被摄体像成像在图像传感器的受光面的透镜。变焦透镜是使焦距在一定的范围内自由变化的透镜。
光学镜头部还另外根据设置调整焦点、曝光、白平衡等的设定参数的外围电路。
图像传感器由光电变换元件、AFE(Analog Front End,模拟前端)等构成。
光电变换元件例如由CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)型的光电变换元件等构成。对光电变换元件从光学镜头部入射被摄体像。为此,光电变换元件对被摄体像进行光电变换(摄像)并将图像信号积蓄一定时间,将积蓄的图像信号作为模拟信号依次提供给AFE。
AFE对该模拟的图像信号执行A/D(Analog/Digital(模拟/数字))变换处理等各种信号处理。通过各种信号处理而生成数字信号,将其作为摄像部21-2的输出信号输出。
将这样的摄像部21-2的输出信号以下称作「摄像图像的数据」。摄像图像的数据被适宜提供给CPU11-2和未图示的图像处理部等。
图6是表示本实施方式的发布系统S的便携终端3的硬件的构成的框图。
便携终端3例如构成为智能手机。
便携终端3的硬件构成(CPU11-3到摄像部21-3)由于与上述的手腕终端1以及拍摄终端2的各自的硬件构成相同,因此省略说明。
图7是表示图4的手腕终端1的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。
所谓声音发布处理,是指通过1次的声音输入来使字符信息和声音输入时间点的图像发布到特定的SNS的一系列处理。
另外,本实施方式的构成在手腕终端1中没有SIM(Subscriber Identity Module,用户身份识别模块)卡的情况下更有效地发挥功能。
在执行手腕终端1侧的声音发布处理的情况下,如图7所示那样,在CPU11-1中,发布目的地设定部51、输入检测部52、通信控制部53、字符串解析部54、发布目的地决定部55和显示控制部56发挥功能。
另外,在存储部18-1的1个区域中,被设定发布目的地存储部71和发布内容信息存储部72。
在发布目的地存储部71中,将发布目的地词和发布目的地建立对应存储,存储向发布目的地的发布所需的发布信息(个人帐号或发布用邮件地址等)。具体地,在本实施方式中,在发布目的地存储部71中,在发布目的地词「なう(现在)」的情况下将发布目的地存储为Twitter(注册商标),在发布目的地词「いいね(赞)」的情况下将发布目的地存储为Facebook(注册商标)。另外,发布目的地词构成为能由用户任意设定。
在发布内容信息存储部72中存储发布内容的字符串以及图像数据。
发布目的地设定部51通过用户对输入部16-1等进行的设定操作来使发布目的地词和发布目的地建立对应地存储在发布目的地存储部71,从而设定发布目的地。
输入检测部52检测用户对输入部16-1发出的声音的输入。
具体地,输入检测部52判定是否检测到从用户经由输入部16-1进行了声音的输入。
通信控制部53控制通信部19-1来与拍摄终端2以及便携终端3进行通信。
具体地,通信控制部53控制通信部19-1,使其将拍摄指示发送给拍摄终端2,将通过声音识别指示以及声音输入而输入的声音数据发送给便携终端3。另外,通信控制部53控制通信部19-1,使其从拍摄终端2接收通过拍摄指示而拍摄的图像,从便携终端3接收声音识别结果(本实施方式中为字符串数据)。另外,通信控制部53控制通信部19-1,使其对便携终端3发送包含与发布目的地词对应的发布目的地以及发布内容(显示于输出部17-1的图像和字符串)的发布指示、和图像数据以及字符串数据。
字符串解析部54对声音识别结果的字符串进行解析。
具体地,字符串解析部54对声音识别结果的字符串进行解析,来判定在成为发布词的字符串的末尾是否包含发布目的地词。
发布目的地决定部55参考发布目的地存储部71来决定与在声音识别结果的字符串的末尾所含的发布目的地词对应的发布目的地。
显示控制部56控制输出部17-1,使其输出成为发布词的字符串、成为发布图像的拍摄图像。在输出部17-1显示发布词、发布图像,用户能把握发布内容。
图8是表示图5的拍摄终端2的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。
在执行拍摄终端2侧的声音发布处理的情况下,如图8所示那样,在CPU11-2中,通信控制部91和拍摄控制部92发挥功能。
通信控制部91控制通信部19-2,使其与手腕终端1进行通信。
具体地,通信控制部91控制通信部19-2,使其从手腕终端1接收拍摄指示。另外,控制通信部19-2,使其将拍摄处理的结果的拍摄的图像发送给手腕终端1。
拍摄控制部92控制摄像部21-2,使其进行摄像处理。其结果,拍摄控制部92取得在摄像部21-2拍摄的图像。
图9是表示图6的便携终端3的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。
在执行便携终端3侧的声音发布处理的情况下,如图9所示那样,在CPU11-3中,通信控制部111发挥功能。
通信控制部111控制通信部19-3,使其与手腕终端1、声音识别服务器以及SNS服务器进行通信。
具体地,通信控制部111控制通信部19-3,使其接收声音识别指示以及声音识别用的声音数据。另外,通信控制部111控制通信部19-3,使其对外部的声音识别服务器发送声音识别指示以及声音识别用的声音数据。另外,通信控制部111控制通信部19-3,使其从外部的声音识别服务器接收声音识别结果。另外,通信控制部111控制通信部19-3,使其对手腕终端1发送声音识别结果。另外,通信控制部111控制通信部19-3,使其从手腕终端1接收发布指示、和图像数据以及字符串数据。另外,通信控制部111控制通信部19-3,使其对发布目的地的SNS服务器发送发布内容的图像数据以及字符串数据。
图10是说明具有图7到9的功能性构成的图4的手腕终端1、图5的拍摄终端2以及图6的便携终端3所执行的声音发布处理的流程的流程图。每当声音发布处理的开始时,成为通过发布目的地设定部51而让发布目的地词被用户事前登录的状态、即在发布目的地存储部71登录了包含个人帐号设定的发布目的地的信息和发布目的地词的状态。另外,在各终端(手腕终端1、拍摄终端2、便携终端3)之间,成为连接完成为能相互通信的状态。另外,以用户的操作等起动声音发布用的应用而成为能进行声音输入的状态,由此开始声音发布处理。
另外,构成为起动声音发布用的应用而设为能进行声音输入的状态,由此开始声音发布处理,但并不限于此,也可以构成为用声音输入来进行全部动作。例如构成为对应于声音输入来使声音发布用的应用自动起动,在成为能进行声音输入的状态之后开始声音发布处理。
[手腕终端1侧的声音发布处理]
在步骤S11-1,输入检测部52判定是否检测到从用户经由输入部16-1进行的声音的输入。
在未检测到声音的输入的情况下,在步骤S11-1判定为“否”,成为待机状态。
在检测到声音的输入的情况下,在步骤S11-1判定为“是”,处理前进到步骤S12-1。
在步骤S12-1,通信控制部53控制通信部19-1,使其将拍摄指示发送给拍摄终端2,将通过声音识别指示以及声音输入而输入的声音数据发送给便携终端3。
之后在拍摄终端2中,接受拍摄指示来执行拍摄处理。另外,在便携终端3中,接受声音识别指示,经由互联网等对外部的声音识别服务器发送声音数据,使声音识别执行。
在步骤S13-1,通信控制部53控制通信部19-1,使其从拍摄终端2接收通过拍摄指示而拍摄的图像,从便携终端3接收声音识别结果(本实施方式中为字符串数据)。
在步骤S14-1,字符串解析部54对从便携终端3接收到的字符串数据进行解析,参考发布目的地存储部71,判定在字符串的末尾是否包含发布目的地词。具体地,例如判定在发布词的末尾是否包含「なう(现在)」或「いいね(赞)」的发布目的地词。在字符串为「頂上なう」的情况下,在末尾包含发布目的地词,在「頂上」或「なう頂上」的情况下,判定为在末尾不含发布目的地词。
在字符串的末尾不含发布目的地词的情况下,在步骤S14-1判定为“否”,手腕终端1侧的声音发布处理结束。
在字符串的末尾包含发布目的地词的情况下,在步骤S14-1判定为“是”,处理前进到步骤S15-1。
在步骤S15-1,发布目的地决定部55参考发布目的地存储部71,决定与末尾所含的发布目的地词对应的发布目的地。
具体地,在发布目的地词为「なう」的情况下,参考发布目的地存储部71,结果将设定的Twitter(注册商标)决定为发布目的地,在发布目的地词为「いいね」的情况下,将Facebook(注册商标)决定为发布目的地。
在步骤S16-1,显示控制部56控制输出部17-1,使其将从拍摄终端2接收到的图像和从便携终端3接收到的字符串显示输出。
在步骤S17-1,通信控制部53控制通信部19-1,使其对便携终端3发送包含与发布目的地词对应的发布目的地以及发布内容(显示于输出部17-1的图像和字符串)的发布指示、和图像数据以及字符串数据。在便携终端3中,接受发布指示,对成为与发布目的地词对应的发布目的地的SNS服务器发送接收到图像数据和字符串数据,来进行发布处理。另外,在发送时,将发布内容的字符串以及图像数据存储在发布内容信息存储部72。
之后手腕终端1侧的声音发布处理结束。
[拍摄终端2侧的声音发布处理]
在步骤S11-2,通信控制部91控制通信部19-2,使其从手腕终端1接收拍摄指示。
在步骤S12-2中,拍摄控制部92执行拍摄处理。在本实施方式的拍摄处理中,通过自拍定时器功能在经过给定时间后进行拍摄。另外可构成为在自拍定时器拍摄的期间,将实时取景图像发送给手腕终端1。
在步骤S13-2,通信控制部91控制通信部19-2,使其将拍摄处理的结果的拍摄的图像发送给手腕终端1。之后拍摄终端2侧的声音发布处理结束。
[便携终端3侧的声音发布处理]
在步骤S11-3,通信控制部111控制通信部19-3,使其接收声音识别指示以及声音识别用的声音数据。
在步骤S12-3,通信控制部111控制通信部19-3,使其对外部的声音识别服务器发送声音识别指示以及声音识别用的声音数据。
在步骤S13-3,通信控制部111控制通信部19-3,使其从外部的声音识别服务器接收声音识别结果。
在步骤S14-3,通信控制部111控制通信部19-3,使其对手腕终端1发送声音识别结果。
在步骤S15-3,通信控制部111控制通信部19-3,使其从手腕终端1接收发布指示、和图像数据以及字符串数据。
在步骤S16-3,通信控制部111控制通信部19-3,使其对发布目的地的SNS服务器发送发布内容的图像数据以及字符串数据。
之后便携终端3侧的声音发布处理结束。
<第2实施方式>
图11是表示第2实施方式所涉及的发布系统S的系统构成的系统图。
本实施方式的发布系统S与第1实施方式不同,如图11所示那样,由具有声音输入功能和发布功能的手腕终端1、和具有拍摄功能的拍摄终端2构成。另外,关于功能块,由于与第1实施方式的图7所示的手腕终端1以及图8所示的拍摄终端2相同,因此省略说明以及图示。
另外,本实施方式的构成在手腕终端1中有SIM卡的情况下更有效地发挥功能。
图12是用于说明在第2实施方式的发布系统S中执行的声音发布的示意图。
在本实施方式的发布系统S中,如图12的示例所示那样,例如通过将「頂上なう」这样的声音输入(低声说)到手腕终端1,以该声音为触发而在拍摄终端2进行自拍定时器拍摄,在便携终端3中进行输入的声音的声音识别。
之后,声音识别出的字符串和拍摄的图像一起显示在手腕终端1的画面。另外,也可以构成为使实时取景图像显示在手腕终端1的画面,在经过给定时间后进行定时器显示并进行拍摄。另外构成为通过在自拍定时器拍摄时操作(触摸操作)手腕终端1能使拍摄暂时停止。另外构成为自拍定时器的时间设定也能任意变更。
最终,显示在手腕终端1的画面的低语和图像被上传到SNS并发布,作为自己的推文而公开。另外,也可以构成为在发布数据的发送中操作(触摸操作)手腕终端1来中止发布。
图13是说明具有图7以及图8的功能性构成的图4的手腕终端1以及图5的拍摄终端2所执行的声音发布处理的流程的流程图。每当声音发布处理的开始时,成为通过发布目的地设定部51而让发布目的地词被用户事前登录的状态、即在发布目的地存储部71登录了包含个人帐号设定的发布目的地的信息和发布目的地词的状态。另外,在手腕终端1以及拍摄终端2之间,完成连接为能相互通信的状态。另外,通过用户的操作等起动声音发布用的应用,成为能进行声音输入的状态,由此开始声音发布处理。
另外构成为起动声音发布用的应用而设为能进行声音输入的状态,开始声音发布处理,但并不限于此,也可以构成为用声音输入进行全部动作。例如也可以构成为对应于声音输入使声音发布用的应用自动起动,在成为能进行声音输入后开始声音发布处理。
[手腕终端1侧的声音发布处理]
在步骤S31-1,输入检测部52判定是否检测到从用户经由输入部16-1进行了声音的输入。
在未检测到声音的输入的情况下,在步骤S31-1判定为“否”,成为待机状态。
在检测到声音的输入的情况下,在步骤S31-1判定为“是”,处理前进到步骤S32-1。
在步骤S32-1,通信控制部53控制通信部19-1,将拍摄指示发送给拍摄终端2,将通过声音输入而输入的声音数据发送给外部的声音识别服务器。
之后在拍摄终端2中,接受拍摄指示来执行拍摄处理。另外,在外部的声音识别服务器中执行声音识别。
在步骤S33-1,通信控制部53控制通信部19-1,使其从拍摄终端2接收根据拍摄指示拍摄的图像,从外部的声音识别服务器接收声音识别结果(本实施方式中为字符串数据)。
在步骤S34-1,字符串解析部54对从外部的声音识别服务器接收到的字符串数据进行解析,来判定在字符串的末尾是否包含发布目的地词。
在字符串的末尾不含发布目的地词的情况下,在步骤S34-1判定为“否”,手腕终端1侧的声音发布处理结束。
在字符串的末尾包含发布目的地词的情况下,在步骤S34-1判定为“是”,处理前进到步骤S35-1。
在步骤S35-1,发布目的地决定部55参考发布目的地存储部71,来决定与末尾所含的发布目的地词对应的发布目的地。
在步骤S36-1,显示控制部56控制输出部17-1,使其将从拍摄终端2接收到的图像和从外部的声音识别服务器接收到的字符串显示输出。
在步骤S37-1,通信控制部53控制通信部19-1,使其对与成为与发布目的地词对应的发布目的地的SNS服务器发送图像数据和字符串数据,从而进行发布处理。另外,在发送时,发布内容的字符串以及图像数据存储在发布内容信息存储部72。
之后手腕终端1侧的声音发布处理结束。
[拍摄终端2侧的声音发布处理]
在步骤S31-2,通信控制部91控制通信部19-2,使其从手腕终端1接收拍摄指示。
在步骤S32-2,拍摄控制部92执行拍摄处理。在本实施方式的拍摄处理中,通过自拍定时器功能在经过给定时间后进行拍摄。另外构成为,在自拍定时器拍摄的期间,将实时取景图像发送给手腕终端1。
在步骤S33-2,通信控制部91控制通信部19-2,将拍摄处理的结果的拍摄的图像发送给手腕终端1。之后拍摄终端2侧的声音发布处理结束。
<第3实施方式>
在上述的实施方式中,构成为由多个终端执行声音发布处理,但在本实施方式中,构成为由具备拍摄功能、声音输入功能和发布功能的单体的终端执行声音发布处理。在本实施方式中,在构成为数码相机的拍摄终端2中除了具备拍摄功能以外还具备声音输入功能以及发布功能,并构成为单机设备,来执行声音发布处理。
图14是表示本实施方式的拍摄终端2的硬件的构成的框图。另外,关于本实施方式中追加的硬件构成,由于与上述的手腕终端1以及便携终端3相同,因此省略说明。
图15是表示图14的拍摄终端2的功能性构成当中用于执行声音发布处理的功能性构成的功能框图。另外,本实施方式中重构成的功能块(发布目的地设定部131到显示控制部137、发布目的地存储部151、发布内容信息存储部152)由于与上述的手腕终端1的发布目的地设定部51、输入检测部52、通信控制部53、字符串解析部54、发布目的地决定部55、显示控制部56、发布目的地存储部71、发布内容信息存储部72以及便携终端3的通信控制部91、拍摄控制部92相同,因此省略说明。
图16是说明具有图15的功能性构成的图14的拍摄终端2所执行的声音发布处理的流程的流程图。每当声音发布处理的开始时,成为通过发布目的地设定部131而发布目的地词被用户事前登录的状态、即在发布目的地存储部71登录了包含个人帐号设定的发布目的地的信息和发布目的地词的状态。另外,通过用户的操作等起动声音发布用的应用而成为能进行声音输入的状态,由此开始声音发布处理。
另外,虽然构成为通过起动声音发布用的应用来设为能进行声音输入的状态,来开始声音发布处理,但并不限于此,也可以构成为用声音输入进行全部动作。例如对应于声音输入使声音发布用的应用自动起动,在成为能进行声音输入的状态后开始声音发布处理。
在步骤S51,输入检测部132判定是否检测到从用户经由输入部16-2进行的声音的输入。
在未检测到声音的输入的情况下,在步骤S51判定为“否”,成为待机状态。
在检测到声音的输入的情况下,在步骤S51判定为“是”,处理前进到步骤S52。
在步骤S52,拍摄控制部133执行拍摄处理。在本实施方式的拍摄处理中,通过自拍定时器功能在经过给定时间后进行拍摄。另外,在自拍定时器拍摄的期间,显示控制部137控制输出部17-2,使其显示实时取景图像。
在步骤S53,通信控制部134控制通信部19-2,使其将通过声音输入而输入的声音数据发送给外部的声音识别服务器。
之后在外部的声音识别服务器中执行声音识别。
在步骤S54,通信控制部134控制通信部19-2,使其从外部的声音识别服务器接收声音识别结果(本实施方式中为字符串数据)。
在步骤S55,字符串解析部135对从外部的声音识别服务器接收到的字符串数据进行解析,判定在字符串的末尾是否包含发布目的地词。
在字符串的末尾不含发布目的地词的情况下,在步骤S55判定为“否”,声音发布处理结束。
在字符串的末尾包含发布目的地词的情况下,在步骤S55判定为“是”,处理前进到步骤S56。
在步骤S56,发布目的地决定部136参考发布目的地存储部71,决定与末尾所含的发布目的地词对应的发布目的地。
在步骤S57,显示控制部137控制输出部17-2,使其将拍摄的图像和从外部的声音识别服务器接收到的字符串显示输出。
在步骤S58,通信控制部134对成为与发布目的地词对应的发布目的地的SNS服务器发送图像数据和字符串数据,来进行发布处理。另外,在发送时,发布内容的字符串以及图像数据存储在发布内容信息存储部152。
之后声音发布处理结束。
过去,在户外虽然频繁进行向SNS的发布,但作为次序却需要大量的操作等,例如进行如下操作:(1)取出终端;(2)起动SNS应用;(3)进行字符输入;(4)起动摄像机应用;(5)进行拍摄;(6)按下发布按钮;等。
在本功能中,仅向手腕终端1进行声音输入,就能快速地一体化进行拍摄、字符输入、发布,通过安装本功能,能实现「更简单、更快速」的发布,能带来崭新的用户体验。
以上那样构成的拍摄终端2具备拍摄控制部133、输入检测部132、拍摄控制部133和通信控制部134。
拍摄控制部133取得图像。
输入检测部132取得从用户发出的给定的声音。
拍摄控制部133进行控制,基于与由输入检测部132取得的给定的声音相同的声音来取得图像。
通信控制部134进行控制,使图像保存在根据与由输入检测部132取得的给定的声音相同的声音的内容而预先设定的存储目的地。
由此,在拍摄终端2中,通过声音的输入而取得图像,将该图像保存在与输入的给定的声音相同的声音的内容所对应的存储目的地,由于进行了这样的控制,因此能没有烦杂的作业地将拍摄的照片简单地上传到合适的场所。
通信控制部134控制通信部19-3,发送进行将与给定的声音相同的声音变换成字符信息的控制的指示。
通信控制部134进行将字符信息和图像一起保存的控制。
由此在拍摄终端2中,能以1次的声音输入保存图像和字符信息,能没有烦杂的作业地简单上传到合适的场所。
另外,拍摄终端2还具备发布目的地设定部131。
发布目的地设定部131使与由输入检测部132取得的给定的声音相同的声音的内容和存储目的地对应来进行设定。
通信控制部134控制通信部19-3,发送保存在由发布目的地设定部131设定的存储目的地的指示,该存储目的地对应于与由输入检测部132取得的给定的声音相同的声音的内容。
由此在拍摄终端2中,能由用户预先任意设定与给定的声音相同的声音的内容所对应的存储目的地。
与存储目的地所对应的给定的声音相同的声音的内容,是与存储目的地关联的关键词。
由此在拍摄终端2中,由于与给定的声音相同的声音的内容是与存储目的地关联的关键词,因此易于联想存储目的地,能简单地指定意图的存储目的地。
与存储目的地所对应的给定的声音相同的声音的内容,是与给定的声音相同的声音的末尾的内容。
由此在拍摄终端2中,由于与给定的声音相同的声音的内容是声音的末尾的内容,因此输入声音的用户不再会因指定存储目的地的思考而妨碍印象或感想,易于更直观地发出声音。
另外,拍摄终端2还具备摄像部21-2。
拍摄控制部133控制摄像部21-2,使其用由输入检测部132取得的特定的声音的内容进行拍摄,取得由摄像部21-2拍摄的图像。
由此在拍摄终端2中,能没有烦杂的作业地将拍摄的照片简单上传到合适的场所。
拍摄控制部133控制摄像部21-2,使其进行自拍定时器拍摄。
由此在拍摄终端2中,由于通过自拍定时器拍摄而保证了在声音输入起给定时间后进行拍摄,因此用户易于认识拍摄的定时。
另外,拍摄终端2还具备输入用户的声音的输入部16-2。
输入检测部132取得通过输入部16-2输入的声音。
由此在拍摄终端2中,能使声音输入到自身的麦克风等输入部16-2,能更简单地进行操作。
存储目的地设置在该电子设备的外部。
由此在拍摄终端2中,能简单地使图像等存储在外部的存储目的地。
存储目的地是Web上的存储服务器或SNS所提供的服务器。
由此在拍摄终端2中,能简单地上传到Web上的存储服务器或SNS所提供的服务器。
以上那样构成的发布系统S由手腕终端1和拍摄终端2构成。
手腕终端1具备输入检测部52、通信部19-1和通信控制部53。
输入检测部52取得从用户发出的声音。
通信部19-1将基于由输入检测部52取得的声音来拍摄被摄体的拍摄指示发送给拍摄终端2。
通信部19-1从拍摄终端2接收基于拍摄指示而由拍摄终端2拍摄的图像数据。
通信控制部53进行控制,使图像保存在对应于由输入检测部52取得的声音的内容而预先设定的存储目的地。
拍摄终端2具备摄像部21-2和通信部19-2。
通信部19-2接收从手腕终端1的通信部19-1发送的拍摄指示。
拍摄控制部133控制摄像部21-2,使其基于在通信部19-2接收到的拍摄指示来拍摄被摄体。
通信部19-2将图像数据发送给手腕终端1。
由此在拍摄终端2中,由于通过声音的输入而取得图像,并进行控制将该图像保存在与输入的声音的内容相应的存储目的地,因此能没有烦杂的作业地将拍摄的照片简单上传到合适的场所。
另外,本发明并不限定于上述的实施方式,能达成本发明的目的的范围内的变形、改良等也包含在本发明中。
在上述的实施方式中,在外部的声音识别服务器进行声音识别,但也可以构成为搭载声音识别功能,在自机进行声音识别所涉及的处理。另外,也可以构成为在声音识别结果中包含特定的字符串的情况下进行拍摄。由此,相比于以输入声音为契机进行拍摄的情况下,虽然即时性,但由于在不含特定的字符串的情况下不进行拍摄,因此不会进行无谓的拍摄而更佳。
另外,在上述的实施方式中,构成为存储在不同的外部的存储目的地,但也可以构成为,更细致地进行控制,不管内部/外部,设定不同的存储场所(文件夹等)。
另外,在上述的实施方式中,特定的字符串的末尾的声音内容也包含在发布内容中,但也可以将除了末尾的声音内容以外的部分作为发布内容。另外,将特定的字符串设为末尾,但并不限于此,也可以构成为设为任意的特定的位置,例如开头、有意义的声音内容(例如单词)间,仅在声音内容中部分包含。
另外,在上述的实施方式中,末尾的特定的字符串设定使成为存储目的地的发布目的地直接或间接联想的与发布目的地关联的关键词、即「なう(现在)」或「いいね(赞)」,但也可以能由用户自由设定字符串。
另外,在上述的实施方式中,构成为以声音内容为「任意的字符串+末尾:特定的字符串」这样的构成来进行图像和文本的发布,但也可以构成为在仅是例如「なう(现在)」或「いいね(赞)」的特定的字符串的情况下,仅以图像进行发布(存储在对应的存储目的地)。在该情况下,构成为使特定的字符串也和图像一起发布(存储到对应的存储目的地)。
另外,在上述的实施方式中,构成为使用输入的声音的全部来进行判断,但也可以构成为使用输入的声音的一部分。例如构成为在特定的字符串位于末尾的情况下,仅使用紧挨末尾的之前的字符串。
另外,在上述的实施方式中,构成为进行声音识别,用文本水平来对声音内容进行比较判断,但也可以构成为例如将输入的声音和预先存储的声音数据比较来进行判断。在该情况下,可以单纯判断声音内容的一致不一致,并且以安全性的提升为目的,也可以判断与声音内容在声纹水平上的一致不一致。另外,也可以构成为取代文本而由声音文件形成发布内容。
另外,在上述的实施方式中,运用本发明的手腕终端1、拍摄终端2以及便携终端3以智能手表、数码相机、智能手机为例进行了说明,但并不特别限定于此。
例如本发明一般能运用在具有声音发布处理功能的电子设备。具体地,例如本发明能运用在笔记本型的个人计算机、打印机、电视接收机、视频摄像机、便携型导航装置、便携电话机、掌上游戏机等中。
上述的一系列处理既能使硬件执行,也能使软件执行。
换言之,图7、8、9以及15的功能性构成只是例示,并不特别限定。即,在手腕终端1、拍摄终端2以及便携终端3中具备能将上述的一系列处理作为整体执行的功能即可,为了实现该功能而使用怎样的功能块则并不特别限定于图7、8、9以及15的示例。
另外,1个功能块既可以由硬件单体构成,也可以由软件单体构成,还可以由它们的组合构成。
在使软件执行一系列处理的情况下,构成该软件的程序从因网络或记录介质安装到计算机等中。
计算机可以是装入到专用的硬件中的计算机。另外,计算机也可以是通过安装各种程序而能执行各种功能的计算机,例如通用的个人计算机。
包含这样的程序的记录介质,不仅由为了对用户提供程序而与装置主体分开分发的图4、5、6以及14的可移动介质31-1、31-2、31-3构成,还由以预先装入装置主体的状态提供给用户的记录介质等构成。可移动介质31-1、31-2、31-3例如由磁盘(包含软盘)、光盘或光磁盘等构成。光盘例如由CD-ROM(Compact Disk-Read Only Memory,只读光盘)、DVD(Digital Versatile Disk,数字多功能盘),Blu-ray(注册商标)Disc(蓝光盘)等构成。光磁盘由MD(Mini-Disk)等构成。另外,以预先装入装置主体的状态提供给用户的记录介质,例如由记录程序的图4、5、6以及14的ROM12-1、12-2、12-3、或图4、5、6以及14的存储部18-1、18-2、18-3中所含的硬盘等构成。
另外,在本说明书中,记述记录于记录介质的程序的步骤当然可以是安装该顺序在时间序列上进行的处理,但不一定非要是时间序列上的处理,还包含并行或个别执行的处理。
另外,在本说明书中,系统的用语是指由多个装置或多个单元等构成的整体的装置。
以上说明了本发明的几个实施方式,但这些实施方式都只是例示,并不限定本发明的技术的范围。本发明能采用其他各种实施方式,进而能在不脱离本发明的要旨的范围内进行省略、置换等种种变更。这些实施方式或其变形包含在本说明书等所记载的发明的范围和要旨中,并包含在权利要求的范围所记载的发明和其等同的范围内。

Claims (12)

1.一种电子设备,其特征在于,具备:
图像取得单元,其取得图像;
声音取得单元,其取得从用户发出的给定的声音;
图像取得控制单元,其控制所述图像取得单元,使其基于与由所述声音取得单元取得的所述给定的声音相同的声音取得所述图像;和
保存控制单元,其进行控制,使所述图像保存在根据与由所述声音取得单元取得的所述给定的声音相同的声音的内容而预先设定的存储目的地。
2.根据权利要求1所述的电子设备,其特征在于,
所述电子设备还具备:
声音变换控制单元,其进行控制,将与所述给定的声音相同的声音变换成字符信息,
所述保存控制单元进行控制,将所述字符信息和所述图像一起保存。
3.根据权利要求1所述的电子设备,其特征在于,
所述电子设备还具备:
存储目的地设定单元,其对所述存储目的地进行设定,使得与由所述声音取得单元取得的所述给定的声音相同的声音的内容对应于所述存储目的地,
所述保存控制单元使得所述图像保存在所述存储目的地设定单元设定的所述存储目的地。
4.根据权利要求1所述的电子设备,其特征在于,
与所述存储目的地所对应的所述给定的声音相同的声音的内容,是与所述存储目的地关联的关键词。
5.根据权利要求1所述的电子设备,其特征在于,
与所述存储目的地所对应的所述给定的声音的相同的声音的内容,是与所述给定的声音相同的声音的末尾的内容。
6.根据权利要求1~5中任一项所述的电子设备,其特征在于,
所述电子设备还具备:
拍摄单元;和
拍摄控制单元,其控制所述拍摄单元,
所述拍摄控制单元控制所述拍摄单元,使其基于与由所述声音取得单元取得的给定的声音相同的声音来进行拍摄,
所述图像取得单元取得由所述拍摄单元拍摄到的图像。
7.根据权利要求6所述的电子设备,其特征在于,
所述拍摄控制单元控制所述拍摄单元,使其进行自拍定时器拍摄。
8.根据权利要求1所述的电子设备,其特征在于,
所述电子设备还具备:
声音输入单元,其输入用户的给定的声音,
所述声音取得单元取得由所述声音输入单元输入的给定的声音。
9.根据权利要求1所述的电子设备,其特征在于,
所述存储目的地设置在该电子设备的外部。
10.根据权利要求1所述的电子设备,其特征在于,
所述存储目的地是Web上的存储服务器或SNS所提供的服务器。
11.一种系统,由第一装置和第二装置构成,所述系统的特征在于,
所述第一装置具备:
声音取得单元,其取得从用户发出的给定的声音;
第一发送单元,其将基于与由所述声音取得单元取得的所述给定的声音相同的声音来拍摄被摄体的拍摄指示,发送给所述第二装置;
第一接收单元,其从所述第二装置接收基于所述拍摄指示由所述第二装置拍摄到的图像数据;和
保存控制单元,其进行控制,使所述图像保存在根据与由所述声音取得单元取得的所述给定的声音相同的声音的内容而预先设定的存储目的地,
所述第二装置具备:
拍摄单元;
第二接收单元,其接收从所述第一装置的所述第一发送单元发送的所述拍摄指示;
拍摄控制单元,其控制所述拍摄单元,使其基于由所述第二接收单元接收到的所述拍摄指示来拍摄被摄体;和
第二发送单元,其将所述图像数据发送给所述第一装置。
12.一种保存控制方法,其特征在于,包括:
图像取得步骤,取得图像;
声音取得步骤,取得从用户发出的给定的声音;
图像取得控制步骤,控制所述图像取得步骤,基于与通过所述声音取得步骤取得的所述给定的声音相同的声音来取得所述图像;和
保存控制步骤,进行控制,使所述图像保存在根据与通过所述声音取得步骤取得的所述给定的声音相同的声音的内容而预先设定的存储目的地。
CN201610821964.1A 2015-09-18 2016-09-13 电子设备、系统以及保存控制方法 Active CN107065400B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015185867A JP6634755B2 (ja) 2015-09-18 2015-09-18 電子機器、システム、保存制御方法及びプログラム
JP2015-185867 2015-09-18

Publications (2)

Publication Number Publication Date
CN107065400A true CN107065400A (zh) 2017-08-18
CN107065400B CN107065400B (zh) 2019-12-03

Family

ID=58283583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610821964.1A Active CN107065400B (zh) 2015-09-18 2016-09-13 电子设备、系统以及保存控制方法

Country Status (4)

Country Link
US (1) US10230884B2 (zh)
JP (1) JP6634755B2 (zh)
KR (1) KR102653751B1 (zh)
CN (1) CN107065400B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822941B2 (ja) * 2017-12-19 2021-01-27 Kddi株式会社 通信端末、端末制御プログラム、端末制御方法及び通信システム
US11902656B2 (en) * 2022-06-29 2024-02-13 Western Digital Technologies, Inc. Audio sensors for controlling surveillance video data capture
WO2024116848A1 (ja) * 2022-12-02 2024-06-06 ソニーグループ株式会社 プログラム、情報処理装置、情報処理システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090247245A1 (en) * 2004-12-14 2009-10-01 Andrew Strawn Improvements in or Relating to Electronic Headset Devices and Associated Electronic Devices
US20090262205A1 (en) * 2008-04-21 2009-10-22 Dana Stephen Smith Voice activated headset imaging system
US20130124207A1 (en) * 2011-11-15 2013-05-16 Microsoft Corporation Voice-controlled camera operations
US20140160316A1 (en) * 2012-12-12 2014-06-12 Lg Electronics Inc. Mobile terminal and control method thereof
US20140267742A1 (en) * 2013-03-15 2014-09-18 William F. Tapia Camera with remote watch
CN104853101A (zh) * 2015-05-18 2015-08-19 牟肇健 基于语音的智能化即时命名拍照技术

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002189723A (ja) 2000-12-20 2002-07-05 Plaza Create Co Ltd デジタルフォトサービスシステム
US7343289B2 (en) * 2003-06-25 2008-03-11 Microsoft Corp. System and method for audio/video speaker detection
GB2405949A (en) * 2003-09-12 2005-03-16 Canon Kk Voice activated device with periodicity determination
GB2405948B (en) * 2003-09-12 2006-06-28 Canon Res Ct Europ Ltd Voice activated device
US7697827B2 (en) * 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP2009027626A (ja) * 2007-07-23 2009-02-05 Canon Inc マイクロフォン装置、撮影装置、及びリモート撮影システム
US8958848B2 (en) * 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
JP5053950B2 (ja) * 2008-07-29 2012-10-24 キヤノン株式会社 情報処理方法、情報処理装置、プログラムおよび記憶媒体
JP4449082B2 (ja) 2008-08-22 2010-04-14 富士フイルム株式会社 電子カメラ
US8635066B2 (en) * 2010-04-14 2014-01-21 T-Mobile Usa, Inc. Camera-assisted noise cancellation and speech recognition
US8700392B1 (en) * 2010-09-10 2014-04-15 Amazon Technologies, Inc. Speech-inclusive device interfaces
JP2012100214A (ja) 2010-11-05 2012-05-24 Nikon Corp 撮像装置、補正プログラム及び記録媒体
JP2014026642A (ja) * 2012-06-19 2014-02-06 Seiko Epson Corp 駐車場システム
EP2875624B1 (en) * 2012-07-18 2018-09-12 Huawei Technologies Co., Ltd. Portable electronic device with directional microphones for stereo recording
KR101992676B1 (ko) * 2012-07-26 2019-06-25 삼성전자주식회사 영상 인식을 이용하여 음성 인식을 하는 방법 및 장치
US9704484B2 (en) * 2012-08-10 2017-07-11 Honda Access Corp. Speech recognition method and speech recognition device
US9747900B2 (en) * 2013-05-24 2017-08-29 Google Technology Holdings LLC Method and apparatus for using image data to aid voice recognition
JP2015115911A (ja) * 2013-12-16 2015-06-22 株式会社日立システムズ 行動記録装置、入出力装置、行動記録プログラムおよび行動記録方法
EP2899609B1 (en) * 2014-01-24 2019-04-17 Sony Corporation System and method for name recollection
KR20160034065A (ko) * 2014-09-19 2016-03-29 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090247245A1 (en) * 2004-12-14 2009-10-01 Andrew Strawn Improvements in or Relating to Electronic Headset Devices and Associated Electronic Devices
US20090262205A1 (en) * 2008-04-21 2009-10-22 Dana Stephen Smith Voice activated headset imaging system
US20130124207A1 (en) * 2011-11-15 2013-05-16 Microsoft Corporation Voice-controlled camera operations
US20140160316A1 (en) * 2012-12-12 2014-06-12 Lg Electronics Inc. Mobile terminal and control method thereof
US20140267742A1 (en) * 2013-03-15 2014-09-18 William F. Tapia Camera with remote watch
CN104853101A (zh) * 2015-05-18 2015-08-19 牟肇健 基于语音的智能化即时命名拍照技术

Also Published As

Publication number Publication date
CN107065400B (zh) 2019-12-03
JP6634755B2 (ja) 2020-01-22
US10230884B2 (en) 2019-03-12
KR20170034315A (ko) 2017-03-28
KR102653751B1 (ko) 2024-04-01
US20170085772A1 (en) 2017-03-23
JP2017060127A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
US11343387B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
CN111050269B (zh) 音频处理方法和电子设备
CN106937039B (zh) 一种基于双摄像头的成像方法、移动终端及存储介质
US9456138B2 (en) Image processing apparatus, image processing method and computer readable recording medium having program for generating time-lapse moving image
US10523820B2 (en) High-quality audio/visual conferencing
JP5923670B2 (ja) 撮像装置及び撮像方法
CN105187724B (zh) 一种处理图像的移动终端和方法
JP2010213090A (ja) 撮像装置、撮像方法、及び撮像プログラム
CN107065400B (zh) 电子设备、系统以及保存控制方法
CN104954726A (zh) 视频通话装置及方法
JP7110406B2 (ja) 撮像装置、撮像方法、及びプログラム
CN107800943B (zh) 一种摄像系统及其控制方法
JP2017005322A (ja) ウェアラブル端末を利用したカメラ撮影のレポート機能
JP2006332774A (ja) 端末装置
JP2011172093A (ja) 撮像装置
JP2020092381A (ja) 音声取得装置、音声取得方法及び音声取得プログラム
WO2020066316A1 (ja) 撮影装置、撮影方法、及びプログラム
KR100657141B1 (ko) 녹화 시간 연장 기능을 가지는 동영상 촬영 장치 및 그방법과 그를 이용한 무선통신단말기
WO2020110710A1 (ja) 撮像装置、撮像方法、及びプログラム
JP2016122945A (ja) 撮像装置
JP6354377B2 (ja) 撮像装置およびその制御方法とプログラム
JP2010161716A (ja) 撮像装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant