スキップしてメイン コンテンツに移動

RSSからYoutube/Podcast配信

音声作成

Google Text To Speechを使用した音声作成

記事本文をGoogleの読み上げ機能を使って、音声ファイル(mp3)を作成します。
この作業にはGCPとBloggerの連携の手続きが先に必要です。

Pythonライブラリの追加

$ pip install google-api-python-client
$ pip install google-auth-httplib2
$ pip install google-auth-oauthlib 
$ pip install google-cloud-translate 

Pythonプログラム

test.pyに以下のコードを記述します。
GoogleTTSを使用して日本語テキストをSSMLに変換して音声読み上げをさせます。
'\r\n'を600msのWaitにしているのでタイトルと本文の合間などに調整してください。
test.py
import base64

def getVoice(text):
    tts = get_authenticated_service(TTS_API_SERVICE_NAME,TTS_API_VERSION)
    res = None
    params = {
        "input": {
            "ssml": '<speak>' + text.replace('\r\n','<break time=\"600ms\"/>') + '</speak>'
        },
        "voice": {
            "languageCode": "ja-JP",
            "name": "ja-JP-Wavenet-D"
        },
        "audioConfig": {
            "audioEncoding": "MP3",
            "speakingRate": 1,
            "pitch": 0
        }
    }

    try:
        req = tts.text().synthesize(body=params)
        res = req.execute()

        with open('/tmp/temp.mp3', mode='ab') as f:
            f.write(base64.b64decode(res['audioContent']))

    except Exception as e:
        print (e)
        return None

    return res
以前のgetBody()から上記のgetVoice()を呼び出します。

test.py
def getBody(link):
    try :
        res = requests.get(link)
        extractor.analyse(res.text)
        text, title = extractor.as_text()
        title = re.sub('[-|:|\||\[|\(|\{].*','',title)
        text = re.sub('&.*?;','',text)
        text = getSummary(text)
        title = getTrans(title)
        text = getTrans(text)
        getVoice(title + '\r\n\r\n' + text)
        return postBlog(title,text.replace('\n','<BR>'),'TECHNOLOGY')
    except Exception as e :
        print(e)
        return None

1話分をMP3にした結果はこちら

$ file /tmp/temp.mp3
temp.mp3: MPEG ADTS, layer III, v2,  32 kbps, 24 kHz, Monaural
$ ls -la /tmp/temp.mp3
-rw-r--r-- 1 user user 244320 Oct  9 17:04 /tmp/temp.mp3

これで音声を作成できました。これをポッドキャストにアップロードしてください。
podbeanポッドキャストホスティングサービスと、そのREST APIをつかって自動的にアップロードしていますが、これも移行予定です。
次はこの音声と映像を結び付けて動画作成に入ります。

参考URL:

Cloud Text-to-Speech API  |  Cloud Text-to-Speech Documentation  

このブログの人気の投稿

RSSからYoutube/Podcast配信

皆さん、情報収集はどの様にされていますでしょうか? 私は最先端に情報に触れる為、海外ニュースをRSSで購読しているのですが、私の英語力/語彙力では時間が掛かかってしょうがない。 また、できれば目で読むのではなく、音声で聞き流しながら通勤や他の作業中に行いたい。 という事で自動でニュースを収集・要約・翻訳し、それをブログ・ポッドキャスト・Youtubeに自動投稿するPythonプログラムを作成して時短化しました。 その手法を公開してますので参考にしてください。 Bloggerの立ち上げ方 GCPとBloggerの連携 情報収集自動化 Blogger自動投稿 本文要約 翻訳 音声作成 動画作成 Youtubeにアップロード Youtubeの投稿制限の回避方法 Podcast配信 翻訳・要約の改善(GPT-3) 以下のURLで上記から作成したブログやYoutubeを公開しています。参考までに見てください。 ブログ:海外ニュースを仕入れてお届け YouTube:海外Newsを仕入れてお届け Amazon Music:海外ニュースを仕入れてお届け。 Google Podcasts:海外ニュースを仕入れてお届け。 Apple Podcasts:海外ニュースを仕入れてお届け。

Blogger自動投稿

GCP連携を使って自動投稿 Blogger APIを使用することでプログラムからBloggerへ投稿できるようになります。 この作業には GCPとBloggerの連携 の手続きが先に必要です。 Pythonライブラリの追加 $ pip install google-api-python-client $ pip install google-auth-httplib2 $ pip install google-auth-oauthlib $ pip install google-cloud-translate Pythonプログラム RSSのタイトルと内容をBloggerへ記事をポストするプログラムを作成します。 test.py # coding: utf-8 import feedparser import requests import os import pickle from extractcontent3 import ExtractContent from apiclient.discovery import build from apiclient.errors import HttpError from apiclient.http import MediaFileUpload from google_auth_oauthlib.flow import InstalledAppFlow from google.auth.transport.requests import Request extractor = ExtractContent () # オプション値を指定する opt = { "threshold" : 50 } extractor . set_option ( opt ) TOKEN_PICKLE = 'token.pickle' CLIENT_SECRETS_FILE = "client_secret.json" TRANS_REQUEST_SCOPE = "https://www.googleapis.com/auth/cloud-translation"...

本文要約

要約 今回は現在使用している方法とは異なり、実装が簡単な要約方法になります。 参考元にはニューラルネットワーク(accel-brain-base)を使用した例などもありますので、そちらを参考にしてください。 Pythonライブラリの追加 以下のライブラリをインストールしてください。 $ pip install pysummarization Pythonプログラム test.pyに以下のコードを記述します。 ここでソース記事の各行を重みづけしてから、重要度の高い5つの行だけを選択します。 test.py from pysummarization.nlpbase.auto_abstractor import AutoAbstractor from pysummarization.tokenizabledoc.simple_tokenizer import SimpleTokenizer from pysummarization.abstractabledoc.top_n_rank_abstractor import TopNRankAbstractor def getSummary ( text ): # Object of automatic summarization. auto_abstractor = AutoAbstractor () # Set tokenizer. auto_abstractor . tokenizable_doc = SimpleTokenizer () # Set delimiter for making a list of sentence. auto_abstractor . delimiter_list = [ ". " , ". \n " , " \n " ] # Object of abstracting and filtering document. abstractable_doc = TopNRankAbstractor () # Summarize document. result_dict = auto_abstrac...