Twitter: @atene_gakudo+TAKAGI-1のはてなブックマーク
鬮ォ�エ鬲�シ夲スス�ス�ス�・鬮ッ蜈キ�ス�サ�ス�ス�ス�ス 鬮ォ�エ陝キ�「�ス�ス�ス�ェ鬮ォ�エ陞滂スイ�ス�ス�ス�・鬩幢ス「�ス�ァ髯キ謇假スソ�ス�ス�ス�ス�ス髫イ蟶幢ス・�ス�ス�ス陞ッ蜈暫鬯ッ�ョ�ス�ョ鬯ッ蛟ャ�ッ莨夲スス�ス�ス�ェ髯溷供ツ莉ーツ髯溷「難スケ螟懶ソス�ス�ケ隴趣ス「�ス�ス�ス�ゥ鬩幢ス「�ス�ァ�ス�ス�ス�、鬩搾スオ�ス�コ�ス�ス�ス�ェ鬩幢ス「隴趣ソス�ス�ァ�ス�ュ驍オ�コ陞ウ闌ィ�ス�ケ�ス�ァ�ス�ス�ス�ク鬩幢ス「隴趣ス「�ス�ス�ス�ウ鬩搾スオ�ス�イ�ス�ス�ス�ス<<2022/09/05 <2022/10/02 || 2022/10/04> 2022/10/31>>
2022/10/03
Teamsのbotをpythonで作ってみたらとても便利でした。
最新のarXiv論文をpythonで取得
↓
DeepLのpython apiでタイトルと概要を和訳
↓
pythonでTeamsへ通知
気になる論文を社内Teams上にてみんなで議論できるのがオススメ。
やり方は以下、Slackでもできるそうです。
https://marketingengineercareer.com/teamsbot
posted at 22:07:17
今日、OpenAIが英語の音声認識において人レベルに近い堅牢性と精度を持つニューラルネット「Whisper」を発表。しかもオープンソース。大規模で多様な教師付きデータセットにより、アクセント、背景雑音、専門用語に対する堅牢性が向上。モデルはTransformer (encoder-decoder)
https://openai.com/blog/whisper/ https://twitter.com/jaguring1/status/1576921906191953921/photo/1
posted at 22:07:34
680,000時間分の音声とそれに対応する文字起こしデータをウェブから収集し学習。データの約65%(438,000時間)は英語音声と英語のテキストで、約18%(126,000時間)は英語以外の音声と英語の翻訳データで、残りの17%(117,000時間)は英語以外の音声とその言語での文字起こし。英語以外では98の言語が属する https://twitter.com/jaguring1/status/1576921939742195712/photo/1
posted at 22:07:42
モデルの詳細(モデルカードから引用)
https://github.com/openai/whisper/blob/main/model-card.md https://twitter.com/jaguring1/status/1576921963754582018/photo/1
posted at 22:07:48
公式による紹介ツイート
https://twitter.com/OpenAI/status/1572629923017400326?s=20&t=sKeoaKedBFq4KRTdA1FZ0g
posted at 22:07:52
OpenAIの代表による紹介ツイート。この論文の著者の一人でもある。
https://twitter.com/gdb/status/1572628993073123328?s=20&t=nmoLq6b_XQxfgNDijS9QUw
posted at 22:07:56
Google、「量子超越」の拠点公開 2029年にも実用化へ
https://www.nikkei.com/article/DGXZQOGN2205R0S2A920C2000000/?n_cid=SNSTWT&n_tw=1663856128
posted at 22:08:08
TAKAGI-1驍オ�イ�つ驍オ�イ�つSNS驍オ�イ�つ驛「譎�§�取コス�ケ�ァ�ス�ー驍オ�イ�つWeb驛「�ァ�ス�オ驛「�ァ�ス�、驛「譎「�ソ�ス