Twitter: @atene_gakudo+TAKAGI-1のはてなブックマーク
<<2019/11/06 <2019/12/03 || 2019/12/05> 2020/01/01>>
2019/12/04
かいたよ: 私は君の言うことに反対だが、君がそれを言う権利は死んでも守る https://takagi1.net/mirai/archives/370
posted at 00:04:28
【動画】ホワイティうめだ「泉の広場」、新たなシンボル「Water Tree」公開 https://osaka.style/news/2791/ https://twitter.com/osakastyleNews/status/1202207096822874113/photo/1
posted at 21:44:42
文章読解でもAIがついに人間超え、グーグルの「BERT」発表から1年で急成長
https://tech.nikkeibp.co.jp/atcl/nxt/column/18/01056/111200002/
『米グーグル(Google)の機械学習手法「BERT」の発表をきっかけに、この1年で状況が激変した。』
posted at 21:50:04
様々な機械読解タスクで急速な変化がこの1年で起こったけど、例えば「SQuAD2.0」においては、このグラフを見れば、急速さがよくわかる(ここでは人間のパフォーマンスを超えている) https://twitter.com/jaguring1/status/1202208459334111233/photo/1
posted at 21:50:07
GLUEベンチマーク上では、すでに人間のベースラインが8位に位置している。それをさらに難しくしたSuperGLUEにおいても、T5が人間に匹敵するレベルになっている。
https://gluebenchmark.com/leaderboard https://twitter.com/jaguring1/status/1202208476035862528/photo/1
posted at 21:50:11
中国の中学生と高校生向けの英語問題(複数文問題や長文問題の問題設定)を集めたデータセット「RACE」で、グーグルの新作モデル「ALBERT」が最高性能
正解率の推移(この1年半)
中学生向け:62.9% → 88.5% → 91.2%(今回)
高校生向け:57.4% → 82.3% → 88.5%(今回)
https://openreview.net/forum?id=H1eA7AEtvS
posted at 21:50:16
人間の専門家によって設計された「外国語としての英語試験問題」を収集した機械読解データセット「DREAM」では、正答率88.9%になっている。 https://twitter.com/jaguring1/status/1202208508919181312/photo/1
posted at 21:50:19
機械読解データセット「CoQA」においても、人間のパフォーマンスを超えている。
https://stanfordnlp.github.io/coqa/ https://twitter.com/jaguring1/status/1202208522923958273/photo/1
posted at 21:50:22
解くためには常識が必要と言われていたデータセット「SWAG」においても、人間のスコアを超えている。
https://leaderboard.allenai.org/swag/submissions/public https://twitter.com/jaguring1/status/1202208534135332871/photo/1
posted at 21:50:25
ここでも人間のスコアを超えている。
MS MARCO データセット(Q&A Task)
http://www.msmarco.org/leaders.aspx https://twitter.com/jaguring1/status/1202208544398794760/photo/1
posted at 21:50:27
2018/10/11にBERTが登場してから次の変化が起こった。
「現在までに2000件近く被引用」
「BERT以降、言語モデル研究が加速」
「自然言語理解のレベルが大幅に上がる」
「BERTがグーグル検索に導入されるなど実用化も加速」
「生成タスク(対話, 要約, QA)なども今後有望」
https://speakerdeck.com/kyoun/survey-of-pretrained-language-models https://twitter.com/jaguring1/status/1202208590494224385/photo/1
posted at 21:50:38
大手メディアとしてはちょっと異様なレベルの高さのDeep Learningの解説。話している人が誰かを見て一瞬で納得。専門家ではないが「少しだけ詳しくDeep Learningがその他の機械学習とどう違うかについて知りたい」という人にオススメの記事 https://globe.asahi.com/article/12872410
posted at 21:51:20
記事中のご本人の説明の上っ面だけ読んでデタラメな解釈と感想を述べている人が散見されるので、ご本人の発表資料へのリンクを貼っておく https://www.slideshare.net/masaakiimaizumi1/ss-87969960
posted at 21:51:23
【ネットワーク形成】お世話になっています。 @16331633 さん、 @apj さん、 @tetsudomynavi さん。これまで本アカウントでRetweetした方をご紹介。各アカウントは約13ヶ月に一度紹介されます。
posted at 21:53:23
歴史文化の京都とイノベーションの大阪。関西は上手く分業できていると思う https://osaka-to-the-world.com/?p=1467 なるほど…。東京や名古屋は一極集中だからな…。
posted at 21:54:45
自分の主張の正しさを言うために、自説が成り立つ理由をたくさん探したくなりますが、科学の歴史はその反対で、説が ""成り立たない"" 理由をたくさん探して、それでも説を否定しきれなかったときに、「どうやら間違いではなさそうだ」と受け入れられてきました。 その視点を忘れないようにしたいです。
posted at 21:55:04
【C97直前デザインワンポイント講座】JRと銀座線の運休告知を、同人誌の宣伝制作に反映するとこうなる。メインの大文字が、いつのイベントに出ます!だと意味が通じずにぶっちゃけスルーされるわな(苦笑)何を出すか?を大きくして、色んな人に興味を持ってもらえる告知・お品書き画像を作ろう! https://twitter.com/POO_MATSUMOTO/status/1202209787175301120/photo/1
posted at 21:55:23