Twitter: @atene_gakudo+TAKAGI-1のはてなブックマーク
髫エ魃会スス�・髯具スサ�ス�ス 髫エ蟷「�ス�ェ髫エ螟イ�ス�・驛「�ァ陷托ソス�ス�ス隲帛・�スス螯兎b鬯ョ�ョ鬯倬ッ会スス�ェ陟募仰陟墓ケ夜��ケ譎「�ス�ゥ驛「�ァ�ス�、驍オ�コ�ス�ェ驛「譎�スァ�ュ邵コ螳茨スケ�ァ�ス�ク驛「譎「�ス�ウ驍オ�イ�ス�ス<<2023/01/11 <2023/02/07 || 2023/02/09> 2023/03/08>>
2023/02/08
九州大が無料公開しているデータサイエンス概論の講義資料。厳密さを犠牲にしつつも直感的に?み砕いて説明してくれている
http://mdsc.kyushu-u.ac.jp/lectures https://twitter.com/developer_quant/status/1623329869492006918/photo/1
posted at 23:36:15
最近Chat GPTが話題ですが、臨床医が検索に使うのには「Perplexity AI」が断然良いです。
臨床で生じた疑問を検索するのにはGoogle検索よりも手っ取り早く、情報源が明示されるため確認作業が行いやすい。
(pubmed)や(guideline)などと入力すると、引用元を指定することもできます。 https://twitter.com/Ko__Harada/status/1623329929084665861/photo/1
posted at 23:36:29
ウェブサイトはこちら
https://www.perplexity.ai/
posted at 23:36:35
@Ko__Harada 便利は便利なんですが、時々、情報源を明示したふりをして、しれっと嘘をつくことがあリます。
結局自分で元情報源を確認するという手間は現時点では省かない方がよさそうです。
https://twitter.com/toyosh/status/1616817124722511873?s=20&t=oIf3wZDRKPEd5S4RCiyQFQ
posted at 23:36:47
@toyosh 情報ありがとうございます!確かにそうですね。実際使ってみると、ざっと2~3割は間違った情報が混ざっている印象です。
今後は精度が上がっていくのでしょうが、使う側のリテラシーが重要ですね。
posted at 23:36:51
TAKAGI-1驍オ�イ�つ驍オ�イ�つSNS驍オ�イ�つ驛「譎�§�取コス�ケ�ァ�ス�ー驍オ�イ�つWeb驛「�ァ�ス�オ驛「�ァ�ス�、驛「譎「�ソ�ス