投稿

Tweet on Univalent Theory

  2013年1月13日 その他 寄り道の寄り道をしていたら目に入った、Baezの最新のblog。”From Set Theory to Type Theory ”  http:// golem.ph.utexas.edu/category/2013/ 01/from_set_theory_to_type_theory.html#more   … とても面白い。彼の講義録、blog、10年分ぐらい読まずにたまっているのだけれど、いつか全部読んでみたい。   2013年1月13日 その他 Baezのpostは、 univalent type theory の重要性をわかりやすく解説したもの。しかも前半部分は、ETCS(Elementary Theory of the Category of Sets) = LawvereのTopos理論の面白い解説になっている。   2013年2月11日 その他 一日、 Univalent Theory の論文とビデオをZapping。久しぶりに萌える。Topos, LQG以来かな。数学の基礎の話だが、そのうち、確実にCSに落ちてくるだろう。   2013年2月11日 その他 Univalent Foundations of Mathematics http://www. math.ias.edu/~vladimir/Site 3/Univalent_Foundations_files/2011_Goteborg.pdf   … で、 Univalent Theory の大ボスの Voevodsky が面白いエピソードを紹介している。   2013年2月11日 その他 彼は、集合論に代わる数学を基礎づける演繹システムを探して、" homotopy λ- calculus"という難しい理論をひねり出すのだが、ある時それが自分の大学のCSの学部学生が普通に習っているコンピュータ上の「証明支援」システムと同じものであることに気付く。2009年のこと。   2013年2月11日 その他 Voevodsky の論文の一部は、Coqという「

Facebookの検索機能

黒川さんからメールで質問があったことをきっかけに、この間のChomskyについての僕のFacebookでのポストを調べて見た。 "Why Only Us" について紹介した時点では、「言語学者が酒場で酔っぱらってくだをまくという、面白い趣向の論文があったのだが」という論文が、Berwick本人のものであることに気づいていなかったことがわかる。マヌケである。まあ、いいか。   2016/10/13 生成文法とカテゴリー文法の接近  https://goo.gl/crQP8w   2016/06/27 "Minimalist Program" https://goo.gl/jAXpnS   2016/06/06 "Approaching UG from Below"  https://goo.gl/ZGsEfv   2016/05/18 "What Kind of Creatures Are We?"  https://goo.gl/R0T7GH   2016/05/05 "Why Only Us"  https://goo.gl/NdFV2q Facebookの検索は、ずいぶん便利になったのだが、Berwickの論文 "On the Convergence Of 'Minimalist' Syntax and Categorial Grammar" を紹介した、僕の元の投稿は見つからなかった。残念。昔のポストは、検索には引っかからないみたいだ。 もしやと思って、2013年頃、盛んに投稿していた Univalent Theory についてのポストを検索して見たのだが、全滅だった。悲しい。blogに残しておけばよかった。

次回マルレクの予定について

イメージ
この間マルレクでは、ニューラルネットワークの基礎としてのFull ConnectのFeedForward  Networkと、画像処理を中心に大きな成功を収めたConvolutional Neural Network を取りげてきました。次回・次々回のマルレクでは、機械翻訳等の Sequence to Sequence の処理で活用されている Recurrent Neural Network -- RNN を取り上げます。 マルレクは隔月で開催してきたのですが、会場の都合で、次回マルレクは二月(第五回)と三月(第六回)で開催する予定です。 マルレク第五回  2月28日 19:30〜 品川 マイクロソフト本社 テーマ: 「 RNNの基礎 -- Sequence to Sequence 」 概要: RNNは、時系列データや自然言語のテキストのようなシーケンシャルなデータを、別の時系列データや別の言語のテキストのような、同じくシーケンシャルなデータに変換する時によく使われるニューラル・ネットワークのモデルです。 講演では、まず、これまで取り上げたFull Connectのニューラル・ネットワーク(入力も出力も「順序」を持たない)や、Convolutional ニューラル・ネットワーク(時間のない空間的な配置から特徴を抽出する)との対比で、ネットワークがループを持つRNNの特徴を述べたいと思います。 講演では、最もよく使われているRNNのモデルであるLSTM(Long Short Term Memory)にフォーカスして、RNNの基礎を解説したいと思います。 参考文献: The Unreasonable Effectiveness of Recurrent Neural Networks Understanding LSTM Networks Sequence Modeling マルレク第六回  3月27日 19:00〜 品川 マイクロソフト本社 テーマ: 「 RNNの応用と発展 --- Google翻訳とDNC  」 概要: RNNの応用で目覚ましい成果の一つは、 昨年末に発表されたGoogle翻訳の進化 です。機械翻訳の精度は、飛躍的に向上しました。講演では、Google翻訳が、どのようにRNN (

複眼的思考

物事には、いろんな側面があり、様々なものは互いに関連している。だから、ポリフォニックで複眼的思考ができることが大切だ。 しかし、だ。 昨年、メガネを変えたのだが、それ以来、物が二重に見える。視覚的には複眼がビルドインされた、複眼思考人間になったようだ。 (それは、複眼ではなく複視でしょう。) 車が二台走っていると思ったら一台だったり、机の上に千円札が二枚あると思ったら一枚だったり(残念!)。どうせなら、ホログラムのように、顔を見たら背中も見えるというようになればいいのに。 まあ、いいか、そのうち慣れるだろうと思っているのだが。

Susskind Lectures on Youtube

以前、リンゴをかじりながら授業をしている先生をFacebookで「紹介」した。 https://goo.gl/IjVG0n   この人は、物理学者のSusskindで、スタンフォード大の物理の授業風景だ。 彼はスタンフォード大での物理の授業を、全て、Youtubeで公開している。素晴らしい取り組みだ。ある人が、彼のYoutubeでの全講義のリストをまとめている。 https://goo.gl/K72Qhg   全部視聴したら 100時間くらいかかるだろう。 スタンフォード大も、ふとっぱらだと思ったのだが、でも、必ずしもそうではないみたいだ。他の人が、このシリーズをリストにまとめている。http://www.lecture-notes.co.uk/susskind/ 次のリストの末尾の数字は、講義数が分母で、Lecture Note が公開されているものの数が分子になっている。 Classical Mechanics 9/9 Statistical Mechanics 0/10 Special Relativity (Known as Quantum Entanglements Part 3) 8/8 Classical Field Theory (Known as Special Relativity) 0/8 General Relativity (Known as Einstein's Theory) 0/12 Cosmology 0/8 Quantum Entanglements (Known as Quantum Entanglements Part 1) 9/9 Quantum Mechanics 0/10 Particle Physics: Basic Concepts 0/10 Particle Physics: Standard Model 0/10 Particle Physics: Supersymmetry (Known as Supersymmetry, Grand Unifications and String Theory) 0/10 String Theory and M-Theory 0/10 Topics in String Theory 0/9 要するに、スタンフォード大はビデオ