lynx   »   [go: up one dir, main page]

タグ

machine learningに関するagxのブックマーク (62)

  • 次世代統計利用システム

    次世代統計利用システムは、統計におけるオープンデータの高度化に向けて、総務省統計局と協力し、独立行政法人統計センターが試行提供するシステムです。次世代統計利用システムは、統計におけるオープンデータの高度化に向けて、総務省統計局と協力し、独立行政法人統計センターが試行提供するシステムです。

  • http://www.phontron.com/nlptools.php

  • Engadget | Technology News & Reviews

    My iPhone 11 is perfectly fine, but the new buttons on the iPhone 16 are compelling

    Engadget | Technology News & Reviews
  • これからはじめる人のための機械学習の教科書まとめ - EchizenBlog-Zwei

    最近では企業における機械学習の認知度も高まっていてエンジニアの求人募集でも「望ましいスキル:機械学習」というのをよく見かける。特にweb系の企業だと当たり前のように機械学習を活用した魅力的なサービスが生み出されているようだ。 そんなわけで先日書いた機械学習の入門記事もそれなりに好評で末尾の教科書リストも結構参考にしていただいた様子。ということで、これから機械学習をはじめる人のためにオススメの教科書を10冊ほどピックアップしてみた。 幸いにして機械学習の分野には良書が多い。5年前はナイーブベイズすら知らなかった私も、これらの教科書のおかげでなんとか機械学習を使えるようになりました!(個人の体験談です。効果には個人差があります) 参考: 機械学習超入門 〜そろそろナイーブベイズについてひとこと言っておくか〜 - EchizenBlog-Zwei 最初に既存の機械学習の教科書まとめを挙げておくの

    これからはじめる人のための機械学習の教科書まとめ - EchizenBlog-Zwei
  • 有名どころな機械学習手法の年表 - 木曜不足

    ちょっと機械学習の比較的有名なモデルやアルゴリズムの初出について年表を作ってみた。 って今週末用の資料なんだけどねw 1805 Method of Least Squares 1901 PCA (Principal Component Analysis) 1905 Random Walk -1925 Logistic Regression 1936 Fisher's Linear Discriminant Analysis 1946 Monte Carlo Method 1948 n-gram model 1950 RKHS (Reproducing Kernel Hilbert Space) 1950s Markov Decision Process -1957 Perceptron 1958 Kalman Filter 1960s Hidden Markov Model -1961 N

    有名どころな機械学習手法の年表 - 木曜不足
  • Twitterで株式市場を予測:「86.7%の精度」 | WIRED VISION

    前の記事 台所で生じる「ホワイトホール」:物理学者が検証 Twitterで株式市場を予測:「86.7%の精度」 2010年10月22日 サイエンス・テクノロジー コメント: トラックバック (0) フィードサイエンス・テクノロジー Lisa Grossman Image: flickr/Perpetualtourist2000 ある1日に『Twitter』の世界(Twitterverse)がどのくらい平穏だったかを測定することで、3日後の『ダウ・ジョーンズ工業株価平均』の変化の方向性を86.7%の精度で予測できるという研究成果が発表された。 この発見は、(別の研究から派生した)ほとんど偶然によるもので、研究者たち自身が驚いている。インディアナ大学のJohan Bollen准教授(社会科学)らによる研究論文は、プレプリント・サーバー『arXiv.org』に掲載された。 これまでの研究によって

  • 「確率密度比」を用いた機械学習の新たなアプローチ - yasuhisa's blog

    東工大の杉山先生の講演がすごく面白かったのでメモ。 やりたいこと、特徴p(x)とp'(x)という分布を推定しようという問題があったとする。このとき、二つの分布のパラメータを推定しないといけないので普通は大変。そこで、w(x) = p'(x) / p(x)を推定するという風に少し変形してやる。p(x)とp'(x)が分かればw(x)は求めることができるが、w(x)があってもp(x)とp'(x)は分からない。ということでw(x)のほうが簡単な問題になっている。 こういう風に「何か問題を解くときに、その過程で元の問題より難しい問題を解かないようにしないと!」というような考え方をVapnikの原理といったりするそうです。 この確率密度比の枠組みを利用すると非定常環境適応、ドメイン適応、マルチタスク学習、外れ値検出、時系列の変化点検知、特徴選択、次元削減、独立成分分析、条件付き確率推定などなどの問題を

  • BLOG::broomie.net: 機械学習の勉強を始めるには

    thriftとかhadoopなど,何やらいろいろと手を出してしまい,ここのところブログの更新が滞ってしまっていますが,今日は前から書きたかったトピックについて自分へのメモの意味も含めて記しておきたいと思います. はじめに 最近,といっても結構前からなのですが,海外のブログなどで「機械学習の勉強を始めるガイドライン」についてのエントリーがいくつか見られ,かつ,議論も少し盛り上がっています.僕は機械学習が好きなだけで,専門というにはほど遠いのですが,僕も一利用者としてはこのトピックに関してはとても興味があります. 機械学習というと,色々な数学的な知識が必要であったり,統計学や人工知能の知識も必要になったりしまったりと,専門的に学ぶ機会が無かった人にとっては興味が湧いてもなかなか始めるには尻込みしてしまうことかと思います.今日紹介するエントリーは,そんな方々にヒントになるような内容になっていると

  • Google Code Archive - Long-term storage for Google Code Project Hosting.

    Code Archive Skip to content Google About Google Privacy Terms

  • Introduction to Roman Architecture | Yale History Lecture

    Join the increasing number of students enrolling in online college courses and start earning credits towards your degree. One in every four students now take at least one class online, and during the fall 2014 term, 5.8 million college students were taking some of their classes — if not all of them — through distance learning. To keep up with increasing demand for online options, more and more sch

  • 機械学習・パターン認識入門 : Stanford大学の機械学習の授業

    September 09, 200909:00 カテゴリ Stanford大学の機械学習の授業 Stanford(スタンフォード)大学は、アメリカのシリコンバレーにあり コンピュータサイエンスにおいて非常に有名な大学です。 Googleの原型となる、バックリンクを分析する検索エンジンBackRub(バックラブ)も、 スタンフォード大学で博士課程に在籍していた ラリー・ペイジとセルゲイ・ブリンによって開発されました。 そんな超一流大学の機械学習の授業を「無料」で聞くことができる方法を 日はご紹介いたします。 Academic Earth 「機械学習」 http://academicearth.org/courses/machine-learning 動画で授業を聞くことができるだけでなく、 英語のスクリプトをPDFでダウンロードすることもできます。 音声を解析するやり方やカーネル法など、

  • 最大マージンクラスタリング - DO++

    ここ数日、最大マージンクラスタリング(MMC, maximum margin clustering)なるものをサーベイしていました。 自分用にもメモ Maximum Margin Clustering, NIPS 2004 Maximum margin clustering made practical, ICML 2007 Efficient Maximum Margin Clustering via Cutting Plane Algorithm, SDM 2008 Efficient multiclass maximum margin clustering, ICML 2008 MMCは従来のSVM、Multi-class SVMと全く同じ定式化で次の二点だけが違います (1) 重み(dualの場合は各例に付くalpha)に加えクラス割り当ても含めて最適化問題を解く。 (2) (1)

    最大マージンクラスタリング - DO++
  • A Survey on Transfer Learning

    List of Conferences and Workshops that Transfer Learning Paper Appear This webpage will be updated regularly.

    agx
    agx 2009/04/25
    Transfer Learning の 論文まとめ
  • パターン認識と機械学習勉強会 - PukiWiki

    パターン認識と機械学習勉強会 † とりあえずページ作成。内容は暫定。詳細は、harajuneまで訊かれたし。 3月くらいからはじめたいなぁと言ってみるテスト。 内容に関しては、教科書以外はフレキシブルなので絶賛意見募集中。 ↑ 内容 † 教科書: パターン認識と機械学習 上・下 http://tinyurl.com/6nkluq 形式: 輪講 (持ち回り発表がいいかなと 日程: 毎週○曜日 18時くらいから (みんなの希望の平均とろうかと 場所: 東京大学の郷キャンパス or 秋葉原キャンパス ustでの生中継とかするかも? キーワード: 統計、ベイズ、機械学習、マルコフモデル、ニューラルネット、画像処理、ロボット、確率モデル、データマイニング、自然言語処理、音声認識、文字認識 ↑ 参加希望者 † 参加希望者は下に続けてくださいー。東大外の参加などもあるかもしれないです。 harajun

  • 最大マージン kNN と SVM の関係: kNN も最近はがんばっています - 武蔵野日記

    先日書いた機械学習における距離学習の続き。 kNN (k-nearest neighbour: k 近傍法)は Wikipedia のエントリにも書いてある通り、教師あり学習の一つで、あるインスタンスのラベルを周辺 k 個のラベルから推定する手法。memory-based learning と呼ばれることもある。単純に多数決を取る場合もあれば(同点を解決する必要があるが)、近いインスタンスの重みを大きくする場合もあるのだが、いずれにせよかなり実装は単純なので、他の機械学習との比較(ベースライン)として使われることも多い。 簡単なアルゴリズムではあるが、1-NN の場合このアルゴリズムの誤り率はベイズ誤り率(達成可能な最小誤り率)の2倍以下となることが示されたり、理論的にもそれなりにクリアになってきているのではないかと思う。また、多クラス分類がちょっと一手間な SVM (pairwise に

  • リコメンデーションサービスコンテスト 受賞作品発表

    インターネットにおけるOne-to-Oneマーケティングの時代になってから、ユーザーの購買履歴を分析し、興味をもちそうな商品を各ユーザーに予想して勧めるようになりました。そして、そのための効果的な「リコメンド機能」は、Webサービスの重要な機能となっています。 そこで、(社)情報処理学会 数理モデル化と問題解決研究会とソネットエンタテインメント(株)は、リコメンド機能に関するアルゴリズムやシステムの開発を通じて、大学生や大学院生の情報科学や関連サービスについてのモチベーションを喚起し、当該分野の一層の活性化と学生のクリエイティブな活動をより活発にすることを目的としたリコメンデーションサービスコンテストを共同開催いたしました。 コンテストの詳しい情報はこちら⇒ タイトル : 「トレブロ」 http://toys.csse.muroran-it.ac.jp/recom/ 我々は、入力されたブロ

  • 情報検索ことはじめ〜教科書編〜 - シリコンの谷のゾンビ

    2011-01-18追記 教科書編その2 にて2011年版のIR教科書を紹介しています 情報検索(IR)の勉強を格的に始めて8ヶ月.大体どんな分野があって,どんなことを勉強すればいいのかわかってきた(と思う).この気持ちを忘れないうちにメモしておこう.以下,若輩があーだこーだ言ってるだけなので,間違いや他に情報があれば,ぜひコメントをお願いします. # ここで述べている情報検索とは,コンピュータサイエンスの一分野としての情報検索です.図書館情報学の側面は一切扱っていません,あしからず. というわけでまず教科書編. 腰を入れて勉強する場合,基礎づくりのためには教科書選びがいちばん重要だと思っている.自分の知っている限り,情報検索における教科書の選択肢はそれほど広くはない.以下に紹介するは,情報検索を学ぶ上で「買い」の.これらを読めば,最新の論文を読めるだけの土台はできるし,専門家と議

    情報検索ことはじめ〜教科書編〜 - シリコンの谷のゾンビ
  • スペクトラルクラスタリングは次元圧縮しながらKmeansする手法 - 武蔵野日記

    機械学習系のエントリを続けて書いてみる。クラスタリングについて知らない人は以下のエントリ読んでもちんぷんかんぷんだと思うので、クラスタリングという概念については知っているものとする。 それで、今日はスペクトラルクラスタリングの話。自然言語処理以外でも利用されているが、これはグラフのスペクトルに基づくクラスタリングの手法で、半教師あり学習への拡張がやりやすいのが利点。なにをするかというとクラスタリングをグラフの分割問題(疎であるエッジをカット)に帰着して解く手法で、どういうふうに分割するかによって Normalized cut (Ncut) とか Min-max cut (Mcut) とかいろいろある。 完全にグラフが分割できる場合はこれでめでたしめでたしなのだが、実世界のグラフはそんな簡単に切れないことが往々にしてある。それで近似してこのグラフ分割問題を解くのだが、Normalized c

    スペクトラルクラスタリングは次元圧縮しながらKmeansする手法 - 武蔵野日記
  • 自然言語処理における類似度学習(機械学習における距離学習)について - 武蔵野日記

    Twitter でグラフ理論に関する話題が上がっていたので、最近調べている距離学習(distance metric learning)について少しまとめてみる。カーネルとか距離(類似度)とかを学習するという話(カーネルというのは2点間の近さを測る関数だと思ってもらえれば)。 この分野では Liu Yang によるA comprehensive survey on distance metric learning (2005) が包括的なサーベイ論文として有名なようだが、それのアップデート(かつ簡略)版として同じ著者によるAn overview of distance metric learning (2007) が出ているので、それをさらに簡略化してお届けする(元論文自体文は3ページしかないし、引用文献のあとに表が2ページあって、それぞれ相違点と共通点がまとまっているので、これを見ると非

    自然言語処理における類似度学習(機械学習における距離学習)について - 武蔵野日記
  • しかしSVMも最近は速いらしい - 射撃しつつ前転 改

    Complement Naive BayesがSVMより速いよーと主張していたので、SVMもなんか最近は速くなってるらしいよ、という事を紹介してみたい。近年はSVMなどの学習を高速に行うという提案が行われており、実装が公開されているものもある。その中の一つにliblinearという機械学習ライブラリがある。ライブラリ名から推測できる通り、liblinearではカーネルを使うことが出来ない。しかし、その分速度が速く、大規模データに適用できるという利点がある。 liblinearを作っているのはlibsvmと同じ研究グループで、Chih-Jen Linがプロジェクトリーダーであるようだ。libsvmはかなり有名なライブラリで、liblinearにはそういった意味で安心感がある。(liblinearの方は公開されてしばらくは割とバグがあったらしいけど。) liblinearにはL1-SVM, L

    しかしSVMも最近は速いらしい - 射撃しつつ前転 改
Лучший частный хостинг