Performance comparison of a wide spectrum of web application frameworks and platforms using community-contributed test implementations.
大手クラウドサービスであるAmazon EC2では、9種類ものインスタンスタイプ(サーバの種類)から、利用したいスペックのサーバを選択できます。また、EC2のサーバは、4ヶ所ものリージョン(アメリカ東海岸、同西海岸、ヨーロッパ西部、シンガポール)から稼動させる場所を選択することができます。 ここで、気になるのが、Amazon Web Servicesの説明ページで、各インスタンスタイプの公表スペック差異として、EC2独自のCPU単位である"ECU"の数値や、IO性能のModerate(中)やHigh(高)で、どのくらいパフォーマンスが違うのかが見え辛いといった点。 また、一部の場所ではパフォーマンスが出ていない等の話が以前に出ていましたが、4ヶ所のロケーション(Region)によって、各場所でのインスタンス性能が全く同じなのか等も気になるところ。 ここを解明すべく、各種ベンチマークを実行し
自分でやっちゃったらダメだろうと思いますので、参考までに(信じないで >結果に自信が無いため、あえてあっちには書きません。また、ツールの使い方とか、値の見方がダメなので誰か分かる人の追試やっていただける方いたらお願いします。試験内容はニフティクラウドについてのこちらの記事です。http://d.hatena.ne.jp/kazuhooku/20100420/1271717051 randombenchを使いました。結果以下のようになりました。concurrency1416read208261827122write116111661278参考)元ネタの方にあったニフティクラウドの値。concurrency1416read137012601470write647793877何か腑に落ちないです、だれか助けて下さい。 試験結果詳細実行したコマンド./randombench.cc -b 16 -c
TCP通信をするプログラムを書く際に「データの送信はまとめて1回で」行うべき、というのは鉄則と言っていい、と思います。その理由としては、パケット数を最小限に抑えることでオーバーヘッドを少なくするためだと一般に説明されますが、自分はもうひとつポイントがあると考えています。次のグラフを見てください。 グラフは、一定量のデータを転送するのにかかる時間と使用するブロックサイズ(1回のwrite(2)で書き込むサイズ)の関係を表したものです注1。 ホスト間のTCP通信を行っている場合は、TCPのバッファが有効に機能するので、ブロックサイズ(=パケット数の逆数)による速度の変化は、ほぼありません。一方、同一ホスト上で通信を行うと、ブロックサイズと反比例して所要時間が反比例の関係にあることがわかります。 原因は、同一ホスト上の通信では、送信プロセスがwrite(2)を呼ぶたびにコンテクストスイッチが発生
Benchmark.pm の cmpthese は手軽に速度の比較ができるのでとても便利。でも、そもそも何のパフォーマンスを比較しているのか? ソースコードを読めばわかるけど、 perl プロセスのCPU使用時間 あるいは、上記+子プロセスのCPU使用時間 を測定している。換言すると、プロセス間通信のオーバーヘッドやサーバ側での処理時間はベンチマーク結果に反映されない。つまり、サーバのベンチマーク(あるいはプロセス間通信やI/O待ちを含むベンチマーク)を比較したい場合には、cmpthese を使うべきではない。 #サーバと通信するクライアントモジュールのベンチマークがほしい、といった場合はOK どうしても Benchmark.pm を使いたいなら、 use Benchmark qw(:hireswallclock); my $r = timethese(...); for my $v (v
サーバ1台あるいは、サービス全体で、いったいどのくらいのパフォーマンスがあるのかについて計測することは、とても重要なことです。 僕が管理しているサービスは、最初にサービスをはじめるときはある程度の規模感を想像しながらまとまめてサーバなどを調達しましたが、サービスを開始してすこしたってきたところで今後の投資計画をたてたいため、月ごとのトラフィックを予測して、いつごろにどのくらいのサーバなどが必要か情報を調査して計画を立てることになりました。もちろん、最初からちゃんとベンチマークを行って計測してサーバを調達したほうがいいのですが、小さい会社では最初はサービスの開発に注力したいため、なかなかそういった時間をとれないのもまた事実です。 ということで、現状のサービスのパフォーマンスを測定するために必要な CentOS 上で動作するコンソールベースのオープンソースなベンチマークツールについて調べてみま
世の中ではたくさんの人が独自にベンチマークを行ない、独自に情報発信がされています。そのベンチマークの中には、非常に参考になるものもあれば、現実性に大きく欠けるものもあります。競合他社が、ライバル社の製品にとって不利な条件でベンチマークを行い、それを発信することも日常的に行われています。ベンチマークの結果を鵜呑みにすることは危険で、結果の意味を判断するスキルを持つことが重要です。これはプロジェクトにおいて負荷テストを行う場合にも重要です。負荷テストの条件設定が正しいかどうかを判断できるようになるためです。 ここでは、私がDBサーバのベンチマーク/負荷テストを行ったり結果を読んだりする上で、心がけているポイントを10個ほど紹介したいと思います。 ■ハードウェアに関する4つのポイント 1. ハードウェアのスペックと設定を注視する ハードウェア構成によってベンチマーク結果は劇的に変わるので、言わず
ITは、分かっているようで意外と説明できないことの集合体である。本連載では、IT業界に眠るそれらの謎を文字通り徹底的に調査していく。第1回は、ネットワークの代名詞的な技術といえる100BASE-TXが本当に100Mbpsの速度で通信するのかどうかを調査してみよう。 現在、ネットワークの代名詞的な技術といえば通信速度100Mbpsの100BASE-TXだろう。しかし、100Mbpsということは1秒間に1億ビットもの情報を送っているわけである。規格としてはそうでも、本当に100Mbpsの速度で通信はできているのだろうか? そこで、今回はネットワーク通信速度の鍵を握っているであろうスイッチをターゲットに据え、ネットワーク測定の専門家である東陽テクニカにその疑問を解決すべく調査を依頼した。 ネットワーク機器の性能指標を測れ! 皆さんは、ネットワーク機器といえば何を想像されるだろうか。PCやNAS*
http://www.phoronix.com/scan.php?page=article&item=ext4_btrfs_nilfs2&num=1 たぶん、デフォルトパラメタで勝負しているので、ext3はwritebackモードだと思う。 要約 ・SQLiteテストはext3が20秒で終わるところが、ext4では870秒、btrfsに至っては1472秒もかかった ・PostgreSQLのpgbenchのbtrfs, XFSは完走できなかった ・IOZone Write: ext3:107MB/s, ext4:131MB/s, Btrfs:89MB/s Read: ext3:202MB/s, ext4:219MB/s, Btrfs:93MB/s Btrfs遅いな~ ・Dbenchはext3:100MB/s, ext4:32MB/s, Btrfs:46MB/s やはり、ordered-mod
新しいサーバに高価なハードウェアRAIDカードを付けることで、ディスクアクセスの速度はどれほど向上するのだろうか。LinuxカーネルによるソフトウェアRAIDとハードウェアRAIDカードのパフォーマンスの違いはベンチマークで評価できる。私の環境でこの2つの条件を評価したところ、いくつか興味深い結果が得られた。 ソフトウェアRAIDとハードウェアRAIDの双方について、750GBのSamsung SATAドライブ6台を使ってRAIDレベル5、6、10の各構成を評価した。パフォーマンスの測定にはBonnie++とIOzoneの各ベンチマークを用いた。また、チャンクサイズがハードウェアまたはソフトウェアのRAID構成に与える影響を確かめるために、チャンクの大きさを変えてベンチマークを実行した。 ハードウェアRAIDの評価には、12ポートのAdaptec製SAS-31205 PCI Express
一昔前に比べれば安価になったSSD。シークタイムの点ではHDDより圧倒的に優れているものの、HDDから移行する価値はどのくらいあるのだろうか。幾つかの比較を行ってみた。 ソリッドステートドライブ(SSD:Solid State Drive)には、従来のプラッタ回転式のハードディスクドライブ(HDD:Hard Disk Drive)にない利点が数多くある。無音、低電力、低熱放出性、耐衝撃性、そして特に重要なのがシークタイムの極度の短さだ。SSDによってどれほどパフォーマンスが向上するのかを確かめるために、ノートPCで利用できる最新のSSDでBonnie++によるベンチマーク評価を行った。 簡単に説明すると、SSDのストレージ方式にはシングルレベルセル(SLC)とマルチレベルセルの2つがあり、普通はSLCドライブの方がパフォーマンスは高い。 読み書きの速度、フォームファクタ、容量はSSDごとに
By Ben Martin¬�� Without going into details, SSDs may use single-level cell (SLC) or multi-level cell storage, with SLC drives typically offering better performance. SSDs offer different read and write speeds, form factors, and capacity. I looked at several models from Mtron. The performance of the 3.5-inch and 2.5-inch form factors is identical, so you might as well get the 2.5-inch drive because
最近 またしても、JavaScript のベンチマークを取らなければならない仕事が来たので、 ツールをキレイにしました。 それを公開します。(ダウンロードは一番下にあります。) 使い方 script タグで benchmark.js を読み込んで、以下のように連想配列の関数群を渡すだけです。 benchmark({ 'ほげほげの計測': function() { ...... }, 'ふがふがの処理の計測': function() { ...... } }); 結果は以下のように表示されます。 *** ほげほげの計測 *** result : 0.0011[ms] *** ふがふがの処理の計測 *** result : 0.111[ms] 表示された秒数は 関数の中身を一回だけ実行する時間です。 関数呼び出しのコストは差し引かれています。 また、FireBug を使っている場合は benc
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く