2NTは無料ブログ、無料ホームページ等、楽しいWEB Lifeをお届けするポータルサイトです。
2NTは無料ブログ、無料ホームページ等、楽しいWEB Lifeをお届けするポータルサイトです。
繊細なテクスチャ、透明感のあるパネル、充実したフッタ、光源を模したグラデーション、1ピクラインにこだわったディテールなど最近のウェブデザインのトレンドを取り入れた、ウェブサイトのレイアウトを作成するPhotoshopのチュートリアルを紹介します。
CWE is a Software Assurance strategic initiative sponsored by the National Cyber Security Division of the U.S. Department of Homeland Security. CWE - 2010 CWE/SANS Top 25 Most Dangerous Programming Errorsにおいて脆弱性の原因となる危険なプログラミングエラー25が発表された。開発者にセキュリティ問題の原因となるプログラミングに関する注意を促し、実際にソフトウェアが動作する前の段階で問題を発見し対処できるようにすることを目指したもの。2009年に発表されたリストの更新版にあたり、内容の多くが更新されている。2009年版を使っていた場合には、今回発表された2010年版を再度検討する価値がある。
日本の自殺者が年3万人を超えているというのは有名な話だ。藤岡弘は「内戦状態だ」というが、 あながち誇張でもない気がする。 その原因についてだが、よくありがちな「日本が厳しい競争社会だから」というのはナンセンスだろう。 年功序列のおかげで、大手のサラリーマンは外資に比べれば競争なんてないようなもんだし、 規制のおかげで正社員と非正規雇用労働者は競争しなくてよい。 そもそも、郵貯を実質再国営化して官僚OBをトップに送りこむような国だ。ほとんど計画経済である。 むしろ競争が無いことこそ、内戦の原因だろう。 新卒至上主義や転職市場における年齢上限からも明らかなように、 日本社会というのは「失敗を前提としたシステム」ではなく、 「失敗してはいけないシステム」をベースにしている。 こういう社会では落ちた人へのサポートはとても弱い。落伍者を支えるシステムなんて作ってしまったら、 失敗の存在を公式に認める
2008年10月27日 Gmail同士のデータ移行方法 ある目的のため、Gmail同士(正確にはGoogleAppsのGmailと本家のGmail)で、データの移行作業を実施しました。 方法は意外と簡単。 Gmailの設定でIMAPを有効にするIMAP対応のメールソフト(今回はThunderbirdを使用)を用意メールソフトに移行元と移行先のアカウントを設定移行元の[すべてのメール]フォルダの前メールを選択し、移行先の[すべてのメール]フォルダにドラッグ4と同様に[送信済みメール]も移行 メールの量が多いと時間がかかるので、気長にやることですね。 移行前に不要なメールを削除すると、整理もできていいかも。 投稿者 ぺんち 時刻: 18:06 ラベル: Gmail 0 コメント: コメントを投稿
Oct 1, 2007Download as PPT, PDF16 likes17,099 viewsAI-enhanced description The document discusses using Web::Scraper to scrape web pages in a robust, maintainable way by using CSS selectors and XPath queries rather than fragile regular expressions. Web::Scraper provides a domain-specific language for defining scraping processes and extracting desired data from web pages into structured results. Ex
僕は自称、ベンチャー起業家。これまでに10社くらいは起業し、直接、間接合わせて40億円ほど資金調達して、自分の手金を投資したことがあっても、借金してまで起業したことはないし、保証人になったこともない。見方にもよるだろうがまだ成功はしていないが(苦笑)、リスクの割には大きな失敗もしていない。 そんな僕がここ1、2年で明らかに起業のスタイルが変わったと感じることがあり、起業を志している人の役に立てばと思いそのノウハウとイマドキの起業法を伝授したい。 まず心構えから。おいおい精神論からかよ、と思うかもしれないが、、、 ■心構え 1. 起業は怖くない リスクは避けるものではなくヘッジするもの。自分の許容できるリスクの範囲をきちんと見定めること。最大のリスクは恐れるという心の弱さのことなのだ。恐れるということを恐れよ! 2. 安定基盤を捨てなくても起業はできる。 サラリーマン諸君に言いたい。辞めると
春の新生活を控え、各社がパソコンの新モデルをリリースする時期になりました。今シーズン、買い替えを考えられている方も多いかと思いますが、今使っているパソコンはどうするか決めていますか?もちろん有償での回収が一般的ですが、無償のリサイクル業者や、音楽サーバーとして再利用という方法もあるんです。覚えておいて損はない“いらなくなったパソコン”について取り上げられているエントリーをご紹介します。 ■故障・不用のパソコンはどうすればいい? 一番メジャーなのは、メーカーに引き取ってもらう方法です。 ▽メーカー受付窓口一覧(家庭から廃棄されるパソコン) :: PC3R 上記のサイトでは、各メーカーの相談窓口の連絡先、引き取りに関するページのリンクが50音順でまとめられており、とても便利です。 こちらは、なんと無償で回収してくれるリサイクル業者。 ▽不用品回収・パソコン廃棄・パソコン処分・無料処分のパソコン
「なんでも判定ツクール」へ多数のアクセスありがとうございますm(_ _)m 1月末にリリースした当初は僅かのアクセスだったのですが、Twitterで火が付いてからは一気にアクセスが集まり、気が付けば2月1日〜2月16日で4,000,000PVを超えました。 自分では絶対に考えつかないであろうユニークな判定がたくさんできて、私自身もとても楽しんでいます:-D(面白い発想をする人は世の中にたくさんいるものです) このサイトはGoogle App Engine(GAE)+Pythonで構築しているのですが、このアクセス数ならではのGAE上で体験できたことをざざっと書いていきます。 無料?課金? まずはじめに大事なこと。 「なんでも判定ツクール」ではGAEを課金状態にしています。無料のQuotaではとてもではないですが、このアクセスは捌けません:D GAE公式サイトには 月間約 500 万ページ
わかってしまえば単純なことでした。 process 'a[href=~/\.jpe?g$/]', 'urls[]' => '@href'; XPathでも同じようにできます。 process '//a[@href =~ /\.jpe?g$/]', 'urls[]' => '@href'; Web::Scraperにはフィルタの概念があって、取得してからごにょごにょできるので、そっちのほうばかり調べていました。 例えば以下のようなHTMLの場合、そのまま取得すると、前後に改行が入ってしまいます。 <title> タイトルなのだ </title> で、それを取得する時に、前後の改行を削除してやることができます。 process 'title', 'title' => ['TEXT', sub { s/^\s+//o; s/\s+$//o; } ]; こういう機能をフィルタと呼んでいます。 その
最近からかもしれないけど、Last.fmでmp3の無料ダウンロードをやっているようだ。 参考:Last.fm からのおすすめ無料mp3 - Last.fm ちょうどWWW::Mechanizeを試していたので、それとWeb::Scraperを組み合わせてダウンロードするスクリプトを作った。 アカウントを持っているのが前提です。 アカウント情報は以下のように、YAMLで記述しておきます。 ソースコードをこのまま使う場合は、スクリプトのあるディレクトリに「lastfm.freemp3.yaml」という名前で保存しておきます。 --- config: id: xxxxxxxx pw: ******** 最後は改行で終了しておく必要があります。たぶん。 ソースコードをこのまま使う場合は、スクリプトのあるディレクトリに「lastfm」というディレクトリが必要です。 実行すると、そのディレクトリ
かなーり今更感がありますが。 モジュール自体は、大分前にウェブにあったスクリプトをコピペして使ったときにインストール済みでしたが、なんとなく難しそうで敬遠していたところもありました。 が、やってみると簡単かつパワフルなモジュールであることがわかりました。 参考:use Web::Scraper; - 今日のCPANモジュール XPathがなかなかわからないのですが、CSSセレクタでもいけるのが超絶簡単です。 例えば、aタグのhref属性を取得する場合のprocessは以下のとおり。 process 'a', 'urls[]' => '@href'; で、この場合だと、href属性がないaタグも対象になってしまうので、未定義(undef)が入る場合があります。 なので、href属性があるものだけを対象としたのが以下のprocessです。 process 'a[href]', 'url
2008年11月16日21:19 Perl Web::ScraperでXML::LibXML みなさん、perl使いだったらWeb::Scraper使いますよね?きっと大活躍だと思います。 僕が作ったYouTube Oricon Rankingというサイトでも、某有名動画サイトからWeb::Scraperを使って、データを取得しています。 Web::Scraper自体は非常に高性能で、「いつもお世話になってます」といった感じなのですが、データの取得に結構な時間が掛かってしまうことが悩みです。。 、、と思ってたら、こんな記事を見かけました。なんて魅力的なタイトル(*´Д`*) Web::Scraper を XML::LibXML で爆速にする hack! 以前、XML::LibXML始まったなでも書いたんですが、今回もXML::LibXMLが絡んできます。 何でも、Web::Scraperで
Blog Search when-present<#else>when-missing. (These only cover the last step of the expression; to cover the whole expression, use parenthesis: (myOptionalVar.foo)!myDefault, (myOptionalVar.foo)?? ---- ---- FTL stack trace ("~" means nesting-related): - Failed at: ${entry.path} [in template "__entry.ftlh" at line 3, column 25] - Reached through: #include "__entry.ftlh" [in template "entry.ftlh" at
3年前にこの本に出会って、僕はスクレーピングの虜になった。 おかげで正規表現をたくさん書く機会が得られたし、CPANのモジュールともたくさん触れ合うことができたし、さらに自分自身でも構造化されたHTMLを書く習慣も身についた。 ただ、やっぱり、スクレーピングは簡単ではない部分もたくさんあると思う。文字コードについても意識しなければならないし、なにより正規表現で必要な部分を抽出することそのものが結構骨のいる作業だ。HTML::TreeBuilder を使った方がいいのか、それとも正規表現だけでやったほうが楽なのか。そんなことを考慮しながらコーディングして行く。そこがスクレーピングの楽しいところでもあるのだが、そこがスクレーピングの敷居を高いものにしていることも否めない。 そんな、愛らしくもあり憎たらしくもあるスクレーピングを簡単にやってしまうのがこのモジュール、Web::Scraper だ。
Today I've been thinking about what to talk in YAPC::EU (and OSCON if they're short of Perl talks, I'm not sure), and came up with a few hours of hacking with web-content scraping module using Domain Specific Languages. 使ってみたよ! #!/usr/local/bin/perl use strict; use warnings; use FindBin::libs; use URI; use Web::Scraper; use Encode; use List::MoreUtils qw/uniq/; my $links = scraper { process 'a.key
HTML を解析するには HTML::TreeBuilder が便利なんだけど、なかなか初心者向けのドキュメントが見つけられなかったので、自分用の覚え書きの意味も含めて、まとめておこうと思います。 とりあえずこんな HTMLファイル(sample.html) を処理してみましょう。 <html> <head> <title>sample.html</title> </head> <body> <div class="entry"> <div class="entry_head"> <h1><a href="http://www.hoge.jp/" id="link">www.hoge.jp</a> is fugafuga</h1> </div> <div class="entry_body"> hogehoge-fugafuga-hogehoge-fugafuga </div> </di
HTML::Element とか HTML::TreeBuilder で HTML 構文木をいじることを盆栽と呼ぶらしいですが、最近よく盆栽してていろいろ覚えたことがあるのでメモ。 as_HTML() で HTML エンティティに変換させない HTML::Element#as_HTML を呼ぶと HTML 文字列が返るのだけど、これを引数なしで呼ぶと "all unsafe characters" が HTML エンティティに変換(エンコード)される。これは普通あまり望ましくないので(変換などせずそのまま出して欲しいことのほうが多い)、それを回避するには my $html = $elem->as_HTML('');と、空文字列を渡してやる。 HTML::TreeBuilder のインスタンスに対して as_HTML() を呼ぶと タグをつけられてしまう これはサブクラスの HTML::Tr
WWW::Mechanize でコンテンツとってきて TreeBuilder::XPath で解析するようなのを今まで単機能スクリプトなどでは便利に使っていたのだけど、それを永続的なプロセスで使おうとしたらメモリ使いまくってとんでもないことになったという話。 まずどんどんメモリが増えていくのでタイミングよく読んでいたjrockwayの記事などを参考に、 perl -MDevel::Leak::Object=GLOBAL_bless 付きでスクリプトを実行してみる。 少しソースをいじってまずはループを一回で止めるようにしたときの出力 Tracked objects by class: Config 1 DBI 1 DBI::var 5 DBIx::Class::ResultSource::Table 1 DateTime::Duration 2 DateTime::Format::Build
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く