安全な方法は何がありますか?そんな時にcurlコマンドを使い、色々ホームページコード確認が出来ます。
基本的にcurlコマンドは全てインターネットページをダウンロードとロカルで保存する事が出来るので、保存方法は使ってる方々の好きな設定で実行にならないように出来ます。
良く私は使ってるパラメータは-D(ヘッダーをテキストで保存)又は-o(ページをstdoutで保存)です。
wgetコマンドと違いのは偽物httpエラーに付いてwgetが弱いでダウンロードが出来ません(wgetの証明であり)、但しcurlでは全エラーページのソース迄ダウンロードするし、偽物かどうか確認が出来ます。
詳しいcurlコマンドの説明は下記のurlへ↓
http://curl.haxx.se/
---
株式会社ケイエルジェイテック
http://www.kljtech.com
セキュリティモニターセンター
0 件のコメント:
コメントを投稿