お客さまの声
業務内容
WEBサイトより自動収集プログラムでデータを収集します。
自動収集プログラムはそれぞれのサイトに合わせたものを準備いたします。
・店舗リスト作成(店名、URL,電話番号など)
・株価データ、企業データ取得
・求人サイトからのデータ取得
・不動産、中古自動車データ取得
・その他営業用データ
※ 取得できるのは、一定のルールに基づいて表示されていそうなデータに限ります。
※ 構成の異なる企業HPから住所・電話番号・メールアドレスなどを入手するのは困難です。
<納品までの流れ>
1.ご相談
まずは、お客様のご要望をお聞かせください。その際には次の項目について教えてください。
・データ収集を行いたいサイトのURL
・収集したいデータ項目
・検索したいワード(検索ワード数は料金に関係ありません。)
・収集したい範囲(番号やページ名を変えて何件、検索上位何件など)
※範囲が不明な場合は当方がおおよその量を調査いたします。
収集したいデータのイメージはあるけど、どのサイトを見たらよいかわからない方もご相談ください。
2.無料調査
お客様ご指定のサイトからのデータ収集が可能であるかどうかを調査し、お返事いたします。
この調査に関しましては一切の費用は頂きません。
3.お見積り
調査の結果データ収集が可能である場合、サイトの構成と収集に必要な時間から
料金のお見積りと納期をお知らせいたします。
<見積方法は以下の通りとなります>
自動収集プログラム作成料金+データ収集料金
可能な場合は、プログラミング難易度と収集に必要な時間から料金をお見積りさせていただきます。
ベーシック・スタンダード・プレミアムのいずれを選んだ場合でも、見積もり方法は同じになります。
○プログラミング料金(一つのサイトあたり)
5,000円(容易なもの)~10,000円(標準的なもの)~20,000円(複雑なもの)~
※ 料金はあくまでも目安であり、項目数が非常に多い場合、ページの構成が非常に複雑な場合は別途ご相談差し上げます。
○収集料金
3h以内に完了するもの 3,000円
12h以内に完了するもの 5,000円
24h以内に完了するもの 10,000円
以降、24h毎に、+10,000円
※ 収集時間は1ページ当たりの収集時間(10秒を基本とします)×ページ数になります。
※ 収集時はサイトに合わせたウェイトタイムが必要ですので、ご理解ください。
※ 一度ご依頼いただいた方が、同じ内容のデータ収集のみをご依頼する場合は、収集料金のみでご依頼いただけます。(HPレイアウト変更などがある場合はプログラミング料金をいただきます。)
※ 同時に複数のサイトへの依頼があった場合は、2本目以降のプログラミング料金と収集料金を1本目とまとめて計算しますので、バラバラに依頼するよりお得です。
4. 発注
お見積り内容(金額・納期)にご納得頂いた後に、お客様よりのご発注となります。
5. データ加工
納品時にデータの加工が必要な方は、納品前にご相談ください。基本無料で加工いたします。
例:全角=>半角、文字列=>数値など
※ 複雑な場合は別途料金をいただく場合がございます。
6. 納品
ご指定の出力形式(EXCEL,CSV,GoogleSpreadsheetsなど)で納品いたします。
<クローリングのご案内>
24時間稼働のWindowsPCとLinuxサーバを用意しておりますので、定期クローリングも承ります。
定期的にスクレイピング結果をメールやSlackで自動送信することも可能です。
定期クローリングにつきましては、上記の料金と別料金となりますので、お気軽にご相談ください。
もちろん、相談無料です!
<ご注意>
※ サイトによってはスクレイピングが禁じられている場合があります。
※ 公序良俗に反するサイトのスクレイピングはお断りすることがあります。
※ 情報解析以外を目的とする場合は著作権法違反となるため、お断りすることがあります。
- 業務
- ネットリサーチ・市場調査
基本料金
ベーシック
スタンダード
プレミアム
実績・評価
51 件
満足
0
残念
相談無料!お好きなWEBサイトからのデータ収集ツールを作成します
2024年5月3日購入したパッケージ
こちらの要望通りのものを作成していただけました。
連絡も頻繁にいただき、非常に満足のいくものでした。
また依頼させていただきます!
出品者
迅速かつ丁寧に対応いたします。
-
51 件 満足0 残念
- 認定ランサー
- 個人
- 山形県
Python・Excelと様々なものを組み合わせて、アプリケーション・ツールを作成するのが得意です。
もしご興味を持っていただけましたら、メッセージでお気軽にお問い合わせください。
ご相談には迅速に対応いたします。
特に初めての方は、実現可能かどうか不安な場合が多いと思いますが、まずはご連絡ください。丁寧に聞き取りを行い、お客様のご要望をかなえる具体的な形を提案いたします。
【Python】
・Beautifulsoupを使ったスクレイピング
・Seleniumを使ったスクレイピング
・メールの内容の自動読み取り/自動送信
・Slackを使った操作・監視(Bolt , Slack_SDK)
・APIを使った連携
> chatGPT API
・langchains、assistants API
・シンプルなChatbot
> Google Maps API / Yahoo! API
・GISの知識があります
・Pythonでシェープデータを扱えます。(Geopandas)
・緯度経度のほか、様々な座標系の知識があります。
・GMPの主なAPIが使えます。
> Google Cloud API
・Google Search API
・Google SheetsAPI などの様々なAPIが使えます
・OpenCVを使った画像加工・画像認識
・SQL(SQLite、PostgteSQL)へのデータ保存、読み出し
・matplotlibを使ったグラフ作成
【Excel + VBA】
・ブック、ワークシートの作成、修正
・VBAを使ったプログラミング
・簡単なAPIからのデータ取り込み
・Pythonとの連携(openpyxl)
【Linux】
レンタルサーバ、VPS、AWS、GCPなどのLinuxのインストール・設定ができます。
Linuxサーバ上でのPythonスクリプトの実行、cronへの登録などができます。
【資格】
・基本情報技術者 ・応用情報技術者 ・G検定
・情報処理安全確保支援士試験合格
・PAIZAプログラミングスキル ランクS
注文時のお願い
・サイトURL
・収集したいデータ項目
・希望納品日
※ 定時クローリングを希望の方はその旨をご相談ください。
-
10,000円
シンプルなWEBサイトからのデータ収集 (こちらは目安ですので、詳しくは本文をご覧ください。)
納期 3日 -
20,000円
標準的なWEBサイトからの大量のスクレイピング (こちらは目安ですので、詳しくは本文をご覧ください)
納期 4日 -
30,000円
複雑な仕様のWEBサイトからのより大量のスクレイピング (こちらは目安ですので、詳しくは本文をご覧ください)
納期 7日