>>21
これが目的ならPythonかRubyでよい。
ウェブサイトから情報を抽出する事をスクレイピングというが、
スクレイピングライブラリでウェブの操作もできる。
「Python スクレイピング」でググれ。

>>28
プログラミング言語はPythonを勧める。
Pythonの方が文法が小さいので覚える事が少ない。
Pythonは誰が書いても似たコードになるので他人のコードを読みやすい。
Pythonの方がユーザー数が多いためライブラリが豊富だ。
だから非プログラマーの学術論文でもPythonが使われる。
一方Rubyは同じ事をする方法がいくつもあるのでプログラミングが楽しい。
プログラミング自体が目的でなければRubyから入るのは遠回りだ。

データサイエンスにおけるRubyの現在の位置づけと可能性
http://www.s-itoc.jp/report/reaserch_results/439
この記事はRubyがPythonにある分野のライブラリの豊富さで
完全に負けている事を示しているが多くの分野で似た状況だ。

Python環境はJupyter Notebookを勧める。
コード修正→実行→結果記録→コード修正、の試行錯誤がとてもやりやすい。
本格的なアプリケーションを作るための開発環境はPycharmが最有力だが、
Python学習とPythonで試行錯誤ならJupyter Notebookが圧勝だ。

データサイエンティストを目指す人のpython環境構築 2016
http://qiita.com/y__sama/items/5b62d31cb7e6ed50f02c
この記事の方法でPython環境を作れ。
PythonもJupyter Notebookも必要なライブラリもAnacondaで入れろ。
この環境が初心者が>>21の近くまで行ける高速道路だ。