1@ page contentType="text/html;charset=gb2312"
1
2
3String sCurrentLine;
4
5String sTotalString;
6
7sCurrentLine="";
8
9sTotalString="";
10
11java.io.InputStream l_urlStream;
12
13java.net.URL l_url = new java.net.URL("http://www.163.net/");
14
15java.net.HttpURLConnection l_connection = (java.net.HttpURLConnection) l_url.openConnection();
16
17l_connection.connect();
18
19l_urlStream = l_connection.getInputStream();
20
21java.io.BufferedReader l_reader = new java.io.BufferedReader(new java.io.InputStreamReader(l_urlStream));
22
23while ((sCurrentLine = l_reader.readLine()) != null)
24
25{
26
27sTotalString+=sCurrentLine;
28
29}
30
31out.println(sTotalString);
32
后记
虽然代码比较简单,但是,我认为根据这个,可以实现“网络爬虫”的功能,比如从页面找href连接,然后再得到那个连接,然后再“抓”,不停止地(当然可以限定层数),这样,可以实现“网页搜索”功能。