您的位置:

java爬取新浪趣图,java爬图片

本文目录一览:

java截取图片

呵呵,很明确的告诉你:可以!

代码半小时后出来!!!

……

终于出来了(呵呵,好像超过了半小时哈)且看代码:

import java.awt.Color;

import java.awt.Graphics;

import java.awt.image.BufferedImage;

import java.io.File;

import java.io.IOException;

import javax.imageio.ImageIO;

import javax.swing.JApplet;

public class Test extends JApplet{

String addrs="F:\\images\\mm.bmp";//改成自己的图片路径

BufferedImage mm,child;

CutImage ci;

public Test(){

try {

mm=ImageIO.read(new File(addrs));

} catch (IOException e) {

System.out.println("图片读取失败!");

e.printStackTrace();

}

ci=new CutImage(mm);

child=ci.getChildImage(50, 0, 150, 220);

}

public void init(){

}

public void paint(Graphics g){

g.setColor(Color.red);

g.drawString("原图:",0,10);

g.drawImage(mm, 20,10,this);

g.drawString("ci.getChildImage(50, 0, 150, 220)截取后的图片",mm.getWidth()+30,10);

g.drawImage(child, mm.getWidth()+50,20,this);

}

}

import java.awt.Image;

import java.awt.image.BufferedImage;

public class CutImage {

private BufferedImage img;

private BufferedImage child;

public CutImage(){

}

public CutImage(BufferedImage im){

img=im;

}

public CutImage(Image im){

img=(BufferedImage)im;

}

public void setImg(BufferedImage img) {

this.img = img;

}

public BufferedImage getChildImage(int x,int y,int width,int height) {

int cw=width;

int ch=height;

int pw=img.getWidth();

int ph=img.getHeight();

if(pwx+width){

System.out.println("给出的参数超出原图片的范围!程序会自动减小宽度或高度");

cw=pw-x;

}

if(phy+height){

System.out.println("给出的参数超出原图片的范围!程序会自动减小宽度或高度");

ch=ph-y;

}

child=new BufferedImage(cw,ch,BufferedImage.TYPE_INT_ARGB );

for(int i=0;ich;i++){

for(int j=0;jcw;j++){

child.setRGB(j, i, img.getRGB(x+j, y+i));

}

}

return child;

}

}

呵呵,希望楼主能够满意哦,如果你愿意的话,稍微改一下代码就可以把截取的图片child报春到你的电脑上了。下面程序的运行效果吧!

java 访问url获取图片

private static final String imgDir="C:/Program Files/Tencent/TM2009/Users/273367058/FileRecv";//这里填上图片目录全名就行了

static{

try{

File dir = new File(imgDir);

File[] imgFiles = dir.listFiles(new FilenameFilter(){

public boolean accept(File dir, String name) {

return name.toLowerCase().endsWith(".jpg");

}

});

java怎么用webcollector爬取js动态页面工程

使用WebCollector来爬取百度搜索引擎按照关键字搜索的结果页面,解析规则可能会随百度搜索的改版而失效。

* 我们希望继续爬取每条搜索结果指向的网页,这里统称为外链。

* 我们希望在访问外链时仍然能够知道外链处于搜索引擎的第几页、第几条,

* 所以将页号和排序信息放入后续的CrawlDatum中,为了能够区分外链和

* 搜索引擎结果页面,我们将其pageType设置为outlink,这里的值完全由 用户定义,可以设置一个任意的值

* 在经典爬虫中,每个网页都有一个refer信息,表示当前网页的链接来源。

* 例如我们首先访问新浪首页,然后从新浪首页中解析出了新的新闻链接,

* 则这些网页的refer值都是新浪首页。WebCollector不直接保存refer值,

* 但我们可以通过下面的方式,将refer信息保存在metaData中,达到同样的效果。

* 经典爬虫中锚文本的存储也可以通过下面方式实现。

* 在一些需求中,希望得到当前页面在遍历树中的深度,利用metaData很容易实现

* 这个功能,在将CrawlDatum添加到next中时,将其depth设置为当前访问页面 的depth+1即可。