javax.imageio.IIOException: Can't create output stream!的解决方案

javax.imageio.IIOException: Can't create output stream!


解决方法:

1.ImageIO.write(image, "jpeg", response.getOutputStream());
修改为
JPEGImageEncoder encoder = JPEGCodec.createJPEGEncoder(response.getOutputStream());
encoder.encode(image);
就可以了。


2.为什么以前好的呢,后来查了下

I was experiencing the same "Can't create cache file" problem when using ImageIO.read() in a servlet context on Solaris UNIX. When running locally (using Tomcat) on a Win2K system, there were no problems. It seems that with the Win2K installation, the "temp" directory is automatically made. With the Solaris installation, the "temp" is not made! Simply adding the directory cured the caching problems.
So, if you have built the Tomcat be sure that the "temp" directory is created in the Tomcat root. Please let us know if it does not solves the problem.
added the temp directory, and gave "modify" permissions to the user that our Track+ is running as. Charts are now working fine.(添加temp文件夹到tomcat根目录就OK了)


转自:http://xujunxiong.iteye.com/blog/2228702

2019-03-20 11:21

知识点

相关教程

更多

Hadoop无法处理中文问题解决方案

由于Hadoop默认编码为UTF-8,并且将UTF-8进行了硬编码,所以我们在处理中文时需要重写OutputFormat类。方法为: 1、新建类GBKFileOutputFormat,代码如下: import java.io.DataOutputStream;  import java.io.IOException;  import java.io.UnsupportedEncodingExcep

Hadoop专业解决方案-第13章 Hadoop的发展趋势

一、前言:   非常感谢Hadoop专业解决方案群:313702010,兄弟们的大力支持,在此说一声辛苦了,经过两周的努力,已经有啦初步的成果,目前第13章 Hadoop的发展趋势小组已经翻译完成,在此对:hbase-深圳-18361、旅人AQUARION表示感谢。 二、意见征集:   本章节由《Hadoop专业解决方案群:313702010》翻译小组完成,为小组校验稿,已经通过小组内部校验通过,

C程序访问Hadoop运行时遇到的各种问题以及解决方案

C程序访问Hadoop运行时遇到的各种问题以及解决方案 问题1:当编译通过后,运行时,会出现: hadoop@springwater-Aspire-4743:/usr/local/hadoop/test$ ./test Exception in thread "main" java.io.IOException: Mkdirs failed to create /my at o

Create a Bootable MicroSD Card

http://gumstix.org/create-a-bootable-microsd-card.html                      Create a Bootable MicroSD Card      Beginners       Note: The following instructions are intended for experienced Gumstix us

研磨设计模式之简单工厂模式(解决方案)

简单工厂来解决问题 用来解决上述问题的一个合理的解决方案就是简单工厂,那么什么是简单工厂呢?简单工厂定义...

Java访问Hadoop编译和运行遇到的各类问题和解决方案

Java访问Hadoop编译和运行遇到的各类问题和解决方案: 问题1: 在javac编译时,老是缺少依赖的类, 解决方案: 所以我之后写了一个脚本,将所有的.jar文件都加载到CLASSPATH变量中,就ok了。 问题2: 而实际操作中出现文件操作的权限不足。因为用hadoop shell放进去的默认权限是rw-r--r--,所以作为程序对象就没有操作权限。 解决方案: java之之前加上sudo

在solr4.x上使用IK分词设置useSmart没有效果的解决方案

大家知道由于lucene和solr在最新版本在分词方面改动比较大,在solr4.x上使用IK分词,并且设置粗细力度,安装官方的说法是这样设置的: 结果发现建索引和查询时候的分词力度是一样的,默认是安装细力度分词,解决方案如下: package org.apache.solr.analysis; import java.io.Reader; import java.util.Map; import

Cannot expose request attribute 'website' because of an existing model object of the same name 的解决方案

在使用springmvc+freemarker,有可能你会遇到以下异常(如:资源找不到重定向到404的请求时):javax.servlet.ServletException: Cannot expose request attribute 'website' because of an existing model object of the same name,看一下源码,可以发现如果exposeRequestAttributes设为true,model中已经存在该key,且allowReque...

dubbo-admin部署在jdk 1.8上出错的解决方案

如果你把dubbo-admin部署在jdk 1.8上,会出现以下错误:  ERROR context.ContextLoader - Context initialization failed  org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'uriBrokerServi

基于Lucene/XML的站内全文检索解决方案:WebLucene 【转】

原文地址:http://www.chedong.com/tech/weblucene.html    内容摘要: 为Lucene做一个通用XML接口一直是我最大的心愿:更方便的在WEB应用中嵌入全文检索功能,2004年时类似应用还很不成熟,但现在也许应该优先试试以Lucene为核心的Solr全文应用引擎;    提供了XML的数据输入接口:适合将原有基于各种数据库的数据源导入到全文索引中,保证了数

SSDB 常见问题解决方案


                            

关于如何参与到开源项目中《How To Succeed In Open Source ( In Ways You Haven't Considered Yet )》

转自:http://gaslight.co/blog/how-to-succeed-in-open-source-in-ways-you-havent-considered-yet It’s Easy to Feel Entitled in the Open Source World  A while back, it was easy to think of open source projec

spring不支持泛型的注入的解决方案-java cms开发四

spring 4才支持泛型的依懒注入,领悟书生用的是spring 3,解决srping 3的泛型注入解决方案如下: 修改com._656463.core.service.BaseService类为抽象类,并添加抽象方法getDao,每个继承于BaseService的类都实现该方法,这样就可以在BaseService获取到具体的DAO对象了,代码如下: public abstrac

gui求jtapi高手T_T

小弟今年刚毕业,上了一个星期班,老大要我用jtapi写一个监控程序,弄了两天了,头很大啊。  有一部座机拨打46001总机,然后按5就会自动转接到46105  46105会自动分配客户坐席,现在就是要我监控经过46105Address分配的所有座机的情况。  就用jtapi,java要怎么写?T_T  那位qian辈指教下qq1024700963

Hadoop源码分析HDFS ClientProtocol——create

ClientProtocol负责完成HDFS Client与NameNode之间的交互。本文主要分析一下create方法的具体实现。Create方法在namespace中创建一条entry,实际就是在命名空间中创建一个文件。该方法在命名空间中创建的文件是一个空文件,并且,一旦创建完成,该文件对于其他客户端就是可见的和可用的(visible and available)。 首先让我们思考一下,根据我

最新教程

更多

java线程状态详解(6种)

java线程类为:java.lang.Thread,其实现java.lang.Runnable接口。 线程在运行过程中有6种状态,分别如下: NEW:初始状态,线程被构建,但是还没有调用start()方法 RUNNABLE:运行状态,Java线程将操作系统中的就绪和运行两种状态统称为“运行状态” BLOCK:阻塞状态,表示线程阻塞

redis从库只读设置-redis集群管理

默认情况下redis数据库充当slave角色时是只读的不能进行写操作,如果写入,会提示以下错误:READONLY You can't write against a read only slave.  127.0.0.1:6382> set k3 111  (error) READONLY You can't write against a read only slave. 如果你要开启从库

Netty环境配置

netty是一个java事件驱动的网络通信框架,也就是一个jar包,只要在项目里引用即可。

Netty基于流的传输处理

​在TCP/IP的基于流的传输中,接收的数据被存储到套接字接收缓冲器中。不幸的是,基于流的传输的缓冲器不是分组的队列,而是字节的队列。 这意味着,即使将两个消息作为两个独立的数据包发送,操作系统也不会将它们视为两个消息,而只是一组字节(有点悲剧)。 因此,不能保证读的是您在远程定入的行数据

Netty入门实例-使用POJO代替ByteBuf

使用TIME协议的客户端和服务器示例,让它们使用POJO来代替原来的ByteBuf。

Netty入门实例-时间服务器

Netty中服务器和客户端之间最大的和唯一的区别是使用了不同的Bootstrap和Channel实现

Netty入门实例-编写服务器端程序

channelRead()处理程序方法实现如下

Netty开发环境配置

最新版本的Netty 4.x和JDK 1.6及更高版本

电商平台数据库设计

电商平台数据库表设计:商品分类表、商品信息表、品牌表、商品属性表、商品属性扩展表、规格表、规格扩展表

HttpClient 上传文件

我们使用MultipartEntityBuilder创建一个HttpEntity。 当创建构建器时,添加一个二进制体 - 包含将要上传的文件以及一个文本正文。 接下来,使用RequestBuilder创建一个HTTP请求,并分配先前创建的HttpEntity。

MongoDB常用命令

查看当前使用的数据库    > db    test  切换数据库   > use foobar    switched to db foobar  插入文档    > post={"title":"领悟书生","content":"这是一个分享教程的网站","date":new

快速了解MongoDB【基本概念与体系结构】

什么是MongoDB MongoDB is a general purpose, document-based, distributed database built for modern application developers and for the cloud era. MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。

windows系统安装MongoDB

安装 下载MongoDB的安装包:mongodb-win32-x86_64-2008plus-ssl-3.2.10-signed.msi,按照提示步骤安装即可。 安装完成后,软件会安装在C:\Program Files\MongoDB 目录中 我们要启动的服务程序就是C:\Program Files\MongoDB\Server\3.2\bin目录下的mongod.exe,为了方便我们每次启动,我

Spring boot整合MyBatis-Plus 之二:增删改查

基于上一篇springboot整合MyBatis-Plus之后,实现简单的增删改查 创建实体类 添加表注解TableName和主键注解TableId import com.baomidou.mybatisplus.annotations.TableId;
import com.baomidou.mybatisplus.annotations.TableName;
import com.baom

分布式ID生成器【snowflake雪花算法】

基于snowflake雪花算法分布式ID生成器 snowflake雪花算法分布式ID生成器几大特点: 41bit的时间戳可以支持该算法使用到2082年 10bit的工作机器id可以支持1024台机器 序列号支持1毫秒产生4096个自增序列id 整体上按照时间自增排序 整个分布式系统内不会产生ID碰撞 每秒能够产生26万ID左右 Twitter的 Snowflake分布式ID生成器的JAVA实现方案