Apache Hadoop未指明用户模拟漏洞

发布日期:2012-04-09
更新日期:2012-04-12

受影响系统:
Apache Group Hadoop 1.0.1
Apache Group Hadoop 1.0
Apache Group Hadoop 0.23.1
Apache Group Hadoop 0.23
Apache Group Hadoop 0.20.205 0
Apache Group Hadoop 0.20.204 0
Apache Group Hadoop 0.20.203 0
不受影响系统:
Apache Group Hadoop 1.0.2
描述:
--------------------------------------------------------------------------------
BUGTRAQ  ID: 52939
CVE ID: CVE-2012-1574

Hadoop是Apache软件基金会所研发的开放源码并行运算编程工具和分散式档案系统。

Apache Hadoop在实现上存在安全漏洞,攻击者可利用此漏洞模拟任意用户并执行非法操作。

<*来源:Aaron T. Myers
 
  链接:http://seclists.org/fulldisclosure/2012/Apr/70
*>

建议:
--------------------------------------------------------------------------------
厂商补丁:

Apache Group
------------
目前厂商已经发布了升级补丁以修复这个安全问题,请到厂商的主页下载:

http://httpd.apache.org/

更多Hadoop相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

2019-03-28 13:50

知识点

相关教程

更多

Apache POI的使用

              Apache POI Apache POI是Apache软件基金会的开放源码函式库,POI提供API给Java程序对Microsoft Office格式档案读和写的功能。 结构: HSSF - 提供读写Microsoft Excel格式档案的功能。 XSSF - 提供读写Microsoft Excel OOXML格式档案的功能。 HWPF - 提供读写Microsoft

Apache Nutch(一)

Nutch 当前两个版本 :   1.6 - Nutch1.6使用Hadoop Distributed File System (HDFS)来作为存储,稳定可靠。 2.1 - 通过gora对存储层进行了扩展,可以选择使用HBase、Accumulo、Cassandra 、MySQL 、DataFileAvroStore、AvroStore中任何一种来存储数据,但其中一些并不成熟。   在Linux

使用Apache Ambari管理Hadoop

随着Hadoop越来越普及,对合适的管理平台的需求成为当前亟待解决的问题。已经有几个商业性的Hadoop管理平台,如Cloudera Enterprise Manager,但Apache Ambari是第一个开源实现。Apache Ambari是一种基于Web的工具,支持Apache Hadoop集群的供应、管理和监控。Ambari目前已支持大多数Hadoop组件,包括HDFS、MapReduce

实践:使用 Apache Hadoop 处理日志

简介: 日志是任何计算系统中一个必不可少的部分,支持从审计到错误管理等功能。随着日志的发展和日志来源数量的不断增加(比如在云环境中),有必要提供一个可扩展的系统来高效处理日志。这篇实践将探讨如何在典型 Linux 系统上使用 Apache Hadoop 来处理日志。 日志形态千差万别,但随着应用程序和基础架构的发展,结果产生了大量对用户有用的分布式数据。从 Web 和邮件服务器到内核和引导日志,许

Apache Hadoop初体验

Apache   Hadoop已经正式发布1.0.0正式版本,顺应云计算的大潮也去体验了以下,大概应该东西比较新,网上资料也比较少,东搜西凑加上apache的官方文档,终于2天搞定,心情愉悦,下面就把大概的过程详细描述下,以帮助想学习hadoop的同学们简单上手。    我选择了amazon ec2作为了体验平台,总体来讲对于免费一年的试用产品来说真的很好用~账户注册和使用方面的就不在这里说了,网

Apache Hadoop 2.0.3 发布

Apache Hadoop 2.0.3发布了,在这次版本更新中,主要增加了以下几个特性:  1. 引入一种新的HDFS HA解决方案QJM  之前NameNode HA已经有两种解决方案,分别是基于共享存储区的Backup Node方案和基于Bookeeper的方案,在该版本中引入另外一种方案:QJM(Quorum Journal Manager)。  该方案(HDFS-3077) 采用了quor

Apache Zookeeper入门1

作者: H.E. | 您可以转载, 但必须以超链接形式标明文章原始出处和作者信息及版权声明 网址:http://www.javabloger.com/article/apache-zookeeper-hadoop.html    口水:Zookeeper是我目前接触过Apache开源系统中比较复杂的一个产品,要搞清楚这个东东里面的运作关系还真不是一时半会可以搞定的事,本人目前只略知皮毛之术。 Zo

Apache Solr 介绍

导言    说起Apache Lucene,可以说无人不知,无人不晓,但是说道Apache Solr,恐怕知道的不多。看看Apache Solr的说明:    Solr是一个基于Lucene java库的企业级搜索服务器,包含XML/HTTP,JSON API, 高亮查询结果,faceted search(不知道该如何翻译,片段式搜索),缓存,复制还有一个WEB管理界面。Solr运行在Servle

Apache Solr 介绍(1)

导言      说起Apache Lucene,可以说无人不知,无人不晓,但是说道Apache Solr,恐怕知道的不多。看看Apache Solr的说明:     Solr是一个基于Lucene java库的企业级搜索服务器,包含XML/HTTP,JSON API, 高亮查询结果,faceted search(不知道该如何翻译,片段式搜索),缓存,复制还有一个WEB管理界面。Solr运行在Ser

Apache zookeeper 基本概念

Apache zookeeper 是什么    当使用Hadoop Cloud时我们看到了zookeeper,当使用Solr Cloud时我们再次看到了zookeeper,zookeeper为神马一次又一次地与云接下了不解之缘?其实我们每个人对云(Cloud)的概念学习从幼儿园就开始了,先学习一首儿歌《蚂蚁搬豆》,歌词如下: 一只蚂蚁在洞口  找到一粒豆  用尽力气搬不动,只是连摇头  左思右想好

如何监控 Apache Solr ?

一致以来,很多朋友谈到,建立好Solr (大大有名的全文检索开源软件,apache 基金会支持),在运营时应该准备怎样的硬件环境? 随着索引数据量的增加,要想稳定运行,就需要7X24小时监控,了解各项资源的使用情况,用户的请求情况等。 最近,使用Hyperic HQ(也是一个有名的开源软件,VMWare支持)技术开发一个插件, Hyperic HQ Solr Plugin.具体可访问http://

Apache Solr 扩展

Solr的扩展(Scaling)  当你的索引数量越来越大,你会发现你的搜索响应时间变得更慢,索引新内容的时间也会越来越长,那么,到了做出一些改变的时候了,幸运的是,solr很好的考虑到了这些情况,你只需要改变你的配置就可以了。 以下将从三个方面讲述solr的scaling: l调优某个Solr服务器(Scale High) 通过缓存和内存管理优化某个单实例的Solr。将Solr部署到一个拥有快速

使用 Apache Solr 实现更加灵巧的搜索

Solr 是一种可供企业使用的、基于 Lucene 的搜索服务器,它支持层面搜索、命中醒目显示和多种输出格式。在这篇分两部分的文章中,Lucene Java™ 的提交人 Grant Ingersoll 将介绍 Solr 并向您展示如何轻松地将其表现优异的全文本搜索功能加入到 Web 应用程序中。  一旦用户需要某种信息,就可以立即搜索到这些信息,这种要求再也不是可有可无的了。随着 Google 和

Apache Solr 的新特性

首先,我将简单复习一下 Solr,然后介绍如何获取和安装最新版本的 Solr 以及升级早期版本的要点。接着,我会介绍 Solr 1.3 的一些重要的增强功能,最后再看一下 Solr 的新特性。 复习:Solr 概念 从概念上,Solr 可以被分成四大块:        模式(schema.xml)  配置(solrconfig.xml)  索引  搜索    要理解模式,需要先理解 Lucene

Apache Flume 简介

转自:http://blog.163.com/guaiguai_family/blog/static/20078414520138100562883/ Flume 是 Cloudera 公司开源出来的一套日志收集系统,早期版本依赖 ZooKeeper,现在的 FumeNG 去掉了这个依赖,我没用过之前的版本,想来失去整个日志收集系统的全局视图是挺可惜的,但 FlumeNG 上手以及使用挺简单,搭配

最新教程

更多

java线程状态详解(6种)

java线程类为:java.lang.Thread,其实现java.lang.Runnable接口。 线程在运行过程中有6种状态,分别如下: NEW:初始状态,线程被构建,但是还没有调用start()方法 RUNNABLE:运行状态,Java线程将操作系统中的就绪和运行两种状态统称为“运行状态” BLOCK:阻塞状态,表示线程阻塞

redis从库只读设置-redis集群管理

默认情况下redis数据库充当slave角色时是只读的不能进行写操作,如果写入,会提示以下错误:READONLY You can't write against a read only slave.  127.0.0.1:6382> set k3 111  (error) READONLY You can't write against a read only slave. 如果你要开启从库

Netty环境配置

netty是一个java事件驱动的网络通信框架,也就是一个jar包,只要在项目里引用即可。

Netty基于流的传输处理

​在TCP/IP的基于流的传输中,接收的数据被存储到套接字接收缓冲器中。不幸的是,基于流的传输的缓冲器不是分组的队列,而是字节的队列。 这意味着,即使将两个消息作为两个独立的数据包发送,操作系统也不会将它们视为两个消息,而只是一组字节(有点悲剧)。 因此,不能保证读的是您在远程定入的行数据

Netty入门实例-使用POJO代替ByteBuf

使用TIME协议的客户端和服务器示例,让它们使用POJO来代替原来的ByteBuf。

Netty入门实例-时间服务器

Netty中服务器和客户端之间最大的和唯一的区别是使用了不同的Bootstrap和Channel实现

Netty入门实例-编写服务器端程序

channelRead()处理程序方法实现如下

Netty开发环境配置

最新版本的Netty 4.x和JDK 1.6及更高版本

电商平台数据库设计

电商平台数据库表设计:商品分类表、商品信息表、品牌表、商品属性表、商品属性扩展表、规格表、规格扩展表

HttpClient 上传文件

我们使用MultipartEntityBuilder创建一个HttpEntity。 当创建构建器时,添加一个二进制体 - 包含将要上传的文件以及一个文本正文。 接下来,使用RequestBuilder创建一个HTTP请求,并分配先前创建的HttpEntity。

MongoDB常用命令

查看当前使用的数据库    > db    test  切换数据库   > use foobar    switched to db foobar  插入文档    > post={"title":"领悟书生","content":"这是一个分享教程的网站","date":new

快速了解MongoDB【基本概念与体系结构】

什么是MongoDB MongoDB is a general purpose, document-based, distributed database built for modern application developers and for the cloud era. MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。

windows系统安装MongoDB

安装 下载MongoDB的安装包:mongodb-win32-x86_64-2008plus-ssl-3.2.10-signed.msi,按照提示步骤安装即可。 安装完成后,软件会安装在C:\Program Files\MongoDB 目录中 我们要启动的服务程序就是C:\Program Files\MongoDB\Server\3.2\bin目录下的mongod.exe,为了方便我们每次启动,我

Spring boot整合MyBatis-Plus 之二:增删改查

基于上一篇springboot整合MyBatis-Plus之后,实现简单的增删改查 创建实体类 添加表注解TableName和主键注解TableId import com.baomidou.mybatisplus.annotations.TableId;
import com.baomidou.mybatisplus.annotations.TableName;
import com.baom

分布式ID生成器【snowflake雪花算法】

基于snowflake雪花算法分布式ID生成器 snowflake雪花算法分布式ID生成器几大特点: 41bit的时间戳可以支持该算法使用到2082年 10bit的工作机器id可以支持1024台机器 序列号支持1毫秒产生4096个自增序列id 整体上按照时间自增排序 整个分布式系统内不会产生ID碰撞 每秒能够产生26万ID左右 Twitter的 Snowflake分布式ID生成器的JAVA实现方案