hadoop
-
学完了Hadoop,我总结了这些重点
文章目录 一、Hadoop 组成 Hadoop1.x 、2.x 、3.x 的区别 HDFS架构概述 MapReduce架构概述 YARN架构概述 二、常用端口号 三、常用的配置文件…
-
二百零九、Hive——with嵌套语句报错:hadoop.hive.ql.parse.SemanticException: Line 2:5 Ambiguous table alias ‘t2‘
一、目的 在Hive的with嵌套语句时,HQL报错Line 2:5 Ambiguous table alias ‘t2’ 二、报错详情 org.apach…
-
大数据开发之Hadoop(完整版+练习)
第 1 章:Hadoop概述 1.1 Hadoop是什么 1、Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 2、主要解决,海量数据的存储和海量数据的分析计算问…
-
HDFS的基本操作(创建目录或文件、查看目录或文件、上传和拷贝文件到HDFS上、追加数据到HDFS上、从HDFS上下载文件到Linux本地、合并HDFS文件)
文章目录 前言 一、HDFS的相关命令 1、在HDFS创建目录 2、查看当前目录 3、查看目录与子目录 4、查看文件的内容 5、创建文件 6、上传和拷贝文件 7、追加数据到HDFS…
-
Hadoop 简介
一、Hadoop 是什么 Hadoop 是一个提供分布式存储和计算的开源软件框架,它具有无共享、高可用(HA)、弹性可扩展的特点,非常适合处理海量数量。 Hadoop 是一个开源软…
-
CDH大数据平台 28Cloudera Manager Console之superset相关包安装(markdown新版二)
?个人主页:@与自己作战 ?作者简介:CSDN@博客专家、CSDN@大数据领域优质创作者、CSDN@内容合伙人、阿里云@专家博主 ?希望大佬们多多支持,携手共进 ? 如果文章对你有…
-
基于Hadoop的MapReduce网站日志大数据分析(含预处理MapReduce程序、hdfs、flume、sqoop、hive、mysql、hbase组件、echarts)
需要本项目的可以私信博主!!! 本项目包含:PPT,可视化代码,项目源码,配套Hadoop环境(解压可视化),shell脚本,MapReduce代码,文档以及相关说明教程,大数据集…
-
【hive】时间相关函数的使用(时间戳函数unix
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 一、时间戳函数 1、unix_timestamp() 2、from_unixtime() 3、unix_…
-
【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办
执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点…
-
hadoop win11安装hadoop环境 winutils.exe获取,windows安装大数据运行环境 winutils文件获取,winutils文件 hadoop(十四)
注:有些win环境的大数据dll文件,winutils.exe需要积分下载,我没有积分,提供一份github链接 每个版本基本都有,挺全。 1. github地址: GitHub …
-
hadoop-hdfs简介及常用命令详解(超详细)
文章目录 前言 一、HDFS概述 1. HDFS简介 2. HDFS架构 3. HDFS文件操作 二、HDFS命令介绍 1. hdfs命令简介 2. HDFS命令的基本语法 3. …
-
【项目实战】在win10上安装配置Hadoop的环境变量
一、说明 注意:该教程适用于:远程连接Linux上的Hadoop集群,因此本步骤是不需要在本地再下载hadoop的 在win10操作系统上,运行Hadoop以及其相关依赖包(比如H…
-
VMware创建Linux虚拟机之(三)Hadoop安装与配置及搭建集群
Hello,world! 🐒本篇博客使用到的工具有:VMware16 ,Xftp7 若不熟悉操作命令,推荐使用带GUI页面的CentOS7虚拟机 我将使用带GU…
-
Hive内容分享(十五):Hive面试题分享
1、下述SQL在Hive、SparkSql两种引擎中,执行流程分别是什么,区别是什么 Hive on Mapreduce hive的特性: hive是基于Hadoop的一个数据仓库…
-
【Hadoop】高可用集群搭建
知识目录 一、写在前面💕 二、Zookeeper安装✨ 三、Hadoop配置✨ 四、Hadoop HA自动模式✨ 五、HA脚本分享✨ 七、结语💕 一…
