花费 34ms 找到23条记录
1 Hbase备份和还原
2018年07月02 - hbase表备份 /data/soft/hbase/bin/hbase org.apache.hadoop.hbase.mapreduce.Export itdaan:org file:///data1/hbase/org/ hbase表还原 /data/soft/hbase/bin/hba
2 机器学习算法之聚类算法Kmeans并找出最佳K值的Python实践
2018年03月02 - Kmeans聚类算法的大概流程是:①从样本中随机找出K个样本作为中心点; ②求所有样本到这些样本的距离,按照最短的进行归类; ③求每个聚类中的样本的元素的平均值,作为新的中心点; ④继续②,③,知道所有样本再也无法找到新的聚类,就算完成。 ### 一、接下来使用Numpy实现python代码,测试
3 爬取天眼查企业信息表存储
2018年06月07 - ###创建hbase表结构 ```sql create 'itdaan:org',{NAME=>'a',VERSIONS=>1},{NAME=>'b',VERSIONS=>1},{SPLITS=>['01','02','03','04','05','06','07','08','09','0a','
4 使用Hive中的UDAF实现GROUP_CONCAT函数合并ARRAY数组类型
2018年04月04 - 我们知道Hive提供了聚合连接函数concat_ws,该函数无法连接ARRAY类型。所有,在实际的开发过程中有可能需要聚合连接ARRAY类型。比如说,同一个用户的标签进行group by后,进行连接,并去重。 所以,借助于Hive的UDAF函数,我们实现类似的临时函数功能。 废话不多说,直接
5 Java,Python,Scala三种语言开发并部署Spark的WordCount程序
2018年02月24 - # Java,Python,Scala三种语言开发并部署Spark的WordCount程序 一、Java开发并部署Spark的wordcount Java实现WordCount程序: ```java package com.spark.wordcount; import java.util.
6 Hadoop安装snappy支持
2018年05月30 - # Hadoop安装snappy支持 ​ 由于snappy协议的问题,hadoop的官方发布包不带snappy支持库,我们需要通过源码编译安装生成本地库来获取snappy特性。本文档描述了Hadoop集群源码编译安装snappy本地库、Hadoop集群如何使用snappy压缩以及总体效果测试情况。
7 数据库表设计和存储(包括hbase,solr等)
2018年03月13 - ### 一、Hbase内容主表结构和操作 #### 1.1 hbase表[post]创建代码 ```mysql create 'itdaan:post',{NAME=>'a',VERSIONS=>1},{NAME=>'b',VERSIONS=>1},{SPLITS=>['01','02','03'
8 Hive使用UDAF自定义聚合函数
2018年02月28 - 在使用Hive进行数据处理时,经常会用到group by语法,但对分组的合并操作,hive没有MySQL支持得好: group_concat([DISTINCT] 要连接的字段 Order BY ASC/DESC 排序字段 Separator '分隔符' hive只有一个collect_set内置
9 hive查看表的分区信息
2018年06月01 - show partitions table_name ;//查看表的所有分区 desc table_name partition(log_date=20180212); desc extended table_name partition(log_date=20180512);//查看某个分区的详
10 Spark Standalone Cluster模式安装和配置
2018年03月02 - ### 1、手动启动一个spark集群 启动standalone的master节点 ```shell ./sbin/start-master.sh ``` 一旦启动后,master会打印一个spark的地址,例如:spark://HOST:PORT。这个地址可以作为SparkContext的m

 
© 2014-2018 ITdaan.com 粤ICP备14056181号