hadoop集群搭建操作指南_connect to server: cluster1-hadoop02-tst-daas-deep-csdn博客


本站和网页 https://blog.csdn.net/qq_41819729/article/details/106108392 的作者无关,不对其内容负责。快照谨为网络故障时之索引,不代表被搜索网站的即时页面。

Hadoop集群搭建操作指南_connect to server: cluster1-hadoop02-tst-daas-deep-CSDN博客
Hadoop集群搭建操作指南
最新推荐文章于 2023-07-27 16:42:30 发布
ChanZany 阅读量555 收藏 2 点赞数 3 分类专栏: 大数据 文章标签: hadoop linux java 网络
版权声明:本文为博主原创文章,遵循
CC 4.0 BY-SA
版权协议,转载请附上原文出处链接和本声明。
本文链接:
https://blog.csdn.net/qq_41819729/article/details/106108392
版权
专栏收录该内容
17 篇文章
2 订阅
订阅专栏
文章目录
快速搭建Hadoop集群指南
准备工作
准备一台初始化好的主机
设置静态IP
1. 查看网络IP和网关
2. 配置网络ip地址
3. 配置主机名
查看当前服务器主机名称
修改主机名称
1. 修改linux的主机映射文件(hosts文件)
2. 修改window10的主机映射文件(hosts文件)
4. 关闭防火墙
检查是否成功
克隆虚拟机搭载集群
1. 克隆虚拟机
2. 安装jdk8,hadoop2.7.2 并完成相关配置
2.1 创建sudoer用户
创建atguigu用户
配置atguigu用户具有root权限,在这里需要修改配置文件 /etc/sudoers
2.2 安装具体的软件
2.2.1 安装JDK
2.2.2 安装hadoop
2.3 分布式配置hadoop
2.3.1 同步集群内的机器
2.3.2 集群的配置
1.集群部署规划
2.配置集群
3. 在集群上分发配置好的Hadoop配置文件
2.4 集群单点启动
2.5 群起集群
2.5.1 SSH无密登陆配置
2.5.2 群起集群
(1) 配置slave
(2) 启动HDFS
(3) 启动Yarn
检查启动情况
后话
VMware Workstation 15 中安装虚拟机 ,版本为centos6.8(我搭建的集群为三台,安装一台克隆两台,)简单的使用三个节点作为集群环境: 一个作为 Master 节点,局域网 IP 为 192.168.1.100;另外两个作为 Slave 节点,局域网 IP 为 192.168.1.101和192.168.1.102。
JDK1.8
hadoop2.7.2
在搭建集群之前,需要先准备一台设置了静态网络以及进行了其他配置的主机,方便后面克隆。在这里,我在配置好的主机上加上快照,再通过克隆可以搭建好整个集群。
查看虚拟网络编辑器,如下:
修改ip地址为192.168.1.0,如图所示:
查看网关,如图所示(192.168.1.2):
查看windows环境的中VMnet8网络配置,如图所示:
修改IP地址,如图所示:
命令:
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
#接口名(设备,网卡)
HWADDR=00
0C
2x
6x
0x
xx
#MAC地址
TYPE=Ethernet
#网络类型(通常是Ethemet)
UUID=926a57ba
92c6
4231
bacb
f27e5e6a9f44
#随机id
#系统启动的时候网络接口是否有效(yes/no)
ONBOOT=yes
# IP的配置方法[none|static|bootp|dhcp](引导时不使用协议|静态分配IP|BOOTP协议|DHCP协议)
BOOTPROTO=static
#IP地址
IPADDR=192.168.1.100
#网关
GATEWAY=192.168.1.2
#域名解析器
DNS1=192.168.1.2
IP修改后:
:wq 保存退出
修改了IP地址为静态的192.168.100后,需要通过重启网络服务或重启机器使之生效
执行
service
network restart
如图所示:
如果报错,reboot,重启虚拟机
root@hadoop100 桌面
hostname
如果感觉此主机名不合适,我们可以进行修改。通过编辑/etc/sysconfig/network文件
vi
/etc/sysconfig/network
文件中内容
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME= hadoop100
# 这是我修改后的
打开此文件后,可以看到主机名。修改此主机名为我们想要修改的主机名hadoop100
: wq
保存退出
打开/etc/hosts配置集群中各个机器的主机名和其对应IP地址的映射(配置了之后就可以直接通过主机名来互相通信了)
$ vim /etc/hosts
添加如下内容
192.168.1.100 hadoop100
192.168.1.101 hadoop101
192.168.1.102 hadoop102
192.168.1.103 hadoop103
192.168.1.104 hadoop104
192.168.1.105 hadoop105
192.168.1.106 hadoop106
192.168.1.107 hadoop107
192.168.1.108 hadoop108
重启设备,重启后,查看主机名,已经修改成功
进入C:\Windows\System32\drivers\etc路径
打开hosts文件并添加如下内容(这个映射和前面在linux虚拟机上配置的一定要一致)
查看防火墙状态
root@hadoop100桌面
iptables status
临时关闭防火墙
iptables stop
配置开机启动时关闭防火墙
chkconfig
iptables off
通过如下命令可以查看防火墙在各个运行级别的启动情况,如果都是关闭,就成功了
可以通过ifconfig来查看IP是否配置成功
通过虚拟机ping www.baidu 看看虚拟机能不能通公网
通过虚拟机ping 主机 看看虚拟机能不能Ping通主机
通过主机ping 虚拟机名 看能不能ping 通
1.关闭要被克隆的虚拟机
2.找到克隆选项,如图所示
3.欢迎页面,如图所示
4.克隆虚拟机,如图所示
5.设置创建完整克隆,如图所示
6.设置克隆的虚拟机名称和存储位置,如图所示
7.等待正在克隆
8.点击关闭,完成克隆
9.修改克隆后虚拟机的ip
root@hadoop101 /
$ vim /etc/udev/rules.d/70-persistent-net.rules
进入如下页面,删除eth0该行;将eth1修改为eth0,同时复制物理ip地址,如图所示
10.修改IP地址
$ vim /etc/sysconfig/network-scripts/ifcfg-eth0
(1)把复制的物理ip地址更新
HWADDR=00:0C:2x:6x:0x:xx #MAC地址
(2)修改成你想要的ip
IPADDR=192.168.1.101 #IP地址
11.修改主机名称
vi /etc/sysconfig/network
12.重新启动服务器(reboot)
同样的步骤,我们再克隆一个节点hadoop102,通过
Xshell
来远程连接3台机器
检查各个节点之间能够互相ping通,虚拟机的集群就搭建好了。
在安装配置相关软件之前,我们要先创建用户来方便我们管理这些集群(避免使用root用户误操作导致巨大的错误发生)
因为我是跟着尚硅谷的hadoop教程来搭的集群,所以就直接使用atguigu作为要创建的用户名
useradd
atguigu
通过
id 用户名
可以查看创建的用户
passwd 用户名
指定登陆密码
passwd
/etc/sudoers
修改 /etc/sudoers 文件,找到下面一行(91行),在root下面添加一行,如下所示:
## Allow root to run any commands anywhere
root
ALL=(ALL)
ALL
NOPASSWD:ALL # 配置成采用sudo命令时,不需要输入密码
修改完毕,现在可以用atguigu帐号登录,然后用命令 sudo ,即可获得root权限进行操作.
在安装前,我们先在/opt目录下创建module、software文件夹,方便管理软件和包。
atguigu@hadoop101 opt
sudo
mkdir
module
software
修改module、software文件夹的所有者为atguigu
[atguigu@hadoop101 opt]$ sudo chown atguigu:atguigu module/ software/
[atguigu@hadoop101 opt]$ ll
总用量 8
drwxr-xr-x. 2 atguigu atguigu 4096 1月
17 14:37 module
17 14:38 software
卸载现有JDK
(1)查询是否安装Java软件:
$ rpm -qa
grep
(2)如果安装的版本低于1.7,卸载该JDK:
rpm -e 软件包
(3)查看JDK安装路径:
[atguigu@hadoop101 ~]$ which java
用SecureCRT工具将JDK导入到opt目录下面的software文件夹下面。
在Linux系统下的opt目录中查看软件包是否导入成功
cd
software/
atguigu@hadoop101 software
ls
hadoop-2.7.2.tar.gz
jdk-8u144-linux-x64.tar.gz
解压JDK到/opt/module目录下
tar
-zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/
配置JDK环境变量
(1)先获取JDK路径
atguigu@hadoop101 jdk1.8.0_144
pwd
/opt/module/jdk1.8.0_144
(2)打开/etc/profile文件
/etc/profile
​ 在profile文件末尾添加JDK路径
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin
(3)保存后退出:wq
(4)让修改后的文件生效
source
测试JDK是否安装成功
# java -version
java version
"1.8.0_144"
注意:重启(如果java -version可以用就不用重启)
sync
reboot
用SecureCRT工具将hadoop-2.7.2.tar.gz导入到opt目录下面的software文件夹下面
进入到Hadoop安装包路径下
atguigu@hadoop101 ~
/opt/software/
解压安装文件到/opt/module下面
-zxvf hadoop-2.7.2.tar.gz -C /opt/module/
查看是否解压成功
/opt/module/
hadoop-2.7.2
将Hadoop添加到环境变量
(1)先获取Hadoop安装路径
atguigu@hadoop101 hadoop-2.7.2
/opt/module/hadoop-2.7.2
​ 在profile文件末尾添加HADOOP路径
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
atguigu@ hadoop101 hadoop-2.7.2
测试是否安装成功
$ hadoop version
Hadoop 2.7.2
如果Hadoop命令不能用,就重启
在完成配置之前,我们需要在准备的3台虚拟机上同步hadoop以及jdk的安装和环境变量的设置,这里提供了两种方式
方式1:手动进入hadoop101和hadoop102,然后进行如hadoop100的操作(如上)-解压tar-gz包,编辑环境变量
方式2:利用shell脚本,一键同步所有机器。
进入hadoop100机,在/home/atguigu目录下创建bin目录,并在bin目录下创建xsync文件
atguigu@hadoop100 ~
bin
bin/
atguigu@hadoop100 bin
touch
xsync
文件内容如下:shell脚本如下:
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount
=
if
((
==
))
then
echo
no args
exit
fi
#2 获取文件名称
p1
$1
fname
`
basename
$p1
$fname
#3 获取上级目录到绝对路径
pdir
-P
$(
dirname $p1
$pdir
#4 获取当前用户名称
user
whoami
#5 循环,注意修改100 和 103的区间,根据自己的集群机器名来修改
for
host
100
<
103
++
do
------------------- hadoop
$host
--------------
rsync
-rvl
$user@hadoop
done
修改脚本 xsync 具有执行权限
chmod
777 xsync
调用脚本形式:xsync 文件名称
$ xsync /home/atguigu /bin
# 测试脚本能不能成功运行
如果脚本能成功运行,在各个机器的bin目录下应该都能找到xsync文件
在测试脚本可以成功运行后,我们进入hadoop和jdk的安装目录/opt/module
然后运行脚本,把module目录同步到其他节点机器
atguigu@hadoop100 module
$ xsync hadoop-2.7.2
$ xsync jdk1.8.0_144
同步完成就可以开始各个节点的配置了。
hadoop100
hadoop101
hadoop102
HDFS
NameNode DataNode
DataNode
SecondaryNameNode DataNode
YARN
NodeManager
ResourceManager NodeManager
先进入存放配置文件的目录下
hadoop-2.7.2/etc/hadoop/
(1)核心配置文件
配置core-site.xml
atguigu@hadoop100 hadoop
core-site.xml
​ 在该文件中编写如下配置
<!-- 指定HDFS中NameNode的地址 -->
property
>
name
fs.defaultFS
</
value
hdfs://hadoop100:9000
<!-- 指定Hadoop运行时产生文件的存储目录 -->
hadoop.tmp.dir
/opt/module/hadoop-2.7.2/data/tmp
(2)HDFS配置文件
配置hadoop-env.sh
hadoop-env.sh
export
JAVA_HOME
配置hdfs-site.xml
hdfs-site.xml
在该文件中编写如下配置
dfs.replication
<!-- 指定Hadoop辅助名称节点主机配置 -->
dfs.namenode.secondary.http-address
hadoop102:50090
(3)YARN配置文件
配置yarn-env.sh
atguigu@hadoop102 hadoop
yarn-env.sh
配置yarn-site.xml
yarn-site.xml
在该文件中增加如下配置
<!-- Reducer获取数据的方式 -->
yarn.nodemanager.aux-services
mapreduce_shuffle
<!-- 指定YARN的ResourceManager的地址 -->
yarn.resourcemanager.hostname
(4)MapReduce配置文件
配置mapred-env.sh
mapred-env.sh
配置mapred-site.xml
cp
mapred-site.xml.template mapred-site.xml
mapred-site.xml
<!-- 指定MR运行在Yarn上 -->
mapreduce.framework.name
yarn
利用刚刚写的shell脚本完成分发
$ xsync /opt/module/hadoop-2.7.2/
查看文件分发情况
cat
/opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml
(1)如果集群是
第一次启动
,需要
格式化NameNode
atguigu@hadoop100 hadoop-2.7.2
$ hadoop namenode -format
注意,在后面的每次启动都不要再初始化NameNode了,否则会出现DataNode启动失败,解决的方案是将hadoop安装目录下的
/opt/module/hadoop-2.7.2/data/tmp/dfs
中的data 文件删除,然后重新启动数据节点
(2)在hadoop100上启动NameNode
$ hadoop-daemon.sh start namenode
$ jps
3461 NameNode
(3)在hadoop100、hadoop101以及hadoop102上分别启动DataNode
$ hadoop-daemon.sh start datanode
3608 Jps
3561 DataNode
3190 DataNode
3279 Jps
atguigu@hadoop102 hadoop-2.7.2
3237 Jps
3163 DataNode
(4)在hadoop102上启动secondnamenode
$ hadoop-daemon.sh start secondnamenode
通过浏览器访问
http://hadoop100:50070/dfshealth.html#tab-datanode
可以看到集群中DataNode的情况,如下:
启动成功,至此完成了hadoop集群的搭建和单点启用。
如果每次集群的启动都是单点式,即在每台机器上进行相关的启动操作如
hadoop-daemon.sh start datanode
,会显得很繁琐,所以hadoop官方提供了群起集群的脚本,但是前提是需要配置SSH无密登陆.
(1)免密登录原理,如图所示
(2)生成公钥和私钥:
atguigu@hadoop100 .ssh
$ ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
(3)将公钥拷贝到要免密登录的目标机器上
$ ssh-copy-id hadoop100
$ ssh-copy-id hadoop101
$ ssh-copy-id hadoop102
同样的操作需要在hadoop101和hadoop102上再来以便,保证所有机器互相免密登陆
有一个非常简单的方式来配置无密登陆SSH,直接利用之前编写的xsync将hadoop100上生成的公私钥对以及自己的.ssh/authorized_keys 同步到其他节点即可:
# 跳回到家目录,因为.ssh在家目录下
$ xsync .ssh
附上表 .ssh文件夹下(~/.ssh)的文件功能解释:
known_hosts
记录ssh访问过计算机的公钥(public key)
id_rsa
生成的私钥
id_rsa.pub
生成的公钥
authorized_keys
存放授权过得无密登录服务器公钥
在完成了SSH无密码登陆配置后,还需要配置hadoop安装目录中etc/hadoop/下的slaves,告诉hadoop哪些机器是担当了DataNode的从机器(slave-仆从)
修改salves中的信息为如下(vim slaves):
同步所有节点配置文件
$ xsync slaves
每次改完配置文件都一定要同步!!!血泪教训
然后在
配置了NameNode的节点上
启动HDFS,我的NameNode是配置在hadoop100上的,所以执行如下shell
$ start-dfs.sh
再然后在配置了ResourceManager的节点上
启动YARN,我是ResourceManager配置在hadoop101上。执行如下命令
atguigu@hadoop101 hadoop
$ start-yarn.sh
通过访问
http://hadoop100:50070/
检查一下hdfs是否成功启用(hadoop100是hdfs的NameNode,所以ip地址是hadoop100)
http://hadoop101:8088/
检查Yarn(ResouceManager是部署在hadoop101的,所以IP地址是hadoop101)
再看看能不能跑一个MapReduce(直接用WordCount)
在hadoop安装目录里创建一个目录wcinput,并且在里面编辑一个文件wc.input,内容如下:
hadoop yarn
hadoop mapreduce
将本地磁盘的wcinput上传到hdfs文件操作系统中
$ hadoop fs -put wcinput /
# 将wcinput上传到hdfs的根目录
使用hadoop内置examplejar运行wordcount实例
$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wcinput /output
命令的解释
执行成功的显示:
至此,hadoop集群(完全分布式)的搭建就完成了!!!!
在经历了这次整整三天搭建hadoop集群的过程后,笔者最深的感悟是对linux系统操作的熟悉度对于大数据开发者的重要性,很多命令的不熟悉会导致你各种失误的操作,搭集群是个细活,大家一定要记得
在完成每一步操作后检查
,否则到后面很难找到原因,同样,快速查看log排错也是大数据开发者需要掌握的技能,共勉!
优惠劵
关注
点赞
觉得还不错?
一键收藏
知道了
评论
A:搭建hadoop集群简直就是对生命的浪费笔者:哈哈辣鸡..我感觉搭建一个集群挺简单的啊,20分钟就搞定了A:练练?...笔者终于三天三夜后搭建好了一个简单的hadoop集群,留下了真香的泪水又过了两天,笔者总结出了这个hadoop集群搭建指南
复制链接
扫一扫
专栏目录
集群搭建
(超级详细)
10-11
超详细
教程(从虚拟机安装到
完成,
成功验证),每一个步骤都有,照做即可。
内有
所需安装包:
2.2.0,zookeeper3.4.5
安装配置过程中出现的问题
u010049696的专栏
07-01
879
配置方法参考网址:http://www.micmiu.com/bigdata/
2x-cluster-setup/
配置过程中出现的问题:
1、Retrying
connect
to
server
: 0.0.0.0/0.0.0.0:8032. Already tried 0 time(s); retry policy is... 
解决方法:配置yarn-site
参与评论
您还未登录,请先
登录
后发表或查看评论
Hadoop
中解决INFO ipc.Client: Retrying
的问题
热门推荐
zhugongshan的博客
01-03
2万+
Ubuntu16.04运行:
jar share/
/mapreduce/
-mapreduce-examples-2.7.7.jar wordcount input output
这条命令时出现:INFO ipc.Client: Retrying
: master/192.168.10.48:18040. Already...
详细教程
m0_65029172的博客
07-27
3249
qq_41537880的博客
03-09
1569
自学搭建,实战记录
CDH5
手册,
平台搭建手册
08-22
(CDH5.13.1)
手册,搭建流程都有包括,强烈推荐
2.2.0安装配置手册!完全分布式
过程
11-18
过程 按照文档中的
操作
步骤,一步步
就可以完全实现
2.2.0版本的完全分布式
高可用
手册.docx
04-17
2.6
手册,搭建的详细步骤,各种参数配置,配置文件配置,并对搭建的平台进行验证。
2.7.1
06-18
适用于刚接触
原理与技术,
初学者
尚硅谷
技术之
(MapReduce)1
08-08
(MapReduce)(作者:尚硅谷
研发部)版本:V2.0第1章 MapReduce概述1.1 MapReduce定义1.2
3.x集群配置笔记及常见错误解决方式
m0_51404279的博客
10-24
4273
1.搭建集群准备工作
总体流程
准备3台客户机(关闭防火墙、静态IP、主机名称)
安装JDK
配置环境变量
安装
配置集群
单点启动
配置ssh
群起并测试集群
一、模板虚拟机的搭建
配置要求:IP地址192.168.10.100**、主机名称
100、内存4G、**硬盘50G(内存硬盘大小根据电脑配置自行更改)
关于是否安装桌面:未安装桌面的版本需要要执行以下命令,用于配置工具包集合,包含ifconfig等命令以及软件...
集群环境搭建(超详细)
ZIYE_190的博客
03-17
2691
集群环境搭建
qq_52623832的博客
05-08
202
8.3在Xshell先进入software文件内,然后下载rz命令,并使用rz命令进行文件上传,此时会弹出上传的窗口,选择要上传的文件,点击确定即可将本地文件上传到
Linux
上。9.7 将主节点中配置好的文件和
目录copy给子节点。修改hosts配置文件(所有虚拟机都需要配置此文件)9.4 修改mapred-site.xml文件。9.3 修改core-site.xml文件。9.5 修改yarn-site.xml文件。9.2修改
-env.sh文件。9.6 修改slaves文件。
(超详细)
小飞飞V5的博客
05-21
本文主要介绍了
集群的搭建过程,图文详细,适合新手入门
(完全分布式版本)
qq_45909136的博客
04-18
298
8、访问HDFS的WEB界面9、访问YARN的WEB界面
中的常见的shell命令​1、如何将
本地的数据上传到HDFS中呢?
fs -put 本地的文件 HDFS中的目录hdfs dfs -put 本地的文件 HDFS中的目录​2、如何创建HDFS中的文件夹呢?需求:想创建/shujia/bigdata17​3、查看当前HDFS目录下的文件和文件夹​4、将HDFS的文件下载到
本地中。
搭建
集群
ykx0_6的博客
04-23
1211
安装好3台
虚拟机。
weixin_52972575的博客
07-19
885
】安装部署-完全分布式搭建
Deity567的博客
06-28
2335
是一个适合
的分布式存储和计算平台。狭义上说
就是一个框架平台,广义上讲
代表
的一个技术生态圈,包括很多软件框架。而我们的完全分布式,指的是在真实环境下,使⽤多台机器,共同配合,来构建⼀个完整的分布式 ⽂件系统。在真实环境中,hdfs中的相关守护进程也会分布在不同的机器中。
中的基础框架,有着广泛的应用,也是其他
框架的基础。总的来说,对于本次
的完全分布式的搭建还算是挺简单滴啦,若有不对滴还请大家在评论区指正哦!
ubuntu
最新发布
03-16
Ubuntu
是在Ubuntu
系统上搭建
分布式计算框架的过程。下面是一个简单的步骤:
1. 安装Ubuntu
系统:首先,你需要在每台计算机上安装Ubuntu
系统。你可以从Ubuntu官方网站下载最新的稳定版本,并按照官方文档进行安装。
2. 安装
Java
开发工具包(JDK):
是用
编写的,所以你需要安装
开发工具包。你可以使用以下命令在Ubuntu上安装OpenJDK:
```
sudo apt-get update
sudo apt-get install openjdk-8-jdk
3. 配置SSH免密登录:为了方便集群节点之间的通信,你需要配置SSH免密登录。你可以使用以下命令生成SSH密钥对,并将公钥分发到所有节点上:
ssh-keygen -t rsa -P ""
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
4. 下载和配置
:你可以从Apache
官方网站下载最新的稳定版本。下载完成后,解压缩文件并将
文件夹移动到适当的位置。然后,你需要编辑
配置文件,包括core-site.xml、hdfs-site.xml和mapred-site.xml等。
5. 配置
环境变量:为了方便使用
命令,你需要将
的bin目录添加到系统的PATH环境变量中。你可以编辑~/.bashrc文件,并添加以下行:
HADOOP
_HOME=/path/to/
export PATH=$PATH:$
_HOME/bin
6. 配置
集群:在配置文件中,你需要指定
集群的主节点和从节点。你可以编辑hdfs-site.xml文件,并设置dfs.replication参数来指定数据的备份数量。此外,你还需要配置yarn-site.xml文件来指定资源管理器和节点管理器的位置。
7. 启动
集群:在启动
集群之前,你需要格式化
分布式文件系统(HDFS)。你可以使用以下命令来完成:
hdfs namenode -format
然后,你可以使用以下命令启动
集群:
start-dfs.sh
start-yarn.sh
以上是一个简单的Ubuntu
的步骤。请注意,这只是一个基本的
指南
,实际搭建过程可能会因环境和需求而有所不同。
“相关推荐”对你有帮助么?
非常没帮助
没帮助
一般
有帮助
非常有帮助
提交
CSDN认证博客专家
CSDN认证企业博客
码龄6年
暂无认证
94
原创
5万+
周排名
59万+
总排名
10万+
访问
等级
1780
积分
72
粉丝
84
获赞
19
561
私信
热门文章
DQN的总结
9296
学术论文写作之引言(Introduction)怎么写
9230
13_大数据之数据可视化_note
8004
大数据在推荐系统中的作用
5013
12_大数据之图计算_note
4423
分类专栏
开发必备
3篇
17篇
神经网络机器学习
20篇
Python爬虫
12篇
最新评论
Python数据分析一条龙(菜鸟上手项目记录--爬虫阶段)
ʚ�ɞ908:
网站访问电信网络诈骗没什么结果啊
强化学习之Q-Learing基础
火鸡跳跳鸟“�”:
up主,你“部分可观测马尔可夫决策过程”有推荐的书吗
Python爬虫的数据提取,一篇博客就搞定啦!
_Aquariussss、:
div data-v-114c7c2f="" data-v-288d7ecc="" class="recruit-share"这种怎么爬?查看网页源代码像这种的没有数据
机器学习系列笔记十: 分类算法的衡量
冰皮榴莲真好吃:
假设要预测事件的实际发生率是99.9%,模型全都预测为1,那精准率99.9%,召回率99.9%,都很高哎,这样要如何解释那?
hive尚硅谷实战案例统计youtube视频热度
.try harder:
你好
能分享一下源数据吗?
您愿意向朋友推荐“博客详情页”吗?
强烈不推荐
不推荐
一般般
推荐
强烈推荐
最新文章
记Matplotlib科学绘图包使用心得
springboot 2.x 构建遇到的问题和解决方案
Git-构建你的代码仓库
2021年
1篇
2020年
94篇
目录
被折叠的 
 条评论
为什么被折叠?
到【灌水乐园】发言
查看更多评论
添加红包
祝福语
请填写红包祝福语或标题
红包数量
红包个数最小为10个
红包总金额
红包金额最低5元
余额支付
当前余额
3.43
前往充值 >
需支付:
10.00
取消
确定
下一步
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝
规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。
余额充值