当前位置: 首页 > news >正文

66郑州网站建设电商营销推广方案

66郑州网站建设,电商营销推广方案,自己做游戏的网站,长春做网站建设的公司在原有pdf教程教程上,做一个补充 idea内搭建环境 导入依赖 就直接利用之前的作业工程项目里直接写,所以依赖基本上不用再导入了,如果要导入,看自己依赖的版本号,不要直接复制教程,比如我的: …

在原有pdf教程教程上,做一个补充

idea内搭建环境

导入依赖

就直接利用之前的作业工程项目里直接写,所以依赖基本上不用再导入了,如果要导入,看自己依赖的版本号,不要直接复制教程,比如我的:

        <dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.12</artifactId><version>3.1.1</version></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-sql_2.12</artifactId></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-mllib_2.12</artifactId></dependency>

依赖导入失败

因为之前连热点下载依赖可能网太慢下载出现了问题,出现了下面的问题:

net.sf.opencsv:opencsv:jar:2.3 failed to transfer from https://maven.aliyun.com/repository/public   during a previous attempt. This failure was cached in the local repository and resolution is not reattempted until the update interval of aliyunmaven has elapsed or updates are forced. Original error: Could not transfer artifact net.sf.opencsv:opencsv:jar:2.3 from/to aliyunmaven (https://maven.aliyun.com/repository/public):   transfer failed for

直接去本地仓库的对应路径把文件删掉,然后刷新就可以了

读取数据集

参考:https://blog.csdn.net/heiren_a/article/details/122133564
注意上文中提到,第一行是列名和需要自动推断数据类型的情况
如:

    val training = spark.read.option("header", "true") // 假设文件没有表头.option("inferSchema", "true") // 自动推断列的数据类型.csv(dataPath).toDF("timestamp", "back_x", "back_y", "back_z", "thigh_x", "thigh_y", "thigh_z", "label")

注意:后面组合特征向量的时候,不要把label列放进去了

将时间戳转换为数值型

参考:
https://blog.csdn.net/bowenlaw/article/details/111644932

    // 将时间戳转换为数值型val trainWithTimestamp = training.withColumn("timestamp_numeric", to_timestamp(col("timestamp")))val dataWithNumericFeatures = trainWithTimestamp.withColumn("timestamp_numeric", col("timestamp_numeric").cast("double"))

模型使用,逻辑回归和决策树

https://blog.csdn.net/qq_44665283/article/details/131766504

spark模型评估和选择,准确率,F1-Score

直接调接口,https://blog.csdn.net/weixin_43871785/article/details/132334104
https://blog.csdn.net/yeshang_lady/article/details/127856065

在单个节点上运行多个worker

编辑配置文件:
进入Spark的conf目录,复制spark-env.sh.template文件并重命名为spark-env.sh。
编辑spark-env.sh文件,添加以下配置(根据需要调整):

export SPARK_WORKER_INSTANCES=1  # 在单机上模拟的Worker数量(可以设置为多个,但需要不同端口)
export SPARK_WORKER_CORES=1  # 每个Worker的CPU核心数

参考:https://www.cnblogs.com/xinfang520/p/8038306.html

Spark运行的中间结果查看spark web ui

注意要在运行时进4040端口,参考:
https://www.cnblogs.com/bigdata1024/p/12194298.html

题目附录

数据集说明

  1. 时间戳:记录样本的日期和时间(使用的时候最好将其转换为数值型)
  2. back_x: 单位时间中,背部传感器在 x 方向(下)的加速度
  3. back_y: 单位时间中,背部传感器在 y 方向(左)的加速度
  4. back_z: 单位时间中,背部传感器在z 方向(向前)的加速度
  5. thigh_x: 单位时间中,大腿传感器在 x 方向(下)的加速度
  6. thigh_y: 单位时间中,大腿传感器在 y 方向(右)的加速度
  7. thigh_z: 单位时间中,大腿传感器在 z 方向(向后)的加速度
  8. label:带注释的活动代码
    1:步行 2:运行 3:洗牌 4:楼梯(上升) 5:楼梯(下降) 6:站立 7:坐着 8:撒谎 13: 自行车 (坐着) 14: 自行车 (站着)
http://www.wangmingla.cn/news/86539.html

相关文章:

  • 网站带后台北京网站seo公司
  • 怎样做公司的网站首页免费注册个人网站
  • wordpress表单附件上传图片seo计费系统源码
  • 福州建设网站公司如何做好一个网站
  • 安徽六安什么时候解封淄博seo公司
  • 做整形网站多少钱合肥品牌seo
  • 网络推广营销工具北京seo优化费用
  • 分类信息网站如何做排名怎么制作个人网站
  • 湖北标书设计制作优化英文
  • 衡阳网站建设公司天津百度推广公司
  • 河源网站开发推广联系方式
  • 手机什么网站可以设计楼房市场宣传推广方案
  • 最干净在线网页代理seo型网站
  • 深圳市住建局网站关键词优化营销
  • 凡科怎样免费做网站网推是什么意思
  • 网站建设jutuibao西安seo推广
  • 网站制作什么语言最好站长工具seo综合查询烟雨楼
  • 凡科网做网站好吗百度推广客户端下载安装
  • 用虚拟机做网站服务器竞价培训
  • 郑州市网站建设seo常用优化技巧
  • 网站哪些数据免费seo软件
  • 花都网站设计都百度关键词快速优化
  • 门户网站开发报价单广告投放数据分析
  • 温州网站建设哪家好无锡百度推广代理公司
  • 新建网站二级网页怎么做app推广文案
  • 做企业网站的步骤网站的设计流程
  • 百度网站推广价格太原seo报价
  • 武汉光谷做网站网络推广赚钱
  • 黄石网站建设公司四川seo推广
  • 怎样做网站让百度能找到seo网站优化推广怎么样