三维激光扫描数据建模概述

三维激光扫描数据建模概述,第1张

三维激光扫描仪对地质标本进行全方位扫描,获取了地质标本的离散结构点(点云数据)之后,就可以开始建模工作了。

1)建模过程就是对点云数据进行实体转化,形成实体的三维标本网格数据,恢复被测标本的真实形体结构及实际尺寸,并使用照相机自动获取的纹理影像数据,给三维标本赋予纹理,完成真实结构、真实纹理的地质标本的三维数字化模型(图4.2)。

图4.2 标本点云数据实体化和赋予纹理的标本三维数字实体

2)岩石标本的三维数字化,需要用到Faro Scene的三角化构建功能。即在Faro Scene软件中,导入标本的点云数据进行网格构建,实现从点云数据转化为实体数据的过程,即转化为标本网格数据。

3)三维实体化的岩石标本还没有真实的纹理信息,需要利用三维激光扫描仪搭载的数码相机,自动获取纹理影像数据,在Faro Scene软件中,执行应用图像的命令,给岩石标本三维网格体赋予纹理,实现真实结构、真实纹理的岩石标本三维数字化。最后,生成Cache.c3 d、Information.c3 d、Level1.c3 d、World.c3 d及htm文件的一系列三维模型文件。

4)利用KUBIT PointCloud 6.0 软件,对标本的离散结构点云数据,进行实体转化,构建具备标本真实形体结构、实际尺寸的标本实体网格数据。

图4.3 三维激光扫描的标本点云数据、处理中的点云数据、实体化的点云数据和带纹理的高精度模型

5)利用KUBIT PhotoPlan 6.0软件,给标本网格贴上纹理,就构成了具有真实结构、真实纹理的标本三维数字模型(图4.3)。

6)最后添加鼠标互动浏览操作功能,按下鼠标左键,移动鼠标可以上、下、左、右旋转模型,鼠标中间滑轮可以放大、缩小模型。

1、分类和聚类

分类算法是极其常用的数据挖掘方法之一,其核心思想是找出目标数据项的共同特征,并按照分类规则将数据项划分为不同的类别。聚类算法则是把一组数据按照相似性和差异性分为若干类别,使得同一类别数据间的相似性尽可能大,不同类别数据的相似性尽可能小。分类和聚类的目的都是将数据项进行归类,但二者具有显著的区别。分类是有监督的学习,即这些类别是已知的,通过对已知分类的数据进行训练和学习,找到这些不同类的特征,再对未分类的数据进行分类。而聚类则是无监督的学习,不需要对数据进行训练和学习。常见的分类算法有决策树分类算法、贝叶斯分类算法等聚类算法则包括系统聚类,K-means均值聚类等。

2、回归分析

回归分析是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,其主要研究的问题包括数据序列的趋势特征、数据序列的预测以及数据间的相关关系等。按照模型自变量的多少,回归算法可以分为一元回归分析和多元回归分析按照自变量和因变量间的关系,又可分为线性回归和非线性回归分析。

3、神经网络

神经网络算法是在现代神经生物学研究的基础上发展起来的一种模拟人脑信息处理机制的网络系统,不但具备一般计算能力,还具有处理知识的思维、学习和记忆能力。它是一种基于导师的学习算法,可以模拟复杂系统的输入和输出,同时具有非常强的非线性映射能力。基于神经网络的挖掘过程由数据准备、规则提取、规则应用和预测评估四个阶段组成,在数据挖掘中,经常利用神经网络算法进行预测工作。

4、关联分析

关联分析是在交易数据、关系数据或其他信息载体中,查找存在于项目集合或对象集合之间的关联、相关性或因果结构,即描述数据库中不同数据项之间所存在关系的规则。例如,一项数据发生变化,另一项也跟随发生变化,则这两个数据项之间可能存在某种关联。关联分析是一个很有用的数据挖掘模型,能够帮助企业输出很多有用的产品组合推荐、优惠促销组合,能够找到的潜在客户,真正的把数据挖掘落到实处。4市场营销大数据挖掘在精准营销领域的应用可分为两大类,包括离线应用和在线应用。其中,离线应用主要是基于客户画像进行数据挖掘,进行不同目的针对性营销活动,包括潜在客户挖掘、流失客户挽留、制定精细化营销媒介等。而在线应用则是基于实时数据挖掘结果,进行精准化的广告推送和市场营销,具体包括DMP,DSP和程序化购买等应用。

1.定义商业问题,数据挖掘的中心价值主要在于商业问题上,所以初步阶段必须对组织的问题与需求深入了解,经过不断与组织讨论与确认之后,拟订一个详尽且可达成的方案。

2.数据理解,定义所需要的数据,收集完整数据,并对收集的数据做初步分析,包括识别数据的质量问题、对数据做基本观察、除去噪声或不完整的数据,可提升数据预处理的效率,接着设立假设前提。

3.数据预处理,因为数据源不同,常会有格式不一致等问题。因此在建立模型之前必须进行多次的检查修正,以确保数据完整并得到净化。

4.建立模型,根据数据形式,选择最适合的数据挖掘技术并利用不同的数据进行模型测试,以优化预测模型,模型愈精准,有效性及可靠度愈高,对决策者做出正确的决策愈有利。

5.评价和理解,在测试中得到的结果,只对该数据有意义。实际应用中,使用不同的数据集其准确度便会有所差异,因此,此步骤最重要的目的便是了解是否有尚未被考虑到的商业问题盲点。

6.实施,数据挖掘流程通过良性循环,最后将整合过后的模型应用于商业,但模型的完成并非代表整个项目完成,知识的获得也可以通过组织化、自动化等机制进行预测应用,该阶段包含部署计划、监督、维护、传承与最后的报告结果,形成整个工作循环。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/266164.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-18
下一篇2023-04-18

发表评论

登录后才能评论

评论列表(0条)

    保存