免费智能真题库 > 历年试卷 > 嵌入式系统设计师 > 2019年下半年 嵌入式系统设计师 下午试卷 案例
  第1题      
  知识点:   串口   红外   AR   导航   电源   监控   视频   数据采集   信息处理

 
服务型智能扫地机器人因其低廉的价格和高效的工作能力,越来越受到消费者的认可,目前己逐渐进入家庭生活代替人们的清洁工作,具有广阔的市场。
服务型智能扫地机器人需要具有自主运动规划和导航功能,在其工作过程中,需要通过对环境信息的融合感知进行行为决策。扫地机器人一般具备的主要功能包括:
(1) 紧急状态感知:包括碰撞检测、跌落检测和离地检测等功能,防止与障碍物碰撞、前方台阶跌落危险以及扫地机器人离地等,实现扫地机器人运动中的自我保护。
(2) 姿态感知:包括运动里程计数和航向测量等功能,需要获取扫地机器人的运动速度、行走距离、航向角度等信息。
(3) 视觉感知:包括单目视觉避障系统和单目视觉定位系统等,需要通过视觉信息探测障碍物,视觉信息来自两个单目摄像头系统。在某些设计中,也可结合红外测距传感器进行障碍物探测。
(4) 自动充电:在工作过程中,需要实时监控扫地机器人的电量,且在电量少于一 定阈值时自动返回电源处进行充电。
(5) 扫地及吸尘单元:使用电机控制刷子实现清扫,使用抽灰电机实现吸尘。
(6) 运动执行:对机器人的运动进行控制。
(7) 监控系统:通过无线网络传递扫地机器人的状态数据及视频图像等信息到远程客户端,客户端参与到扫地机器人的运动监视及控制中,实现信息交互,监控扫地机器人的实时状态。客户端包括PC客户端和手机客户端两种。
(8) 信息处理中心:用于接收各种传感器信息和视觉信息,通过分析处理进行扫地机器人的运动控制,且负责和后台监控中心通信。 服务型智能扫地机器人选用ARM+STM32双核架构模式,分别处理数据量较大的图像信息和短促型的非图像信息。STM32选用STM32F103VET6芯片,用于实现非图像以外的众多传感器的驱动以及数据采集,并控制车轮电机的运动;ARM选用S5PV210处理器实现摄像头图片的采集、在监控系统中接入无线网络、对STM32串口传过来的传感器数据以及图像定位和避障信息做综合处理,生成运动决策,发送给STM32,执行扫地机的前进、后退、转弯等。
 
问题:1.1   图1-1是本题的服务型智能扫地机器人典型的功能结构图,请根据说明的描述,填写(1)-(5)空白处,完成该功能结构图。请将(1)-(5)的内容填在答题纸上相应的位置中。
 
问题:1.2   为了实现服务型智能扫地机器人的功能,就需要多种传感器来感知工作环境信息。 王工在对传感器进行选型时,选择了如下类型的传感器:
1. USB摄像头;
2.开关式传感器;
3. 槽型光耦模块;
4.数字式防跌落传感器;
5.红外测距传感器;
6.GGPM01A单轴角度陀螺仪(传感器);
7.霍尔码盘传感器。
请根据传感器的功能完成表1-1,请将(1)-(6)的内容填在答题纸上相应的位置中。
 
问题:1.3   由于该服务型智能扫地机器人的硬件采用双处理器架构,即ARM+STM32双核架构模式,选用串口方式在处理器之间传递数据, 如图1-2所示。假设在本串行传输中的数据格式为:8位数据位、1位起始位、1位停止位,无校验位。(1) 当波特率为9600b/s时,每秒钟传送的有效数的通信关系数据是多少字节?(2)为保证数据收发正确(每个字节数据传输中的累计误差不大于1/4 bit),试分析发送方和接收方时钟允许的误差范围, 并以百分比形式给出最大误差。请将答案填写在答题纸的对应栏中。
 
 
 

   知识点讲解    
   · 串口    · 红外    · AR    · 导航    · 电源    · 监控    · 视频    · 数据采集    · 信息处理
 
       串口
        所谓串行通信就是使数据一位一位地进行传输而实现的通信。当然,在实际传输中,如外部设备与CPU或计算机与计算机之间交换信息,是通过一对导线传送信息的。在传输中每一位数据都占据一个固定的时间长度。与并行通信相比,串行通信具有传输线少、成本低等优点,特别适合远距离传送,其缺点是速度慢,若并行传送n位数据需时间T,则串行传送的时间最少为nT。
               RS-232C串口
               RS-232C是美国电子工业协会(Electronic Industry Association,EIA)制定的一种串行物理接口标准。RS是英文“推荐标准”的缩写,232为标识号,C表示修改次数。
               RS-232C总线标准设有25条信号线,包括一个主通道和一个辅助通道,在多数情况下主要使用主通道,对于一般双工通信,仅需几条信号线就可实现,如一条发送线、一条接收线及一条地线。
               RS-232C标准规定的数据传输速率为每秒50、75、100、150、300、600、1200、2400、4800、9600、19200比特。RS-232C标准规定,驱动器允许有2500pF的电容负载,通信距离将受此电容限制。例如,采用150pF/m的通信电缆时,最大通信距离为15m;若每米电缆的电容量减小,通信距离可以增加。传输距离短的另一原因是RS-232属单端信号传送,存在共地噪声和不能抑制共模干扰等问题,因此一般用于20m以内的通信。
               嵌入式板卡上一般都配置有串口,并遵循RS-232总线标准。
               RS-485串口
               在要求通信距离为几十米到上千米时,广泛采用RS-485串行总线标准。RS-485采用平衡发送和差分接收,因此具有抑制共模干扰的能力。加上总线收发器具有高灵敏度,能检测低至200mV的电压,故传输信号能在千米以外得到恢复。
               RS-485采用半双工工作方式,任何时候只能有一点处于发送状态,因此,发送电路须由使能信号加以控制。RS-485用于多点互连时非常方便,可以省掉许多信号线。应用RS-485可以联网构成分布式系统,其允许最多并联32台驱动器和32台接收器。
 
       红外
        红外接口,英文简称为IrDA,是红外线数据标准协会(Infrared Data Association)的英文缩写。IrDA红外接口是一种红外线无线传输协议以及基于该协议的无线传输接口。支持IrDA接口的掌上电脑,可以无线地向支持IrDA的设备无线连接来实现信息资源的共享。
        红外接口可以在同样具备红外接口的设备间进行信息交流,由于需要对接才能传输信息,安全性较强。缺点是通信距离短,通信过程中不能移动,遇障碍物通信中断,功能单一,扩展性差。
 
       AR
        (1)AR的定义。增强现实技术(Augmented Reality,AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。这种技术1990年提出。随着随身电子产品CPU运算能力的提升,预期增强现实的用途将会越来越广。
        (2)AR的特点。
        ①真实世界和虚拟世界的信息集成;
        ②具有实时交互性;
        ③是在三维尺度空间中增添定位虚拟物体。
        (3)AR的营销价值。
        ①虚实结合,震撼体验。借助AR的虚实交互体验,增强产品发布会的趣味性和互动性。另外借助AR技术,可以展示模拟现实条件无法表现的细节和创意,使消费者更直观形象地感知产品,提升对企业品牌形象的理解,尤其适用于工艺复杂、技术含量高、价值相对较高的产品。
        ②体验营销。AR技术实现品牌和消费者零距离接触,在游戏或互动中潜移默化地传达产品内容、活动及促销信息,加深消费者对品牌的认可和了解。AR技术借助手机摄像头可以生动地再现产品使用场景,增强用户的购物体验,解决电子商务当下无法试用、试穿的瓶颈,给我们生活带来极大地便利和乐趣。
        ③与微博、SNS等社交媒体整合。利用AR技术与微博、SNS等社交媒体的融合打通,实现从体验营销到自营销,最终形成消费者对产品和品牌的信任和钟爱,满足了消费者购买咨询、体验和分享的需求,促成消费者形成良好的口碑并促进购买。
 
       导航
        导航设计对提供丰富友好的用户体验有至关重要的作用,简单直观的导航不仅能提高易用性,而且在用户找到所要的信息后有助于提高用户转化率。常见的导航形式如下。
        (1)标签式导航又称Tab导航,是目前运用得最广泛的导航设计,常见于社交类、电商类、支付类、新闻类、金融类、娱乐类等应用中。一般出现在屏幕底部、顶部或混合使用,在不同的需求中稍有调整。
        (2)分段式导航通常用于App的顶部,作为二级导航出现,一般有2~3个功能,占位较小,版面利用率较高,iOS端可以直接使用空间完成。
        (3)舵式导航是标签导航的变种,出现在App的底部,在表示最重要的功能时,可以用高亮色放大这一功能,并将图标放于App底部标签的中间。
        (4)抽屉式导航出现在App的左上角或右上角,采用点击图标弹出侧页或新页面的设计方法,通常是功能较多的情况下的一种应变策略。
        (5)宫格式导航属于层级结构导航,宫格中的一个格子代表一个功能,类似于手机上各个App的入口导航。
        (6)下拉式导航并不常用,常见于生活服务类、股票类的App中,通过点击下拉图标引出一串列表的形式以作为二级导航,因其体积小、能隐藏更多信息,有时会和滑动导航一起出现。
 
       电源
        (1)设备间内安放计算机主机时,应按照计算机主机电源要求进行工程设计。
        (2)设备间内安放程控用户交换机时应按照《工业企业程控用户交换机工程设计规范》CECS09:1989进行工程设计。
        (3)设备间、交接间应用可靠的交流220V、50Hz电源供电。
        设备间应由可靠交流电源供电,不要用邻近的照明开关来控制这些电源插座,减少偶然断电事故发生。
 
       监控
        主要包括故障监控和性能、流量、负载等状态监控,这些监控关系到集群的健康运行及潜在问题的及时发现与干预。
        (1)服务故障、状态监控:主要是对服务器自身、上层应用、关联服务数据交互监控;例如针对前端Web Server,就可以有很多种类型的监控,包括应用端口状态监控,便于及时发现服务器或应用本身是否崩溃、通过ICMP包探测服务器健康状态,更上层可能还包括应用各频道业务的监控,这些只是一部分,还有多种监控方式,依应用特点而定。还有一些问题需解决,如集群过大,如何高性能地进行监控也是一个现实问题。
        (2)集群状态类的监控或统计,为合理管理调优集群提供数据参考,包括服务瓶颈、性能问题、异常流量、攻击等问题。
 
       视频
        视频是动态的画面序列,这些画面以超过每秒24帧的速度播放,便可以使观察者产生平滑、连续的视觉效果。视频类似于我们熟知的电影和电视,有声有色。电影采用了每秒24幅画面的播放速度,电视采用了每秒25幅或30幅画面的播放速度。视频图像可来自于录像带、影碟、电视、摄像机等,这些模拟视频信号可通过视频采集卡转换成数字视频信号,以便计算机进行处理和存储。
 
       数据采集
        数据采集阶段的主要任务就是获取各个不同数据源的各类数据,按照统一的标准进行数据的转换、清洗等工作,以形成后续数据处理的符合标准要求的数据集。
        原始数据往往形式多样,包括:结构化数据,例如业务系统中的交易明细、操作日志等;非结构化数据,例如企业中的各种文档数据,视频、音频等数据;半结构化数据,例如Web页面的HTML文档等。而且其来源和种类也存在很大差距。
        当前的大数据处理中,数据的种类一般包括:
        .传感数据:传感数据是由感知设备或传感设备感受、测量及传输的数据。这些感知设备或传感设备实时和动态地收集大量的时序传感数据资源。传感数据种类有很多,如人身体的传感数据,网络信号的传感数据和气象的传感数据等。近年来随着物联网、工业互联网的日益发展,传感数据越来越丰富,人们也逐渐发现了其数据价值。
        .业务数据:企业业务系统在执行日常业务活动时产生的大量数据,包括设备工况、操作记录、交易流水,以及用户在使用系统时遗留下来的大量行为数据。这些数据反映了人或者物的属性、偏好,在推荐或预测系统中有很大的利用价值。
        .人工输入数据:用户通过软件人机交互等主动输入的数据,典型代表是微博、微信、抖音等系统的用户输入数据。随着互联网的不断深入,手机APP应用的不断发展,这种用户产生的数据也越来越多,越来越丰富。
        .科学数据:通过科学研究和科学实验不断搜集和汇聚的数据,一般是以电子记录或文本的形式存在。
        从大数据的来源进行划分,其种类包括:
        .企业数据:企业自建的各种业务系统,如ERP、在线交易系统、招聘系统等,也会产生各种数据集。
        .政府数据:政府信息化已发展多年,构建了很多业务数据。近年来政府也在不断地建设大数据中心,发布各种数据,包括人社、医疗、税务、工商、财务等。
        .互联网数据:互联网数据是当前大数据应用的一个重要的数据来源。互联网上存在各种应用沉淀下来的大量数据,包括门户网站、社交信息、电商网站等等。
        其中,企业数据一般属于内部数据,而政府数据、互联网数据往往属于外部数据。
        从上面大数据的分类可以看出,数据来源渠道众多,差异非常大。因此,数据采集的主要任务就是进行数据的汇聚,为后续的数据处理做好准备。这个阶段工作中主要涉及的技术包括针对内部数据的数据集成和ETL技术,针对外部数据,尤其是互联网数据的爬虫技术。
        数据集成是把不同来源、格式、特点性质的数据在逻辑上或物理上有机地集中,从而为企业提供全面的数据共享。在企业数据集成领域,已经有很多成熟的框架可以利用。目前通常采用联邦式、基于中间件模型和数据仓库等方法来构造集成的系统,这些技术在不同的着重点和应用上解决数据共享和为企业提供决策支持。
        ETL(Extract Transform Load)用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程。目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。
        基本的ETL体系结构示意图如下图所示。
        
        ETL体系结构示意图
        ETL过程中的主要环节是数据抽取、数据转换和加工、数据加载。一般ETL工具中,围绕上述三个核心环节进行了功能上的扩充,例如工作流、调度引擎、规则引擎、脚本支持和统计信息等,尽量降低ETL阶段的工作强度,减少工作量。
        数据转换和加工是三个环节的重点,因为抽取的数据中往往存在各种问题,例如数据格式不一致、数据输入错误、字段不匹配、字段类型不符、数据不完整等。ETL一般以组件化的方式实现数据转换和加工。常用的数据转换组件有字段映射、数据过滤、数据清洗、数据替换、数据计算、数据验证、数据加解密、数据合并、数据拆分等,并以工作流的形式进行各种方式的组合,以满足数据转换的需求。有的ETL工具也提供脚本支持,满足用户定制化的数据转换需求。
        常用的ETL工具有三种:DataStage、Informatica PowerCenter和Kettle。
        .DataStage:IBM公司的DataStage是一种数据集成软件平台,专门针对多种数据源的ETL过程进行了简化和自动化,同时提供图形框架,用户可以使用该框架来设计和运行用于变换和清理、加载数据的作业。它能够处理的数据源有主机系统的大型数据库、开发系统上的关系数据库和普通的文件系统。
        .Informatica PowerCenter:Informatica公司开发的为满足企业级需求而设计的企业数据集成平台。可以支持各类数据源,包括结构化、半结构化和非结构化数据。提供丰富的数据转换组件和工作流支持。
        .Kettle:Kettle是一款国外开源的ETL工具,纯Java编写,可以在Windows、Linux、UNIX上运行,数据抽取高效稳定。管理来自不同数据库的数据,提供图形化的操作界面,提供工作流支持。Kettle中有两种脚本文件,transformation和job,transformation完成针对数据的基础转换,job则完成整个工作流的控制。Kettle包括4个产品:Spoon、Pan、Chef、Kitchen。Spoon通过图形界面来设计ETL转换过程(Transformation)。Pan批量运行由Spoon设计的ETL转换(例如使用一个时间调度器),是一个后台执行的程序,没有图形界面。Chef创建任务(Job),任务通过允许每个转换、任务、脚本等等,更有利于自动化更新数据仓库的复杂工作。Kitchen批量使用由Chef设计的任务(例如使用一个时间调度器)。
        由于很多大数据应用都需要来自互联网的外部数据,因此,爬虫技术也称为数据采集阶段的一个主要基础性的技术。
        网络爬虫(又称为网页蜘蛛,网络机器人),是一种按照一定的规则,自动地抓取互联网信息的程序或者脚本。网络爬虫基本的体系结构如下图所示。
        
        爬虫框架示意图
        爬虫调度器主要负责统筹其他四个模块的协调工作。URL管理器负责管理URL链接,维护已经爬取的URL集合和未爬取的URL集合,提供获取新URL链接的接口。HTML下载器用于从URL管理器中获取未爬取的URL链接并下载HTML网页。HTML解析器用于从HTML下载器中获取已经下载的HTML网页,并从中解析出新的URL链接交给URL管理器,解析出有效数据交给数据存储器。
        网络爬虫大致可以分为以下几种类型:通用网络爬虫、聚焦网络爬虫、深层网络(Deep Web)爬虫。实际的大数据应用由于往往聚焦于某个特定的应用目标,其采用的网络爬虫系统通常是聚焦网络爬虫、深层网络爬虫技术相结合实现的。
        通用网络爬虫,爬行对象从一些种子URL扩充到整个Web,主要为门户站点搜索引擎和大型Web服务提供商采集数据。通用网络爬虫的结构大致可以分为页面爬行模块、页面分析模块、链接过滤模块、页面数据库、URL队列、初始URL集合几个部分。为提高工作效率,通用网络爬虫会采取一定的爬行策略。常用的爬行策略有:深度优先策略、广度优先策略。
        聚焦网络爬虫,是指选择性地爬行那些与预先定义好的主题相关页面的网络爬虫。和通用网络爬虫相比,聚焦爬虫只需要爬行与主题相关的页面,可以很好地满足一些特定人群对特定领域信息的需求。聚焦网络爬虫和通用网络爬虫相比,增加了链接评价模块以及内容评价模块。聚焦爬虫爬行策略实现的关键是评价页面内容和链接的重要性,常见的爬行策略有基于内容评价的爬行策略、基于链接结构评价的爬行策略、基于增强学习的爬行策略、基于语境图的爬行策略等。
        深层网络爬虫用于专门爬取那些大部分内容不能通过静态链接获取的、隐藏在搜索表单后的,只有用户提交一些关键词才能获得的Web页面。Deep Web爬虫爬行过程中最重要的部分就是表单填写,包含两种类型:基于领域知识的表单填写,此方法一般会维持一个本体库,通过语义分析来选取合适的关键词填写表单;基于网页结构分析的表单填写,此方法一般无领域知识或仅有有限的领域知识,将网页表单表示成DOM树,从中提取表单各字段值。常见的爬虫工具有如下三种:
        .Nutch:一个开源Java实现的搜索引擎。它提供了我们运行自己的搜索引擎所需的全部工具。包括全文搜索和Web爬虫。Nutch有Hadoop支持,可以进行分布式抓取、存储和索引。Nutch采用插件结构设计,高度模块化,容易扩展。
        .Scrapy:是Python开发的一个快速、高层次的屏幕抓取和Web抓取框架,用于抓取Web站点并从页面中提取结构化的数据。Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便地修改。它提供了多种类型爬虫的基类,如BaseSpider、sitemap爬虫、Web2.0爬虫等。
        .Larbin:Larbin是一种开源的网络爬虫/网络蜘蛛,用C++语言实现。Larbin目的是能够跟踪页面的URL进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。
        当数据采集到以后,需要对采集并清洗后的数据进行存储。具体的存储技术在13.1.3云关键技术中的分布式数据存储中介绍,此处不再详述。
 
       信息处理
        信息处理(Information Processing)也称为数据处理,是指对收集到的原始信息采用某种方法和设备,根据需要将原始数据进行加工,使之转变成为可利用的有效信息的过程。因此信息处理全过程包括信息收集、存储、加工和传输。
               信息收集
               信息收集(Information Gathering)是指通过各种方式获取所需要的信息。信息收集是信息处理的基础。信息可以分为原始信息和加工信息两大类,原始信息是指未经加工的信息,加工信息则是对原始信息经过加工、分析、改编和重组而形成的具有新形式、新内容的信息。
               信息收集分为信息识别、信息采集和信息表达三个阶段。
               ①信息识别。对信息进行识别,获取有用的信息。信息识别可以采用直接观察、比较和间接识别等方式。
               ②信息采集。对识别后的信息根据不同的需求运用不同的采集方法进行信息采集。
               ③信息表达。信息采集后,可以采用文字/符号、数字/编码、声音/图像对采集到的信息进行表达。
               信息存储
               信息存储是信息系统中非常重要的环节,如果没有信息存储,就不能充分利用已收集、加工所得信息,同时还要耗资、耗人、耗物来组织信息的重新收集、加工。有了信息存储,就可以保证随用随取,为企业信息的多次复用创造条件,从而大大降低了费用。信息存储应当考虑信息存在什么介质行比较合适。例如企业人事方面的档案材料、设备或材料的库存账目应当存于磁盘,以便联机检索和查询。
               信息加工
               信息加工是对收集来的信息进行去伪存真、去粗取精、由表及里、由此及彼的加工过程。它是在原始信息的基础上,生产出价值含量高、方便用户利用的二次信息的活动过程。例如信息加工可以通过计算机对信息进行鉴别、选择、比较、分类、归并、查询、统计、预测、模拟以及进行各种数学计算等工作,使得采集的信息成为有价值的信息。
               信息传输
               信息传输是为了满足人们对信息的需求,实现信息有目的的流动,体现信息的价值。特别是在市场经济环境下,信息已经成为重要的、具有价值的一种商品。如何从海量信息中收集有用的信息,并对其进行研究与分析,作为企业决策的依据,使信息真正为企业的决策带来增值效应。
   题号导航      2019年下半年 嵌入式系统设计师 下午试卷 案例   本试卷我的完整做题情况  
1 /
2 /
3 /
4 /
5 /
 
第1题    在手机中做本题