收藏本站
 

虚拟仿真实验教学资源

虚拟仿真实验教学资源

2.1

实验教学情况

实验课程数  

面向专业数

实验学生人数/

实验人时数/

25

20

4000

178360

2.2 虚拟仿真实验教学资源(罗列实验项目、功能及效果,提供不少于三个典型实验项目的具体实验流程)

2-2-1 应用经济学虚拟仿真实验分室的实验教学体系

按照国际标准大学科建设的理念,学科建设需要从顶层设计上同人才培养,科学研究和社会服务精密联系。学科建设不仅要捉教学、学科研究、社会服务、教学科研团队建设,还要从全局去统筹各个环节体系化建设,而不能狭隘地只去捉学科建设某一方面。应用经济学作为实践性极强的学科,结合院校自身特色以及区域经济特点,应用经济学学科建设提升应围绕以下四大方向进行建设:区域经济学、金融学、产业经济学、数量经济学。应用经济学学科作为一门应用型学科,从实训实践角度出发,培养面向各大金融机构、证券公司、金融监管部门及大型企业培养所需要的、兼备较强专业知识和先进实践应用能力的理实复合的高层次人才。

应用经济学涉及学科广,内涵丰富,跨越经济学、金融学、数量经济学、统计学等理论基础,作为一门复合型学科,将会涉及到多款实训软件,资源的多元化将会带来实验应用管理混乱,特别是CS类系统只能支持学生进行机房操作,并且同一时间只能一人使用,实验资源不能开放与共享,最大化利用。另外由于对实验教学平台缺乏整体可持续可扩展规划,资源整合困难,极易形成“信息孤岛”。为了更好地提供高仿真教学环境以及建立具有学院特色的学科,亟需在学院原本成熟的条件下为全面的应用经济学学科建设搭建虚拟仿真服务平台,虚拟仿真强调综合利用云计算、物联网、融合通信等先进技术,构建学校虚拟实验教学平台,实现教学资源有效整合和共享,以资源为基础,以应用为核心,以创新为目标,提供开放、共享的、虚拟的实验教学环境,将“有限的物理实验教学空间”拓展成为“无限虚拟实验教学空间”,推动学校实验教学改革与创新,提高实验教学科研水平,提升科研成果转化能力,创新人才培养模式,提升学生的综合实践能力,进一步推进“产学研”一体化进程,促进学校品牌提升,达到国家级虚拟仿真实训中心示范作用。

金融业发展逐步扩展到金融创新、金融开放等大金融环境下,对新的技术与高等教育提出了更高要求。近几年,经济学专业的毕业生就业方向广泛,涉及贸易业务、金融业务、证券投资、银行系统、保险业等领域。在不同方向,市场对不同专业的学生有着不同的能力需求。例如国际贸易学专业学生需要在涉外经济贸易部门工作,对国际结算、国际贸易理论有一定的能力要求;金融学专业学生主要在银行、证券、投资。保险及其他经济管理部门从事相关工作,相对而言对金融事务能力要求较高。整个经济金融环境需要更多的是应用型经济人才,而不是理论型人才,当前学校必须调整培养人才思路,审视市场需求,注重跨专业实践,从而持续为市场发展提供科研与人才支持。以泛金融综合实验室将金融市场主体机构搬进实验室,运用当前最新技术(大数据、云平台、仿真),统筹银行、保险、证券专业,培养一专多能的复合型人才,进一步提高院校的品牌专业建设与影响力。该应用经济学虚拟仿真实训中心建设分为三大部分:银行保险模拟实训区、智慧经济金融实训教学区、仿真期货研究中心。

1、 银行保险模拟实训区

银行保险模拟实训区包括了智慧银行区(银行实训区)、综合保险区(保险实训区)。

智慧银行区的规划特色是基于未来银行发展趋势必然朝着智慧银行发展理念的基础上打造而成的,从硬件到软件搭配上,构建了一个完全仿真大数据融合实时闭循环商业智能智慧银行,以培养学生能够超前融入到未来银行环境中的能力。同时为了营造真实的大金融环境和智慧门户平台,使智慧银行区以智慧化手段和创新的思维模式来实现银行业务。该智慧银行区还与证券、保险模拟实训区相结合,并通过云平台的软件管理功能及资源共享功能,实现各个机构部门的大金融数据互通、业务互通。

综合保险区根据需要可以分为业务部、计赔部、综合部、代办部、理财区、营业部等,全仿真保险公司业务架构,在业管部学生可以办理承保、核保业务,理赔科可以办理理赔、核赔业务,计财科可以办理台账管理、财务管理业务,代办部、营业部可以办理保险公司资料录入、前台业务登记等业务。满足保险学、财产保险、人身保险、保险营销、保险业务实践等课程实验教学。

在打造智慧云平台的基础,为了提升学校教学水平,解决年轻一代求学和就业的方向问题,降低整个社会的人才培养成本,让“智慧的人更智慧”。我们还从数据、实验、教学、研究等方面提供资源,整合银行与保险两大板块的资源。以下是实验资源构架图:

2、智慧经济金融实训教学区

智慧经济金融实训教学区的教学特色的规划特色就是把把现实中金融机构及证券交易所的营业环境搬到实验室,从硬件到软件上最大程度的仿真,以满足金融发展趋势提出的金融人才培养需求。实验中心把证券、银行、保险模拟相关实操教学的建设纳入统筹计划内,通过云平台的软件管理功能及资源共享功能试各个机构的部门业务互通、底层数据互通、教学互通、管理互通、实验实践互通。

3、仿真期货研究中心

基于辽宁区域特色期货金融资源,建设区域乃至全国领先的期货量化金融仿真实验中心仿真实验中心,打造集期货仿真模拟、细分领域专项研究、期货量化策略研究、对外合作交流、智能化管理等功能于一体的国内领先仿真期货综合实验室。在高仿真的软硬件环境下,帮助学生快速对期货市场运作、期货实务操作、金融相关业界实际业务流程以及量化投资分析工具上手,具备金融机构所要求的复合创新型期货人才要求。

2-2-1-1 应用经济学虚拟仿真实验分室的教学资源

经济系统是一个典型的非平衡的开放系统,具有多层次、多形式和多功能性。金融作为现代经济的核心,上述特征尤为显著。认识和发现经济金融系统中存在的因果关系及其微观形成机理,是经济、金融专业的学生必须具备的能力。但这也是传统教学方式难以展现的部分。

1、虚拟仿真实验解决的问题和面向的专业

目前,本平台的虚拟仿真实验项目主要针对以下实体实验无法展现的内容展开:

①经济系统中的风险传染,②信息冲击下的金融系统崩溃和预警,③金融市场中多主体的行为决策与动态优化,④大型金融机构前中后台综合管控机制等虚拟仿真实验,为经济学、产业经济学、金融学和金融工程等专业本科、研究生教学工作提供直接支持。

2、典型实验项目

实验项目 1:股票投资虚拟仿真实验

1)实验内容

l 运用股利贴现模型、CAPM 模型、套利定价理论和技术分析理论等,对股票的内在价值做出评估;

l 根据股票估值结果制定股票交易策略,并通过虚拟仿真交易系统下单,包括银证转账、订单提交、委托成交、等待撮合等;

l 通过查询中心了解交易历史和现况,以及教师点评,为制定下一步投资策略提供信息;

l 通过违规记录查询,确认操作符合竞赛要求,若出现违规,在竞赛违规校正期内及时校正。

2)实验功能和效果

l 通过虚拟仿真交易,了解真实市场上股票的分类、交易规则和交易流程;

l 通过虚拟仿真交易,掌握股票的基本面分析、技术分析、财务报表分析方法,掌握股利贴现模型、CAPM 模型、套利定价理论、行为资产定价理论等权益估值方法;

l 通过虚拟仿真交易,将股票投资理论和股票投资实践相结合,学会运用各类估值模型、分析指标和资讯信息进行选股和择时;

l 通过虚拟仿真交易,形成正确的投资理念、培养良好的市场直觉,并具备对股票投资交易策略进行评价的能力。

                  学生开发基于网络舆情的股票交易系统

实验项目 2:期货和现货套利组合投资虚拟仿真实验

1)实验内容

l 运用风险中性定价理论、套利定价理论、B-S 公式、二叉树模型、CAPM 模型等,对股指期货和股票的内在价值做出评估,寻找套利机会;

l 根据估值结果制定期限套利量化交易策略,并通过虚拟仿真交易系统下单,包括银证转账、订单提交、委托成交、等待撮合等;

l 通过查询虚拟交易中心了解交易历史和现况,以及教师点评,为制定下一步投资策略提供信息;

l 通过违规记录查询,确认操作符合竞赛要求,若出现违规,在竞赛违规校正期内及时校正。

                     期现套利投资虚拟仿真实验

2)实验功能和效果

l 通过虚拟仿真交易,了解真实市场上股指期货和现货套利的交易规则和交易流程;

l 通过虚拟仿真交易,掌握风险中性定价理论、套利定价理论、B-S 公式、二叉树模型等金融衍生产品估值方法;

l 通过虚拟仿真交易,将股指期货投资理论和股指期货投资实践相结合,学会运用各类估值模型、分析指标和资讯信息制定量化交易策略;

l 通过虚拟仿真交易,形成正确的投资理念、培养良好的市场直觉,并具备对量化交易策略进行评价的能力。

                       学生组建数量化交易策略库

实验项目 3:商业银行信贷业务及评级授信虚拟仿真

1)实验内容

l 通过信贷业务操作虚拟仿真是学生了解商业银行客户信息管理、信贷业务管理、信贷风险管理、信贷资产管理的基本流程和技术;

l 通过评级授信虚拟仿真通过对行业特点和企业基本经营环境的全面分析,抓住企业各风险要素,对企业的经营战略和资源进行定性和定量分析,对企业的财务状况及未来经营绩效进行评价和预测,并通过一系列过程控制来保障企业风险评价的准确性、客观性、可信性和科学性。

2)实验功能及效果

l 让学生充分了解银行各类信贷的整体管理流程,对银行的信贷业务管理、风险管理、资产管理和报表管理有全面的认识,了解贷前、贷中和贷后各个阶段商业银行中客户经理、信贷调查员等不同岗位的权责范围和工作内容;

l 在一个现代商业银行信贷业务仿真模拟教学环境中,具有一定的超前性和开放性,为学生掌握金融业务的软件和硬件新产品的开发与研究提供实验环境;为教师提供一个研究和分析现代商业银行信贷业务系统的实验平台。

                     银行信贷系统虚拟仿真实验系统框架

实验项目4:商业银行综合业务操作虚拟仿真

1)实验内容

l 个人储蓄系统虚拟仿真:个人储蓄系统是银行柜台用来处理个人业务的系统,包含了通用模块、一般查询、个人储蓄业务、个人贷款业务、个人理财业务、信用卡业务、银行会计分录、会计报表、报表打印、教学案例、考试系统、系统流程等模块;

l 对公会计系统虚拟仿真:对公会计系统是用来处理公司客户或单位客户的业务处理系统。包括了通用模块、信息查询、对公存贷、结算业务、报表打印、凭证样式、教学案例、系统流程、对公会计分录、会计报表等模块;

l 外围业务系统虚拟仿真:商业银行实训平台外围业务系统主要包含了磁卡及密码小键盘支持系统、存折打印支持系统、信用卡系统等。

2)实验功能及效果

l 学生可以通过本系统将所学的银行理论知识与现代商业银行业务管理系统相结合,通过对本系统的模拟实验操作,充分理解所学的银行理论知识与实际应用系统的联系;

l 让学生通过仿真实验更好地理解现代商业银行综合业务系统中核心会计,即并账制。核心会计系统代表了先进银行系统的一个主要特点,也是目前国内商业银行系统发展的一个新趋势。把传统会计系统的一些功能包括对公业务和各业务帐户的明细核算分散到各个应用中去,不以公、私业务及业务部门来划分系统,加强会计的分析管理功能,将大会计系统转为总帐系统,将核算会计向管理会计过渡;

l 采用与商业银行完全一样的业务操作流程,学生通过模拟操作银行业务,达到身临其境地体验银行各类角色的效果。允许学员扮演银行实际工作中的各种特定角色(如会计、储蓄、出纳、贷款、报表管理、综合查询、个人客户、企业客户等),通过联机交易,分工体验到银行的实际业务环境,从信息化的高度全面把握银行的业务流程,达到现代化商业银行从业人员就具备的高素质;

                   商业银行综合业务仿真系统界面

l 在一个现代商业银行综合业务仿真模拟教学环境中,具有一定的超前性和开放性,为学生掌握金融业务软件和硬件新产品的开发与研究提供实验环境。

3D金融银行业务系统仿真示例

实验项目 5:结构化产品定价与风险评估虚拟仿真实验

1)实验内容

l 某投资银行计划发行一个新的结构化产品,该产品的投资者可以较低的价格跟踪沪深300 指数(2013 10 15 日收盘价约2468 点)的波动。其条款如下:发行日:2013 11 1 日;到期日:2014 4 30 日;最后交易日:2014 4 29 日;结算日:2014 5 1 日;执行价:2100 点;赎回价:2150 点;

l 强制赎回条款:若沪深 300 指数在到期日前触及赎回价,产品被强制赎回;投资者收益为赎回事件发生当天沪深300 指数的最小值与执行价之差(若为负,则收益为0);

l 到期收益:到期日收盘价与执行价之差;

l 建立沪深 300 指数模型,并依托国泰安数据库和自主研发的数据建模平台估计模型参数;

l 利用自主开发的模拟仿真平台生成虚拟股票数据,对上述结构化产品进行极端情形分析和随机情景分析,在此基础上对结构化产品进行定价和风险评估;

l 针对产品特征论证发行商风险,产品的收益损失特性,并提供营销手段与交易策略建议,最终形成实验报告。

2)实验功能和效果

l 掌握结构化金融产品定价与风险评估的一般原理,运用情景分析法分析特定结构化产品的风险收益特征;

l 了解国际通用的定价模型,掌握根据市场以及模型特征选择合理的预制模块,来实现标的股票的建模设计与虚拟仿真;

l 深入理解结构化产品各个组成部分对价格以及风险敞口的影响,进而计算结构化产品价格与相关统计量;掌握运用虚拟仿真平台解决复杂金融衍生品定价与风险评估问题的技能;

l 了解结构化产品的学术研究前沿,初步认识产品价格的偏度特征对投资者行为的影响,开拓学生视野、激发学习热情,并培养其产品设计能力。

                     结构化产品定价与分析软件

实验项目 6:金融市场微观结构虚拟仿真实验

1)实验内容

l 异质投资者构成的限价指令驱动市场的价格发现机制,基本面分析投资者和技术分析投资者对市场价格趋势的影响;

l 股票市场价格波动的典型化事实:诸如尖峰厚尾,波动率聚集和长记忆性等与限价指令驱动市场微观结构的相互关联;

l 涨跌停板制度对市场流动,波动性和过度反应的影响,以及对市场制度设计

的合理性和有效性进行分析。

2)实验功能及效果

l 掌握股票市场的微观交易机制,和连续双向拍卖市场中订单流的动态演化特征,通过虚拟仿真使学生了解股票市场的运行原理;

l 通过限价指令驱动市场虚拟仿真实验平台,使学生熟悉证券市场投资策略的产品创新、交易机制的设计、监管政策的制定等;

l 通过对中国证券市场的一些特定交易规则及市场调控的政策效应进行虚拟仿真,使学生能更灵活、多角度探讨市场最优制度设计。

实验项目 7:算法交易增广虚拟仿真实验

1)实验内容:

l 通过虚拟仿真研究算法交易对执行成本的影响。包括:统计过去30 个交易日机构投资者买入(卖出)样本股票的平均下单规模和平均交易成本;在模拟交易平台分别设定一个VWAP 算法和动态IS 算法订单,并使其目标买入(卖出)量等于机构投资者的平均订单规模;算法交易以9:30 开盘作为交易的起点,以15:00 收盘作为交易的终点;计算模拟市场上VWAP 以及动态IS 算法的执行成本,并与机构投资者进行比较;

l 通过虚拟仿真研究算法交易对市场质量的影响。包括:将样本股票所有买(卖)单按申报量从大到小排序,然后在前20%的订单中随机选取占当日买入(卖出)申报总量10%的订单,将其申报量分别赋予算法交易订单后从订单库中删去;算法交易订单以原订单的进入时间作为交易的起点(若原订单在集合竞价阶段申报,则将9:30 开盘作为算法交易的起点),以15:00 收盘作为交易的终点,以原订单的买卖方向作为交易的方向;计算模拟市场上样本股票的各种质量指标(流动性指标与波动性指标),将其与未加入算法交易的真实情况进行比较;

l 通过虚拟仿真研究算法交易对交易系统的影响。包括:统计样本股票模拟交易的每分钟订单数量(包括买卖申报与撤单);计算真实情况下样本股票每分钟的订单数量,并估计算法交易导致的订单数量增长幅度。

2)实验功能及效果

l 使学生了解增广实验的意义,以及运用证券交易与投资创新实验仿真平台进行增广实验的基本方法,并掌握VWAP 算法、IS 算法的基本原理及其Java SE编程实现;

l 通过增广实验,在整个虚拟仿真过程中交互使用历史订单簿数据,开展真实股市投资者与虚拟人工股市中算法交易主体并存、互动的社会嵌入式仿真,解决了人工股票市场结论的可靠性与现实接轨能力有待商榷这一不足之处,既保证了模型的现实性与可信性,也保留了实验的可控性与前瞻性。可以更好地从交易执行成本的角度为中国交易者的算法交易选择给出建议指导,从算法交易对市场流动性及波动性影响的角度为中国证券市场监管者给出可靠建议,从算法交易对订单强度影响的角度为中国证券交易所的IT 基础设施建设提供切实参考;

l 通过增广实验,使学生开拓视野,提升知识及能力水平;对有能力的学生可以引导其自学TWAPTime Weighted Average Price)、VILVolume in Line)等多种算法交易算法并编程实现,进行更深入全面的比较研究。

          证券交易与投资创新实验仿真平台核心过程说明图

实验项目 8:商业保险业务虚拟仿真

1)实验内容

l 通过保险业务操作虚拟仿真是学生了解商业保险客户信息管理、保险业务管理、保险风险管理、保险资产管理的基本流程和技术;

l 通过保险业务虚拟仿真通过对行业特点和企业基本经营环境的全面分析,抓住投保者各风险要素,对个人乃至企业的情况和资源进行定性和定量分析,对企业的财务状况及未来经营绩效进行评价和预测,并通过一系列过程控制来保障企业风险评价的准确性、客观性、可信性和科学性。

2)实验功能及效果

l 让学生充分了解银保险的整体管理流程,对商业保险公司的保险业务管理、风险管理、资产管理和报表管理有全面的认识,了解保前、保中和保后各个阶段商业保险公司中客户经理、信贷调查员等不同岗位的权责范围和工作内容;

l 在一个现代商业保险业务仿真模拟教学环境中,具有一定的超前性和开放性,为学生掌握金融业务的软件和硬件新产品的开发与研究提供实验环境;为教师提供一个研究和分析现代商业保险公司保险信贷业务系统的实验平台。

实验项目 9:经济金融建模虚拟仿真实验

1)实验内容:

l 通过虚拟仿真研究对金融数据进行数据分析和数据挖掘。包括:统计过去30 个交易日机构投资者买入(卖出)样本股票的平均下单规模和平均交易成本;利用EFM进行高频数据分析,在成交价和成交量的基础上计算衍生字段:分时开高低收价,分时成交量,分时成交额、相对买卖差价,买卖方向;

l 通过虚拟仿真研究,利用高级算法对金融数据进行数据挖掘。包括:高级模型包含粗糙集、K-mean聚类分析、支持向量机、蚁群算法、神经网络,数据来源包含宏观的CSMAR数据库,还含有微观的量化投资数据库、高频数据库,从宏观与微观两个层面对经济金融现象进行解释分析。

2)实验功能及效果

l 使学生了解数学建模的意义,以及运用高频数据与CSMAR宏观数据进行建模实验的基本方法,提供matlabSAS两大开发平台;

l 通过建模实验,在整个虚拟仿真过程中交互使用高频交易数据,开展真实股市投资者内在运行机制原理分析,,在验证模型的现实性与可信性的前提下,也保留了实验的可控性与前瞻性。可以更好地从数据挖掘的角度为中国交易者的个股选择给出建议指导;

l 通过建模实验,使学生开拓视野,提升知识及能力水平;对有能力的学生可以引导其自学支持向量机、蚁群算法、神经网络多种高级算法并编程实现,进行更深入全面的比较研究。

                经济金融建模仿真平台核心过程说明图

实验项目 10:商业银行虚拟仿真实验

(一)、实验课程

《商业银行经营与管理》、《投资银行学》、《中央银行学》

(二)、实验项目

1、商业银行综合业务模拟实验

2、央行主要岗位模拟实验与货币工具运用模拟实验

3、银监会对商业银行的评级和监管模拟实验

4、企业运营模拟与关键岗位模拟实验

5、商业银行信贷风险管控模拟实验

6、商业银行客户营销模拟实验

(三)、实验目的

通过模拟的交易环境加强学生对现代商业银行理论知识的理解,训练学生的实际动手能力,满足专业课程的实验、实习及课程设计任务,为学生走向社会提供一个理论结合实际的实验环境,促使学生关注最新的商业银行信息技术,训练学生的实际操作能力,为金融专业及其它相关专业的学生走向社会提供一个理论结合实际的实习环境。

(四)实验内容

1、商业银行综合业务教学系统
本系统基于国内商业银行现役综合业务系统较新的版本转型教学化而来的,UNIX平台和windows跨平台应用,业务功能完全仿真,真实地体现现代商业银行的管理和业务流程。系统基于目前国内商业银行最新一代的综合业务系统的业务模式即综合柜员制的管理和操作模式。

2、商业银行国际业务教学系统

商业银行国际业务教学系统 C/S V2.0,基于WINDOWS平台,采用C/S结构,系统与现役商业银行业务操作一致。以真实的角色体验商业银行国际业务 ,根据业务操作的需要,分别授予不同的操作权限,形成一套集中、安全、快速的控制体系,业务系统可以根据实际业务自动产生对应的SWIFT电文;提供配套的政策法规教学帮助(系统自带),系统可实现日初日终账务日切功能。

该系统采用最新的三层体系结构,由操作前台、中间处理服务器和数据库服务器三部分组成,全行的国际结算业务数据集中在总行的数据服务器,提高了系统的运行效率、安全性和可维护性。操作前台为业务处理的操作界面,处理数据的录入、简单检查、查询、经办、复核、授权和资料的维护等操作。中台为业务处理部分,进行数据库连接、业务规则和数据检查、日初、日终、对前台传送的数据进行相应的处理、生成传票、对帐务进行处理等操作。并与报文清算系统相连,自动接收、发送报文。

3、商业银行信贷管理模拟教学系统

商业银行信贷管理教学系统基于WINDOWS平台,采用B/S结构,系统以真实的角色体验商业银行在贷款审批的过程中不同角色的职能,信贷业务的申请进行、审查、审批、签订合同等工作全过程实现电子化管理。系统涵盖信用评估、授信、个人\企业贷款、贷后检查、五级分类、资产管理等。

该系统以总行为数据中心的集中式数据网络系统方式,把信贷日常业务处理、决策管理流程、贷款和客户资料积累、贷款风险预警、贷款分类评级、数据统计分析、信贷监督检查等信贷管理的各个环节和过程全部纳入计算机处理,形成覆盖信贷管理全过程的科学体系,实现网络互联、信息共享、查询自如、方便快捷的信贷电子化管理系统;也就是把信贷管理过程形成的所有资料用计算机存储和记录,通过现代信息网络技术,形成一个完善的信贷电子化管理系统,将信贷规章制度和具体要求转化为电脑程序进行控制,创造“制度制约+机器制约”,实现“以客户为中心、以优质客户发现为前提、以时常和行业为导向、以风险控制为核心、以量化分析为主”的新的信贷管理机制。系统采用银行信贷管理系统流行的B/S结构,在操作的过程中系统提供了许多的提示,使用户可以清楚的了解到操作中碰到的问题。系统提供了工作台、公告板等功能使用户方便的了解到需要进行的操作。系统仿真、稳定、通用易用;适用全国性大赛,近2年有全国性大赛的案例。

4、全球金融资讯分析终端(市场通)
该终端充分运用全球领先的国际化投资分析理念和中韩10余年累积的金融工程分析技术,为客户提供全球60多个国家或地区的股票、基金、债券、期货、外汇、金融衍生品等上万种金融产品更快捷、更精确、更深入的信息。此外,强大的图表指标分析、金融衍生品分析、投资组合与风险管理分析、MVX实时动态数据导出、个性化界面组合设定等功能,为追求高端金融期货研究与量化分析的用户提供前所未有的金融决策工具支持和投资体验。

实验项目 11:期货交易虚拟仿真实验

(一)、实验课程

《期货交易与贸易》

(二)、实验项目

期货交易与贸易
(三)、实验目的

1、理解并掌握期货交易的主要原则和规则。

2、熟悉模拟交易系统的基本操作。

3、熟悉系统页面分类和商品报价窗口、K线图窗口、分时价量表、咨询窗口的功能。

4、了解期货交易和证券现货交易的差别。

(四)、实验系统

1、股指期货套利系统

股指期货套利系统是集“套利策略构建、机会监控、快速交易”于一体的投资交易平台。系统不仅包括套利策略构建、机会监控、智能下单等模块,还配备了历史数据库(高频数据和基本面数据)、仿真撮合交易等独有策略模型验证功能,满足金融衍生产品模型构建、回溯检验、实时仿真交易和直接投资等整个投资业务流程的需要,是目前国内唯一能够支持完整业务流程的系统。

系统原型源于具有十多年股指期货交易实战经验的台湾宝来,曾帮助宝来成为台湾金融衍生产品投资最强势的机构。结合大陆实际情况进行改造,已为国信证券等金融机构实施建设,并经过中金所模拟交易实际运行的检验。

2、虚拟交易所是一个高度仿真的模拟投资实训平台。系统仿真度高、品种齐全、竞赛功能强大、操作简单、管理方便,同时采用了当前最流行的B/S架构。通过举办各种规模的模拟投资赛事,达到帮助学员投资理论与实务操作充分结合训练和提升的平台系统。以竞赛形式实施教学过程,由简单到复杂,通过竞赛让学生循序渐进的体验并掌握投资理论知识。包括单品种金融商品投资、组合投资、组合投资风险管理等。

(五)实验内容及步骤

1、登录期货模拟交易系统,进行委托下单,模拟多头及空头期货交易。

2、登录行情系统,了解期货商品报价的窗口、K线图窗口、分时价量表主要指标的含义。

3、运用基本面分析和技术分析方法,制定期货投资操作策略并用于实盘模拟。

实验项目 12:证券投资分析虚拟仿真实验

(一)、实验课程

《证券分析》、《证券投资学》

(二)、实验项目

1、证券交易流程模拟实验

2、上市公司行业分析实验

3、上市公司综合分析实验

4、K线和移动平均综合模拟实验

5、切线理论与趋势分析模拟实验

6、形态分析综合模拟实验

7、波浪理论分析实验

8、技术指标分析综合模拟实验

(三)、实验目的

1、 证券交易流程模拟实验:熟悉并会使用股票行情分析软件系统,会通过行情软件系统分析股票或者债券的K线、移动平均线、形态、技术指标等技术面信息以及公司业绩状况、行业地位、竞争实力、财务状况等基本面信息,通过这些信息的分析建立自己的证券投资组合;通过该实验,使学生掌握股票交易的基本操作方法,熟悉开立帐户、委托、交割等交易步骤,会对股票交易的除权、盈亏进行计算。

2、我国上市公司行业分析实验: 通过证券分析软件上有关上市公司行情的分析熟悉产业的发展状况与发展前景对该产业上市公司股票价格的影响;发现并统计近几年在证券市场表现优异的我国上市公司的行业特征;熟悉不同产业的上市公司证券市场表现与其经营业绩水平的关系;了解我国证券市场上上市公司的主要行业分类方法与行业分类指数。

3、我国上市公司综合分析实验:熟悉如何从公司竞争地位,技术和管理水平、市场占有率和发展潜力、公司盈利能力及增长性等方面收集有关资料来分析上市公司的基本素质;熟悉如何收集和分析上市公司的有关财务信息资料;了解和熟悉我国上市公司不同的资产重组方式以及这些重组方式对上市公司的影响。

4、K线和移动平均综合模拟实验:通过该实验使学生掌握分时走势图、K线图、移动平均线的基本图形特征;熟悉分时走势图各个要素,会对K线图进行走势分析;会运用移动平均线对市场行情进行买入点和卖出点的判断。

5、切线理论与趋势分析模拟实验:通过该实验使学生掌握趋势的三种方向和三种类型、支撑线、压力线、趋势线和轨道线的基本图形特征;熟悉支撑线、压力线、趋势线和轨道线的各个要素,会对支撑线、压力线、趋势线和轨道线的进行走势分析;会运用支撑线、压力线、趋势线和轨道线的对市场行情进行买入点和卖出点的判断。

6、波浪理论分析实验:通过该实验使学生掌握波浪理论价格走势的基本形态结构;熟悉浪的合并和浪的细分、基本特征及波浪的层次;通过分析波浪理论在股票价格运行轨迹中的运用,预测股票价格未来走势,从而指导投资者的行为。

7、技术指标分析综合模拟实验:通过该实验使学生掌握技术指标分析的基本方法;熟悉MACDRSIKDJOBV等技术指标的图形特征、分析要点和应用原则;能熟练地运用技术指标进行股票行情分析。

(四)、实验系统

融资融券系统是一套具备融资融券功能的高仿真模拟投资交易系统。通过系统,学生不仅能够熟悉普通证券的真实交易过程,还能够掌握信用交易的全过程。对学生证券投资方面的综合能力培养具有重要意义。
   融资融券系统包括交易端及管理端,交易端支持担保物转入转出,担保物买入(信用买入),担保物卖出(信用卖出),融资买入,融券卖出,卖券还款,直接还款,买券还券,直接还券,现金还券等委托类型及相关查询;管理端包括账户管理,交易所担保物管理,交易所标的证券管理,证券公司净资本,融资融券专用资金账户及专用证券账户管理等一系列灵活的管理模块,支持对证券公司担保物,标的证券,风控指标,融资融券息费,维持担保比例,负债偿还规则及强制平仓等参数进行灵活设置。

(五)、实验内容及步骤

1、证券行情分析模拟
1)登录模拟证券交易系统,熟悉并会使用该系统。

2)利用模拟证券交易系统提供的信息进行股票或者债券的K线、移动平线、趋势线、形态、技术指标等技术面分析。

3)利用模拟证券交易系统提供的信息进行上市公司业绩状况、行业地位、竞争实力、财务状况等基本面分析。

4)通过分析讨论,建立证券投资组合,并把所建立组合的原因记录下来。

2、我国上市公司行业分析实验:

1)登录证券分析系统,进入所要分析的界面,运用行情显示模块选择分析对象;

2)找出我国证券市场属于周期性产业,新兴产业,成长性产业,技术密集型产业中表现优异的上市公司和表现一般上市公司各一个,比较其差异并分析其原因.

3)分别找出我国证券市场上十个行政垄断和自然垄断的上市公司,观察其市场表现,分析其发展潜力。

4)比较两公司的异同点,并分析行业背景对上市公司发展的影响。

5)通过行业分类指数,找出近两年在我国证券市场上表现优异的行业,并分析其行业发展的政策和宏观经济因素。

6)观察我国百货类上市公司的市场表现,分析其未来的行业发展潜力。

3、我国上市公司综合分析实验:

(1)登录证券分析系统,进入所要分析的界面,运用行情显示模块选择分析对象;

(2)分析公司的同业竞争地位,技术和管理水平、市场占有率和发展潜力、公司盈利能力及增长性;并由此对该公司未来的发展和股票行情做一个概括的预期;

(3) 以一个公司为例,通过证券分析软件上有关上市公司历年的有关财物报表和有关财物分析资料分析上市公司的有关财务信息;

4)通过证券分析软件找出扩张型、收缩型和内变型资产重组方式的上市公司各一个,比较这些方式的异同以及股票行情走势的影响。

4、K线和移动平均综合模拟实验:

(1)登录证券分析系统,进入所要分析的界面,运用行情显示模块选择分析对象;(2)进行分时走势图、K线图、移动平均线的分析练习;

(3)熟悉不同的K线组合形态,找出3种反转的K线组合形态图形;将练习过程、分析结果填入实验报告中。

5、切线理论与趋势分析模拟实验:

(1)登录证券分析系统,进入所要分析的界面,运用行情显示模块选择分析对象;

(2)进行支撑线、压力线、趋势线和轨道线的分析练习;

(3)熟悉不同的支撑线、压力线、趋势线和轨道线的形态;

4)将练习过程、分析结果填入实验报告中。

6、波浪理论分析实验

1)登录证券分析系统,进入所要分析的界面,运用行情显示模块选择分析对象;

2)查找大盘和个股K线走势图。

3)观察大盘和个股走势图,找出波浪的合并和细分,并对这些波浪的层次形态进行分析;

4)熟悉形态、比例和时间在波浪分析中的作用;

5)将练习过程、分析结果填入实验报告中。

7、技术指标分析综合模拟实验

1)登录证券分析系统,进入所要分析的界面,运用行情显示模块选择分析对象;

2)运用行情显示模块选择相关的技术指标;

3)进行技术指标分析练习;

4)将练习过程、分析思路、决策判断填入实验报告中。

实验项目 13:金融工程实验室虚拟仿真实验

(一)、实验课程

《金融工程学》、《金融风险与管理》

(二)、实验项目

1、金融投资交易模拟实验

2、金融软件运用模拟实验

3、金融信息数据与挖掘模拟实验

(三)、实验目的

金融的不断创新与发展,催生了不同层次、不同领域的各类型社会岗位需求。这种社会需求表现在:或从硬件工程实施到软件数据应用、或从金融资产定价到金融理财产品咨询业务、或从金融监管到反监管创新、或从量化策略投资到金融数据的统计分析、或从金融创新竞争到金融体系制度建设等等。针对金融机构不同岗位需求,通过相关实验培养经济金融、数据、统计、计算机、管理学交叉学科的复合型人才。

(四)实验系统及内容

1、量化投资综合平台

量化投资实验中心通过与具有量化投资经验的金融机构合作,引进国内外量化投资从策略开发、回验到定量分析、套利和风险控制的先进案例,并落实到实验中心软件系统当中,达到高仿真模拟量化投资环境效果,并将其融入教学内容、教学案例、实验课程和测试考评当中,优化高校实践教学模式。

教学系统全程以图形、图表形式鲜活呈现出量化算法、投资策略、套利机会和交易流程,让学生身临其境体验量化投资的整个流程。

量化投资综合软件平台核心框架由投资交易模拟平台、投资算法研究平台、金融资讯展示平台和实验教学辅助平台四大平台模块搭建而成。

1)金融资讯展示平台

引入全球顶尖的国际化投资分析理念和金融工程分析技术,提供量化投资所需的六十多个国家的股票、债券、期货、外汇、金融衍生品等行情,支持基金、投组的创建与分析,优化策略分析,以资讯与精准的市场投组分析引领量化策略。

2)投资算法研究平台

涵盖经济学、金融学近150 个模型;建模实验流程完整,教学环境高度仿真;模型介绍全面,便于系统化理解;DIY 建模功能,随意设计完成建模练习;模块化、流程化,提升动手实践能力。

3)量化投资研究模拟交易平台

与整个量化投资流程紧密结合,平台集实时行情资讯展示、量化金融数据、量化策略开发与回测、基金产品设计、虚拟与实盘交易等功能于一体;支持策略师、基金经理、交易员、后台管理员几个主要角色的功能需求; 满足从期货公司、证券公司、私募、基金公司到专业个人投资者等一系列从事量化投资的中高端客户使用需求。

4)实验教学辅助平台

通过配置开放式、门户式实验管理平台,有助于院校实现统一化的实验软件管理、硬件配置、课程安排、实验监控,是为实验室量身定制的智能化管理系统。

2、金融信息数据与挖掘系统

金融数据挖掘实验中心旨在培养具备海量金融数据采集、管理、分析和挖掘等方面专业素养的应用型、复合型、创新型人才,要求学生具有良好数学基础和较强编程能力,掌握信息科学与计算科学的基本理论、方法与技能,具备对经济金融活动进行定量分析、科学预测和应用软件开发能力,以胜任银行、证券公司、保险公司、投资公司等金融保险领域的证券投资分析、金融产品研发、金融理财等相关工作。同时,实验中心又要满足金融工程、金融理论和金融复杂性等前沿领域研究的需要,将研究成果应用于我国金融企业的发展与金融改革的深化,为政府和企业提供相关决策咨询和技术支持。

2-2-2大数据应用与商业智能实验分室

大数据的分析与应用技术已经成为产业界和学术界的研究热点,而培养高素质的大数据的分析与应用人才,也成为高等教育的重要任务。智慧城市中活动主体会产生海量实时数据,如何有效收集、处理和管理城市基础数据是虚拟仿真中心各个实验室的必须解决的问题。

大数据分析与应用虚拟仿真实验室利用高性能的硬件实验环境以及复杂的软件实验环境,结合虚拟化技术、云计算技术和网络技术,在统一部署的计算机集群上构建大数据分析与应用虚拟仿真实验平台。平台可以为各个实验室提供低成本的海量数据处理与管理基础环境。平台主界面如下图所示。

虚拟仿真实验平台为全校师生提供了开放性的资源与实验环境,教师可以利用校园网接口,在线配置教学实验的虚拟环境,供学生使用;学生可以远程调用虚拟环境构建私有实验环境进行实验。目前,仿真实验平台已应用于《分布式系统》、《分布式数据库》、《并行计算》、《数据挖掘》等课程中。

一.实训教材

学校与深圳国泰安公司、中科院深圳先进院强强联合,优势互补,结合主流的大数据存储、分析与挖掘方法,为精品课程和实验实训课程编写教材。系列教材不仅可以为精品课程和实训实验课程的讲解提供依据,也可以为师生学习研究大数据打下坚实的基础。教材理论与实践相结合,充分发挥国泰安和中科院深圳先进研究院的大数据理论应用和人才优势,为实验室建设增砖添瓦。从理论方面来看,我们通过研究国内外文献编写的教材,可以帮助学生在大数据理论方面打下扎实的基础;而从应用角度来看,系列教材提供丰富的行业应用案例,可以让学生学习致用,理论与实践相结合。

二.课程序号 课程内容

1Hadoop大数据平台基础

2HBaseHive实践

3Mathout 实践

4NoSQL 类数据库技术

5Spark平台基础

6R语言实践

7.数据可视化基本原理与方法

8Storm平台基础

9.分布式数据库实践与行业应用

10.机器学习与模式识别

11.Datawatch数据可视化与案例实践

12.金融大数据收集与挖掘方法行业实践

13.物联网与智慧城市

14.Hadoop企业应用实战

三.功能与效果

1.培养高校大数据方向的优秀教师,教学理论与实践应用相结合,让教师有大数据方面切实的科研经历

2.教师综合教学能力全面提升, 培训完成后可以担当一门或几门课程的教学以及培训,可以开始独立的承接某些大数据相关的课题

3.为院校大数据科研的发展和提升提供必要素材和指引

4.为大数据行业(电力、通信、金融、医学、管理、物联网、海洋等)输送顶尖的专业型技术人才

5.建立全国性大数据技术与应用标杆性专业,推动产学研一体化提供帮助

分类

平台软件名称

简介

大数据采集

国泰安大数据采集系统

数据采集是从数据源收集、识别和选取数据的过程,也数字化电子扫描系统的记录过程以及内容和属性的编码过程。大数据采集系统就是专门负责大数据采集工作的平台。

Flume

Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。

Kettle

Kettle是一款国外开源的ETL工具,纯java编写,可以在WindowLinuxUnix上运行,数据抽取高效稳定。

大数据内容与存储

CSMAR数据库

CSMAR数据库是专门针对中国金融、经济领域的研究型精准数据库,包括股票市场、公司研究、基金市场、债券市场、衍生市场、经济研究、行业研究、海外研究和专题研究等11大系列,75个数据库

高频交易数据库

高频交易数据库是包含股票、基金、债券、权证、股指期货、商品期货,港交所证券在内的各类高频数据,及基于高频数据传输、更新、应用软件在内的一套整体的系统解决方案。

实时行情数据库

提供即时的股市行情、基金行情、外汇行情、债券行情等数据的平台,是一个最快捷最准确行情服务

HBASE(NoSQL

NoSQL:泛指非关系型的数据库,可以处理超大量的数据。

HDFS

HDFS是一个分布式文件系统。它是Hadoop体系中数据存储管理的基础。

大数据分析与挖掘

DataWatch

一款用于实时数据处理、数据可视化和大数据分析的软件。

R/Stata/ SAS/SPSS等

统计分析软件,如Stata 是一套提供其使用者数据分析、数据管理以及绘制专业图表的完整及整合性统计软件。

MapReduce

MapReduce:一种计算和编程模型,用于大规模数据集(大于1TB)的并行运算。

Mahout

一个用于机器学习和数据挖掘的分布式框架,区别于其他的开源数据挖掘软件,它是基于hadoop之上的。

大数据展示与可视化

国泰安大数据展示平台

一个能把大规模复杂数据形象的结合可视化技术展现出来的平台。

国泰安大屏幕管理系统

是一个采用独特的开发理念,突破了传统软件的各种瓶颈、技术创新的应用型高端软件系统。

国泰安信息多屏集成系统

一个特色化金融资讯展示屏,通过特色性的设计,包40寸液晶拼接屏与全球金融资讯分析系统(量化投资版)账号、万能大屏幕管理系统、软硬件一体化的集成系统

大数据智慧教学平台

Worklight

是一个用于开发管理企业App的平台。

实验数据管理模块

是用于构建统一的大数据研究实验室,对整个大数据研究实验室教学实验室的数据进行存储、处理、调用以及服务前段应用等的模块。

实验软件管理模块

以类APPSTORE模式支持全校各类专业实训软件的有机整合和有效管理,形成网络虚拟实验室访问通道,可以满足未来学院实验拓展与专业延伸的需要的模块。

实验资源管理模块

以资源共建共享为目的,以创建精品资源为核心,面向海量资源处理,集资源分布式存储、资源管理、知识管理为一体的资源管理平台。

实验教育管理模块

是一个运用最先进的技术手段与教育理念,形成了大数据实验教学资源配备、教学过程管理、教学结果反馈为一体的闭环系统。

(一)实验课程

《分布式系统》、《并行计算》、《分布式数据库》、《数据挖掘》

(二)实验项目

1. Hadoop系统构建与配置

2. Hadoop系统特性测试

3. Map/Rduce初级编程:数据去重

4. Map/Rduce高级编程:倒排索引

5. Hive的配置与连接

6. 大规模数据的聚类实验

(三)实验目的

1. 掌握Hadoop系统的安装与配置过程

2. 掌握Hadoop的系统特性

3. 掌握Map/Rduce编程的基本方法

4. 掌握较复杂的Map/Reduce编程技术

5. 掌握Hive的安装与配置过程,以及通过JDBC连接Hive的方法

6. 掌握hadoop系统下Mahout的配置方法,以及Mahout中并行k-means方法的使用

(四)实验系统

大数据分析与应用虚拟仿真实验平台中的虚拟集群实验环境。虚拟环境为由3台主机构成的小型集群。操作系统为Linux,用户名root,密码111111,系统中配有JAVA编辑环境,IP(域名)分别为:192.168.6.197(node3)192.168.6.198(node4)192.168.6.199(node5)

(五)实验内容及步骤

1. Hadoop系统构建与配置

1)实验内容

安装配置如下图所示的Hadoop分布式系统。

2)实验步骤

1)创建SSH密钥安全联机

Hadoop系统的一个特性就是无论是Master,还是Slave节点,其Hadoop系统设定都完全一样。为了降低负担,且维护每台节点都有相同的设置,最简单的方式就是设置了Master之后,通过SSH密钥证书的scp安全复制指令,无密码登录到其他节点上,并将文件传到节点上。

2)配置Hadoop系统

首先从Apache官方网站下载Hadoop安装包,我们下载的是hadoop-0.20.1.tar.gz,然后在每台主机上做如下配置:

a)将hadoop-0.20.1.tar.gz放到/home/king目录下,进行解压缩,得到hadoop-0.20.1目录,Hadoop不需要安装,只需要进行配置即可使用。

b)进行配置。首先进入解压后目录的conf文件夹,要修改的配置文件包括hadoop-env.sh/etc/profile core-site.xmlhdfs-site.xmlmapred-site.xmlmastersslaves

hadoop-env.sh中加入下面一行,用于指定java路径。

export JAVA_HOME=/home/king/jdk1.7.0/

编辑环境变量,添加HADOOP_HOME变量,使Hadoopbin目录下的指令加入到环境变量中。

# sudo gedit /etc/profile

在最后一行umask 022上面一行插入如下代码:

export HADOOP_HOME=/home/king/hadoop-0.20.1

export PATH=$HADOOP_HOME/bin:$PATH

编辑core-site.xml,因为Hadoop采用网页的方式对系统运行进行监控,core-site.xml就是对这种监控进行用户自定义配置的配置文件,因为默认的配置在core-default.xml中,这里只给出了最低配置,配置Hadoop系统在本地的目录和默认的文件系统及通信端口(默认8020):

配置hdfs-site.xml,设定文件的副本数:

配置mapred-site.xml,配置JobTracker节点及通信端口:

配置master文件,指定master节点:

配置slaves文件,配置slave节点:

至此,Hadoop系统的配置已经全部完成。

3)格式化Hadoop系统、启动Hadoop系统

在启动Hadoop系统之前,需要先格式化一个Hadoop系统,执行如下指令即可:

#hadoop namenode -format

如果顺利完成,则说明系统格式化完成,下面即可启动并使用Hadoop系统了,如果失败,则需要查看Hadoop安装目录中的logs目录下的日志了。

MasterNameNode上执行如下指令:

#start-all.sh

然后执行如下指令,查看Hadoop进程的启动状态:

因为node3同时充当masterslave,所以其上除了jps进程之外,还有另外5Hadoop相关的进程,分别是NameNodeDataNodeSecondaryNameNodeJobTracker TaskTracker。如果5个进程都正常启动,则说明Hadoop系统已经成功启动。然后去各个slave节点上执行同样的指令,如果有TaskTrackerDataNode进程,则说明该节点已经成功启动。

2. Hadoop系统特性测试

1)实验内容

在实验1中建立的Hadoop系统中做如下测试:

1)可扩展性测试

2)稳定性测试

3)可靠性测试

4)MapReduce词频统计测试

2)实验步骤

1)可扩展性测试

a)动态扩展

/conf/slaves文件进行修改,只留下node3这一个节点,启动Hadoop集群。登陆Hadoop监控页面http://node3:50070,查看Hadoop系统的运行状态,如下图所示:

通过监控网页,可以看到系统的启动时间,系统存储空间以及已用大小,当前处于活动状态的节点数及死亡节点数,图中给出的当前活动节点数为1,死亡节点数为0,当前系统配置容量7.38GB。通过点击Live Nodes可以跳转到Live Nodes监控页面,出现一个节点列表,通过节点列表,可以监控每一个具体的节点上的配置信息。如下图所示:

通过点击具体的某一个Node,可以进入监控该节点的页面,如下图:

显示node3节点当前存储的文件目录信息等。

通过执行如下的操作,实现系统的动态扩展:

a)把新机器的增加到conf/slaves文件中(Datanode或者Tasktracker则可跳过) ,将node4node5添加进去。

b)在新机器上进入hadoop安装目录(新机器已经成功配置Hadoop

$bin/hadoop-daemon.sh start datanode

$bin/hadoop-daemon.sh start tasktracker

过几分钟之后启动Hadoop系统的监控页面:

通过监控页面,发现,系统的容量已经达到了29.04GB,系统的活动节点数为3,死亡节点数为0,从而实现了系统的动态扩展。

b)动态缩减

Hadoop系统的缩减,可以通过删除conf/slaves中的节点来实现,我们在动态扩展后的系统的基础上实现动态缩减,删除conf/slaves中的node4node5项,然后在node4node5节点上执行:

$bin/hadoop-daemon.sh stop datanode

$bin/hadoop-daemon.sh stop tasktracker

MasterNamenode 执行如下指令,实现系统负载的平衡:

$bin/hadoop balancer

然后访问Hadoop监控系统,缩减后的Hadoop系统的监控显示的结果如下:

其他操作过程类似。

2)稳定性

默认情况下,每个文件块的大小是64MB,我们设定的副本数为2。这样,我们可以上传一个能够覆盖在3台节点上的文件来进行验证,比如我们上传了一个267MB的文件到HDFS

上传文件的指令如下:

#hadoop fs –put 3 input/3

上面的指令的意思是将本地当前目录下的文件3,传入到HDFS文件系统的/user/king/input/下,文件名字为3。通过Hadoop系统监控页面的Browser File System链接,就可以浏览到当前文件系统的目录和文件,如下图所示:

通过上图,看到当前链接的是node5提供的数据浏览服务。查看文件3的分布情况,点击文件3,出现文件3的浏览页面,如下图:

通过上图可以看到文件3被划分成了5个文件块进行存储,文件块的副本数为2,在三个节点上都有数据副本的分布。

然后直接将node4关机或者把node4节点的网络断开,再查看文件系统的目录,如果不发生改变,说明系统是稳定的。因为当前数据节点只有3个,且副本数位2,所以我们只能切断1台机器,如果系统规模足够大,且副本数更多,则允许更多的节点故障。

node5“发生故障”之后,node5已经不能连接到Hadoop系统上了,我们看到通过node4看到我们当前的文件系统的文件并没有发生任何变化,下面通过Hadoop系统监控页面看到活动节点数为2,死亡节点为1,系统正常工作。

3)可靠性测试

为了验证系统的可靠性,我们首先分析一下HDFS系统中的文件3的数据分布情况。 文件3的路径是/home/king/input/3。它有5个块组成,每个块有2个副本,分布情况如下图所示:

根据前面的映射关系,有下表:

如果node4发生故障,那么前4个块都损失一个副本,但是这些块仍然可以通过node3进行数据访问,第5个块的副本不受影响,这样用户仍然可以访问整个文件;同样的,如果node5发生故障,那么只有第5个块受到影响,第5个块的副本由node3来提供服务,整个文件仍然可被访问。从而保证了数据的可靠性。

假设文件副本数为2 且副本安全阈值为2,节点4发生故障,导致系统的部分数据副本丢失,使文件的某些块的副本数变为1,经过一定的时间间隔,系统扫描到因为某些块的缺失导致文件副本低于安全阈值,那么后台线程就开始着手副本恢复,最终恢复的结果如下图所示:

4)MapReduce词频统计测试

Hadoop系统中自带了用于各种测试实例,都放在Hadoop系统安装目录下的example包中,我们这里给出了一个用于词频统计的实例测试,上面测试系统可靠性的时候,也可以采用这个例子进行测试。在下面的例子中,我们对input/1这个文件中的单词进行词频统计,输出的结果保存在out目录中。

#hadoop jar hadoop-0.20.1/hadoop-0.20.1-examples.jar wordcount input/1 out

下面可以去/user/king/out目录查看输出的文件。

点击part-r-00000查看词频统计的结果,如下:

3. Map/Rduce初级编程:数据去重

1)实验内容

对数据文件中的数据进行去重。数据文件中的每行都是一个数据。

样例输入如下所示:

file1:

2012-3-1 a

2012-3-2 b

2012-3-3 c

2012-3-4 d

2012-3-5 a

2012-3-6 b

2012-3-7 c

2012-3-3 c

   

file2:

2012-3-1 b

2012-3-2 a

2012-3-3 b

2012-3-4 d

2012-3-5 a

2012-3-6 c

2012-3-7 d

2012-3-3 c

样例输出如下所示:

2012-3-1 a

2012-3-1 b

2012-3-2 a

2012-3-2 b

2012-3-3 b

2012-3-3 c

2012-3-4 d

2012-3-5 a

2012-3-6 b

2012-3-6 c

2012-3-7 c

2012-3-7 d

2)实验步骤

1)设计思路

数据去重的最终目标是让原始数据中出现次数超过一次的数据在输出文件中只出现一次。我们自然而然会想到将同一个数据的所有记录都交给一台reduce机器,无论这个数据出现多少次,只要在最终结果中输出一次就可以了。具体就是reduce的输入应该以数据作为key,而对value-list则没有要求。当reduce接收到一个<keyvalue-list>时就直接将key复制到输出的key中,并将value设置成空值。

MapReduce流程中,map的输出<keyvalue>经过shuffle过程聚集成<keyvalue-list>后会交给reduce。所以从设计好的reduce输入可以反推出map的输出key应为数据,value任意。继续反推,map输出数据的key为数据,而在这个实例中每个数据代表输入文件中的一行内容,所以map阶段要完成的任务就是在采用Hadoop默认的作业输入方式之后,将value设置为key,并直接输出(输出中的value任意)。map中的结果经过shuffle过程之后交给reducereduce阶段不会管每个key有多少个value,它直接将输入的key复制为输出的key,并输出就可以了(输出中的value被设置成空了)。

2)程序代码

package com.hebut.mr;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.Reducer;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import org.apache.hadoop.util.GenericOptionsParser;

public class Dedup {

//map将输入中的value复制到输出数据的key上,并直接输出

public static class Map extends Mapper<Object,Text,Text,Text>{

 private static Text line=new Text();//每行数据

 //实现map函数

 public void map(Object key,Text value,Context context)

  throws IOException,InterruptedException{

   line=value;

   context.write(line, new Text(""));}}

//reduce将输入中的key复制到输出数据的key上,并直接输出

public static class Reduce extends Reducer<Text,Text,Text,Text>  {

//实现reduce函数

public void reduce(Text key,Iterable<Text> values,Context context)

 throws IOException,InterruptedException{

 context.write(key, new Text(""));}}

   public static void main(String[]args) throws Exception{

 Configuration conf = new Configuration();

 //这句话很关键

 conf.set("mapred.job.tracker", "192.168.1.2:9001");

String[] ioArgs=new String[]{"dedup_in","dedup_out"};

    String[] otherArgs = new GenericOptionsParser(conf, ioArgs).getRemainingArgs();

    if (otherArgs.length != 2) {

    System.err.println("Usage: Data Deduplication <in> <out>");

    System.exit(2); }

   Job job = new Job(conf, "Data Deduplication");

    job.setJarByClass(Dedup.class);

    //设置MapCombineReduce处理类

    job.setMapperClass(Map.class);

    job.setCombinerClass(Reduce.class);

    job.setReducerClass(Reduce.class);

    //设置输出类型

    job.setOutputKeyClass(Text.class);

    job.setOutputValueClass(Text.class);

    //设置输入和输出目录

    FileInputFormat.addInputPath(job, new Path(otherArgs[0]));

FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

System.exit(job.waitForCompletion(true) ? 0 : 1); }

3)代码结果

a准备测试数据

通过Eclipse下面的"DFS Locations""/user/hadoop"目录下创建输入文件"dedup_in"文件夹(备注:"dedup_out"不需要创建。)如图所示。

然后在本地建立两个txt文件,通过Eclipse上传到"/user/hadoop/dedup_in"文件夹中,两个txt文件的内容如"实例描述"那两个文件一样。如图所示。

查看文件列表,如下图所示:

查看两个文件的内容如图所示:

b)查看运行结果

这时我们右击Eclipse"DFS Locations""/user/hadoop"文件夹进行刷新,这时会发现多出一个"dedup_out"文件夹,且里面有3个文件,然后打开双其"part-r-00000"文件,会在Eclipse中间把内容显示出来。如图所示。

此时,可以对比一下和之前预期的结果是否一致。

4. Map/Rduce高级编程:倒排索引

1)实验内容

"倒排索引"是文档检索系统中最常用的数据结构,被广泛地应用于全文搜索引擎。它主要是用来存储某个单词(或词组)在一个文档或一组文档中的存储位置的映射,即提供了一种根据内容来查找文档的方式。由于不是根据文档来确定文档所包含的内容,而是进行相反的操作,因而称为倒排索引(Inverted Index)。

通常情况下,倒排索引由一个单词(或词组)以及相关的文档列表组成,文档列表中的文档或者是标识文档的ID号,或者是指文档所在位置的URL,如图所示。

可以看出,单词1出现在{文档1,文档4,文档13……}中,单词2出现在{文档3,文档5,文档15……}中,而单词3出现在{文档1,文档8,文档20……}中。在实际应用中,还需要给每个文档添加一个权值,用来指出每个文档与搜索内容的相关度,如图所示。

最常用的是使用词频作为权重,即记录单词在文档中出现的次数。以英文为例,如图所示,索引文件中的"MapReduce"一行表示:"MapReduce"这个单词在文本T0中出现过1次,T1中出现过1次,T2中出现过2次。当搜索条件为"MapReduce""is""Simple"时,对应的集合为:{T0T1T2}{T0T1}{T0T1}={T0T1},即文档T0T1包含了所要索引的单词,而且只有T0是连续的。

更复杂的权重还可能要记录单词在多少个文档中出现过,以实现TF-IDFTerm Frequency-Inverse Document Frequency)算法,或者考虑单词在文档中的位置信息(单词是否出现在标题中,反映了单词在文档中的重要性)等。

样例输入如下所示。

file1

MapReduce is simple

file2

MapReduce is powerful is simple

file3

Hello MapReduce bye MapReduce

样例输出如下所示。

MapReduce     file1.txt:1;file2.txt:1;file3.txt:2;

is           file1.txt:1;file2.txt:2;

simple         file1.txt:1;file2.txt:1;

powerful      file2.txt:1;

Hello          file3.txt:1;

bye            file3.txt:1;

2)实验步骤

1)设计思路

aMap过程

首先使用默认的TextInputFormat类对输入文件进行处理,得到文本中每行的偏移量及其内容。显然,Map过程首先必须分析输入的<key,value>对,得到倒排索引中需要的三个信息:单词、文档URL和词频,如图所示。

这里存在两个问题:第一,<key,value>对只能有两个值,在不使用Hadoop自定义数据类型的情况下,需要根据情况将其中两个值合并成一个值,作为keyvalue值;第二,通过一个Reduce过程无法同时完成词频统计和生成文档列表,所以必须增加一个Combine过程完成词频统计。

这里讲单词和URL组成key值(如"MapReducefile1.txt"),将词频作为value,这样做的好处是可以利用MapReduce框架自带的Map端排序,将同一文档的相同单词的词频组成列表,传递给Combine过程,实现类似于WordCount的功能。

bCombine过程

经过map方法处理后,Combine过程将key值相同的value值累加,得到一个单词在文档在文档中的词频,如图所示。

如果直接将图所示的输出作为Reduce过程的输入,在Shuffle过程时将面临一个问题:所有具有相同单词的记录(由单词、URL和词频组成)应该交由同一个Reducer处理,但当前的key值无法保证这一点,所以必须修改key值和value值。这次将单词作为key值,URL和词频组成value值(如"file1.txt1")。这样做的好处是可以利用MapReduce框架默认的HashPartitioner类完成Shuffle过程,将相同单词的所有记录发送给同一个Reducer进行处理。

3Reduce过程

经过上述两个过程后,Reduce过程只需将相同key值的value值组合成倒排索引文件所需的格式即可,剩下的事情就可以直接交给MapReduce框架进行处理了。如下图所示。

3)程序代码

package com.hebut.mr;

import java.io.IOException;

import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.Reducer;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.input.FileSplit;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import org.apache.hadoop.util.GenericOptionsParser;

public class InvertedIndex {

public static class Map extends Mapper<Object, Text, Text, Text> {

private Text keyInfo = new Text(); // 存储单词和URL组合

  private Text valueInfo = new Text(); // 存储词频

  private FileSplit split; // 存储Split对象

  // 实现map函数

  public void map(Object key, Text value, Context context)

  throws IOException, InterruptedException {

    // 获得<key,value>对所属的FileSplit对象

    split = (FileSplit) context.getInputSplit();

StringTokenizer itr = new StringTokenizer(value.toString());

    while (itr.hasMoreTokens()) {

      // key值由单词和URL组成,如"MapReducefile1.txt"

      // 获取文件的完整路径

// keyInfo.set(itr.nextToken()+":"+split.getPath().toString());

      // 这里为了好看,只获取文件的名称。

int splitIndex = split.getPath().toString().indexOf("file");

   keyInfo.set(itr.nextToken() + ":"

 split.getPath().toString().substring(splitIndex));

      // 词频初始化为1

      valueInfo.set("1");

      context.write(keyInfo, valueInfo); } } }

public static class Combine extends Reducer<Text, Text, Text, Text> {

      private Text info = new Text();

      // 实现reduce函数

public void reduce(Text key, Iterable<Text> values, Context context)

throws IOException, InterruptedException {

      // 统计词频

      int sum = 0;

      for (Text value : values) {

sum += Integer.parseInt(value.toString()); }

int splitIndex = key.toString().indexOf(":");

      // 重新设置value值由URL和词频组成

info.set(key.toString().substring(splitIndex + 1) + ":" + sum);

      // 重新设置key值为单词

      key.set(key.toString().substring(0, splitIndex));

       context.write(key, info);} }

public static class Reduce extends Reducer<Text, Text, Text, Text> {

     private Text result = new Text();

     // 实现reduce函数

public void reduce(Text key, Iterable<Text> values, Context context)

throws IOException, InterruptedException {

     // 生成文档列表

     String fileList = new String();

     for (Text value : values) {

fileList += value.toString() + ";";}

     result.set(fileList);

     context.write(key, result);} }

public static void main(String[] args) throws Exception {

     Configuration conf = new Configuration();

  conf.set("mapred.job.tracker", "192.168.1.2:9001");

String[] ioArgs = new String[] { "index_in", "index_out" };

String[] otherArgs = new GenericOptionsParser(conf, ioArgs)

              .getRemainingArgs();

     if (otherArgs.length != 2) {

System.err.println("Usage: Inverted Index <in> <out>");

          System.exit(2); }

     Job job = new Job(conf, "Inverted Index");

      job.setJarByClass(InvertedIndex.class);

        // 设置MapCombineReduce处理类

      job.setMapperClass(Map.class);

      job.setCombinerClass(Combine.class);

      job.setReducerClass(Reduce.class);

        // 设置Map输出类型

      job.setMapOutputKeyClass(Text.class);

      job.setMapOutputValueClass(Text.class);

       // 设置Reduce输出类型

      job.setOutputKeyClass(Text.class);

      job.setOutputValueClass(Text.class);

        // 设置输入和输出目录

FileInputFormat.addInputPath(job, new Path(otherArgs[0]));

FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

System.exit(job.waitForCompletion(true) ? 0 : 1); }}

4)代码结果

a)准备测试数据

通过Eclipse下面的"DFS Locations""/user/hadoop"目录下创建输入文件"index_in"文件夹(备注:"index_out"不需要创建。)如图所示。

然后在本地建立三个txt文件,通过Eclipse上传到"/user/hadoop/index_in"文件夹中,三个txt文件的内容如"实例描述"那三个文件一样。如图所示。

查看文件列表,如下图所示:

b)查看运行结果

这时我们右击Eclipse"DFS Locations""/user/hadoop"文件夹进行刷新,这时会发现多出一个"index_out"文件夹,且里面有3个文件,然后打开双其"part-r-00000"文件,会在Eclipse中间把内容显示出来。如图所示。

5. Hive的配置与连接

1)实验内容

1)安装配置Hive

2)通过JDBC连接Hive

2)实验步骤

1)安装配置Hive

a)下载hive

下载hive安装包,解压到master节点上的/usr/local/hadoop/contrib目录

b)配置hive
a)修改bin/hive-config.sh,添加jdk支持

export JAVA_HOME=/usr/local/jdk export HIVE_HOME=/usr/local/hadoop/contrib/hive

export HADOOP_HOME=/usr/local/hadoop  

export JAVA_HOME=/usr/local/jdk

export HIVE_HOME=/usr/local/hadoop/contrib/hive

export HADOOP_HOME=/usr/local/hadoop

b)修改conf/hive-default.xml,这个是hive的关键配置,所以一般不要直接修改,拷贝hive-default.xmlhive-site.xml文件,将修改的内容在这个里面配置。mysql数据库存储hive 的元数据,做如下修改:

<property>  

<name>javax.jdo.OPTION.ConnectionURL</name>    

<value>jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true</value>  

<description>JDBC connect string FOR a JDBC metastore</description>  

</property>  

<property>    

<name>javax.jdo.OPTION.ConnectionDriverName</name>        <value>com.mysql.jdbc.Driver</value>  

<description>Driver class name FOR a JDBC metastore</description>

</property>  

<property>    

 <name>javax.jdo.OPTION.ConnectionUserName</name>    

 <value>hiveuser</value>  

 <description>username TOUSE against metastore database</description>  

</property>  

<property>  

 <name>javax.jdo.OPTION.ConnectionPassword</name>    

 <value>hiveuser</value>  

 <description>password TOUSE against metastore database</description>  

</property>  

<property>

   <name>javax.jdo.OPTION.ConnectionURL</name>  

<value>jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true</value>

<description>JDBC connect string FOR a JDBC metastore</description>

</property>

<property>  

   <name>javax.jdo.OPTION.ConnectionDriverName</name>  

   <value>com.mysql.jdbc.Driver</value>

   <description>Driver class name FOR a JDBC metastore</description> </property>

<property>  

   <name>javax.jdo.OPTION.ConnectionUserName</name>  

   <value>hiveuser</value>

   <description>username TOUSE against metastore database</description>

</property>

<property>

   <name>javax.jdo.OPTION.ConnectionPassword</name>  

   <value>hiveuser</value>

   <description>password TOUSE against metastore database</description>

</property>

c)下载mysql连接驱动包,并放到$HIVE_HOME/lib目录下,这时HIVE已经全部配置完了。

3)运行hive

$bin/hive  

4)测试hive
a创建数据表

hive> create table tb( id int, name string);  

默认是使用输入格式(input format)为text ,分割符号使用^A(ctrl-a).
b创建分区的数据表

hive> CREATE table tb2 (foo int, bar string) partitioned by (ds string);  

包含2列和一个分区列(ds)。分区列是一个虚拟列。它不是数据自身的一部分,但是由它得到分区,详细数据加载到里面.

c显示数据表

显示所有的数据表

show tables;

只显示以's'结尾的数据表

show tables '.*s';

d查询数据

select * from tb;

e从本地加载数据

hive> load data local inpath './files/tb.txt' overwrite into table tb;  

这个文件位于hive的安装目录下 files/tb.txt

fhdfs加载数据

load data inpath '/input/files/tb.txt' overwrite into table tb;

去掉LOCAL ,就是从HDFS加载
关键字OVERWRITE意味着,数据表已经存在的数据将被删除。省略OVERWRITE,数据文件将会添加到原有数据列表里
g删除数据表

drop table tb;

5Heap size设置
Hive默认-Xmx4096m
修改hive/bin/ext/util/ execHiveCmd.sh
HADOOP_HEAPSIZE=256

6)启动Hive Thrift Server

hive --service hiveserver

7)启动hwi

bin/hive --service hwi

2)通过JDBC连接Hive

a测试数据
userinfo.txt文件内容(每行数据之间用tab键隔开):

1    xiapi

2    xiaoxue

3    qingqing

b程序代码

package com.ljq.hive;

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.ResultSet;

import java.sql.SQLException;

import java.sql.Statement;

import org.apache.log4j.Logger;

public class HiveJdbcClient {

       private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver";

       private static String url = "jdbc:hive://192.168.11.157:10000/default";

       private static String user = "hive";

       private static String password = "mysql";

       private static String sql = "";

       private static ResultSet res;

       private static final Logger log = Logger.getLogger(HiveJdbcClient.class);

       public static void main(String[] args) {

               try {Class.forName(driverName);

Connection conn = DriverManager.getConnection(url, user, password);

Statement stmt = conn.createStatement();

                       // 创建的表名

String tableName = "testHiveDriverTable";

sql = "drop table " + tableName;

stmt.executeQuery(sql);

sql = "create table " + tableName + " (key int, value string)  row format delimited fields terminated by '\t'";

stmt.executeQuery(sql);

// 执行“show tables”操作

sql = "show tables '" + tableName + "'";

System.out.println("Running:" + sql);

res = stmt.executeQuery(sql);

System.out.println("执行“show tables”运行结果:");

if (res.next()) {System.out.println(res.getString(1)); }

                       // 执行“describe table”操作

                       sql = "describe " + tableName;

                       System.out.println("Running:" + sql);

                       res = stmt.executeQuery(sql);

System.out.println("执行“describe table”运行结果:");

                       while (res.next()) {  

System.out.println(res.getString(1) + "\t" + res.getString(2));}}

                       // 执行“load data into table”操作

String filepath = "/home/hadoop/ziliao/userinfo.txt";

sql = "load data local inpath '" + filepath + "' into table " + tableName;

System.out.println("Running:" + sql);

res = stmt.executeQuery(sql);

// 执行“select * query”操作

sql = "select * from " + tableName;

System.out.println("Running:" + sql);

res = stmt.executeQuery(sql);

System.out.println("执行“select * query”运行结果:");

                       while (res.next()) {

  System.out.println(res.getInt(1) + "\t" + res.getString(2));}

  // 执行“regular hive query”操作

    sql = "select count(1) from " + tableName;

     System.out.println("Running:" + sql);

   res = stmt.executeQuery(sql);

   System.out.println("执行“regular hive query”运行结果:");

                       while (res.next()) {

System.out.println(res.getString(1));}

                       conn.close();

                       conn = null;

               } catch (ClassNotFoundException e) {

                       e.printStackTrace();

                       log.error(driverName + " not found!", e);

                       System.exit(1);

               } catch (SQLException e) {

                       e.printStackTrace();

                       log.error("Connection error!", e);

                       System.exit(1);}}}

c运行结果(右击-->Run as-->Run on Hadoop)

Running:show tables 'testHiveDriverTable'

执行“show tables”运行结果:

testhivedrivertable

Running:describe testHiveDriverTable

执行“describe table”运行结果:

key    int

value    string

Running:load data local inpath '/home/hadoop/ziliao/userinfo.txt' into table testHiveDriverTable

Running:select * from testHiveDriverTable

执行“select * query”运行结果:

1    xiapi

2    xiaoxue

3    qingqing

Running:select count(1) from testHiveDriverTable

执行“regular hive query”运行结果:3

6. 大规模数据的聚类实验

1)实验内容

1)配置mahout

2)使用mahout中的并行k-means方法

2)实验步骤

1)下载二进制解压安装。

下载mahout0.7并解压

2)配置环境变量:在/etc/profile/home/hadoop/.bashrc中添加如下信息

#set java environment

MAHOUT_HOME=/home/hadoop/mahout-distribution-0.7

export MAHOUT_HOME

3)启动hadoop

4)mahout --help    #检查Mahout是否安装完好,看是否列出了一些算法

5)使用mahout中的并行k-means方法

a)下载一个文件synthetic_control.data,下载地址http://archive.ics.uci.edu/ml/databases/

synthetic_control/synthetic_control.data,并把这个文件放在$MAHOUT_HOME目录下。

b)启动Hadoop$HADOOP_HOME/bin/start-all.sh

c)创建测试目录testdata,并把数据导入到这个tastdata目录中(这里的目录的名字只能是testdata)

$ hadoop fs -mkdir testdata #

$hadoopfs-put/home/hadoop/mahout-distribution-0.7/synthetic_control.data testdata

d)使用kmeans算法(这会运行几分钟左右)

$hadoopjar/home/hadoop/mahout-distribution-0.7/mahout-examples-0.7-job.jar org.apache.

mahout.clustering.syntheticcontrol.kmeans.Job

e)查看结果

$ hadoop fs -lsr output

如果看到以下结果那么算法运行成功。

clusteredPoints  clusters-0  clusters-1  clusters-10  clusters-2  clusters-3  clusters-4 clusters-5  clusters-6  clusters-7  clusters-8  clusters-9  data

2-2-3  创新创业模拟实验分室

辽宁大学创业实验室的建设以学院人才培养具体需求为基础,响应国家政策,大力发展创新创业就业教育,将创业就业教育纳入到常规课程体系,并配套创业实训和相关活动等,最终建成一个集“创业教育-创业实训-孵化支持,配套创业活动,校企合作共建”于一体的完整的创业教育服务体系,为学校的发展建设注入新的血液,改进人才培养模式。努力打造一个以人才培养为本,以能力培养为标,着力提高学生创新创业思维和能力,注重知识、能力与实践的融合,理论联系实际,建设有效、可行的有利于创新创业人才培养的教学体系。

功能区简介:

教学演示区:满足教学需求,老师通过现代教学方式,结合软件和大屏设施,增强课堂趣味性和师生互动性。

投资运作区:模拟较真实的投资运作环境,学生可以在该区运进行投资分析,资本运作,模拟路演等,训练学生创业以后的资本运作,熟悉投资运作的流程。

行业分析区:通过该功能区,学生可以收集、梳理相关的创业信息和行业信息,为学生创业意向提供行业分析支持。

学生将为一家企业的管理经营出谋划策,并完成从企业生产、研发、采购、产品认证、人力资源、财务、市场、销售等过程。在这款软件中,对于一个企业的规划、管理与决策不仅仅是停留在书面的理论知识或纸面的空洞规划上,而是将真正的体验与实践运用到现实企业运作的各个环节当中去。企业管理的首要工作是如何打造企业的核心竞争力,提高企业经营管理水平。本软件通过一个模拟的企业及其周边环境,创建了一个真实的企业管理体系,在这种体系中,学生可以通过模拟实践提高对企业的经营管理能力,把工商管理中的所有的模块全部应用到真实的操作过程当中去。学生在软件中轮番扮演企业中的一些重要的管理高层,主要有总经理、人力总监、技术总监、市场总监、财务总监、销售总监、生产总监等。学生以小组为单位扮演这其中的一个角色,可以随时切换角色,以实现在同一时间内让每个人体验到各个高层的决策与职能,不仅让学生充分了解到企业工商管理的各个环节的职能,而且锻炼了学生们的团结协作能力,保证学生在以后社会上更加懂得如何独立做出对企业工商管理的各种决策、如何与其他部门进行有效的合作。

企业成功经营的法则需要以下各个部门的精诚协作。

包括:

1. 明确企业的发展方向(企业战略)

2. 满足生产产品的需求(采购供应)

3. 提供满足需求的产品(研发设计)

4. 生产符合要求的产品(生产制造)

5. 让顾客知道您的产品(市场营销)

6. 销售产品给你的顾客(销售管理)

7. 回笼销售产品的货款(财务管理)

8. 配合默契的管理团队(沟通协作)

9. 符合公司发展的员工(人力资源)

10.契合实际的认证机制(产品认证)

实验项目一:人力资源实训

人力总监的职责在于对企业内部人员的管理

1招聘生产工人和销售人员

点击人才市场可以在这里招聘生产工人和销售人员

点击招聘工人,可以根据工人类型和工人的排到的生产线来进行招聘如图

在招聘之前要查看规则说明

同理招聘销售人员也可根据市场人员类型和进入的市场渠道来选择

合同签订、解除合同

点进屏幕右上角的首页,进入人力资源部

点击签订合同我们可以查看到所有员工的在职与待入职情况一览表,操作之前先

点击右侧的查看合同,可以查看已经入职人员合同信息

再次点击左侧的签订合同可以回到列表页,点击未签订合同进行合同签订,点击合同章确认签订

实验项目二:技术总监实训

技术总监主要就是技术研发部分的相应职能及其相关决策,主要涉及部门,研发部。

产品设计

点击决策内容,我们可以涉及不同规格型号的产品,技术可以根据现有的资金状况和市场状况等选择合适生产的技术,设计前请看说明。

产品研发

可以投入资金对新技术进行研发,研发前请查看规则说明。

查看研发状况

点击右上关闭再点击研发状况,可以查看所有产品的研发细节,以便根据时间来及时提高自己

的产品层次

产品分析

关闭后点击分析报告可以查看所有产品规格参数一览表

产品市场参与情况

点击参与市场可以查看所有产品在各个季度的区域投入情况

实验项目三:生产总监实训

交易中心

进入交易中心可以购买生产所需的原材料、厂房及生产设备;还可以将生产出的产品和多余的原料投入市场进行拍卖。

原料采购点击购买原料,输入相应的购买的数量,购买前注意查看规则说明

厂房购买点击购买厂房,在这里购买和租赁各种规格的厂房,也可以随时退租,相关注意事项请查看规则说明

设备购买在交易中心点击购买设备,可以根据自己的自己和现实条件选择适合自己的设备

订单交易回到交易中心,点击信息交易可以实现小组企业之间的原料的相互交易,发布信息前请查看规则说明

厂房内部管理点击首页面已经购买的厂房,已经购买的厂房会显示蓝色供学生点击进入,进入厂房后,我们可以看到已经在交易中心购买的设备

2.3 由科研成果(近五年)转化而来的实验教学内容

目前虚拟仿真实验教学团队在云数据处理技术、物联网技术、舆情挖掘技术、城市地理信息技术以及期货、贸易、金融等方面都有较好的研究基础和技术储备。实验室主要研究人员主持和参与多项国家自然科学基金资助项目的研究工作,成功地完成了多项国家、省市相关科研课题和多个应用系统并投入应用,积累了丰富的研究经验。在诸如计算机学报、软件学报、DASFAA、WISE等国内外重要期刊和会议上发表论文120余篇。例如主持国家自然科学基金《基于图的XML非完全结构查询技术研究》、《非确定性RFID 事件流处理技术研究》和《信息流动的复杂拓扑特征计算》、《轧制装备系统“亚健康”状态预测及双闭环调控算法的研究》、《基于行为踪迹的网络蠕虫模型和检测方法》,主持国家863项目《支持CIMS企业生产决策的综合数据挖掘系统ScopeMiner》的研究和开发,主持辽宁省科技攻关项目《云数据分析支撑系统研制》的研发。作为项目执行负责人参与国家自然科学基金《超长生物序列的数据存储与模式分析的并行处理技术的研究》、《Internet上支持高质量E-Services的零输入个性化技术的研究》、《面向新一代搜索引擎的用户动机推演模型》等,其中项目《Internet上支持高质量E-Services的零输入个性化技术的研究》通过评审并被评为特优。实验室与沈阳安全部门、沈阳信息技术中心、沈阳永源科技有限公司合作研制了《×××云数据分析支撑系统》,目前已应用于邮政、电信等部门业务分析。通过这些项目研制,本虚拟仿真实验教学团队积累了丰富的研制经验。

中心多次组织相关人员到国内外相关企业、各兄弟院校进行调研,收集了很多关于虚拟仿真实验室建设的资料,积累了一定经验。中心努力提高实验教学的质量和水平,鼓励教师和实验技术人员重视实验技术创新,研制和开发新的实验装置,及时将科技进步的最新成果引入到实验教学中来,更新实验项目,

中心将虚拟仿真实验中开发的模拟平台软件向社会推广,由于实验设备先进、紧跟国际前沿,培训效果良好。一大批同类高校相关专业教师及企业高级专业技术人员经过培训,专业知识得到更新,实际技能得到提高,在我国轨道交通行业实际工作中发挥了重要的作用。

2.4 合作企业的概况、参与程度和合作成果

2-4-1 合作企业概况

大连商品交易所

大连商品交易所成立于1993228日,并于同年1118日正式开业,是经国务院批准并由中国证监会监督管理的四家期货交易所之一,也是中国东北地区唯一一家期货交易所。经中国证监会批准,目前上市交易的有玉米、黄大豆1号、黄大豆2号、豆粕、豆油、棕榈油、鸡蛋、纤维板、胶合板、线型低密度聚乙烯、聚氯乙烯、聚丙烯、焦炭、焦煤和铁矿石共计15个期货品种。

成立二十年以来,大商所规范运营、稳步发展,已经成为我国重要的期货交易中心。截至2013年末,大商所共有会员173家,指定交割库182个,2013年期货成交量和成交额分别达14.01亿手和94.31万亿元。根据美国期货业协会(FIA)公布的全球主要衍生品交易所成交量排名,2013年大商所在全球排名第11位。

2007年8月国务院批准的《东北地区振兴规划》中提出要“依托大连商品交易所,大力发展期货贸易,建设亚洲重要的期货交易中心”;2009年国务院通过的《辽宁沿海经济带发展规划》、《关于进一步实施东北地区等老工业基地振兴战略的若干意见》及2012年《东北振兴“十二五”规划》进一步对大商所建设亚洲重要期货交易中心提出了要求。新的形势下,大商所正以“建设亚洲重要期货交易中心”为契机,以品种、技术和服务创新为动力,努力将交易所建成国际一流的期货市场,为相关产业和实体经济发展,以及东北地区振兴做出更大的贡献。

腾讯大辽网

腾讯大辽网是辽宁报业传媒集团与腾讯公司联手打造的辽宁城市生活门户网站,于2013年6月18日正式上线。腾讯大辽网以腾讯强大的用户基础和品牌影响力,优秀的网络媒体运营经验和技术产品研发运营能力,卓越的用户体验和人才理念,协同辽宁报业传媒集团在本土最权威的公信力、最广泛的社会影响力、卓越的媒体实力、斐然的商业能力共同服务于辽宁。