“2016年AI黑客松-第二关内容”版本间的差异

来自iCenter Wiki
跳转至: 导航搜索
(以“<big>2. 挑战任务第二关:设计并实现具有实用场景的智能机器人对话服务</big> * 使用微软LUIS语言理解智能服务API作为自然语言...”为内容创建页面)
 
 
第1行: 第1行:
<big>2. 挑战任务第二关:设计并实现具有实用场景的智能机器人对话服务</big>
+
== '''微软智能对话机器人挑战''' ==
* 使用微软LUIS语言理解智能服务API作为自然语言处理核心,利用微软BotFramework服务,在本地的Bot模拟器上实现智能机器人对话功能
+
 
* 基于微软云Azure平台,将智能机器人上传云端,发布成Web服务
+
设计并实现具有实用场景的智能机器人对话服务:
* 完成前端开发,实现将智能机器人展现在网页端,或与微信等第三方平台连接
+
* 使用微软LUIS语言理解智能服务API作为自然语言处理核心,利用微软Bot Framework服务,在本地的Bot模拟器上实现智能机器人对话功能
* 比赛评委评分以智能机器人对话服务的完成度及应用场景新颖度综合考量
+
* 基于微软云Azure平台,将智能机器人上传云端,发布成Web服务
<B>任务流程安排:</B>
+
* 完成前端开发,实现将智能机器人展现在网页端,或与微信等第三方平台连接
 +
* 比赛评委评分以智能机器人对话服务的完成度及应用场景新颖度综合考量
 +
 
 +
=== 任务流程安排 ===
  
 
为了便于参赛选手对微软Bot framework以及认知服务(语言理解智能服务LUIS)有更深的了解,本次任务挑战设计如下流程:
 
为了便于参赛选手对微软Bot framework以及认知服务(语言理解智能服务LUIS)有更深的了解,本次任务挑战设计如下流程:
  
a.动手实验:根据微软提供的文档,一步一步搭建一个简单的智能机器人,并将Code上传Azure,或者直接将微软提供的Sample Code上传Azure,发布成Web App,并和Skype或者Web结合(时间<B>1.5小时</B>
+
a. 动手实验:根据微软提供的文档,一步一步搭建一个简单的智能机器人,并将Code上传Azure,或者直接将微软提供的Sample Code上传Azure,发布成Web App,并和Skype或者Web结合('''时间1.5小时'''
 +
 
 +
b. 参赛者设计自己的智能对话机器人应用场景和功能,并设想可能的解决方案,并做报告('''时间1.5小时''')
 +
 
 +
c. 初步实现参赛者设计的Bot的核心功能和主要场景('''时间5小时''')
 +
: 微软会提供两个版本的Sample Code,分别是C#和Node.js版本,选手可以根据此Code修改为自己设计的智能对话机器人,或者重新创建设计新的智能对话机器人
  
b.参赛者设计自己的智能对话机器人应用场景和功能,并设想可能的解决方案,并做报告(时间<B>1.5小时</B>
+
d. 报告:展示自己设计实现的智能对话机器人('''时间10分钟'''
  
c.初步实现参赛者设计的Bot的核心功能和主要场景(时间<B>5小时</B>)
+
=== 评分规则 ===
(微软会提供两个版本的Sample Code,分别是C#和NodeJS版本,选手可以根据此Code修改为自己设计的智能对话机器人,或者重新创建设计新的智能对话机器人)
+
  
d.报告:展示自己设计实现的智能对话机器人(时间<B>10分钟</B>)
+
本次微软智能机器人挑战任务分为4个步骤,'''总分100分''',每个步骤会单独评分,然后求和得到最后得分。
  
 +
a. 动手实验部分:'''满分50分'''
 +
  i.  创建简单对话机器人 '''满分10分'''
 +
  ii.  搭建LUIS '''满分10分'''
 +
  iii. 成功将LUIS和对话机器人连接 '''满分10分'''
 +
  iv.  上传Azure、注册Bot与Skype或者Web连接 '''满分20分'''
  
<B>评分规则:</B>
+
b. 设计对话机器人:'''满分20分'''
 +
  i.  实用性:设计的对话机器人能否为用户带来真实价值 '''满分5分'''
 +
  ii.  新颖性:设计的对话机器人是否具新颖和创新 '''满分5分'''
 +
  iii. 完整性:设计的对话机器人功能是否完整 '''满分5分'''
 +
  iv.  可操作性:设计的对话机器人与设想的解决方案之间的可操作性 '''满分5分'''
  
本次微软智能机器人挑战任务分为4个步骤,<B>总分100分</B>,每个步骤会单独评分,然后求和得到最后得分。
+
c. 实现对话机器人:'''满分20分'''
 +
  i.  完成度:对于智能对话机器人核心功能实现的完成度 '''满分10分'''
 +
  ii.  技术难度:所实现的功能的技术难度 '''满分10分'''
  
a.动手实验部分:<B>满分50分</B>
+
d. 报告:'''满分10分'''
  i.  创建简单对话机器人 <B>满分10分</B>
+
   i.   展示效果:对于已经实现的对话机器人部分其展示效果情况 '''满分10分'''
  ii. 搭建LUIS <B>满分10分</B>
+
  iii.成功将LUIS和对话机器人连接 <B>满分10分</B>
+
  iv. 上传Azure 、注册Bot 与Skype或者Web连接 <B>满分20分</B>
+
b.设计对话机器人:<B>满分20分</B>
+
  i.  实用性:设计的对话机器人能否为用户带来真实价值 <B>满分5分</B>
+
  ii. 新颖性:设计的对话机器人是否具新颖和创新 <B>满分5分</B>
+
  iii.完整性:设计的对话机器人功能是否完整 <B>满分5分</B>
+
  iv. 可操作性:设计的对话机器人与设想的解决方案之间的可操作性 <B>满分5分</B>
+
c.实现对话机器人:<B>满分20分</B>
+
  i.  完成度:对于智能对话机器人核心功能实现的完成度  <B>满分10分</B>
+
  ii. 技术难度:所实现的功能的技术难度 <B>满分10分</B>
+
d.报告:<B>满分10分</B>
+
   i. 展示效果:对于已经实现的对话机器人部分其展示效果情况 <B>满分10分</B>
+

2016年12月8日 (四) 00:04的最后版本

微软智能对话机器人挑战

设计并实现具有实用场景的智能机器人对话服务:

  • 使用微软LUIS语言理解智能服务API作为自然语言处理核心,利用微软Bot Framework服务,在本地的Bot模拟器上实现智能机器人对话功能
  • 基于微软云Azure平台,将智能机器人上传云端,发布成Web服务
  • 完成前端开发,实现将智能机器人展现在网页端,或与微信等第三方平台连接
  • 比赛评委评分以智能机器人对话服务的完成度及应用场景新颖度综合考量

任务流程安排

为了便于参赛选手对微软Bot framework以及认知服务(语言理解智能服务LUIS)有更深的了解,本次任务挑战设计如下流程:

a. 动手实验:根据微软提供的文档,一步一步搭建一个简单的智能机器人,并将Code上传Azure,或者直接将微软提供的Sample Code上传Azure,发布成Web App,并和Skype或者Web结合(时间1.5小时

b. 参赛者设计自己的智能对话机器人应用场景和功能,并设想可能的解决方案,并做报告(时间1.5小时

c. 初步实现参赛者设计的Bot的核心功能和主要场景(时间5小时

微软会提供两个版本的Sample Code,分别是C#和Node.js版本,选手可以根据此Code修改为自己设计的智能对话机器人,或者重新创建设计新的智能对话机器人

d. 报告:展示自己设计实现的智能对话机器人(时间10分钟

评分规则

本次微软智能机器人挑战任务分为4个步骤,总分100分,每个步骤会单独评分,然后求和得到最后得分。

a. 动手实验部分:满分50分

 i.   创建简单对话机器人 满分10分
 ii.  搭建LUIS 满分10分
 iii. 成功将LUIS和对话机器人连接 满分10分
 iv.  上传Azure、注册Bot与Skype或者Web连接 满分20分

b. 设计对话机器人:满分20分

 i.   实用性:设计的对话机器人能否为用户带来真实价值 满分5分
 ii.  新颖性:设计的对话机器人是否具新颖和创新 满分5分
 iii. 完整性:设计的对话机器人功能是否完整 满分5分
 iv.  可操作性:设计的对话机器人与设想的解决方案之间的可操作性 满分5分

c. 实现对话机器人:满分20分

 i.   完成度:对于智能对话机器人核心功能实现的完成度 满分10分
 ii.  技术难度:所实现的功能的技术难度 满分10分

d. 报告:满分10分

 i.   展示效果:对于已经实现的对话机器人部分其展示效果情况 满分10分