ErgoLAB人机环境同步云平台,是基于云架构的专业用于“以人为中心"的多模态数据同步采集和定量分析平台,是集科学化、集成化、智能化于一体的系统工程工具与解决方案产品,通过对人、机器、环境数据同步采集与综合分析,在人工智能时代根据人-信息-物理系统(HCPS)理论,对人-机-环境系统从人-信息系统、人-物理系统以及系统等角度进行人机交互评估以及人因与工效学的智能评价。
平台以人机环境多模态数据同步技术为基础,突出智能化、可穿戴的特点,采用国内自主研发技术,结合VR三维虚拟现实与环境模拟技术、动作捕捉技术、人体建模与仿真技术、脑认知神经科学与电生理技术、视觉追踪技术、行为分析技术、面部表情与状态识别技术等,客观定量化分析人机环境交互影响的关系,提升纵向研究的深度与横向研究的外延性。平台与许多认知神经科学、人因工程、 人工智能领域科研实验设备相兼容,提供了人因工程与工效学、人机交互与人工智能、心理学与认知科学以及神经网络、机器学习等研究内容的解决方案。
平台从基于云端的项目管理、实验设计、数据同步采集、信号处理与分析到综合统计与输出可视化报告,涵盖整个研究流程。对于特殊领域客户可定制云端的人因大数据采集与AI状态识别。
ErgoLAB数据与综合统计分析模块含多维度人-机-环境数据综合分析、EEG脑电分析与可视化、眼动分析以及可视化、行为观察、面部表情、动作姿态伤害评估与工效学分析、交互行为、时空行为、车辆与驾驶行为、HRV心率变异性分析、EDA/GSR皮电分析、RESP呼吸分析、EMG肌电分析、General通用信号分析,具备专门的信号处理与开放式信号处理接口,可直接导出可视化分析报告以及原始数据,支持第三方处理与开发。
平台通过SDK/API/TTL等广泛的数据接口进行第三方设备或者数据同步,同时可以直接导入外部数据,与系统内数据进行同步分析,支持定制开发。
内含大量丰富的技术与文献资料,包括在线 说明书、功能培训视频、技术、参数算法解释、操作手册、演示DEMO等,方便研究者能够更快速的掌握大量实验技能与知识。
平台可以进行实验室研究、移动终端研究、虚拟仿真以及真实户外环境的研究。云实验设计模块具备多时间轴、随机化呈现等功能、可以创建复杂的实验设计,支持任何类型的刺激材料,包括问卷、量表与范式、声光电刺激、实时API编码/TTL事件标记、多媒体刺激编辑,在线网站和手机应用程序,以及所有的原型设计材料,也支持与如下刺激实时同步采集:如场景摄像机,软件,游戏,VR,AR程序等。兼容第三方刺激编译软件,如E-prime,Superlab,Tobii Pro Lab等。
平台采用主客观结合多维度数据验证的方法,同步大脑认知数据、视觉数据、生理信号数据、行为观察、肢体动作与面部表情数据、生物力学数据、人机交互数据、多类型时空行为数据采集与环境数据等。
在标准的实验室环境下,以桌面或移动终端为载体呈现的刺激材料,包括图片、文本、视频、音频、网页刺激、交互程序、录制屏幕等,可实时预览、自由拖拽、一键导入多刺激材料。实时同步采集眼动、脑电、近红外脑成像以及电生理指标等高精度多模态测量数据。
支持搭建多类型虚拟现实交互设备与场景,包括头戴式虚拟现实系统、CAVE大型沉浸式虚拟现实交互系统以及多人交互系统等。在虚拟环境中通过模拟真实世界交互模式,可以添加视觉、听觉、触觉以及重力等真实感受模拟;在虚拟现实的环境下,实时同步采集人-机-环境数据并进行定量化分析与评价,包括人员在虚拟环境下的空间定位、交互行为、脑电、眼动、生理、生物力学、动作捕捉、面部表情等数据。
提供逼真道路交通仿真场景、真实感驾驶模拟座舱,精确的驾驶操纵传感器输出,满足研究所需的交通场景编辑系统,并且具备定制和升级能力,支持在各种道路交通和驾驶行为研究中实时同步采集驾驶人-车辆-道路-环境的客观、定量化数据。
平台能够结合光、声、振动、微气候等多种环境模拟条件下,同步采集个体在模拟环境下进行操作任务时的多模态客观数据反应。
平台采用可穿戴测量技术、移动终端采集技术以及离线采集与数据储存,于真实的现场环境研究。