当前位置:主页 > 产品展示 > > ErgoVR虚拟人机交互测评 > 虚拟现实眼动仪

虚拟现实眼动仪

型号:瑞典Tobii VR

产品时间:2020-06-25

简要描述:

Tobii Pro VR虚拟现实眼动仪将眼动追踪与VR结合,在*受控的实验设计环境中开展眼动行为研究!

相关文章

Related articles

详细介绍

一、产品概述:

Tobii Pro VR虚拟现实眼动仪将眼动追踪与VR结合,在*受控的实验设计环境中开展眼动行为研究!

Tobii Pro VR虚拟现实眼动仪通过红外光反射原理,测量眼睛的注视点位置或者眼球相对头部的运动而实现对眼球运动的追踪,进而分析视觉加工特征。Tobii Pro VR虚拟现实眼动仪采用高精度的眼动追踪元件同步记录个体的眼动轨迹、视线变化、眼动状态等数据,在多种视觉刺激和环境下开展人类行为研究。可执行对眼动数据质量要求较高的定量与定性研究,满足各类不同的研究需要。同步记录如眼部或头部3D空间位置、注视时间、瞳孔大小、眨眼次数、眼跳、眼睑闭合度等数据,发现能够吸引人们注意力的因素,了解人们感知其周围事物的视觉方式以及驱使人们作出决策的因素,捕获不受被试者或主试者意识影响的自然反应,并将这些自然反应实时记录与反馈。

 

二、产品特点

虚拟环境下的眼动追踪

通过将眼动追踪与 VR 相结合,可以使研究环境*受控并准确了解操作者每一刻的视觉注意信息。可以按研究需要创建任何模拟环境,研究场景可重复利用,经济且高效。

增强虚拟环境体验

在虚拟环境中通过凝视实现更自然的互动,揭示在无限数量的假设情景中驱动人类行为反应的诸多因素。

稳定、高性能的数据采集

系统为120Hz采样率,采用先进的滑移补偿技术可在头戴模块发生偏移时确保数据的准确性和校准的有效性,允许在不影响眼动数据质量的前提下获得大的自由度,且适用于大多数的测试群体,包括佩戴眼镜者。

支持多种实验刺激材料

包括360°图片和视频,以及3D模型作为刺激材料,同时支持在Unity 3D环境下进行眼动数据采集与回放,提供了可应用于广泛的人类行为研究的眼动数据与交互行为自动可视化与分析工具。

 

三、功能应用

硬件无缝集成

Tobii Pro VR眼动仪是对HTC Vive头戴模块的加装。眼动追踪模块隐藏在镜片后,使其不影响正常的VR体验。眼动数据通过具有Tobii Eye Chip芯片来处理,使CPU负载降到低。眼动数据通过标准的HTC Vive线缆传输,无需任何外置线缆。


VR环境下的眼动追踪分析

Tobii Pro VR Analytics数据分析工具支持在Unity 3D环境下的眼动数据采集与回放。同时提供了可应用于广泛的人类行为研究的眼动数据与交互行为自动可视化与分析工具。

 

Tobii Pro VR眼动仪允许研究人员在*受控的虚拟环境中执行眼动研究,可方便地重复利用研究场景和刺激物,同时保持眼动数据的采集,*不会影响VR的体验。眼动追踪与沉浸式VR结合将为研究执行的方式带来转变并为专业研究领域带来了新的可能性。

VR环境中的眼动研究

Tobii Pro VR眼动仪允许研究人员在*受控的虚拟环境中执行眼动研究,可方便地重复利用研究场景和刺激物,同时保持眼动数据的采集,*不会影响VR的体验。该研究工具能够提供高质量的眼动数据,可有效追踪绝大多数的被试人群。

眼动追踪与沉浸式VR结合将为研究执行的方式带来转变并为专业研究领域带来了新的可能性,如心理学,消费行为研究,培训和效能评估。

 

可创建环境中所有元素的可视化结果,并支持按单个或多个被试者来查看,包括:

  • 热点图,可展示出不同目标元素之间的视觉注意分配情况以及被试者们在每个目标元素上的视觉停留时间。
  • 彩色显示的视线向量,揭示被试者在3D环境中到的目标物的视线,帮您了解视觉注意的焦点所在。
  • 彩色显示的每名被试者在测试过程中的移动路径,展示出被试者在VR环境中的行走路线,用于导航和寻路应用情境下的运动行为分析。

眼动追踪数据分析

眼动追踪统计指标可自动计算得出并适用于虚拟现实环境中的所有被试者。这些指标包括:

  • 注视点数量统计 - 那些目标被看到了?
  • 注视点的总共与平均停留时间 - 视线在目标停留了多久?
  • *进入时间 - 第一次看到目标用了多久?

交互行为数据分析

Tobii Pro VR Analytics分析工具还可对Unity环境中的交互数据进行衡量,包括:

  • 拾起次数统计 - 与某个目标进行的*交互
  • *拾起时间 - 第一次与某个目标产生交互行为所用的时间
  • 握持时间 (总持续时间) - 与目标交互的持续时间
  • 从看到到拾起的时间 - 第一次看到某个目标到与该目标产生交互行为所用的时间

所有眼动追踪和交互行为的统计指标都可以在软件中实时获得并支持单个被试一或多被试的叠加。

 

四、技术参数

眼动数据输出频率

双眼120 Hz

准确度

0.5°

校准

眼动追踪范围

110°

红外光源数量

每只眼睛10

眼动追踪传感器

每只眼睛1

瞳孔测量

支持,相对测量

眼动追踪技术

双眼暗瞳追踪

滑移补偿

自动

延迟

10ms (从眼球图像曝光至数据传输到客户端界面)

数据输出 (每只眼睛)

时间戳(设备与系统时钟)

视线坐标

视线方向

瞳孔位置

相对瞳孔尺寸

3D引擎兼容性

Unity

硬件集成

HTC Vive标准版与Tobii眼动追踪深度集成定制硬件无任何外置设备或线缆*

接口

Tobii Pro SDK (/Matlab/Python/C)
 

 

五、同步方案

瑞典Tobii全系列眼动追踪系统通过结合ErgoLAB人机环境同步云平台可以实现在不同实验环境条件下对智能化人机系统进行主观和客观定量的人机交互测试、人因与工效学分析与评价:通过ErgoLAB人机环境同步云平台与广泛的数据同步,包括常用的生理数据GSR皮肤电,呼吸和心率等、EEG脑电,眼动、fNIRS近红外脑成像,人体动作,行为观察、面部表情、生物力学、人机交互。实现极低延迟的同步水平同时确保您的整体方案的便携性。

数据分析平台:如果研究人员希望得到比实时观察更深入、全面的结论, ErgoLAB平台可提供数据后期分析的强大工具。

ErgoLAB人机环境同步云平台综合统计分析模块包含多维度人--环境数据综合分析、EEG脑电分析与可视化、眼动分析与可视化、行为观察实时编码分析、面部表情分析与状态识别、动作姿态伤害评估与工效学分析、交互行为分析(ErgoLAB/ErgoVR人机交互测试版本)、时空行为分析、车辆与驾驶行为分析(ErgoLAB驾驶版本)、HRV心率变异性分析、EDA/GSR皮电分析、RESP呼吸分析、EMG肌电分析、General通用信号分析(如TEMP/SKT皮温/体温分析、EOG眼电分析以及其他环境与生物力学信号分析)。系统具备专门的信号处理模块以及开放式信号处理接口,可以直接导出可视化分析报告以及原始数据,支持第三方集成与定制开发。

 

 

产品咨询

留言框

  • 产品:

  • 您的单位:

  • 您的姓名:

  • 联系电话:

  • 常用邮箱:

  • 省份:

  • 详细地址:

  • 补充说明:

  • 验证码:

    请输入计算结果(填写阿拉伯数字),如:三加四=7

人因工程与工效学

人机工程、人的失误与系统安全、人机工效学、工作场所与工效学负荷等

安全人机工程

从安全的角度和着眼点,运用人机工程学的原理和方法去解决人机结合面安全问题

交通安全与驾驶行为

人-车-路-环境系统的整体研究,有助于改善驾驶系统设计、提高驾驶安全性、改善道路环境等

用户体验与交互设计

ErgoLAB可实现桌面端、移动端以及VR虚拟环境中的眼动、生理、行为等数据的采集,探索产品设计、人机交互对用户体验的影响

建筑与环境行为

研究如何通过城市规划与建筑设计来满足人的行为心理需求,以创造良好环境,提高工作效率

消费行为与神经营销

通过ErgoLAB采集和分析消费者的生理、表情、行为等数据,了解消费者的认知加工与决策行为,找到消费者行为动机,从而产生恰当的营销策略使消费者产生留言意向及留言行为

产品中心
ErgoVR虚拟人机交互测评
新闻中心
公司新闻
技术文章
关于我们
公司简介
人才招聘
联系方式
北京市海淀区安宁庄后街12号院1号楼一层、三层
sales@kingfar.cn

扫一扫,加微信

版权所有 © 2024北京津发科技股份有限公司(www.88jf.com)
备案号:京ICP备14045309号-4 技术支持:智慧城市网 管理登陆 GoogleSitemap