ErgoLAB便攜式行為觀察分析系統(tǒng)是戶外現場研究和田野實驗人類行為活動或者作業(yè)任務績效的實時行為編碼和標準行為分析系統(tǒng)工具,系統(tǒng)通過行為編碼體系(Coding Scheme)采用一種定量的觀察記錄方式來實現行為觀察的結構化和系統(tǒng)化,對觀察內容進行分類和量化編碼的觀察記錄體系,可以對被試的行為數據進行實時采集、實時編碼、分析與統(tǒng)計。便攜式行為觀察系統(tǒng)移動終端版本,通過移動終端與便攜性手持設備的有機
ErgoLAB Behavior行為觀察分析模塊,采用標準攝像頭錄制行為視頻,實時獲取被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機交互等各種活動,記錄并分析其狀態(tài)與表現形式,形成行為-時間-頻次數據庫,記錄與編碼分析個體在活動中的行為頻次或習慣性動作的特點等。通過交互行為觀察,探索心理、生理的外在表現,進一步了解人們行為與心理反應的相互關系。
動作捕捉系統(tǒng)用于準確測量運動物體在三維空間中的運動狀態(tài)與空間位置。ErgoLAB Motion是的全新可穿戴運動捕捉與人機工效/生物力學分析系統(tǒng),配備可穿戴人因記錄儀,便于攜帶,非常適用于各種虛擬現實應用與實時的現場人因工效科學研究,如安全生產、人機交互、運動分析,動作姿勢傷害評估等。
ErgoLAB人車路環(huán)境測試云平臺是基于云架構的專業(yè)用于“以人為中心”的多模態(tài)數據同步采集和定量化分析平臺,專注于駕駛心理行為研究、車輛行駛狀態(tài)分析、交通道路環(huán)境數據采集以及自動駕駛與模擬仿真駕駛等研究內容。系統(tǒng)提供駕駛模擬仿真和實車測試兩種解決方案,可實現在特定的駕駛模擬仿真環(huán)境以及各種復雜自然的條件下對人-車-路-環(huán)境數據的采集與分析。實現人車路交互同步數據可視化,客觀定量化分析人-
空間定位系統(tǒng)支持多類型的時空數據采集,包括室內空間位置追蹤、虛擬現實場景空間位置追蹤以及真實現場環(huán)境的空間位置追蹤。研究人員可以在任何環(huán)境下進行時空行為研究時,完成多維度客觀數據的實時同步采集與可視化時空分析。綜合計算機圖形圖像學、視覺設計、數據挖掘等技術,支持進行信息可視化、科學可視化與可視分析不同的層次研究。
人機工程、人的失誤與系統(tǒng)安全、人機工效學、工作場所與工效學負荷等
從安全的角度和著眼點,運用人機工程學的原理和方法去解決人機結合面安全問題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設計、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實現桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數據的采集,探索產品設計、人機交互對用戶體驗的影響
研究如何通過城市規(guī)劃與建筑設計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過ErgoLAB采集和分析消費者的生理、表情、行為等數據,了解消費者的認知加工與決策行為,找到消費者行為動機,從而產生恰當的營銷策略使消費者產生留言意向及留言行為