高潮爽死抽搐白浆的视频网站,欧美日韩一区狠狠爱视频v片,中文字幕无线码一区中文免费,国产精品v欧美精品v日韩精品,奇米影视7777狠狠狠狠视频

位置:首頁 > 產(chǎn)品展示 > ErgoVR人機交互虛擬仿真

產(chǎn)品展示

產(chǎn)品展示

ErgoVR人機交互測評平臺

產(chǎn)品型號:ErgoVR

類   型:

1

描   述:

人機環(huán)境同步平臺是研究人類在不同物理環(huán)境中的行為反應(yīng),進行各種活動時的人體生理狀況、眼睛運動或視線關(guān)注點、以及頭部和表情的變化并同步以上所有的數(shù)據(jù)采集;

咨詢報價 預(yù)約體驗

一、產(chǎn)品概述

ErgoLAB信息產(chǎn)品人機交互測評系統(tǒng),是津發(fā)科技依據(jù)“人因工程與工效學(Human Factors and Ergonomics)”和“人-信息-物理系統(tǒng)(HCPS)”理論自主研發(fā)的面向多模態(tài)數(shù)字化信息產(chǎn)品 “以人為中心-信息系統(tǒng)交互HCI)主客觀測試與評估系統(tǒng),可以對信息產(chǎn)品原型進行人機交互原型設(shè)計、用戶體驗與可用性測試、人機交互評估與交互行為分析系統(tǒng)、人因測試與人機工效評價等。廣泛用于桌面端PC應(yīng)用程序、WEB網(wǎng)頁程序,移動終端APP應(yīng)用程序,虛擬現(xiàn)實VR應(yīng)用程序等多類型信息化終端設(shè)備,特別是人工智能時代針對AI人機智能交互程序產(chǎn)品原型等多類型數(shù)字化信息產(chǎn)品的交互行為分析和可用性測試、人機交互測試和評價。

綜合分析1.jpg

ErgoLAB信息產(chǎn)品人機交互測評系統(tǒng)、用戶體驗與可用性測試系統(tǒng)分為學術(shù)版、企業(yè)版、軍工版,并可根據(jù)客戶需求提供私有化云端部署;該系統(tǒng)是ErgoLAB人機環(huán)境同步云平臺專門針對-信息系統(tǒng)交互HCI)主客觀測試與評估的子系統(tǒng)。系統(tǒng)可提供從被試庫云項目管理、云實驗設(shè)計、數(shù)據(jù)采集、存儲、分析到智能應(yīng)用的全流程主客觀數(shù)據(jù)驅(qū)動解決方案,可搭建私有云數(shù)據(jù)庫,包含多終端API/TTL實時行為編碼與事件標記應(yīng)用程序并提供開放數(shù)據(jù)同步接口可供二次開發(fā),快速精準輸出可用性測試與交互行為分析結(jié)果,助力裝備研制和產(chǎn)品開發(fā)的全生命周期。

 

ErgoLAB信息產(chǎn)品人機交互測評系統(tǒng),具備被試庫管理與屬性篩選、問卷與量表調(diào)查、WEB/APP/VR等多類型信息產(chǎn)品或原型的設(shè)計與導入、AOI興趣區(qū)自動識別與自定義編輯、測試過程同步記錄、多模態(tài)數(shù)據(jù)同步采集分析、以及實驗數(shù)據(jù)嵌入式回放等功能,借助科學量化的統(tǒng)計數(shù)據(jù),分析得出面向特定用戶的信息產(chǎn)品功能設(shè)計的有效性和可用性。適用于裝備研制和產(chǎn)品開發(fā)的全生命周期,能夠幫助在產(chǎn)品開發(fā)初期修正策劃方案、產(chǎn)品投產(chǎn)階段提供改進方案、產(chǎn)品廣告與營銷提供客觀的市場研究與用戶消費行為調(diào)研。

 

ErgoLABpng.png01 SYNCBOX.png

智能化人機環(huán)境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設(shè)計、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計與輸出可視化報告,對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實時同步人因工程研究解決方案,可以在不同的實驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進一步的主客觀數(shù)據(jù)支撐與科學指導。
實驗設(shè)計.png

 

其中,云實驗設(shè)計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實驗刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實驗范式(系統(tǒng)包含常用量表與實驗范式以及數(shù)據(jù)常模,如NASA-TLX認知負荷量表、PANAS情緒效價量表、Stroop任務(wù)、MOT多目標追蹤、注意力訓練任務(wù)等)、聲光電刺激與實時API行為編碼/TTL事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線網(wǎng)站和手機應(yīng)用程序,以及所有的原型設(shè)計材料,也支持與如下刺激實時同步采集:如場景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,Superlab,TobiiPro Lab等。

 

shikong2.png

ErgoLAB平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗證的方法,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應(yīng)的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。

eeg-visualization-min.png

ErgoLAB平臺包含強大的數(shù)據(jù)分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應(yīng),行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計分析模塊包含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。

 

津發(fā)科技提供定制開發(fā)服務(wù),與人因工程與工效學分析評價領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢津發(fā)科技!

綜合分析1.jpg

津發(fā)科技股份公司自豪地給大家介紹ErgoLAB人機環(huán)境同步平臺。人機環(huán)境同步平臺是由津發(fā)公司安全自主開發(fā)的系統(tǒng),是一個專業(yè)用于實驗設(shè)計、數(shù)據(jù)收集、分析統(tǒng)計和演示工效學研究與人類行為研究中人-機-環(huán)境數(shù)據(jù)同步采集及多元數(shù)據(jù)同步分析平臺,系統(tǒng)通過了國家發(fā)明專利:201410056693.6,產(chǎn)品通過了歐洲CE、FCC、以及ISO9001、ISO14001、ISO18001等多項國際認證,也獲得國家多項自主知識產(chǎn)權(quán)證書。該系統(tǒng)與許多交通與駕駛研究、人因工程學、心理學實驗設(shè)備相兼容,共同為人機工程研究創(chuàng)造了理想的人-機-環(huán)境同步研究解決方案。

津發(fā)ErgoLAB人機環(huán)境同步平臺是研究人類在不同環(huán)境中的行為反應(yīng),以及各種復(fù)雜的自然物理環(huán)境或工作環(huán)境變下(如環(huán)境溫度,濕度,噪音,照明,風速,空氣流量,空氣中的顆粒物質(zhì),有機物質(zhì)等)進行各種活動時的人體生理狀況(如腦電,心電,眼電,心率,皮電,皮溫,血流量等)、眼睛運動或視線關(guān)注點、以及頭部和表情的變化并同步以上所有的數(shù)據(jù)采集;結(jié)合人類外顯行為的視頻數(shù)據(jù)(動作,姿勢,運動,位置,力量,角度,人體震動狀態(tài)等)進行客觀的觀察和分析,了解所有的內(nèi)外變化之間的因果關(guān)系;完成在同一時間點或同一時間段內(nèi)人機環(huán)境數(shù)據(jù)實時同步記錄、追蹤、分析數(shù)據(jù)。

ErgoLAB人機環(huán)境同步平臺是一套研究級解決方案,目前在人機交互與可用性研究、駕駛行為研究、環(huán)境行為研究、安全人機工程研究、行為安全研究、人機工程研究、人因工程與工效學研究等領(lǐng)域處于技術(shù)領(lǐng)先地位。

ErgoLAB解決方案適用于多種實驗研究環(huán)境:3D虛擬仿真環(huán)境研究、Realworld真實世界現(xiàn)場研究環(huán)境、以及實驗室研究環(huán)境。

 

人機環(huán)境同步平臺技術(shù)特點,

1、可穿戴技術(shù)適合真實現(xiàn)場研究

該系統(tǒng)采用最適合進行真實現(xiàn)場研究級別的可穿戴技術(shù)、無線數(shù)據(jù)傳輸技術(shù),目前是世界上唯一的可穿戴人-機-環(huán)境同步研究系統(tǒng),無需連接任何線纜的數(shù)據(jù)記錄器與傳感器實現(xiàn)無線通訊:讓被試忘記連接線纜帶來的約束與不適感覺,在人類活動或操作作業(yè)中可以在完全自然不受任何干擾的狀態(tài)下采集數(shù)據(jù),行動完全自由!所有的可穿戴數(shù)據(jù)采集模塊同步在線分析人體的腦電波變化、眼動軌跡、以及肌電、心電、皮電、皮溫、呼吸、心率等情緒和生理變化、并可以就人類行為的動作次數(shù)、動作習慣、動作頻率、持續(xù)時間等,進行情緒、緊張、反應(yīng)狀態(tài)的分析,研究個體行為、生理情緒狀況、視覺、認知、活動等機體特性在特定工作或移動狀態(tài)下與周圍環(huán)境刺激間交互影響狀態(tài)。

2、虛擬現(xiàn)實環(huán)境模擬仿真技術(shù)結(jié)合定量的研究方法

1)人-機-環(huán)境同步技術(shù)實現(xiàn)了數(shù)據(jù)的量化分析。傳統(tǒng)研究中,多采用定性/質(zhì)的分析方法。以人機環(huán)境同步技術(shù)為核心的研究方法將數(shù)學化、數(shù)字化及數(shù)據(jù)的量化研究和分析相結(jié)合,將之前一直是“說一說”或者“感覺”的東西通過大量的數(shù)據(jù)來證明和論述。人機環(huán)境同步技術(shù)最實質(zhì)性的功用是使研究人員得以進行數(shù)據(jù)分析,為工程、安全、設(shè)計、建筑、交通、航空航天、航海、船舶類的學生創(chuàng)造和實踐提供了很好的實驗和研究平臺。

2)人-機-環(huán)境同步技術(shù)結(jié)合虛擬現(xiàn)實技術(shù)。以人機環(huán)境同步技術(shù)為核心的人機環(huán)境同步實驗室結(jié)合了數(shù)據(jù)定量化、虛擬現(xiàn)實技術(shù)。通過虛擬空間的用戶體驗研究,將模型或圖紙類的“感”性研究提到實際體驗層面,更貼近現(xiàn)實研究。同時,像比傳統(tǒng)的虛擬現(xiàn)實設(shè)備,該技術(shù)使虛擬環(huán)境具備了科研能力,可實現(xiàn)多維度定量數(shù)據(jù)采集和分析等功能。

3、與其他研究方法的顯著區(qū)別

人-機-環(huán)境同步技術(shù)與以往一些傳統(tǒng)的研究方法的根本區(qū)別之一,就是環(huán)境因素不再作為一種被動的干擾因素排斥在系統(tǒng)之外,而是作為一種積極的主動因素納入系統(tǒng)之中,并成為系統(tǒng)的一個重要環(huán)節(jié)。

很顯然,環(huán)境既影響人的生存和工作能力,又影響機的性能和可靠運轉(zhuǎn)。反之,人和機也影響環(huán)境的狀態(tài)。所以,環(huán)境與人、環(huán)境與機、環(huán)境與系統(tǒng)之間,既存在信息流通、信息加工問題,也存在信息控制問題,這就更加突出了環(huán)境在系統(tǒng)中的重要作用。

實踐證明,只有把環(huán)境作為系統(tǒng)的一個環(huán)節(jié),才能從系統(tǒng)的總體高度對環(huán)境進行全面的規(guī)劃與控制,有的可以消除,有的可以防護,有的可減至允許限度,有的可獲取最佳值,從而使全系統(tǒng)處于最優(yōu)工作狀態(tài),這就從根本上杜絕了那種先出產(chǎn)品后治環(huán)境,或在管理工作中頭痛治頭、腳疼醫(yī)腳的被動局面,使人們的科學實踐活動始終沿著科學的道路前進;

 

研究者可以使用ErgoLAB人機環(huán)境同步平臺完成個性化與目標化的實驗設(shè)計,并能夠?qū)崿F(xiàn)項目的連續(xù)性研究。它依據(jù)科學實驗研究標準過程,支持實驗測試全過程---從項目計劃、樣本確定、數(shù)據(jù)同步記錄到結(jié)果的分析與可視化及導出報告。

在實驗課題計劃準備階段,ErgoLAB支持研究者所有的設(shè)計規(guī)劃--從樣本屬性界定到數(shù)據(jù)記錄方式的匹配等。在實驗測量階段,研究者可以實時監(jiān)控所有通道的數(shù)據(jù),及時監(jiān)測相關(guān)重要性數(shù)據(jù)影響因素。ErgoLAB人機環(huán)境同步平臺提供了同步測量數(shù)據(jù)回放功能,允許研究者準確的分析腦波、生理反應(yīng)、眼動注視點、行為、動作,語言評論,姿勢以及面部表情等。同時,ErgoLAB也提供了豐富的數(shù)據(jù)分析功能,研究者可以根據(jù)課題研究的目的、內(nèi)容選取特定的數(shù)據(jù)片段或過濾、提取有意義的數(shù)據(jù)結(jié)果,進而開展有效的深入研究與分析。

人機環(huán)境同步平臺系統(tǒng)組成:

津發(fā)ErgoLAB人機環(huán)境同步平臺以獨創(chuàng)的人機環(huán)境多元數(shù)據(jù)同步技術(shù)為核心,通過可穿戴情緒測量與生理記錄同步模塊同步記錄個體的心電ECG、皮電EDA、脈搏PPG、肌電EMG、呼吸RESP、皮溫SKT等指標;同時,非接觸與可穿戴眼動追蹤同步模塊及EEG可穿戴腦電測量同步模塊同步實時記錄個體的眼動和腦電波變化情況,分析個體的注意力、認知負荷等信息;Biometrics可穿戴生物力學測量同步模塊及PsyLAB交互行為觀察模塊結(jié)合動作分級編碼技術(shù),同步實時記錄個體的動作、姿勢、行為表現(xiàn)、表情分析等;Environment物理環(huán)境測量數(shù)據(jù)同步模塊實時同步記錄個體工作環(huán)境信息,如溫濕度,光照度等環(huán)境的要求對個體行為或績效的影響性等。

    ErgoHMI駕駛艙人機工效虛擬現(xiàn)實系統(tǒng)

    虛擬現(xiàn)實技術(shù)為我們發(fā)展一種變革性的具有良好生態(tài)效度和內(nèi)部效度的實驗方法提供了契機。傳統(tǒng)的心理學實驗往往犧牲生態(tài)效度來達到較高的外部效度。其次,虛擬現(xiàn)實技術(shù)使得心理學實驗可以在自然的條件下進行,從而更有效地開展有關(guān)人類視知覺、運動和認知等方面的研究。

    介紹 參數(shù)
    ErgoVR沉浸式CAVE虛擬仿真實驗室

    ErgoVR沉浸式CAVE虛擬現(xiàn)實實驗室可提供光環(huán)境與視覺模擬、聲環(huán)境與聽覺模擬、氣味與嗅覺模擬、人機交互與觸覺反饋模擬、人機交互測評、人機環(huán)境測試、人機工效分析、人因設(shè)計與虛擬裝配、虛擬展示、虛擬訓練等技術(shù)服務(wù)。

    介紹 參數(shù)
    多人交互虛擬現(xiàn)實系統(tǒng)

    多人交互可穿戴行走虛擬現(xiàn)實系統(tǒng)由津發(fā)科技自主研發(fā)的ErgoLAB虛擬世界人機環(huán)境同步平臺、美國WorldViz頭戴式行走虛擬現(xiàn)實系統(tǒng)等核心部件組成,采用虛擬現(xiàn)實多人交互技術(shù),支持多人在同一個虛擬現(xiàn)實場景中協(xié)同完成人機交互任務(wù)的解決方案,試驗者的動作均細致地呈現(xiàn)在同一個虛擬現(xiàn)實世界中,雙人數(shù)據(jù)同步,即時互動感大大增強。在進行人機環(huán)境或者人類行為研究時結(jié)合虛擬現(xiàn)實技術(shù),基于三維虛擬現(xiàn)實環(huán)境變化的情況下實時同步采集人-機-環(huán)境定量數(shù)據(jù)并進行分析評價,定量結(jié)果為科學研究做客觀數(shù)據(jù)支撐。

    介紹 參數(shù)

訂購請留言

您需要:

  • 獲取產(chǎn)品資料
  • 獲取解決方案
  • 設(shè)備預(yù)約體驗
  • 實驗室規(guī)劃設(shè)計
  • 制定招標參數(shù)

姓名:

電話:

郵箱:

學院院系/企業(yè)名稱:

研究方向:

經(jīng)費預(yù)算:

  • 50萬以內(nèi)
  • 100萬以內(nèi)
  • 200萬以內(nèi)
  • 300萬以內(nèi)
  • 500萬以內(nèi)
  • 1000萬以內(nèi)
  • 2000萬以內(nèi)
  • 5000萬以內(nèi)
  • 不限
推薦產(chǎn)品

QQ客服:

 4008113950

服務(wù)熱線:

 4008113950

公司郵箱:Kingfar@kingfar.cn

微信聯(lián)系:

 13021282218

微信公眾號

高潮爽死抽搐白浆的视频网站,欧美日韩一区狠狠爱视频v片,中文字幕无线码一区中文免费,国产精品v欧美精品v日韩精品,奇米影视7777狠狠狠狠视频