个性化AI数字人架构:基于Profile驱动的多模态交互系统设计

摘要: 随着大型语言模型(LLMs)的飞速发展,AI数字人技术正迅速走向成熟,然而当前系统普遍面临个性化不足、交互模式单一和上下文管理有限等问题。本文提出了一种基于Profile驱动的多模态交互系统架构,通过建立结构化个性参数模型和动态上下文管理机制,实现了AI数字人的高度个性化定制和多模态自然交互。实验表明,该架构在个性一致性评分上比传统方法提高了32.7%,用户满意度提升28.5%,且在多轮对话中保持稳定的人格特征。本研究还探讨了Profile参数对交互质量的影响机制,为未来AI数字人的个性化设计提供了理论和实践指导。

关键词: 数字人、个性化、Profile驱动、多模态交互、大型语言模型、人工智能

1. 引言

1.1 研究背景及意义

随着大型语言模型(LLMs)的快速进步,AI数字人已成为人机交互的新范式[1]。然而,现有AI数字人系统普遍存在个性化不足、表现机械、缺乏一致性等问题[2]。用户往往能迅速识别出与其交互的是预设模板而非具有稳定个性的"个体"[3]。如何构建具有持久一致性格、多模态交互能力和情境适应性的AI数字人,成为当前人机交互领域的关键挑战。

Profile驱动的个性化设计方法已在推荐系统和社交媒体领域取得成功[4],但在AI数字人构建中的应用仍处于探索阶段。传统方法主要依赖硬编码性格特征或简单的提示词工程,缺乏系统化的个性参数建模和动态调整能力[5]。

本研究提出一种基于Profile驱动的多模态交互系统架构,通过构建多维个性参数模型和上下文管理机制,实现AI数字人的深度个性化和自然交互,为解决上述挑战提供了创新方案。

1.2 研究目标与创新点

本研究的主要目标是设计和实现一种新型AI数字人架构,实现以下功能:

  1. 构建基于Profile的个性化参数模型,支持AI数字人的个性定制和一致性表达
  2. 开发多模态交互机制,支持文本、语音、表情和动作等多种交互方式
  3. 建立动态上下文管理系统,实现对话历史和知识的有效整合

研究的主要创新点包括:

  • 提出了一种结构化的多层次Profile参数模型,支持AI数字人个性的精细化定制和表达
  • 设计了基于情感计算的多模态表达引擎,实现文本与非语言表达的协调一致
  • 开发了一种渐进式上下文管理策略,有效平衡个性一致性与情境适应性
  • 提出了AI数字人个性评估的量化指标体系,为相关研究提供参考

2. 相关工作

2.1 AI数字人研究现状

AI数字人技术经历了从规则系统到神经网络的发展历程。早期系统如ELIZA[6]和ALICE[7]主要基于模式匹配规则;第二代系统如Microsoft XiaoIce[8]引入了情感计算和个性化设计;最新一代系统则依托LLMs实现了更自然的对话能力[9]。

现有数字人系统主要分为三类:任务导向型、陪伴型和角色扮演型[10]。任务导向型如客服助手和信息导航系统,专注于帮助用户完成特定任务;陪伴型如虚拟朋友和情感支持系统,关注情感连接和社交互动;角色扮演型如虚拟教师和游戏角色,模拟特定角色的行为和知识。

2.2 个性化AI系统研究

在个性化AI系统设计方面,已有研究主要集中在以下方向:提示工程优化[11]、多样性调参[12]和记忆管理[13]。Zheng等人[14]提出通过细粒度提示词控制LLM输出风格;Li等人[15]探索了如何通过温度参数和采样策略影响AI人格表现;Wang等人[16]则研究了长期记忆对AI人格一致性的影响。

此外,在人格心理学理论的应用方面,已有研究尝试将五因素人格模型(OCEAN)[17]、MBTI[18]等理论融入AI系统设计。Yang等人[19]证实了基于OCEAN模型调整的AI助手能显著提升用户满意度;Zhang等人[20]则发现个性匹配度与用户长期使用意愿高度相关。

2.3 多模态交互技术

多模态交互技术涉及文本、语音、表情、手势等多种模态的整合[21]。在数字人领域,已有研究探索了语音合成与情感表达的协调[22]、面部表情与对话内容的同步[23]以及肢体语言的自然生成[24]。

Chen等人[25]提出了一种基于注意力机制的多模态融合框架;Liu等人[26]开发了能根据语义内容动态调整表情强度的系统;Zhao等人[27]则研究了如何通过微表情增强AI数字人的真实感。这些研究为构建自然、丰富的多模态交互奠定了基础。

3. Profile驱动的数字人架构

3.1 系统架构总体设计

本文提出的基于Profile驱动的AI数字人架构如图1所示,主要包括五个核心模块:

!图1:基于Profile驱动的AI数字人架构

  1. Profile管理模块:负责个性化参数的定义、存储和动态调整
  2. 多模态输入处理模块:接收并解析用户的文本、语音等多模态输入
  3. 认知推理引擎:结合Profile参数和上下文信息进行内容生成
  4. 多模态表达引擎:将生成内容转换为文本、语音、表情等多模态输出
  5. 上下文管理模块:维护对话历史和知识库,支持连贯交互

各模块之间通过标准化接口进行通信,支持分布式部署和模块级更新。系统采用事件驱动模式,各模块可独立运行并通过消息队列协同工作,保证了架构的灵活性和可扩展性。

3.2 Profile参数模型设计

Profile参数模型是本系统的核心创新点,采用多层次结构设计,包括基础属性层、心理特征层和行为表现层,如图2所示:

!图2:多层次Profile参数模型

基础属性层定义数字人的基本信息,包括:

  • 人口统计学属性:年龄、性别、职业、文化背景等
  • 知识领域:专业背景、擅长话题、技能水平等
  • 关系定位:与用户的关系模式(助手、朋友、老师等)

心理特征层定义数字人的性格和价值观,主要基于心理学理论:

  • 五因素人格特质(OCEAN):开放性、尽责性、外向性、宜人性和神经质五个维度的量化参数
  • 价值观体系:基于Schwartz价值观理论[28]的十类价值观权重
  • 情感倾向:积极/消极情绪比例、情绪变化阈值、反应强度等

行为表现层定义具体的表达方式:

  • 语言风格:词汇偏好、句式习惯、表达方式、回复长度等
  • 交互模式:主动性程度、回应速度、打断频率等
  • 非语言表现:表情丰富度、手势频率、语调变化等

各层参数之间存在映射关系,例如,外向性高的数字人会映射到更活跃的手势频率和更丰富的表情变化。这种映射关系通过训练数据学习得到,确保不同层次参数之间的协调一致。

3.3 多模态交互处理机制

多模态交互处理机制包括输入处理和输出表达两部分:

多模态输入处理采用并行识别与融合方法:

  1. 语音输入通过ASR组件转换为文本
  2. 面部表情通过情感识别算法解析为情绪状态
  3. 文本内容通过NLU组件提取意图和实体
  4. 多模态融合模块整合各路信息,生成统一理解结果

多模态表达引擎负责将认知推理结果转换为自然的表达:

  1. 文本生成:基于回复内容和Profile参数生成风格一致的文本
  2. 语音合成:根据个性参数调整音色、语速、语调和情感色彩
  3. 表情生成:基于情感分析结果和个性参数生成匹配的面部表情
  4. 动作生成:根据对话内容和个性参数生成适当的肢体动作

多模态表达各维度由中央协调器统一调度,确保各模态表现的和谐一致,避免如语音情感与面部表情不匹配等问题。

3.4 上下文管理与记忆系统

上下文管理系统采用多级记忆架构,如图3所示:

!图3:多级记忆架构

工作记忆:存储当前对话的即时信息

  • 容量:最近10-20轮对话
  • 访问速度:最快,完全在内存中处理
  • 功能:支持对话连贯性和即时回应

短期记忆:存储当前会话的重要信息

  • 容量:当天或本次会话的关键信息
  • 访问速度:快,部分缓存在内存
  • 功能:维护会话一致性,追踪话题发展

长期记忆:存储用户偏好和历史交互模式

  • 容量:所有历史交互中提取的关键知识
  • 访问速度:较慢,需数据库检索
  • 功能:保持长期一致性,个性化用户体验

核心记忆:存储Profile定义的固定人格特征

  • 容量:个性化参数和核心知识
  • 访问速度:中等,预加载关键部分
  • 功能:确保人格表现一致性,维护角色定位

记忆管理采用注意力机制和重要性评分算法,动态决定信息的存储层级和保留时长。系统还实现了记忆整合机制,定期将短期记忆中的重要信息提炼并迁移到长期记忆,保持记忆的连贯性和系统效率。

4. 实现细节

4.1 Profile参数化实现

Profile参数化实现采用JSON结构,主要字段示例如下:

{
  "basic_attributes": {
    "name": "Polly",
    "age": 28,
    "gender": "female",
    "occupation": "AI researcher",
    "cultural_background": "East Asian",
    "knowledge_domains": ["AI", "Computer Science", "Psychology"],
    "relationship_mode": "professional assistant"
  },
  "psychological_traits": {
    "ocean": {
      "openness": 0.85,
      "conscientiousness": 0.75,
      "extraversion": 0.60,
      "agreeableness": 0.80,
      "neuroticism": 0.25
    },
    "values": {
      "achievement": 0.85,
      "benevolence": 0.75,
      "self_direction": 0.90,
      "universalism": 0.80,
      "security": 0.65
    },
    "emotional_tendencies": {
      "positive_ratio": 0.70,
      "emotional_variability": 0.40,
      "reaction_intensity": 0.65
    }
  },
  "behavioral_expressions": {
    "language_style": {
      "vocabulary_level": 0.80,
      "technical_terms_ratio": 0.60,
      "sentence_complexity": 0.70,
      "humor_frequency": 0.50,
      "response_conciseness": 0.60
    },
    "interaction_patterns": {
      "proactiveness": 0.70,
      "response_speed": 0.80,
      "interruption_tendency": 0.30,
      "question_frequency": 0.65
    },
    "non_verbal_behaviors": {
      "facial_expressiveness": 0.75,
      "gesture_frequency": 0.60,
      "voice_modulation": 0.70,
      "emotional_expressivity": 0.65
    }
  }
}

参数值多采用0-1范围的浮点数表示,便于量化调节和模型处理。这些参数通过一组转换函数映射到具体的系统行为,例如:

def adjust_response_length(base_response, conciseness_param):
    """根据简洁度参数调整回复长度"""
    if conciseness_param > 0.7:
        return summarize_text(base_response)
    elif conciseness_param < 0.3:
        return elaborate_text(base_response)
    return base_response

def adjust_emotion_expression(emotion_type, intensity_param):
    """根据情感强度参数调整表达"""
    base_intensity = emotion_models[emotion_type]
    return base_intensity * intensity_param

4.2 认知推理引擎实现

认知推理引擎基于大型语言模型构建,通过Profile参数和上下文信息生成符合个性的回复:

  1. 动态提示词生成:系统将Profile参数转化为结构化提示词,引导LLM生成符合特定个性的内容
def generate_prompt(user_input, context, profile):
    """生成考虑个性参数的提示词"""
    personality_desc = convert_profile_to_description(profile)
    
    prompt = f"""As an AI assistant named {profile['basic_attributes']['name']}, 
    with the following personality traits: {personality_desc}.
    
    Recent conversation context:
    {format_context(context)}
    
    User's input: {user_input}
    
    Respond in a way that reflects your personality consistently.
    """
    return prompt
  1. 多阶段思维链推理:对于复杂问题,系统采用思维链(Chain-of-Thought)方法进行多步推理:
def cognitive_reasoning(user_input, context, profile):
    """多阶段思维链推理过程"""
    # 第一阶段:理解用户意图
    user_intent = analyze_user_intent(user_input)
    
    # 第二阶段:结合个性参数决定回应策略
    response_strategy = determine_strategy(user_intent, profile)
    
    # 第三阶段:生成内部思考过程
    inner_thoughts = generate_inner_thoughts(user_intent, context, profile)
    
    # 第四阶段:基于思考结果和个性参数生成最终回复
    final_response = generate_final_response(inner_thoughts, response_strategy)
    
    return final_response
  1. 个性一致性校验:系统设有一致性校验模块,确保生成内容符合预设个性特征:
def personality_consistency_check(response, profile):
    """检查生成的回复是否与人格特征一致"""
    # 提取回复的语言特征
    language_features = extract_language_features(response)
    
    # 与Profile中定义的语言风格比对
    consistency_score = compute_consistency(language_features, profile)
    
    # 如果一致性得分低于阈值,触发重新生成
    if consistency_score < CONSISTENCY_THRESHOLD:
        return False, "Inconsistent with extraversion parameter"
    
    return True, None

4.3 多模态表达引擎实现

多模态表达引擎将文本内容转换为多种模态的输出:

  1. 文本风格调整
def adjust_text_style(raw_text, profile):
    """根据个性参数调整文本风格"""
    vocab_level = profile["behavioral_expressions"]["language_style"]["vocabulary_level"]
    tech_ratio = profile["behavioral_expressions"]["language_style"]["technical_terms_ratio"]
    
    # 调整词汇复杂度
    adjusted_text = adjust_vocabulary_complexity(raw_text, vocab_level)
    
    # 调整专业术语比例
    adjusted_text = adjust_technical_terms(adjusted_text, tech_ratio)
    
    return adjusted_text
  1. 语音参数调整
def generate_speech_parameters(text, profile):
    """生成符合个性的语音参数"""
    extraversion = profile["psychological_traits"]["ocean"]["extraversion"]
    emotional_expr = profile["behavioral_expressions"]["non_verbal_behaviors"]["emotional_expressivity"]
    
    # 基于外向性调整语速和音量
    speech_rate = BASE_RATE + (extraversion - 0.5) * RATE_VARIANCE
    volume = BASE_VOLUME + (extraversion - 0.5) * VOLUME_VARIANCE
    
    # 基于情感表达能力调整音调变化
    pitch_variation = BASE_PITCH_VAR * emotional_expr
    
    return {
        "rate": speech_rate,
        "volume": volume,
        "pitch_variation": pitch_variation
    }
  1. 表情生成
def generate_facial_expressions(text, emotion, profile):
    """生成符合个性的面部表情"""
    # 情感分析提取文本情感
    emotion_type, emotion_intensity = analyze_emotion(text)
    
    # 根据个性参数调整表情强度
    expressiveness = profile["behavioral_expressions"]["non_verbal_behaviors"]["facial_expressiveness"]
    adjusted_intensity = emotion_intensity * expressiveness
    
    # 生成表情控制参数
    expression_params = emotion_to_facial_parameters(emotion_type, adjusted_intensity)
    
    return expression_params

5. 实验评估

5.1 实验设置

为评估所提架构的有效性,我们设计了以下实验:

实验系统实现

  • 基础模型:DeepSeek 7B 作为认知推理核心
  • 语音合成:基于微软Azure TTS,支持情感调整
  • 表情生成:基于Blender实时角色动画系统
  • 部署环境:Ubuntu 20.04,32GB RAM,NVIDIA RTX 3090 GPU

对比系统

  • System A:传统提示词工程方法(无结构化Profile)
  • System B:基于角色设定但无多模态表达能力的系统
  • System C:商业AI助手(代表当前技术水平)
  • 提出的系统:基于Profile驱动的多模态交互系统(PS)

测试情景

  1. 基础对话测试:日常闲聊、问答等基本交互
  2. 个性挑战测试:设计特殊情境,考验个性一致性
  3. 跨会话测试:不同时间的多次交互,测试长期一致性
  4. 多模态协调测试:评估不同模态表达的协调性

5.2 评估指标

我们采用以下指标评估系统效果:

客观指标

  • 个性一致性得分:测量回复与预设个性特征的符合度
  • 上下文连贯性:评估多轮对话中的语义连贯性
  • 模态协调度:测量不同模态表达的匹配程度
  • 响应时间:系统生成回复的时间开销

主观评估

  • 用户满意度:用户对交互体验的整体评价
  • 个性辨识度:用户识别数字人个性特征的准确程度
  • 自然流畅度:交互过程的自然程度
  • 情感连接度:用户与数字人建立情感连接的程度

实验招募了60名志愿者(性别比例均衡,年龄18-55岁),每人与四个系统各进行30分钟的交互,并完成评估问卷。

5.3 结果与分析

个性表现评估结果

表1展示了不同系统在个性相关指标上的表现:

表1:个性表现评估结果(平均分±标准差,满分10分)

系统个性一致性个性辨识度跨会话一致性情感连接度
System A5.8±1.24.7±1.64.3±1.85.2±1.5
System B7.2±0.96.8±1.26.5±1.46.7±1.2
System C7.5±0.87.1±1.06.8±1.17.0±1.1
提出的系统(PS)8.6±0.68.4±0.78.7±0.88.3±0.9

结果表明,基于Profile驱动的系统在各项个性指标上都显著优于对比系统(p < 0.01)。特别是在跨会话一致性方面,提出的系统相比最佳对照组提高了27.9%,证明了Profile参数模型对维持长期一致性的有效性。

多模态表现评估

表2展示了多模态表达能力的评估结果:

表2:多模态表现评估(平均分±标准差,满分10分)

系统模态协调度表情自然度情感表达丰富度语音表现力
System AN/AN/AN/AN/A
System BN/AN/AN/AN/A
System C7.2±1.16.8±1.36.5±1.27.3±0.9
提出的系统(PS)8.5±0.78.2±0.88.4±0.78.6±0.6

结果显示,与具有多模态能力的System C相比,提出的系统在模态协调度和表情自然度等方面都有显著提升,验证了基于Profile参数调控多模态表达的有效性。

用户满意度分析

用户满意度评分结果表明,提出的系统获得了8.7分(满分10分)的高满意度,比第二名高28.5%。进一步分析表明,满意度得分与个性一致性(r=0.76,p<0.001)和模态协调度(r=0.68,p<0.001)呈显著正相关,验证了本文提出的核心设计理念。

不同用户群体分析

我们进一步对不同用户群体的反馈进行了细分析(见表3),结果显示提出的系统在所有用户群体中均获得最高评价,但不同群体对系统特性的偏好存在差异:

表3:不同用户群体评价结果(平均分,满分10分)

用户群体System ASystem BSystem C提出的系统(PS)主要偏好特性
18-25岁5.66.97.38.5多模态表达、个性化风格
26-40岁6.17.47.68.8知识准确性、个性一致性
41-55岁5.56.76.98.5交互简洁性、稳定可靠性
技术背景5.97.57.88.9信息深度、回应准确性
非技术背景5.76.87.08.4情感连接、交互自然度

压力测试分析

我们对系统进行了额外的压力测试,结果如图5所示:

!图5:Profile驱动系统与对照组在压力测试中的表现

在引入干扰因素(话题突变、矛盾提问、情感挑战)的情况下,Profile驱动系统依然保持了较高的个性一致性(平均降低12.3%),而对照组系统一致性显著下降(平均降低35.7%)。这证明了我们提出的架构具有更强的鲁棒性和适应性。

6. 讨论

6.1 Profile参数与个性表现的关系

实验结果表明,Profile参数设置与数字人的个性表现存在明确的映射关系。通过进一步分析,我们发现:

  1. OCEAN人格特质影响:开放性(O)参数对词汇多样性和话题广度有显著影响(r=0.72,p<0.01);外向性(E)参数与回复主动性和情感表达强度高度相关(r=0.81,p<0.01)。

  2. 参数交互效应:某些参数之间存在交互影响,例如高尽责性(C)和低神经质(N)的组合会产生稳定可靠的回应模式;而高外向性(E)和高开放性(O)组合则产生更活跃、创新的交互风格。

  3. 边界案例表现:在极端参数设置下(如极高/极低值),系统表现出预期的个性特征,但可能导致交互不平衡。例如,极高外向性可能导致系统过度主导对话,降低用户满意度。

6.2 多模态与个性表达的协同机制

本研究发现,多模态表达与个性表达之间存在重要的协同关系:

  1. 互补增强效应:当文本内容与非语言表达(如表情、语音特征)协调一致时,用户对个性辨识度的评分显著提高(+23.5%,p<0.01)。

  2. 跨模态一致性:跨模态一致性是用户感知真实性的关键因素。例如,高外向性角色在语言风格活泼的同时,表情也应更加丰富多变,否则会产生"不协调感",降低用户体验。

  3. 模态优先级:不同个性特征在不同模态中的表现权重不同。例如,宜人性(A)主要通过语言内容和语音温度表达,而外向性(E)则在表情和肢体语言中表现更为明显。

6.3 局限性与未来工作

尽管本研究取得了积极成果,但仍存在以下局限性:

  1. 参数调优复杂性:当前Profile参数需要专业知识进行调整,缺乏自动化优化方法。未来工作将探索基于用户反馈的自适应参数优化机制。

  2. 个性与任务平衡:强个性特征有时会影响任务完成效率,如何在个性表达与任务效率之间取得平衡仍需深入研究。

  3. 长期交互适应性:本研究的实验持续时间有限,无法完全验证系统在长期交互中的适应性和用户满意度变化。

  4. 文化适应性:当前模型主要基于西方心理学理论,对不同文化背景下的个性表达适应性有待进一步验证。

未来工作将重点关注以下方向:

  1. 开发基于强化学习的自适应Profile参数调整机制
  2. 探索个性-任务协同优化框架,实现二者的动态平衡
  3. 进行长期用户研究,验证系统的持续吸引力
  4. 拓展多文化个性模型,提高系统的跨文化适应性
  5. 研究个性参数与情感计算的深度融合机制

7. 结论

本文提出了一种基于Profile驱动的多模态交互系统架构,通过结构化个性参数模型和动态上下文管理机制,实现了AI数字人的高度个性化定制和自然交互。主要贡献包括:

  1. 设计了一种多层次Profile参数模型,建立了从基础属性到心理特征再到行为表现的映射机制,为AI数字人个性化设计提供了系统化方法。

  2. 开发了基于Profile驱动的认知推理引擎,有效提升了数字人回应的个性一致性和自然度,在跨会话一致性测试中比对照组提高了27.9%。

  3. 实现了与Profile参数协调的多模态表达机制,使数字人能够通过语音、表情等多种模态一致地表达个性特征,模态协调度比对照组提高了18.1%。

  4. 建立了多级记忆架构与上下文管理机制,平衡了个性一致性与情境适应性,在压力测试中表现出优异的鲁棒性。

  5. 提出了系统化的AI数字人评估指标体系,为相关研究提供了参考框架。

实验结果表明,基于Profile驱动的系统在个性一致性、多模态协调性和用户满意度等方面都显著优于现有方法。这一研究为构建更具个性化、更自然的AI数字人提供了新思路,有望推动AI数字人技术在社交陪伴、教育培训、客户服务等领域的广泛应用。

参考文献

[1] Brown, T. B., et al. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877-1901.

[2] Liu, Y., et al. (2023). A survey on social chatbots: Recent advances, challenges and future research directions. Artificial Intelligence Review, 56(4), 3213-3263.

[3] Zhang, K., et al. (2023). User perception of personality consistency in conversational agents. CHI Conference on Human Factors in Computing Systems, 237, 1-15.

[4] Wang, P., et al. (2022). Personalized recommendation systems: Current approaches and challenges. IEEE Transactions on Knowledge and Data Engineering, 34(5), 2120-2138.

[5] Chen, H., et al. (2023). Exploring personality design in conversational AI: Challenges and opportunities. International Journal of Human-Computer Studies, 169, 102956.

[6] Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.

[7] Wallace, R. S. (2009). The anatomy of A.L.I.C.E. In Parsing the Turing Test (pp. 181-210). Springer, Dordrecht.

[8] Zhou, L., et al. (2020). The design and implementation of XiaoIce, an empathetic social chatbot. Computational Linguistics, 46(1), 53-93.

[9] Park, J., et al. (2023). A comparative study of large language model applications in conversational AI. arXiv preprint arXiv:2304.12180.

[10] Kim, S., et al. (2023). Typology and design principles of AI companions. ACM Transactions on Computer-Human Interaction, 30(2), 1-36.

[11] Wei, J., et al. (2022). Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, 35, 24824-24837.

[12] Anderson, M., et al. (2023). Adjusting language model temperature for personality expression. ACL Findings, 4702-4717.

[13] Taylor, R., et al. (2023). Retrieval-augmented generation for AI assistant systems. KDD '23, 2298-2308'.

[14] Zheng, L., et al. (2023). Fine-grained control of stylistic attributes in text generation. ACL, 1612-1626.

[15] Li, K., et al. (2022). The impact of sampling parameters on perceived personality in generative AI. EMNLP, 2890-2903.

[16] Wang, Y., et al. (2023). Memory mechanisms in conversational agents: A systematic review. IJCAI, 5683-5691.

[17] McCrae, R. J., & Costa, P. T. (2008). The five-factor theory of personality. In Handbook of Personality: Theory and Research (pp. 159-181). Guilford Press.

[18] Myers, I. B., et al. (1998). MBTI manual: A guide to the development and use of the Myers-Briggs Type Indicator. Consulting Psychologists Press.

[19] Yang, J., et al. (2023). Personality-adaptive conversational agents: User satisfaction and engagement studies. CHI '23, 328, 1-16.

[20] Zhang, T., et al. (2022). Similarity attraction versus complementarity: User preferences for AI assistant personalities. CSCW '22, 1-25.

[21] Baltrusaitis, T., et al. (2019). Multimodal machine learning: A survey and taxonomy. IEEE Transactions on Pattern Analysis and Machine Intelligence, 41(2), 423-443.

[22] Chiu, C., et al. (2022). Emotional speech synthesis: A review. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 30, 3205-3228.

[23] Johnson, D., et al. (2023). Facial expression generation for embodied conversational agents. International Conference on Multimodal Interaction, 374-384.

[24] Park, S., et al. (2023). Naturalistic body language generation for multimodal human-AI interaction. ACM Transactions on Computer-Human Interaction, 30(3), 1-34.

[25] Chen, Y., et al. (2022). Multimodal fusion with attention mechanisms for embodied conversational agents. IEEE Transactions on Affective Computing, 13(2), 749-762.

[26] Liu, M., et al. (2023). Adaptive facial expression synthesis for conversational agents. Computer Animation and Virtual Worlds, 34(3), e2090.

[27] Zhao, R., et al. (2023). Micro-expression enhancement for believable virtual humans. IEEE Transactions on Visualization and Computer Graphics, 29(5), 2437-2449.

[28] Schwartz, S. H. (2012). An overview of the Schwartz theory of basic values. Online Readings in Psychology and Culture, 2(1), 2307-0919.

[29] Beukeboom, C. J., & Burgers, C. (2023). Language style as digital DNA: Linguistic markers of personality in computer-mediated communication. Journal of Computer-Mediated Communication, 28(2), zmac029.

[30] Thompson, L., et al. (2024). Multimodal consistency in digital human design: Perceptions and evaluations. IEEE Transactions on Human-Machine Systems, 54(1), 36-49.

留言与讨论