最近在跟小伙伴们探索如何写一个好剧本,我们作为非专业人士,对于好的剧本可能缺乏一定的认知,我们就在想是不是可以让 AI 告诉我们什么是好剧本,但这是一个比较主观的东西,一千个读者就有一千个哈姆雷特。

那有什么比较客观的测量方法吗?像我大学修的教育学和管理学,我们教育学领域就有教学测量学这么一个东西,包含各种模型量表,去测评教案教学方式是否达标,管理学和经济学领域也都有相应的模型和工具去测评。那么剧本应该也是有的,我们想到是不是可以利用剧评去给剧本打分,分值高的我们就认为他是一个好剧本,就像我们要去看一部电影前,可能回去看豆瓣评分,这是一个比较大众化的评分,表达了大多数人的观感。

评论一个好剧本可以用剧评去给剧本打分,那么 UI 界面是不是也可以用这套测量呢?查了一下,UI/UX 领域有一些评估模型,比如SUS (系统可用性量表)、PUEU (感知有用性与易用性) 以及 HEART 模型(产品健康度模型)等,我们可以让 AI 根据这些模型对我们设计做优化,比如这样

[file]
根据SUS (系统可用性量表)、PUEU (感知有用性与易用性) 以及 HEART 模型(产品健康度模型)优化UI/UX

下面是我做的一个实验,我有一个现成的小游戏,他长这样

原始界面

利用上面的提示词,让 chapgpt 对游戏界面和交互做一些优化,AI 给出了一些建议:

下面是**基于 SUS、PUEU 与 HEART 模型的 UI/UX 改进点精炼总结**,适合直接放进**产品文档 / 设计评审 / 迭代清单**中。

---

## 一、SUS(系统可用性)改进点

**目标:更好理解、更少困惑、更强掌控感**

1. **阻塞状态可解释**

* 被阻挡车辆提供原因提示(如:前方同向车辆未离开)
* 避免“点了没反应”的负面体验

2. **失败前风险预警**

* 在即将造成死局前给予非阻断提示
* 提升用户对系统反馈的信任感

3. **操作结果更可预期**

* 强化“点击 → 后果”的即时反馈(动画 / 文案)
* 减少试错式学习成本

---

## 二、PUEU(感知有用性 & 易用性)改进点

**目标:让用户觉得“我在进步,而不是在乱点”**

### 感知有用性(PU)

4. **策略反馈语言**

* 通关 / 失败时说明“为什么这样做有效 / 无效”
* 强化认知成长感,而不仅是结果成败

5. **显性但温和的学习提示**

* 在关键机制首次出现时给予一句解释
* 不使用强制教程,避免打断节奏

### 感知易用性(PEOU)

6. **降低隐性规则理解成本**

* 用提示替代纯试错
* 保持操作简单但规则透明

---

## 三、HEART 模型改进点(产品健康度)

### ❤️ Happiness(情绪体验)

7. **成功行为的情绪奖励**

* 满载离开、关键操作增加治愈反馈
* 放大“我做对了”的正向情绪峰值

### 🔁 Engagement(参与感)

8. **关卡目标前置**

* 每关给出一句挑战重点提示
* 帮助玩家建立策略预期

### 🔄 Retention(留存)

9. **连败时的被理解感**

* 鼓励文案 + 隐性难度补偿
* 让玩家感觉被支持而非被怜悯

### ✅ Task Success(任务成功率)

10. **轻度成功引导**

* 高亮当前“安全/推荐”操作
* 不剥夺自由选择,避免变成提示型游戏

---

## 四、核心设计原则总结

> **不是让系统更简单,而是让系统更会“解释自己”**

* 不减少复杂度
* 不强行教用户
* 只在关键时刻提供“刚刚好”的反馈

这是用 AI 基于以上建议改进后的一些过程和效果

过程

优化后的界面

提示优化

从上面可以看到,加了一些提示和失败前的预警,还加了游戏说明,体验比我的第一版简单游戏交互好多了,这些让我一点点加,可能有时一下想不出来,交给 AI 先做一些设计的优化,再去调整,不仅可以补齐我对界面交互的短板,还可以对产品进行快速迭代优化,感觉对大家可能有点借鉴意义吧。