CAT 编辑器

LQA Assessments (TMS)

文本由 Phrase Language AI 从英语机器翻译而得。

包含在

  • 终极和企业计划(遗留)

关于许可问题,请联系销售团队

语言质量评估(LQA)CAT编辑器中的审阅者执行,以根据预定义标准评估翻译内容的质量。问题逐段标记,按类型和严重程度分类,并存储在记分卡中,贡献于最终的质量得分。

虽然质量保证(QA)检查是自动化的,寻找缺失标签或拼写错误等技术问题,但LQA评估是由人类执行的,专注于语言质量。

LQA评估仅在启用LQA的工作流步骤中可用。

LQA仅在项目创建时或将步骤添加到项目时可以启用。如果创建一个带有启用LQA步骤的项目,但在项目创建期间关闭它,则之后无法重新启用。

在评估内容质量时,可能需要针对不同的内容类型或客户使用不同的规则。某些内容可能需要精确的术语,而其他内容可能需要遵循区域惯例或在目标长度和标记上保持精确。错误可能还需要不同的严重程度或分配权重。

整体反馈无法为合并的工作提供。

添加LQA评估

要添加评估,请按照以下步骤操作:

  1. 选择LQA窗格LQA_pane.png并单击开始评估

  2. 选择一个段落。

    • 要评估特定文本,请选择段落内的文本。

  3. 单击段落旁边的标记图标lqa_flag.png以打开错误类别下拉列表。 

  4. 选择一个错误类别严重程度,如果问题是重复的,还可以选择可选描述。 

    可选地,输入或选择@以在描述中添加提及,并从列表中选择所需的用户或用户组。被提及的用户将收到应用内通知

  5. 点击 标记问题

    LQA 评估已添加,可以在 ellipses.png 菜单中编辑、回复或删除。

    • 回复 LQA 评估允许通过输入或点击 @ 来添加 提及,并从列表中选择所需的用户或用户组。被提及的用户将收到应用内通知

  6. 重复最后两步以添加更多评估。

  7. 点击 完成 LQA

    评估已添加到 LQA 选项卡。

带有 LQA 评估的段落用实心标记图标 solid_lqa_flag.png 标识。创建的评估可以从特定评估的省略号菜单 ellipses.png 中编辑或删除(不适用于其他人创建的评估)。

添加批量评估

评估可以同时添加到最多 500 个段落的选择中。初始评估被视为选择中的父 Parent_comment.jpg,后续评估为子 Child_comment.jpg。可以在批量操作中编辑或删除这些选择,而不是作为单个评估。

批量评估中的关系

  • 编辑或回复子评估会切断与父评估的关系(不再可以执行批量操作)。

  • 回复父评估不会破坏与子评估的关系,回复不会传播到子评估。

  • 对父评估的编辑可以选择仅应用于父评估或也应用于子评估。

  • 删除父评估会切断子评估之间的关系(不再可以执行批量操作)。

要添加批量评估,请按照以下步骤操作:

  1. 在显示 LQA 窗格时,选择多个段落以标记问题。

    所选段落的数量将在 新问题 窗口中指示。

  2. 选择一个错误类别严重程度,如果问题是重复的,并可选择性地提供描述。 

  3. 选择如何在选定的段落中标记问题:

    • 将后续段落中的问题标记为重复问题。

    • 将所有段落中的问题标记为非重复问题。

      重复问题没有此选项。

  4. 点击 标记问题

    问题被添加到指定的段落中,父问题用Parent_comment.jpg表示,子问题用Child_comment.jpg表示。点击子图标以转到父问题。

列出的问题可以过滤Issue_filter.jpg。选项可以组合,包括按严重程度过滤或仅重复问题仅父问题

批量评估的评分

重复问题未选中,将后续段落中的问题标记为重复问题。

重复问题未选中,将所有段落中的问题标记为非重复问题。

重复问题已选中,将后续段落中的问题标记为重复问题。

段落 1

唯一错误 - 添加罚款(父问题)

唯一错误 - 添加罚款

重复错误 - 未添加罚款

段落 2

重复错误 - 未添加罚款

唯一错误 - 添加罚款

重复错误 - 未添加罚款

段落 3

重复错误 - 未添加罚款

唯一错误 - 添加罚款

重复错误 - 未添加罚款

生成 LQA 评估

要生成 LQA 评估,请在 LQA 选项卡中点击 完成。总体反馈可以选择性地应用。

分数将根据在 LQA 个人资料 中设置的通过/未通过阈值进行计算,并显示结果。如果为该工作流步骤启用了 LQA,则分数和结果将在 LQA 选项卡和 工作 表中的 LQA 分数列中显示。

分数是根据工作的总字数计算的。

评分示例:

当一段 500 字的文本包含 1 个关键 准确性 错误和 1 个轻微 语法 错误时,将被判定为未通过 LQA。准确性 错误的权重为 2.0,语法 的权重为 1.0。关键严重性扣分 10 分,轻微严重性扣分 1 分。

  1. 计算每个错误类别的问题数量,并乘以相应的严重性权重和错误权重:

    • 准确性扣分 = 关键错误数量 x 关键错误罚分 x 准确性权重 = 1 x 10 x 2.0 = 20 扣分

    • 语法扣分 = 轻微错误数量 x 轻微错误罚分 x 语法权重 = 1 x 1 x 1.0 = 1 扣分

  2. 将扣分相加:

    • 扣分总计 = 准确性扣分 + 语法扣分 = 20 + 1 = 21

  3. 使用 MQM 评分模型计算通过/未通过分数 [分数 = 1 - 扣分总计/字数]:

    • 分数 = 1 - 扣分总计/字数 = 1 - 21/500 = 0.958

  4. 将分数结果呈现为百分比:

    • 分数 % = 0.958 x 100 = 95.8

  5. 将分数 % 输入为您的通过/未通过阈值:

    • 您的通过/未通过阈值为 95.8 %

在工作岗位表中点击结果会打开一个记分卡窗口,提供通过电子邮件发送记分卡或导出为电子表格(.XLXS)文件的选项。通过电子邮件收到的LQA记分卡下载链接在5天后过期。

注释

共享 LQA记分卡下载链接在不同组织(即买方和供应商组织)之间是不可行的。

右键单击多个选定的工作以获得下载多个记分卡的选项。

工作流步骤中的LQA分数

当工作流中启用LQA时,所有步骤都会显示LQA分数。

  • 如果只有一个LQA步骤,所有工作流步骤将显示相同的分数。

  • 如果有多个LQA步骤,显示的分数取决于最近的LQA步骤:

    • 在LQA步骤之前和包括该步骤的步骤显示该步骤的分数。

    • 在后续LQA步骤之后的步骤显示其更新的分数。

示例

在一个5步的工作流中,LQA在第2步和第4步启用:

  • 第1步和第2步显示来自第2步的LQA分数。

  • 第3步、第4步和第5步显示来自第4步的LQA分数。

随着额外的LQA步骤的完成,显示的分数会相应更新。

评估重复

可以对重复添加评估,具有不同的标记选项,限制为500个段落。

要评估重复,请按照以下步骤操作:

  1. 在显示LQA窗格时,选择一个重复项进行问题标记。

    选择的重复项后面的重复项可以一起标记。

  2. 选择一个错误类别严重程度,如果问题是重复的,并可选择性地提供描述。 

  3. 选择如何标记重复项:

    • 将后续重复句段中的问题标记为重复问题

    • 将所有重复句段中的问题标记为非重复问题

      如果问题被标记为重复,则此选项不可用。

    • 只在此段中标记问题

      后续或之前的重复可以独立标记。

  4. 点击 标记问题

    问题被添加到指定的段落中,父问题用Parent_comment.jpg表示,子问题用Child_comment.jpg表示。点击子图标以转到父问题。

列出的问题可以过滤 Issue_filter.jpg。选项可以组合,包括按严重程度过滤或 仅重复的问题仅父问题

编辑或删除父问题时,可以选择命令是否仅应用于父问题,或应用于批量创建的所有问题,包括子问题。编辑或删除子问题仅将命令应用于所选问题。

重复的LQA问题可能需要不同的处理,可能是:

  • 标记为重复,且不包括父问题,不会对最终LQA分数增加任何罚分。

  • 标记为唯一问题,增加罚分到最终LQA分数,后续问题也被视为唯一,并反映在分数中。

重复段落的评分

重复问题未选中,将后续段落中的问题标记为重复问题。

重复问题未选中,将所有段落中的问题标记为非重复问题。

重复问题 未选中,仅在此段标记问题

重复问题已选中,将后续段落中的问题标记为重复问题。

重复问题 选中,仅在此段标记问题

重复 1

唯一错误 - 添加罚款(父问题)

唯一错误 - 添加罚款

唯一错误 - 添加罚款

重复错误 - 未添加罚款

重复错误 - 未添加罚款

重复 2

重复错误 - 未添加罚款

唯一错误 - 添加罚款

没有记录错误

重复错误 - 未添加罚款

没有记录错误

重复 3

重复错误 - 未添加罚款

唯一错误 - 添加罚款

没有记录错误

重复错误 - 未添加罚款

没有记录错误

这篇文章有帮助吗?

Sorry about that! In what way was it not helpful?

The article didn’t address my problem.
I couldn’t understand the article.
The feature doesn’t do what I need.
Other reason.

Note that feedback is provided anonymously so we aren't able to reply to questions.
If you'd like to ask a question, submit a request to our Support team.
Thank you for your feedback.