CAT 编辑器

LQA Assessments (TMS)

文本由 Phrase Language AI 从英语机器翻译而得。

包含在

  • Ultimate 和 Enterprise(原)套餐

关于许可问题,请联系销售团队

仅在启用 LQA 的工作流步骤中可用。

只有在项目创建期间或向项目添加步骤时,才能启用启用 LQA 步骤的 LQA。如果在创建项项目启用了 LQA 步骤,但在项目创建过程中将其关闭,则此后无法启用。

在评估内容质量时,可能需要针对不同内容类型或客户制定不同的规则。有些内容可能需要准确的术语,有些内容可能需要遵循区域惯例或译文长度和标记准确无误。错误也可能要求不同的严重程度或分配的权重。

无法为合并的工作提供总体反馈

添加 LQA 评估

要添加评估,请遵循以下步骤:

  1. 选择 LQA 窗格LQA_pane.png,然后单击开始评估

  2. 选择句段。

    • 要评估特定文本,选择句段中的文本。

  3. 单击句段lqa_flag.png下一个标记图标,打开 Error 类别下拉列表。 

  4. 选择“Error”类别,“严重程度”,如果问题重复且可选。 

    (可选)键入或选择@以在描述中添加提及,并从列表中选择所需的用户或用户组。被提及的用户收到应用内通知

  5. 单击标记问题

    LQA 评估已添加,可在ellipses.png菜单中编辑、回复或删除。

    • 回复 LQA 评估允许通过键入或单击 @ 并从列表中选择所需的用户或用户组添加提及。被提及的用户收到应用内通知

  6. 重复最后两步添加更多评估。

  7. 单击“完成 LQA”。

    评估添加到 LQA 选项卡。

带有 LQA 评估的句段用实心标记图标solid_lqa_flag.png标识。创建的评估可以从特定评估ellipses.png的省略号菜单中编辑或删除(其他人创建的评估不可用)。

添加批量评估

评估可以同时添加到选定的句段,上限为 500 句段。初始评估被视为选择的父Parent_comment.jpg,以下评估为子Child_comment.jpg。编辑或删除这些选择后,可以批量操作,而不是单独评估。

批量评估中的关系

  • 编辑或回子评估将切断与父估的关系(无法再执行批量操作)。

  • 父评估不会中断与子评估的关系,回复也不会传播给子评估。

  • 对父的编辑可以选择仅适用于父或子项。

  • 删除父将切断子项之间的关系(不能再执行批量操作)。

要添加批量评估,请遵循以下步骤:

  1. 显示 LQA 窗口后,选择多个句段标记问题。

    选定的句段号将在新问题窗口中显示。

  2. 选择“Error”类别,“严重程度”,如果问题重复,可选提供描述。 

  3. 选择如何在所选句段中标记问题:

    • 将后续句段中的问题标记为重复问题。

    • 将所有句段中的问题标记为非重复问题。

      重复问题没有此选项。

  4. 单击标记问题

    问题被添加到指定句段,父问题用 Parent_comment.jpg 表示,子问题用 Child_comment.jpg 表示。单击要转到父问题的子图标。

Issue_filter.jpg可以筛选列出的问题。选项可以合并,包括按严重程度或仅重复问题仅父问题筛选。

批量评估评分

未选中重复问题,后续句段中的标记问题为重复问题。

重复问题未选中,所有句段中的标记问题为非重复问题。

检查重复问题,后续句段中的标记问题为重复问题。

句段 1

Unique Error - 已添加罚分(父问题)

Unique Error - 罚分已添加

重复 Error - 未添加罚分

句段 2

重复 Error - 未添加罚分

Unique Error - 罚分已添加

重复 Error - 未添加罚分

句段 3

重复 Error - 未添加罚分

Unique Error - 罚分已添加

重复 Error - 未添加罚分

生成LQA评估

要生成 LQA 评估,请单击 LQA 选项卡中的完成。可以选择应用总体反馈。

将根据 LQA 个人资料中设置的通过/未通过阈值计算分数并显示结果。如果为该工作流步骤启用了 LQA,分数和结果显示在 LQA 选项卡和 LQA 分数列的工作表中。

分数是根据工作的总字数统计计算的。

评分示例:

当 500 字的文本包含 1 个严重 准确性 错误和 1 个轻微 语法 错误时,该文本设置为 LQA 失败。Accuracy Error 的权重为 2.0,语法为 1.0。严重严重程度罚10分,轻微严重程度罚1分。

  1. 统计每个 Error 类别的问题数量,然后乘以相应的严重程度权重和 Error 权重:

    • 准确性罚分 = critical Error 数量 x critical error罚分 x 准确性权重 = 1 x 10 x 2.0 = 20 罚分

    • 语法罚分 = 轻微数量 x Errorr罚分 x 语法权重 = 1 x 1 x 1.0 = 1 罚分

  2. 添加罚分:

    • 罚分总计 = 准确性罚分 + 语法罚分 = 20 + 1 = 21

  3. 使用 MQM 评分模型计算通过/失败分数[分数=1-罚分总数/字数]:

    • 分数=1-罚分总数/字数=1-21/500=0.958

  4. 以百分比显示分数结果:

    • 分数 % = 0.958 x 100 = 95.8

  5. 输入分数 % 作为通过/未通过阈值:

    • 通过/未通过阈值为 95.8%

单击工作表中的结果将打开记分卡窗口,其中包含通过电子电子邮件发送记分卡卡或导出为电子表格 (.XLXS) 文件的选项。通过电子电子邮件收到的下载 LQA 记分卡的链接 5 天后过期。

注释

无法在不同组织(即买方和供应商组织)之间共享LQA记分卡下载网址。

右键单击多个选定的工作可选择下载多个记分卡。

工作流步骤中的LQA分数

在工作流流中启用 LQA 后,所有步骤都会显示 LQA 分数。

  • 如果只有一个 LQA 步骤,则所有工作流流步骤显示相同的分数。

  • 如果有多个 LQA 步骤,显示的分数取决于最近的 LQA 步骤:

    • LQA 步骤之前和之前的步骤会显示该步骤的分数。

    • 后续 LQA 步骤后的步骤显示其更新分数。

示例

在步骤 2 和步骤 4 启用了 LQA 的 5 步骤工作流中:

  • 步骤 1 和 2 显示了步骤 2 的 LQA 分数。

  • 步骤 3、4 和 5 显示步骤 4 的 LQA 分数。

随着其他 LQA 步骤的完成,显示的分数也会相应更新。

评估重复

评估可以添加到具有不同标记选项的重复句段,句段数最多 500 个。

要评估重复,请遵循以下步骤:

  1. 显示 LQA 窗口后,选择重复标记问题。

    可以一起标记所选内容之后的重复。

  2. 选择“Error”类别,“严重程度”,如果问题重复,可选提供描述。 

  3. 选择标记重复的方式:

    • 将后续重复句段中的问题标记为重复问题

    • 将所有重复句段中的问题标记为非重复问题

      如果问题被指示为重复问题,此选项不可用。

    • 只在此段中标记问题

      后续或之前的重复可以独立标记。

  4. 单击标记问题

    问题被添加到指定句段,父问题用 Parent_comment.jpg 表示,子问题用 Child_comment.jpg 表示。单击要转到父问题的子图标。

Issue_filter.jpg可以筛选列出的问题。选项可以合并,包括按严重程度或仅重复问题仅父问题筛选。

编辑或删除父问题后,可以选择该命令仅适用于父问题还是批量创建的所有问题(包括子问题)。编辑或删子问题仅将命令应用于所选问题。

重复 LQA 问题可能需要不同的处理方式,可能是:

  • 标记为重复和排除父问题不会在最终 LQA 分数中添加任何罚分。

  • 标记为唯一问题,为最终 LQA 分数添加罚分,后续问题也是唯一的,并反映在分数中。

重复句段的评分

未选中重复问题,后续句段中的标记问题为重复问题。

重复问题未选中,所有句段中的标记问题为非重复问题。

未选中重复问题,仅此句段中有标记问题

检查重复问题,后续句段中的标记问题为重复问题。

重复问题已检查,仅此句段中有标记问题

重复 1

Unique Error - 已添加罚分(父问题)

Unique Error - 罚分已添加

Unique Error - 罚分已添加

重复 Error - 未添加罚分

重复 Error - 未添加罚分

重复 2

重复 Error - 未添加罚分

Unique Error - 罚分已添加

没有记录Error

重复 Error - 未添加罚分

没有记录Error

重复 3

重复 Error - 未添加罚分

Unique Error - 罚分已添加

没有记录Error

重复 Error - 未添加罚分

没有记录Error

这篇文章有帮助吗?

Sorry about that! In what way was it not helpful?

The article didn’t address my problem.
I couldn’t understand the article.
The feature doesn’t do what I need.
Other reason.

Note that feedback is provided anonymously so we aren't able to reply to questions.
If you'd like to ask a question, submit a request to our Support team.
Thank you for your feedback.