Help us improve these docs. Take our quick survey.
curl --request POST \
--url https://api.example.com/v2/{entity}/{project}/eval_results/query \
--header 'Authorization: Basic <encoded-value>' \
--header 'Content-Type: application/json' \
--data '
{
"evaluation_call_ids": [
"<string>"
],
"evaluation_run_ids": [
"<string>"
],
"require_intersection": false,
"include_raw_data_rows": false,
"resolve_row_refs": false,
"include_rows": true,
"include_summary": false,
"summary_require_intersection": true,
"limit": 123,
"offset": 0
}
'{
"rows": [
{
"row_digest": "<string>",
"raw_data_row": null,
"evaluations": [
{
"evaluation_call_id": "<string>",
"trials": [
{
"predict_and_score_call_id": "<string>",
"predict_call_id": "<string>",
"model_output": null,
"scores": {},
"model_latency_seconds": 123,
"total_tokens": 123,
"scorer_call_ids": {}
}
]
}
]
}
],
"total_rows": 123,
"summary": {
"row_count": 0,
"evaluations": [
{
"evaluation_call_id": "<string>",
"trial_count": 0,
"scorer_stats": [
{
"scorer_key": "<string>",
"path": "<string>",
"value_type": "binary",
"trial_count": 0,
"numeric_count": 0,
"numeric_mean": 123,
"pass_true_count": 0,
"pass_known_count": 0,
"pass_rate": 123,
"pass_signal_coverage": 123
}
],
"evaluation_ref": "<string>",
"model_ref": "<string>",
"display_name": "<string>",
"trace_id": "<string>",
"started_at": "<string>"
}
]
},
"warnings": [
"<string>"
]
}하나 이상의 evaluations에 대한 그룹화된 평가 결과 행을 조회합니다.
curl --request POST \
--url https://api.example.com/v2/{entity}/{project}/eval_results/query \
--header 'Authorization: Basic <encoded-value>' \
--header 'Content-Type: application/json' \
--data '
{
"evaluation_call_ids": [
"<string>"
],
"evaluation_run_ids": [
"<string>"
],
"require_intersection": false,
"include_raw_data_rows": false,
"resolve_row_refs": false,
"include_rows": true,
"include_summary": false,
"summary_require_intersection": true,
"limit": 123,
"offset": 0
}
'{
"rows": [
{
"row_digest": "<string>",
"raw_data_row": null,
"evaluations": [
{
"evaluation_call_id": "<string>",
"trials": [
{
"predict_and_score_call_id": "<string>",
"predict_call_id": "<string>",
"model_output": null,
"scores": {},
"model_latency_seconds": 123,
"total_tokens": 123,
"scorer_call_ids": {}
}
]
}
]
}
],
"total_rows": 123,
"summary": {
"row_count": 0,
"evaluations": [
{
"evaluation_call_id": "<string>",
"trial_count": 0,
"scorer_stats": [
{
"scorer_key": "<string>",
"path": "<string>",
"value_type": "binary",
"trial_count": 0,
"numeric_count": 0,
"numeric_mean": 123,
"pass_true_count": 0,
"pass_known_count": 0,
"pass_rate": 123,
"pass_signal_coverage": 123
}
],
"evaluation_ref": "<string>",
"model_ref": "<string>",
"display_name": "<string>",
"trace_id": "<string>",
"started_at": "<string>"
}
]
},
"warnings": [
"<string>"
]
}Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-john-wbdocs-2044-rename-serverless-products.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
Basic authentication header of the form Basic <encoded-value>, where <encoded-value> is the base64-encoded string username:password.
포함할 Evaluation 루트 호출 ID입니다.
Evaluation Runs API의 evaluation 호출 ID에 대한 별칭입니다.
true이면 요청된 모든 evaluation에 있는 행만 포함합니다.
true이면 각 결과 행의 raw_data_row를 채웁니다. 인라인 행은 해당 dict 값으로 반환되며, dataset를 참조하는 행은 resolve_row_refs도 true가 아닌 한 ref 문자열로 반환됩니다.
true이면(include_raw_data_rows=True 필요) 테이블 조회를 통해 dataset 행 참조 문자열을 실제 행 데이터로 해석합니다. false이면 dataset 행 ref를 있는 그대로 반환합니다.
true이면 그룹화된 행/트라이얼 데이터를 rows에 포함하고, 요청된 행 수준 뷰에 대해 total_rows를 계산합니다.
true이면 집계된 scorer/evaluation summary 데이터를 summary에 포함합니다.
summary 섹션에 대한 선택적 교집합 동작입니다. null이면 require_intersection 값을 사용합니다.
그룹화와 교집합 적용 후 적용되는 선택적 행 수준 페이지 크기입니다.
그룹화와 교집합 적용 후 적용되는 선택적 행 수준 페이지 오프셋입니다.